问题一:PolarDB的Serverless版支持x-engine引擎吗?
PolarDB的Serverless版支持x-engine引擎吗?
参考回答:
目前功能开发完了,下个版本可以开。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/602205
问题二:polarDB serverless弹性上线最大是17核,这个增量嘛?
polarDB serverless弹性上线最大是17核,这个增量嘛?比如现在是64核,可以弹到81核?
参考回答:
最大16核,是增量。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/602168
问题三:阿里云ASK 的ack serverless 支持Pod显存设置吗?
阿里云ASK 的ack serverless 支持Pod显存设置吗?还是目前仅支持单张GPU,文档里面好像没有相关描述
参考回答:
阿里云的ACK Serverless(ASK)支持设置Pod显存,并且支持多张GPU。
首先,关于Pod显存设置的问题,虽然文档中可能没有明确说明Pod级别的显存设置,但是考虑到ACK Serverless基于ECI(弹性容器实例),它确实支持了GPU容器实例。这意味着用户可以利用ECI服务在ACK Serverless集群中部署需要GPU资源的容器应用,并按需使用GPU计算资源。
进一步来说,ECI GPU支持的驱动版本为NVIDIA 460.73.01,且支持CUDA Toolkit版本为11.2。这为用户提供了在ACK Serverless集群中使用GPU的能力,尤其是在进行AI计算任务时可以显著提升计算效率。而且,ECI支持通过指定ECS GPU规格来创建ECI GPU实例,这表明用户可以根据需要选择不同规格的GPU资源,从而间接实现Pod显存的设置。
总结而言,尽管文档中可能未详细描述Pod级别的显存配置,但通过ECI GPU实例的支持,用户仍然可以在ACK Serverless集群中根据需求部署和管理具有GPU资源的容器,实现高效灵活的计算任务执行。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/602111
问题四:函数计算中serverless的AI应用可以限制人为限制内存吗?只在函数式那边看到内存的分配...
函数计算中serverless的AI应用可以限制人为限制内存吗?只在函数式那边看到内存的分配...
参考回答:
做个任务分配,然后预先创建不同规格的函数。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/601932
问题五:函数计算FC的Serverless API 支持模型训练的操作吗?对应的接口文档有嘛?
函数计算FC的Serverless API 支持模型训练的操作吗?对应的接口文档有嘛?
参考回答:
也是支持训练的,跟webui的原生api接口相同,不过还是推荐使用原生的webui-api进行训练。 https://developer.aliyun.com/article/1429825#slide-6 , 其他文档中不存在的接口同webui-api接口(/docs)。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/601863