开发者社区> 问答> 正文

LLM大语言模型这个接口可以配置 batch 吗?默认是 batch=1 吗还是多少?

LLM大语言模型这个接口可以配置 batch 吗?默认是 batch=1 吗还是多少?接口 model.generate([start_ids], generation_config)我用的是
from deepgpu_llm.qwen_model import qwen_model

展开
收起
三分钟热度的鱼 2024-04-17 18:32:04 54 0
1 条回答
写回答
取消 提交回答
  • [start_ids,start_ids_1,start_ids_2] 这样就可以多batch啦,这是过list,按list操作就好了 此回答整理自钉群“LLM大语言模型-阿里云支持”

    2024-04-17 18:53:06
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
PAI灵骏智算 构建全链路LLM服务的最佳实践 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载