数据缓存系列分享(六):通义千问Qwen-14B大模型快速体验

本文涉及的产品
资源编排,不限时长
无影云电脑企业版,4核8GB 120小时 1个月
无影云电脑个人版,1个月黄金款+200核时
简介: 阿里达摩院近期对通义千问大模型 Qwen-14B 进行了开源(之前开源的是Qwen-7B模型),目前在ModelScope和HuggingFace上均可直接下载。关于Qwen-7B的搭建可以参考我们之前的文章:数据缓存系列分享(五):开源大语言模型通义千问快速体验版,本文将使用一样的方式打开Qwen-14B,快速体验一下。

背景

阿里达摩院近期对通义千问大模型 Qwen-14B进行了开源(之前开源的是Qwen-7B模型),目前在ModelScope和HuggingFace上均可直接下载。关于Qwen-7B的搭建可以参考我们之前的文章:数据缓存系列分享(四):开源大语言模型通义千问快速体验版,本文将使用一样的方式打开Qwen-14B,快速体验一下。

注:除了模型缓存创建稍有不同,其他流程都是完全相同,无需任何变化。

创建千问模型缓存

进入 Qwen-14B 主页,找到模型信息:

cf811e29-7adb-4125-904c-87ba52cd9d14.png

然后进入ECI数据缓存 控制台,选择URL类型的数据源,参数参考如下:

repoSource: ModelScope/Model

repoId: qwen/Qwen-14B-Chat

revision:v1.0.4

309fb136-3e80-42ac-8698-f80d47174ede.png

所有ModelScope、HuggingFace上标准模型缓存创建流程都是类似,只需找到对应的repoId即可。

关于数据缓存更多详情可以参考:https://help.aliyun.com/zh/eci/user-guide/data-caching-overview

部署千问webui

因为只需替换模型即可,所以应用部署跟7B完全一致,可以直接参考我们之前的文章,数据缓存系列分享(四):开源大语言模型通义千问快速体验版包含k8s api、openApi、控制台等多种部署方式。如果已经熟悉基本流程,文章后续可以跳过。

本文将主要介绍控制台部署千问的方式,进入ECI售卖页

1、选择GPU规格

14B对显存要求更高,根据官方测评数据,40+GB显存会比较安全,我们直接用了60GB

1573d1ff-9831-4195-b67d-1cf79f87d656.png

2、选择千问的容器镜像

容器配置 -> 选择容器镜像 -> 常用镜像

如果是非杭州地域,直接填入镜像,效果是一样的。

registry.cn-hangzhou.aliyuncs.com/eci_open/qwen-webui

版本:1.0.0

4143e6ae-7939-4191-b4d3-112ea5c6d608.png

3、挂载模型缓存进容器

使用前面刚创建好的模型缓存,挂载进容器的/data/model/目录

bucket: test

path: /model/test/qwen-14b

105eb966-c113-4e98-84ae-feee453a2562.png

4、打开公网(如果通过公网地址访问webui)

a44ad9f6-4c52-44ee-87ec-fc222a9b422f.png




至此,通义千问就已经部署完成,通过ip:8888就可以访问界面了:

7258feb8-1452-4586-8375-ca0e315ae92c.png

忽略logo,因为我是直接用之前制作好的7B的容器镜像。

注:

1、确保安全组放开了8888端口,如果想换端口,覆盖容器的启动命令即可,比如:

python Qwen-7B/web_demo.py --server_port xxx

2、目前控制台还不支持打开缓存burst load方式,模型加载速度会略慢一些,耐心等待。

体验

0efaf7da-8e60-48db-9a1c-255c722add40.png733c0e30-faf8-4970-90ef-fee5a7466195.png




总结

本文基于数据缓存系列分享(四):开源大语言模型通义千问快速体验版制作的webui镜像无需做任何修改,就可以直接替换成14B模型,也是我们一直在主推的应用与模型解耦的方式。

对于公共开源大模型,我们可以利用公共缓存的优势,实现一次缓存,全网加速,节省所有用户下载、打包、上传的时间,而且可以做到大规模秒级分发,应用启动时按需载入内存即可,尤其是弹性场景非常稳定、便捷。



附录

数据缓存系列分享(一):打开大模型应用的另一种方式

数据缓存系列分享(二):23秒完成从零开始搭建StableDiffusion

数据缓存系列分享(三):通过 StableDiffusion 扩展插件实现网红爆款文字光影图

数据缓存系列分享(四):开源大语言模型通义千问快速体验

数据缓存系列分享(五):零代码搭建妙鸭相机

数据缓存系列分享(六):通义千问Qwen-14B大模型快速体验

相关实践学习
基于ACK Serverless轻松部署企业级Stable Diffusion
本实验指导您在容器服务Serverless版(以下简称 ACK Serverless )中,通过Knative部署满足企业级弹性需求的Stable Diffusion服务。同时通过对该服务进行压测实验,体验ACK Serverless 弹性能力。
Kubernetes极速入门
Kubernetes(K8S)是Google在2014年发布的一个开源项目,用于自动化容器化应用程序的部署、扩展和管理。Kubernetes通常结合docker容器工作,并且整合多个运行着docker容器的主机集群。 本课程从Kubernetes的简介、功能、架构,集群的概念、工具及部署等各个方面进行了详细的讲解及展示,通过对本课程的学习,可以对Kubernetes有一个较为全面的认识,并初步掌握Kubernetes相关的安装部署及使用技巧。本课程由黑马程序员提供。   相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
2月前
|
存储 缓存 NoSQL
数据的存储--Redis缓存存储(一)
数据的存储--Redis缓存存储(一)
84 1
|
2月前
|
存储 缓存 NoSQL
数据的存储--Redis缓存存储(二)
数据的存储--Redis缓存存储(二)
51 2
数据的存储--Redis缓存存储(二)
|
3月前
|
人工智能 开发者
通义千问三款主力模型再降价,最高降幅85%
通义千问三款主力模型再降价,最高降幅85%
585 12
通义千问三款主力模型再降价,最高降幅85%
|
3月前
|
人工智能 自动驾驶 云栖大会
大模型赋能智能座舱,NVIDIA 深度适配通义千问大模型
9月20日杭州云栖大会上, NVIDIA DRIVE Orin系统级芯片实现了与阿里云通义千问多模态大模型Qwen2-VL的深度适配。阿里云、斑马智行联合NVIDIA英伟达推出舱驾融合大模型解决方案,基于通义大模型开发“能听会看”的智能座舱助理,让车内人员通过语音交流就能操作座舱内的各类应用,享受极致丰富的交互体验。
238 14
|
3月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
1094 11
|
29天前
|
人工智能 边缘计算 自然语言处理
DistilQwen2:通义千问大模型的知识蒸馏实践
DistilQwen2 是基于 Qwen2大模型,通过知识蒸馏进行指令遵循效果增强的、参数较小的语言模型。本文将介绍DistilQwen2 的技术原理、效果评测,以及DistilQwen2 在阿里云人工智能平台 PAI 上的使用方法,和在各开源社区的下载使用教程。
|
29天前
|
存储 缓存 算法
分布式缓存有哪些常用的数据分片算法?
【10月更文挑战第25天】在实际应用中,需要根据具体的业务需求、数据特征以及系统的可扩展性要求等因素综合考虑,选择合适的数据分片算法,以实现分布式缓存的高效运行和数据的合理分布。
|
2月前
|
自然语言处理 Java API
Spring Boot 接入大模型实战:通义千问赋能智能应用快速构建
【10月更文挑战第23天】在人工智能(AI)技术飞速发展的今天,大模型如通义千问(阿里云推出的生成式对话引擎)等已成为推动智能应用创新的重要力量。然而,对于许多开发者而言,如何高效、便捷地接入这些大模型并构建出功能丰富的智能应用仍是一个挑战。
145 6
|
20天前
通义千问—7B模型
在交互式问答中,模型对历史信息的记忆能力较弱。例如,在询问“辽宁省会在哪儿”之后,如果不持续提及“沈阳”,模型将无法记住该城市,导致回答变得空泛。
|
2月前
|
缓存 监控 前端开发
处理页面缓存中数据不一致的问题
【10月更文挑战第9天】
43 2