模型部署与应用 | 学习笔记

简介: 快速学习模型部署与应用

开发者学堂课程【机器学习实战:模型部署与应用】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/530/detail/7135


模型部署与应用

内容介绍:

一、 在线部署

二、 离线部署

三、A/B 测试及灰度发布

四、 模型生命周期

 

一、在线部署

1、什么叫在线部署

最终训练完成的模型如何去部署应用,部署通常有在线部署和离线部署两种方式,在线部署通常会由 API 进行在线预测,因为在实际应用中,有时候需要对一些实时的模型进行调用来进行处理,这个时候需要进行一个在线部署。

第一个要求首先就是时间要短,数据过来之后,要马上进行一个预测,然后对预测的数据实时应用到业务流中,此类数据的特点是一直产生,但是数据量不会太大。此类数据一般通过 API 的方式来提供服务,首先生成一个标准 API,然后通过生成的 API,将待处理的数据以请求的方式发送出来。API 得到数据之后会返回一个结果,之后将返回的结果嵌入到业务流中就完成。

优势是可以简单的使用这个服务,不用关注源码和内部的服务。

针对实时数据需要调用模型的情况,可进行在线部署。通常要求响应时间要短,此类数据会持续产生,且每次要求处理的数据量不大。

在线部署通常是以 API 的方式提供服务,通过调用 API 发送待处理请求,并获得调用结果。API 的优势是用户可以简单的使用服务,而不必去了解源码或者其内部构造。

image.png

2、例子

这是使用计算机Π计算机部署得以一个例子。

训练模型完成后,要进行模型部署,在页面栏的下面有个部署按钮,可以选择在线或者离线。选择在线项目部署,之后要选择要部署的项目空间。

设置当前模型的 instance 数量,当前用户是每个提供 30 个 instance 数量。

接下来就可以进行在线部署,部署完成之后,可以查看到返回格式是 JSON/XML,最下面有个接口的样例。

image.png

同时有一个 API 的调试功能,接口名字:prediction。

可以将请求的 body 输入框中,进行测试,测试接口得到一个返回结果,测试成功之后就可以将接口释放出来提供业务使用。

image.png

 

二、离线处理:批量处理

对于数据量较大且对时效性要求不强的场景,可以采用离线部署的方式,对数据进行批量处理。批量处理通常是预先知道调用的条件,比如清楚调用的频率和时间点,定义成按时触发的任务,可以根据资源情况合理安排调度窗口。

image.png

这种批量出来一般都是定时的,从用户出发的,比如定时的,例如每天晚上两点钟会对一批数据进行预测等等,所以你需要倾出调用到频率和时间点,然后定义生成这种按时出发的任务。

例子;计算机Π的实验。

需要在部署按钮中点击实验离线调度,然后选择机器学习实验,就会出现一个节点,会嵌置到正常的任务的任务流里面去。

image.png

同时可以设置调度属性,比如依赖于哪个任务,在预测前还有可能有一些其他的任务,任务完成之后,会调度继续学习的任务。

还可以设置一些跨周期的依赖,设置其调度周期是按照天,可以设置具体的时间,因为·阿里云的终端服务提供的是完整的几个方案,继续学习也可以作为整个业务流中的一个节点,使用 dataworks 可以进行任务运维,测试等等,使用比较方便。

image.png

 

三、A/B 测试及灰度发布

接下来简单介绍一下 A/B 测试及灰度发布

A/B 测试( A/B Testing,又被称做拆分测试或水桶测试)通过两个不同版本方案进行比较,来确定一个性能更好的方案。A/B 测试提升了确定性。

灰度发布(又名金丝雀发布)是指平滑过渡的一种发布方式,针对不同版本进行A/B 测试,即让部分用户继续用 A 版本,一部分用户开始用 B 版本,如果 B 版本运行结果符合预期,则逐步扩大范围,把所有用户都迁移到 B 上来。灰度发布可以保证整体系统的稳定,在初始灰度的时候就可以发现、调整问题,以保证其影响度。

image.png

假如现在所有的用户都在使用 A 方案,此时研发一个 B 方案。可以从原有的 A 方案中切除一部分用户来使用 B 方案,此时 A、B 方案并行。

image.png

此时可以比较 A、B 方案,观察哪个方案运行效果更好,假如 B 方案运行效果更好,就可以将所有用户都迁移到 B 上来。

image.png

 

四、 模型生命周期

模型上线后,需要监控模型的运行效果,进行生命周期管理︰

当预测因素发生变化或者数据、业务发生明显变化时,需要定期重复进行模型管理测性能往往会随着时间而下降。

当性能下降到某一阈值时,应进行模型更新或者更换

当模型上线之后,需要不断监控模型的运行效果,其中有几种情况,需要不断对模型进行优化。第一个是业务模式发生变化时,需要定期重复进行模型管理;第二个是性能可能会随着时间下降,当性能下降到一个阈值的时候,就要进行模型更新。

image.png

上图中主要看从右往左的箭头,从第六步模型应用返回到第一步需求分析,这实际上就是模型生命周期管理的重要一步,也就是迭代更新,要保证这个模型对当前业务,或者当前业务产生的数据,能够持续有效的带来期望的结果。

相关文章
Vue3 防止页面闪烁 v-cloak
Vue3 防止页面闪烁 v-cloak
321 0
|
17天前
|
人工智能 运维 自然语言处理
有哪些电信行业 Agent 案例?全场景标杆实践与数据解析
凌晨两点流量超支?5G基站突发故障?背后均有电信智能Agent在高效响应。从客服、运维到营销、政企服务,AI智能体正重构电信全业务链,实现降本30%、提效10倍、投诉下降72%。本文全景解析六大核心场景落地案例与技术路径,揭秘如何用实在Agent等产品推动电信智能化跃迁。
|
SQL Java Spring
spring 防止SQL注入的拦截器
spring 防止SQL注入的拦截器
784 0
|
存储 SQL 监控
关系型数据库. 基本的DELETE语句
`SQL DELETE` 语句用于从表中删除记录,基本格式为 `DELETE FROM 表名 WHERE 条件`。`WHERE` 子句可选,指定删除特定记录。例如,`DELETE FROM students WHERE age > 20;` 将删除年龄大于 20 的学生。执行前注意备份,总是使用 `WHERE` 子句以避免误删,并考虑在事务中执行以保证数据安全。大量删除可能影响性能,需谨慎操作。还要留意可能存在的触发器影响。
819 2
|
10月前
|
机器学习/深度学习 自然语言处理 并行计算
Transformer 学习笔记 | Seq2Seq,Encoder-Decoder,分词器tokenizer,attention,词嵌入
本文记录了学习Transformer过程中的笔记,介绍了Seq2Seq模型及其编码器-解码器结构。Seq2Seq模型通过将输入序列转化为上下文向量,再由解码器生成输出序列,适用于机器翻译、对话系统等任务。文章详细探讨了Seq2Seq的优势与局限,如信息压缩导致的细节丢失和短期记忆限制,并引入注意力机制来解决长序列处理问题。此外,还介绍了分词器(tokenizer)的工作原理及不同类型分词器的特点,以及词嵌入和Transformer架构的基础知识。文中包含大量图表和实例,帮助理解复杂的概念。参考资料来自多个权威来源,确保内容的准确性和全面性。
|
3月前
|
机器学习/深度学习 人工智能 测试技术
探索 Qwen2.5-Max 的智能:大规模 MoE 模型的飞跃
Qwen2.5-Max 是通义实验室推出的最先进MoE模型,在推理、知识和代码任务中表现卓越,已在超20万亿token上预训练,并通过SFT和RLHF优化。在多项基准测试中领先,如Arena-Hard达89.4,MMLU-Pro为76.1,性能超越DeepSeek V3、GPT-4o等模型,成为当前最佳开源模型。可通过Qwen Chat和API使用,适用于开发者、研究者及AI爱好者探索前沿AI能力。
492 2
|
9月前
|
人工智能 数据挖掘 API
3个实操案例,带你体验真正流畅可用的企业级通用智能体
本文探讨了企业级通用智能体的现状与应用,重点介绍了实在Agent。文章指出,当前通用AI Agent分为两类:一类是类似Manus的产品,采用大模型+API模式;另一类是在RPA基础上融合AI Agent架构的产品。实在Agent属于后者,具备低门槛、简单直白的操作方式和随心掌控的执行过程。文中通过豆瓣电影数据获取、多平台舆情分析及剪映图文成片自动化三个案例,展示了实在Agent的实际应用能力。此外,文章还强调了企业级智能体需具备可控、稳定和高效的特性,并总结了实在Agent满足商业化落地的核心能力,包括企业知识库、业务系统操作指南、模型接入支持及私有化部署等。
1259 8
|
监控 负载均衡 测试技术
大模型开发:描述一个你之前工作中的模型部署过程。
完成大型语言模型训练后,经过验证集评估和泛化能力检查,进行模型剪枝与量化以减小规模。接着导出模型,封装成API,准备服务器环境。部署模型,集成后端服务,确保安全,配置负载均衡和扩容策略。设置监控和日志系统,进行A/B测试和灰度发布。最后,持续优化与维护,根据线上反馈调整模型。整个流程需团队协作,保证模型在实际应用中的稳定性和效率。
595 3
|
机器学习/深度学习 算法 数据挖掘
【MATLAB】MVMD_ MFE_SVM_LSTM 神经网络时序预测算法
【MATLAB】MVMD_ MFE_SVM_LSTM 神经网络时序预测算法
416 2
|
算法 Python
群智能算法:灰狼优化算法(GWO)的详细解读
在优化问题中,寻找最优解是核心目标。灰狼优化算法(GWO)受到自然界灰狼狩猎行为和社会等级结构的启发,通过模拟Alpha(头狼)、Beta(助手狼)、Delta(支配狼)和Omega(普通狼)的角色,高效搜索最优解。本文详细解析GWO的原理与步骤,并提供Python代码实现,帮助读者理解并应用这一算法。