高级能力和算法效果优化(二)| 学习笔记

简介: 快速学习高级能力和算法效果优化。

开发者学堂课程【3节课带你走进云小蜜产品 :高级能力和算法效果优化(二)】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/739/detail/13117


高级能力和算法效果优化(二)

三、机器人训练

机器人训练为了更好的保障机器人的理解水平。引入机器学习算法,首先需要有大量的标注数据来让模型进行学习,模型如果没有数据是无法进行学习的。如果数据量标注每条意图指标都在10条左右,比较适合用系统内置的模型识别。如果意图标注的样本量比较多,比如达到了百级别或者更多,就可以直接训练大小本的监督学习模型,这样意图识别效果也会更加的好一些。

image.png

机器人训练目前包括两条链路,第一条链路用户标注部分少量的数据依赖于平台预置通用fsl意图识别模型进行话术的理解泛化,发布到机器人中即刻生效,第二条链路是当标注的数据量比较大,比较充分的时候就可以进行深度训练,用户可以自己在平台上进行模型的创建,模型的训练,模型效果评测,对结果进行分析,如果发现模型的效果,要优于旧版模型,可以进行模型的部署和更新,第二条链路对数据量有比较大的要求,要求意图话术平均达到一百条左右,但是效果也是有保障的,一般交付的项目会走这条链路,通过标注大量的数据能把模型效果做到90%以上。

1、机器人训练-数据筛选标注

数据源提取:创建训练任务、选择数据来源、定义提取维度。

数据预处理(自动):去重、相似度计算。

聚类(自动):聚类。

摘要(自动):摘要。

数据标注:添加到现有知识点、新建知识点。

完结(自动):自动回流、只是生效。

(1)数据闭环:充分利用真实的线上反馈数据进行智能训练及评测,优化效果真实可靠、可感知。

(2)智能辅助处理:通过数据清洗、聚类、推荐等智能辅助手段,提升训练的科学合理性。

(3)线上化一体操作:无线下流程,保障数据安全及数据准确性。

2、演示数据筛选标注流程

(1)点击机器人训练页面,新建任务,任务类型,意图拓展主要用于多轮对话机器人,意图话术的拓展,云小蜜正向循环主要用于 feq 问答机器人知识点的标注,首先进行数据类型的筛选,是否有答案还是低于某个阈值,如果最终系统给出结果,发现置信度很低,不太能确定是否是准确的,可以推荐出来,再进行一次标注。除此以外,还可以进行时间范围的筛选,点击确定,它自动会在日志里面把选定的时间段拉出来做预处理,包括像预算、聚类、意图以及知识点的推荐等。

image.png

(2)点击待处理任务,可以看到任务,云小蜜正向循环是知识点的标注,意图拓展是意图的标注。

image.png

(3)点击云小蜜正向循环详情,预处理、聚类、摘要是平台会自动化操作,日志拉出后,用户可以直接进行标注,可以选择机器人对应的知识点,可以选或者自己创建,确定,显示已标注。

image.png

点击下一步,把标完的话术对应的发布到机器人的知识库里面,相当于机器人的知识点标注。

(3)点击意图拓展详情,意图会被推荐,用户只要确定未解决问法是不是目标意图,是就是通过,反之则不通过。

image.png

(4)标注完点击下一步,发布到机器人上生效,进行回流和完结状态。

3、小样本意图识别

(1)冷启动:标注回流样本比较少,通常不足10条,无法使用监督模型,但仍然希望有较好的话术泛化能力。

(2)方案:

平台积累了万级对话意图数据,借助小样本学习深度学习算法,训练行业意图识别 Meta Model。

每个机器人,收到在线请求时,Meta Model 会利用机器人配置话术进行适配得到机器人模型,快速生效。

能够对几条意图话术进行归纳学习出意图表达的语义信息,用户 query 不仅仅是与配置话术进行匹配,而是能够与整个意图所表达的语义信息进行匹配。学出的效果更加精准。

(3)算法创新:

《Induction Networks for Few-Shot Text Classification》EMNLP 2019

学习意图整体的语义信息,这里采用胶囊网络方法,该工作已在 EMNLP2019上发表。

《Dynarmic Memory Induction Networks for Few-Shot Text Classification》ACL 2020

为了解决FSL遗忘的问题引入 Memory 机制,该工作已在 ACL 2020进行发表。

由此可以看出,在小样本学习这一领域在学术界是非常前沿的一个水平。

(1)效果提升:构建了通用、金融、政务行业的 FSL 意图识别模型,对比业界常用的 WordAvg 方法效果提升10%以上。

4、大样本意图识别

(1)业务情况:对于要交付上线的项目,一般都要求 Turn Acc 做到90%以上,需要标注大量样本训练深度学习模型才能保证效果。

image.png

(2)如何减少标注量?

(3)迁移学习

通用模型: StructBert 中文预训练语言模型,比 Google Bert 好1个点左右。

行业模型:抓取沉淀千万级行业句子、百万级行业文档,训练 StructBert 行业语言模型,在下游的意图识别、知识点匹配等任务上都有显著效果提升。

企业模型: 利用企业标注数据在行业模型上进行 finetune 训练,会有百分之五十样本量的节省。

(5)私有云已支持完整的模型训练、评测、发布链路,公有云已在计划中,敬请期待。

 

四、总结

本次课程主要讲解三块内容,第一块系统内置意图、实体,系统内置了大量的实体,有效果保障,并且使用的成本非常低,提倡创建新的机器人、新的业务时首先看内置意图是否满足业务需求,如果不满足的情况下再进行自定义。

第二块是意图话术高级配置方式 LGF,它是一种高效知识归纳的方式,它能大大减少意图话术的数量。

第三块是机器人训练,当对机器人效果要求比较高时并且可以进行一定量的数据标注,建议用模型,进一步细分成小样本模型和大样本模型。

相关实践学习
阿里巴巴智能语音交互技术与应用
智能语音交互,是基于语音识别、语音合成、自然语言理解等技术,为企业在多种实际应用场景下,赋予产品“能听、会说、懂你”式的智能人机交互体验。适用于多个应用场景中,包括智能问答、智能质检、法庭庭审实时记录、实时演讲字幕、访谈录音转写等。 本课程主要讲解智能语音相关技术,包括语音识别、人机交互、语音合成等。  
相关文章
|
16天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
152 80
|
4天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
7天前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
89 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
2天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
1天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
10天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
12天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
13天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。
|
7天前
|
传感器 算法
基于GA遗传优化的WSN网络最优节点部署算法matlab仿真
本项目基于遗传算法(GA)优化无线传感器网络(WSN)的节点部署,旨在通过最少的节点数量实现最大覆盖。使用MATLAB2022A进行仿真,展示了不同初始节点数量(15、25、40)下的优化结果。核心程序实现了最佳解获取、节点部署绘制及适应度变化曲线展示。遗传算法通过初始化、选择、交叉和变异步骤,逐步优化节点位置配置,最终达到最优覆盖率。
|
7天前
|
算法
基于RRT优化算法的机械臂路径规划和避障matlab仿真
本课题基于RRT优化算法实现机械臂路径规划与避障。通过MATLAB2022a进行仿真,先利用RRT算法计算避障路径,再将路径平滑处理,并转换为机械臂的关节角度序列,确保机械臂在复杂环境中无碰撞移动。系统原理包括随机生成树结构探索空间、直线扩展与障碍物检测等步骤,最终实现高效路径规划。