Orca LLM:模拟 ChatGPT 的推理过程

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: Orca 是一个 13B 参数模型,它学习模仿 LFM 的推理过程。它使用ChatGPT的渐进式学习和教师协助来克服能力差距。通过利用来自 GPT-4 的丰富信号,Orca 增强了其功能并提高模仿学习性能。
推荐:使用 NSDT场景编辑器 快速搭建3D应用场景

介绍

在大型语言模型(LLM)领域,人们一直在追求在不影响其效率的情况下增强小型模型的功能。传统的方法是使用模仿学习,其中较小的模型从大型基础模型(LFM)生成的输出中学习。然而,这种方法受到一些挑战的损害,包括来自浅层LFM输出的有限模仿信号,小规模的同质训练数据以及缺乏严格的评估。这通常会导致较小的模型模仿LFM的风格,而不是推理过程。

论文Orca:从GPT-4的复杂解释痕迹中逐步学习介绍了Orca,这是一个13亿参数模型,旨在模仿GPT-4等大型基础模型(LFM)的推理过程。与传统的大型语言模型(LLM)不同,Orca采用独特的培训方法,将渐进式学习和教师协助相结合,以克服较小的学生模型与较大的学生模型之间的能力差距。

培训方法

逆戟鲸的训练过程包括两个阶段。

在第一阶段,逆戟鲸接受 FLAN-5M 训练,其中包括 ChatGPT 增强。这个中级助教有助于弥合 Orca 和 GPT-4 之间的容量差距,后者的参数大小要大得多。通过利用 ChatGPT 的功能,Orca 受益于改进的模仿学习性能。

在第二阶段,逆戟鲸接受 FLAN-1M 的训练,其中包括 GPT-4 增强。这种渐进式学习方法遵循课程学习范式,学生模式从更简单的例子中学习,然后再处理更具挑战性的例子。通过逐渐让逆戟鲸接触越来越复杂的推理和逐步解释,该模型增强了其推理能力和模仿能力。

优势和贡献

与传统的LLM相比,Orca的培训方法具有几个优势。

首先,它通过利用中级教师模型解决了能力差距问题,使Orca能够从更有能力的来源学习。这种方法已被证明可以提高较小学生模型的模仿学习性能。

其次,Orca训练的渐进式学习方面使模型能够逐步建立其知识。通过从更简单的例子开始,逐渐引入更复杂的例子,Orca为推理和解释的生成奠定了更坚实的基础。

此外,Orca模仿GPT-4等LFM的推理过程的能力为提高各种任务的性能开辟了可能性。通过利用 GPT-4 的解释轨迹和分步思维过程提供的丰富信号,Orca 获得了宝贵的见解并提高了自己的能力。

性能基准

Orca在复杂的零镜头推理基准测试中表现出色。它的性能优于传统的最先进的指令调整模型,如Vicuna-13B,在Big-Bench Hard(BBH)等基准上超过100%,在AGIEval上超过42%。此外,Orca 在 BBH 基准测试中取得了与 ChatGPT 相同的分数,并在 SAT、LSAT、GRE 和 GMAT 等专业和学术考试中表现出有竞争力的表现。考虑到这些是没有思维链的零镜头设置,这尤其令人印象深刻,而且 Orca 在落后于 GPT-4 的同时仍然具有竞争力。

影响和未来方向

逆戟鲸的发展代表了LLM领域的重大进步。通过从丰富的信号中学习并模仿LFM的推理过程,Orca能够以高度的准确性执行复杂的推理任务。这具有广泛的影响,特别是在需要复杂推理和解决问题的领域。

此外,这项研究表明,从分步AI模型解释中学习是提高模型能力的一个有希望的方向。这为法学硕士领域的研究和开发开辟了新的途径。

结论

Orca提出了一种训练大型语言模型的新方法,将渐进式学习和教师协助相结合,以增强模仿学习。通过利用中级教师模型,逐步将学生模型暴露给更复杂的例子,Orca克服了能力差距,提高了推理和解释生成能力。该论文的发现有助于模仿学习技术的进步,并对未来语言模型的发展产生影响。


原文链接:https://www.mvrlink.com/orca-llm-simulating-the-reasoning-processes-of-chatgpt/

目录
相关文章
|
13天前
|
机器学习/深度学习 自然语言处理 测试技术
CoT神话破灭,并非LLM标配!三大学府机构联手证实,CoT仅在数学符号推理有用
【10月更文挑战第17天】链式思维(CoT)曾被认为是大型语言模型(LLM)激发推理能力的关键方法,但最新研究显示,CoT仅在数学和符号推理任务中有效,其他任务中效果不明显。加州大学伯克利分校、斯坦福大学和卡内基梅隆大学的联合研究打破了CoT作为LLM标配的神话,为重新评估LLM的推理能力提供了新视角。
24 1
|
5月前
|
机器学习/深度学习 缓存
Block Transformer:通过全局到局部的语言建模加速LLM推理
Block Transformer是一种优化自回归语言模型推理效率的新架构,通过块级自注意力来平衡全局和局部依赖,提高吞吐量。模型包含嵌入器、块解码器和令牌解码器,其中块解码器处理全局依赖,令牌解码器处理局部细节。这种方法减轻了KV缓存的延迟和内存开销,尤其是在长序列处理中。实验显示,尽管Block Transformer参数量增加,但推理速度显著提升,尤其是在大块长度和优化的组件比例下,实现了性能与速度的平衡。
304 7
|
9天前
|
JSON 人工智能 算法
探索LLM推理全阶段的JSON格式输出限制方法
文章详细讨论了如何确保大型语言模型(LLMs)输出结构化的JSON格式,这对于提高数据处理的自动化程度和系统的互操作性至关重要。
|
15天前
|
机器学习/深度学习 自然语言处理 测试技术
CoT神话破灭,并非LLM标配!三大学府机构联手证实,CoT仅在数学符号推理有用
【10月更文挑战第16天】近期,加州大学伯克利分校、斯坦福大学和卡内基梅隆大学联合研究发现,链式思维(CoT)方法在数学和符号推理任务中表现优异,但在其他类型任务中效果不明显。这一研究打破了CoT作为大型语言模型(LLM)标配的神话,为重新审视LLM的推理能力提供了新视角。
22 2
|
2月前
|
人工智能 Prometheus 监控
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
本文介绍了在阿里云容器服务 ACK 上部署 NVIDIA NIM,结合云原生 AI 套件和 KServe 快速构建高性能模型推理服务的方法。通过阿里云 Prometheus 和 Grafana 实现实时监控,并基于排队请求数配置弹性扩缩容策略,提升服务稳定性和效率。文章提供了详细的部署步骤和示例,帮助读者快速搭建和优化模型推理服务。
151 7
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
|
2月前
|
人工智能 Prometheus 监控
使用NVIDIA NIM在阿里云ACK中加速LLM推理
介绍在阿里云ACK集群上结合AI套件能力快速部署NVIDIA NIM模型推理服务,同时提供全面的监控指标和实现弹性伸缩。
使用NVIDIA NIM在阿里云ACK中加速LLM推理
|
30天前
|
机器学习/深度学习 自然语言处理 语音技术
ChatGPT高效提问—基础知识(LM、PLM以及LLM)
ChatGPT高效提问—基础知识(LM、PLM以及LLM)
|
2月前
|
编解码 定位技术 计算机视觉
多模态LLM视觉推理能力堪忧,浙大领衔用GPT-4合成数据构建多模态基准
【9月更文挑战第2天】浙江大学领衔的研究团队针对多模态大型模型(MLLM)在抽象图像理解和视觉推理上的不足,提出了一种利用GPT-4合成数据构建多模态基准的方法。该研究通过合成数据提高了MLLM处理图表、文档等复杂图像的能力,并构建了一个包含11,193条指令的基准,涵盖8种视觉场景。实验表明,这种方法能显著提升模型性能,但依赖闭源模型和高计算成本是其局限。论文详细内容见:https://arxiv.org/pdf/2407.07053
77 10
|
4月前
|
并行计算 PyTorch 算法框架/工具
LLM推理引擎怎么选?TensorRT vs vLLM vs LMDeploy vs MLC-LLM
有很多个框架和包可以优化LLM推理和服务,所以在本文中我将整理一些常用的推理引擎并进行比较。
340 2
|
4月前
|
人工智能 算法
等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了
【7月更文挑战第13天】华为诺亚方舟实验室推出MindStar,一种增强LLM推理能力的搜索框架。MindStar通过PRM奖励模型和Beam/Levin Search策略选择最佳推理路径,提升开源模型如LLaMA-2-13B、Mistral-7B的性能,与GPT-3.5等闭源模型媲美,但成本更低。尽管推理成本高和需预训练PRM,MindStar为LLM推理研究开辟新途径。[论文链接](https://arxiv.org/pdf/2405.16265v4)
79 9