大模型承重墙,去掉了就开始摆烂!苹果给出了超级权重

简介: 近期,苹果公司与圣母大学的研究人员发现大型语言模型(LLM)中存在“超级权重”参数,尽管仅占模型参数的0.01%,却对模型性能有极大影响。去除一个超级权重可使困惑度增加三个数量级,零样本准确性大幅下降。研究提出一种数据无关方法识别这些权重,并通过保留超级权重和超级激活,显著提升模型压缩效果,在量化后保持较高性能。该发现对资源受限环境下的LLM部署有重要意义。论文链接:https://arxiv.org/pdf/2411.07191。

在大型语言模型(LLM)的浩瀚参数海洋中,一个微小但至关重要的发现正引起广泛关注。近期,来自苹果公司的研究人员与圣母大学的合作者共同揭示了一个令人惊讶的现象:在LLM中,存在一些被称为“超级权重”的参数,它们对模型的质量有着极其不成比例的影响。

想象一下,一个拥有数十亿参数的LLM,其性能竟然取决于一个或几个微小的权重参数。这些超级权重,尽管只占模型参数的极小部分(如0.01%),却在决定模型的文本生成能力和零样本任务准确性方面发挥着关键作用。

研究人员发现,在LLM中,仅仅去除一个超级权重就可能导致模型的困惑度增加三个数量级,零样本准确性下降到随机猜测的水平。这一发现令人震惊,因为它揭示了模型性能的脆弱性,以及少数关键参数的极端重要性。

为了识别这些超级权重,研究人员提出了一种数据无关的方法,仅通过一次模型的前向传递即可完成。他们发现,这些超级权重在不同的模型家族和大小中表现出相似的行为,通常位于模型的早期层。

超级权重的作用机制也逐渐清晰。它们通过放大输入激活中的普通值来产生所谓的“超级激活”,这是一些在模型中持续存在、具有固定位置和恒定幅度的异常大激活。这些超级激活被证明对模型的质量至关重要,因为它们通过跳过连接在整个模型中传播,并最终影响输出的概率分布。

超级权重的发现对模型压缩领域具有重要意义。在权重量化过程中,通过保留超级权重并剪裁其他权重异常值,研究人员能够将简单的四舍五入量化扩展到比以前更大的块大小,从而在保持较高质量的同时减少模型的内存占用。

对于激活量化,通过在量化和反量化过程中保留超级激活,研究人员能够显著提高模型的压缩效果。他们的方法在没有校准数据的情况下,能够与使用校准数据的先进方法相媲美,为模型压缩提供了一种高效且数据无关的替代方案。

为了验证他们的发现,研究人员在多个LLM上进行了广泛的实验,包括LLaMA、Mistral和OLMo等。他们评估了模型在多个零样本基准上的性能,并计算了模型在Wikitext-2和C4等数据集上的困惑度。

实验结果表明,通过保留超级权重和超级激活,模型在量化后能够保持较高的性能。特别是,对于权重量化,他们的方法能够支持更大的块大小,从而减少模型的内存占用和文件大小。对于激活量化,他们的方法在多个模型和数据集上都表现出了显著的性能提升。

这些发现对实际应用具有重要意义,特别是在资源受限的环境(如移动设备和边缘计算)中部署LLM时。通过理解和利用超级权重和超级激活,研究人员能够开发出更高效、更紧凑的模型,从而推动LLM在各个领域的广泛应用。

尽管超级权重的发现为LLM的研究和应用带来了新的视角,但仍有许多问题有待解决。例如,超级权重的数量和位置是否与模型的训练数据和任务有关?如何在不影响模型性能的情况下对超级权重进行有效的正则化或优化?

此外,尽管研究人员已经提供了一些常见LLM的超级权重索引,但这些索引是否适用于所有模型和任务仍需进一步研究。未来的工作可能需要开发更通用的方法来识别和利用超级权重,以推动LLM研究和应用的进一步发展。

论文链接:https://arxiv.org/pdf/2411.07191

目录
相关文章
|
15天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171332 12
|
17天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150295 32
|
25天前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201962 14
对话 | ECS如何构筑企业上云的第一道安全防线
|
3天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
7天前
|
存储 人工智能 安全
对话|无影如何助力企业构建办公安全防护体系
阿里云无影助力企业构建办公安全防护体系
1253 8
|
9天前
|
机器学习/深度学习 自然语言处理 搜索推荐
自注意力机制全解析:从原理到计算细节,一文尽览!
自注意力机制(Self-Attention)最早可追溯至20世纪70年代的神经网络研究,但直到2017年Google Brain团队提出Transformer架构后才广泛应用于深度学习。它通过计算序列内部元素间的相关性,捕捉复杂依赖关系,并支持并行化训练,显著提升了处理长文本和序列数据的能力。相比传统的RNN、LSTM和GRU,自注意力机制在自然语言处理(NLP)、计算机视觉、语音识别及推荐系统等领域展现出卓越性能。其核心步骤包括生成查询(Q)、键(K)和值(V)向量,计算缩放点积注意力得分,应用Softmax归一化,以及加权求和生成输出。自注意力机制提高了模型的表达能力,带来了更精准的服务。
|
8天前
|
人工智能 自然语言处理 程序员
通义灵码2.0全新升级,AI程序员全面开放使用
通义灵码2.0来了,成为全球首个同时上线JetBrains和VSCode的AI 程序员产品!立即下载更新最新插件使用。
1314 24
|
8天前
|
消息中间件 人工智能 运维
1月更文特别场——寻找用云高手,分享云&AI实践
我们寻找你,用云高手,欢迎分享你的真知灼见!
619 25
1月更文特别场——寻找用云高手,分享云&AI实践
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
|
13天前
|
人工智能 自然语言处理 API
阿里云百炼xWaytoAGI共学课DAY1 - 必须了解的企业级AI应用开发知识点
本课程旨在介绍阿里云百炼大模型平台的核心功能和应用场景,帮助开发者和技术小白快速上手,体验AI的强大能力,并探索企业级AI应用开发的可能性。