深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识

简介: 大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。

随着大型语言模型(LLM)的飞速发展,以ChatGPT为代表的应用彻底改变了人机交互的方式。这些基于Transformer的模型在海量数据上进行预训练,能够生成连贯且全面的文本,在问答、文本摘要和对话等任务中表现出色,甚至有时超越了人类的能力。然而,这些强大的模型也存在一个显著的问题——幻觉(hallucination)。

所谓幻觉,是指LLM生成的响应看似真实,但实际上是错误的、无意义的或与给定提示不一致。这种问题可能导致虚假信息的传播,对关键决策产生负面影响,甚至引发对人工智能的不信任。例如,《纽约时报》曾报道一位律师使用ChatGPT生成虚假的案例引用,这起事件凸显了LLM幻觉的潜在风险。

那么,为什么LLM会产生幻觉呢?要理解这个问题,我们需要先了解LLM的工作原理。LLM通过在大量数据上进行机器学习来构建,这些数据包括各种语言样本,尤其是互联网上丰富的文本资源。训练的结果是一组概率参数,用于预测给定单词或词组之后最可能出现的单词或词组。

然而,这种预测仅基于统计概率,与单词的语义含义或现实世界的事实无关。例如,当LLM告诉我们“草是绿色的”,它并不是因为现实世界中草是绿色的,而是因为在训练数据中,“草是”后面最常出现的词是“绿色”。这种基于统计的预测机制使得LLM在面对缺乏共识或存在争议的话题时容易产生幻觉。

从这个角度来看,我们应该问的不是“为什么LLM会产生幻觉?”,而是“为什么它们能在某些情况下给出正确的答案?”。这涉及到一个哲学问题——如何在语言表达中建立信任,即所谓的认知信任(epistemic trust)。

在科学领域,我们通过实验、观察和同行评审等机制来建立信任。然而,在互联网时代,众包(crowdsourcing)成为了一种新型的信任建立方式。通过向大量人群提问并汇总他们的回答,我们可以利用群体的智慧来解决问题。这种基于讨论和共识的知识获取方式在维基百科、Reddit等平台上得到了广泛应用。

LLM可以被视为众包的延伸,它基于互联网上所有问题和答案的统计概率来生成响应。当一个话题存在广泛共识且有大量相关文本时,LLM通常能给出准确的答案。然而,当话题较为冷门或存在争议时,LLM的响应就可能变得不可靠。

为了验证这一假设,哈佛大学的研究团队设计了一系列实验,使用不同的LLM模型(包括Llama、ChatGPT-3.5、ChatGPT-4和Google Gemini)对各种话题进行测试。这些话题包括冷门的科学领域(如铁电体极化)、政治敏感问题(如奥巴马的罕见引言)以及存在争议的议题(如气候变化和以色列人)。

实验结果显示,当话题较为冷门或存在争议时,LLM更容易产生幻觉。例如,在被要求提供关于铁电体极化的科学论文时,所有模型都无法给出准确的引用。在回答关于奥巴马的罕见引言时,Llama模型经常重复错误的引言,而Google Gemini甚至引用了错误的来源。在涉及气候变化和以色列人的问题上,模型的响应也存在不一致性和潜在的错误。

这些发现表明,LLM的性能取决于训练数据的质量和数量。当数据充足且存在共识时,LLM通常能给出准确的答案。然而,当数据稀缺或存在争议时,LLM就可能产生幻觉。这与众包的原理类似,即当参与者众多且意见一致时,众包的结果通常较为可靠;而当参与者较少或意见分歧时,众包的结果就可能变得不确定。

尽管LLM存在幻觉问题,但它们仍然具有巨大的潜力。通过不断改进训练数据和算法,我们可以提高LLM的准确性和可靠性。同时,我们也需要意识到LLM的局限性,并在使用它们时保持批判性思维。

论文链接:https://dl.acm.org/doi/pdf/10.1145/3688007

目录
相关文章
|
16天前
|
机器学习/深度学习 人工智能
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力
中国人民大学刘勇团队研究了合成数据对大型语言模型泛化能力的影响,提出逆瓶颈视角,通过“通过互信息的泛化增益”(GGMI)概念,揭示了后训练模型的泛化能力主要取决于从生成模型中获得的信息增益。这一发现为优化合成数据生成和后训练过程提供了重要理论依据。
36 1
|
2月前
|
人工智能 前端开发
大模型体验体验报告:OpenAI-O1内置思维链和多个llm组合出的COT有啥区别?传统道家理论+中学生物理奥赛题测试,名不虚传还是名副其实?
一个月前,o1发布时,虽然让人提前体验,但自己并未进行测试。近期终于有机会使用,却仍忘记第一时间测试。本文通过两个测试案例展示了o1的强大能力:一是关于丹田及练气的详细解答,二是解决一道复杂的中学生物理奥赛题。o1的知识面广泛、推理迅速,令人印象深刻。未来,或许可以通过赋予o1更多能力,使其在更多领域发挥作用。如果你有好的测试题,欢迎留言,一起探索o1的潜力。
|
4月前
|
存储 人工智能 自然语言处理
算法、系统和应用,三个视角全面读懂混合专家(MoE)
【8月更文挑战第17天】在AI领域,混合专家(MoE)模型以其独特结构成为推动大型语言模型发展的关键技术。MoE通过动态选择专家网络处理输入,实现条件计算。稀疏型MoE仅激活部分专家以减少计算负担;软MoE则加权合并专家输出提升模型稳定性。系统层面,MoE优化计算、通信与存储,利用并行化策略提高效率。在NLP、CV、推荐系统等领域展现强大应用潜力,但仍面临训练稳定性、可解释性等挑战。[论文链接: https://arxiv.org/pdf/2407.06204]
210 63
|
5月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
83 5
|
7月前
|
存储 机器学习/深度学习 人工智能
论文介绍:InfLLM——揭示大型语言模型在无需训练的情况下处理极长序列的内在能力
【5月更文挑战第18天】InfLLM是一种新方法,无需额外训练即可增强大型语言模型处理极长序列的能力。通过使用记忆单元存储长序列的远距离上下文,InfLLM能更准确地捕捉长距离依赖,提高对长文本理解。实验表明,InfLLM使预训练在短序列上的模型在处理极长序列时表现媲美甚至超过专门训练的模型。尽管有挑战,如动态上下文分割和记忆单元效率,InfLLM为长序列处理提供了有效且未经训练的解决方案。论文链接:https://arxiv.org/abs/2402.04617
165 3
|
7月前
|
人工智能 自然语言处理 自动驾驶
大模型领域急需建立可解释AI理论
【1月更文挑战第21天】大模型领域急需建立可解释AI理论
56 2
大模型领域急需建立可解释AI理论
|
7月前
|
计算机视觉
模型落地必备 | 南开大学提出CrossKD蒸馏方法,同时兼顾特征和预测级别的信息
模型落地必备 | 南开大学提出CrossKD蒸馏方法,同时兼顾特征和预测级别的信息
164 0
|
机器学习/深度学习 自然语言处理 算法
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
142 0
|
人工智能 自然语言处理 物联网
解锁ChatGLM-6B的潜力:优化大语言模型训练,突破任务困难与答案解析难题
解锁ChatGLM-6B的潜力:优化大语言模型训练,突破任务困难与答案解析难题
解锁ChatGLM-6B的潜力:优化大语言模型训练,突破任务困难与答案解析难题
|
机器学习/深度学习 人工智能 自然语言处理
带你简单了解Chatgpt背后的秘密:大语言模型所需要条件(数据算法算力)以及其当前阶段的缺点局限性
带你简单了解Chatgpt背后的秘密:大语言模型所需要条件(数据算法算力)以及其当前阶段的缺点局限性
24338 9