推平“知识高峰”,AI将如何影响我们的学习?

简介: ChatGPT代表的新型人工智能,正在改变知识的获取方式,在“无所不能”的预训练大模型面前,传统的知识生产、分发和学习逻辑是否还有生存空间?

过去5个多月时间里,生成式AI的热潮愈演愈烈。

在新一轮的技术革命面前,有人不安,担心自己会被AI替代;有人兴奋,认为新的机会窗口已经打开。不只是个体的躁动,几乎所有行业都会被问到这样一个问题:怎么应对充满创造力和不确定性的新世界?

其中必须要作答的可能就有知识服务赛道。ChatGPT代表的新型人工智能,正在改变知识的获取方式,在“无所不能”的预训练大模型面前,传统的知识生产、分发和学习逻辑是否还有生存空间?

恰恰是在这样的背景下,知识服务平台得到APP在4月份掀起了一场活动密集的“AI大作战”,包括吴军、王小川、周鸿祎在内的业内大佬均出现在“主讲嘉宾”的名单里。

不过,这里想要讨论的并非是嘉宾们给出了什么观点,而是想要透过得到APP的行为和观点,探讨下知识服务市场的新潮向。

01 走进“知识大平原”
时间回到3月14日,OpenAI在未进行太多预热的情况下发布了GPT-4。相比于被不少人验证过的GPT-3.5,GPT-4在日常对话层面并没有太大的革新,但在推理能力上,GPT-4给出了令人咋舌的表现。

按照OpenAI官方的说法,在模拟美国律师从业资格考试中,GPT-3.5的成绩在全体考生中只能排到末尾10%,而GPT-4能排进前10%;在难度更高的国际生物学奥赛中,GPT-4能够吊打99%的人类选手;在“美国高考”SAT考试中,GPT-4在数学和阅读部分也能战胜近90%的考生。

当GPT-4轻松超越了大部分人类“做题家”,对知识体系的颠覆性不言而喻。上一次的“颠覆”可能还是搜索引擎的出现,但搜索引擎的价值在于检索,提供的只是一本书的目录,想要获取里面的知识,还需要按章节阅读。而GPT-4代表的语言模型,提供的是一整本书,知识的广度和厚度均远超搜索引擎。

得到APP创始人罗振宇在4月10号的直播中说了一个有趣的观点:过去的学习者面对的,是一座座孤峰耸立的知识高地。这些高峰是由无数概念、逻辑、先例堆起来的,它剥离了人的感性体验和事物发展的具体过程……而在人工智能的帮助下,这些高峰有可能被推平,变成在学习者面前一览无余的平原旷野。

借用类似的逻辑,随着GPT-4以及更多大模型的出现,人类社会正在进入到“知识大平原”时代。

过去人们想要学习某类知识,就像是一个攀登高山的过程,或许会有人提前用石阶铺一条上山的路,想要到达山顶,还是需要一步一步往上攀登,期间不可避免地要耗费相当大的体力和精力。

大模型正在不断消除所谓的“知识高地”,知识散落在阡陌纵横的平原上,一眼就能够看到想要去的点在哪里,然后找准自己的学习目标,选一条效率最大化的路径,以最小的代价到达知识的彼岸。

“勾股定理”就是一个直接的例子。虽然周朝时期的商高就提出了“勾三股四弦五”,后世想要学习这样的知识,仍需相当复杂的论证。而现在随便一个中学生都知道a²+b²=c²的表达式,寥寥数笔就能推理出答案。结果就是,当代普通中学生的数学知识储备,早不是一本《九章算术》所能容纳的。

高尔基说:“书籍是人类进步的阶梯。”进入到“知识大平原”时代,类似的哲理依旧适用,然而人们与知识的连接方式势必会发生潜移默化的改变,需要重新思索知识学习的内在逻辑。在新一轮的范式转移中,注定会有很多行业被重构,得到APP这样的知识服务平台大概率是最早被影响的赛道。

02 得到们的新角色
得到APP 4月10号的直播中,以“AI时代的得到新战略”为主题,罗振宇、脱不花、快刀青衣三位创始人时隔4年再次同台。虽然直播中并未谈到得到APP应对生成式AI的法则,却不难从罗振宇的猜想中揣摩一二。

让人印象深刻的是人工智能作为多类型学习助手的比喻:有的扮演书童,负责回答问题;有的扮演参谋,负责提出下一个问题;有的扮演将军,负责执行;有的扮演探马,负责提供案例和榜样……

言外之意,GPT-4等大模型的衍生应用,不会局限于对话机器人,将不断分化出更多的角色。比如用户想要读一本书的时候,只须提出一个初始问题:“这本书重点讲了什么?”不同的助手会给出不同的答案:“书童”负责列出要点,“参谋”负责提出问题,“将军”的职责是摘录精华,“探马”的作用是横向比较。

至于罗振宇的猜想是否合理,不妨先试着理清三个底层逻辑:

一是人类学习状态的演进。罗振宇的观点是将进入“轴心时代”,因为在多模态大模型的主导下,知识的载体再无区隔,学科间的界限加速溶解,学界一直期待的“知识大融通”将变成现实,个体知识会在对话的过程中不断扩展。

二是求知方式向问题倾斜。之所以会出现“知识大平原”的说法,原因是大模型就像是人类的大脑,知识被存储在神经元连接中,需要通过Prompt来唤醒AI的能力。对于一个求知者来说,答案已不再稀缺,提问比回答更重要。

三是学习者必将成为学习的中心。在知识的“孤峰”时代,我们想要掌握任何一个知识点,首先要学的就是其推导过程。大模型改写了知识的获取方式,学习者的目标将是整个知识网络的核心,知识的价值是服从于人、服务于人。

把视角再放大一些的话,罗振宇的猜想绝非一家之言。对应现象的就是Prompt Engineering(提示语工程学)的风靡,怎么正确地给AI投喂Prompt,怎么释放AI的生产力,已然成为一门深奥的学问。不同的是,理工科占大多数的工程师们,选择用Prompt激发大模型里存储的“知识”,而新闻出身的罗振宇想要揭示潜在的规律。

回到知识服务的话题上,罗振宇有关“多类型学习助手”的比喻,恐怕不只是给人工智能的定位,可能也是知识服务平台即将扮演的角色,既是知识的服务商,也是用户的学习助手,根据用户的不同学习需求,扮演书童、参谋、将军、探马等不同角色。

也许现在还仅仅处于初始阶段,得到APP的几位创始人选择公开阐述自己的思考和洞察,显然已经为人工智能浪潮带来的新机会做足了准备。

03 我们都是局内人
以往讨论某个行业话题时,我们习惯于站在“观察者”的位置,希望能够得出一些客观的结论。可在探讨知识学习的话题时,很难把自己从中脱离出去,毕竟我们都是“知识大平原”时代的局内人。

一个现实的例子,现阶段AI已经被用于写诗、写邮件、写新闻报道,倘若大模型的能力再一次进化,我们花费几个小时、掉了满地头发写出来的分析文章,也许是AI不到一分钟就能完成的工作。怎么适应人工智能时代的“终身学习”,不光是得到APP们的战略抉择,每一个人都身在其中。

目前有不少开发者试图挖掘GPT-4的“隐藏能力”,国外一位程序员小哥的做法很有启示性:他调用OpenAI的API开发了一个语音转文字的工具,然后将自己经常听的上百期播客作为语料库进行学习,最终将过去需要花数百个小时消化的知识,变成了几十组“对话”,学习效率提升了近百倍。

参考技术普及的一般规律,目前程序员掌握的技能不会是少数人的专属,很快会成为人人可用的工具,同时也映衬了罗振宇的另一个判断:如果人工智能铺设的学习基础设施足够发达,学习者面对的现实挑战,才是学习行为的起点。我要做什么,决定了我的学习内容、路径和需要的资源。

可能会有人因此而恐慌,担心自己的竞争力被人工智能冲击。诸如此类的心态无可厚非,人们在新事物出现时总是会缺少安全感,就像汽车的诞生彻底淘汰掉了马车夫。其实还有另一个视角:汽车影响了马车夫的生计,却也催生了“司机”这一新岗位。我们需要做的不是过度恐慌,而是学会使用新工具。

由此再来看得到APP的AI大作战,罗振宇、吴军、王小川、周鸿祎等人的见解并不是唯一的焦点。譬如在罗振宇讲述AI时代“终身学习”的9条猜想的同时,得到APP联合创始人快刀青衣发布了《给职场人的AI写作课》,涉及商务邮件写作、汇报框架搭建、创意批量产出等8大高频写作场景,想要帮助职场人掌握AI写作的关键技能。

如果把这一轮的AI浪潮和汽车工业对比,当下不过是卡尔·本茨造出第一辆单缸发动机三轮汽车的时间,没人知道在人工智能的“慕尼黑博览会”上,还会有哪些新事物出现,会产生什么样的轰动效应。

但可以笃定的是,被替代的岗位越多的地方,诞生的新岗位也越多,而学习正是我们追逐新机会的唯一路径。作为“知识大平原”时代的局内人,留给我们的选择不是躺平或逃避,而是学会驾驭新工具,和知识建立起高效的连接。

04 写在最后
OpenAI CEO Sam Altman曾在博客中写道:AI 大模型发展的最终目标是通用人工智能,当这一目标实现的时候,人类经济社会将实现“万物的摩尔定律”,即万物的智能成本无限降低,人类的生产力与创造力得到解放。

至少就目前生成式AI的演变来看,这样的预言正在不断“变现”,每一个需要人类原创力的行业都将有可能会被颠覆。也许某些岗位会被AI取代,但大部分岗位将以人与AI协作的方式去完成。

再来回答文初提到的问题,潮向不单单是知识服务的方向,还关乎每个人在AI时代的生存方式。

相关文章
|
11天前
|
机器学习/深度学习 存储 人工智能
AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
【9月更文挑战第1天】AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
面向AI Native应用的高效迁移学习策略
【8月更文第1天】随着人工智能技术的发展,越来越多的应用场景需要定制化的AI解决方案。然而,从零开始训练一个深度学习模型往往需要大量的标注数据和计算资源。迁移学习提供了一种有效的方法来解决这个问题,它利用预训练模型的知识,通过少量的数据就能达到很好的性能。本文将深入探讨面向AI Native应用的高效迁移学习策略,并通过实例展示如何针对具体场景进行模型微调。
178 6
面向AI Native应用的高效迁移学习策略
|
1月前
|
机器学习/深度学习 人工智能 算法
【解锁AI新纪元】深度剖析元学习meta-learning:超越监督学习的智慧飞跃,掌握学习之学习的奥秘!
【8月更文挑战第2天】【元学习meta-learning】通俗易懂讲解:解锁学习之学习的奥秘与监督学习之别
58 24
|
1月前
|
人工智能
如何用AI来提高英语学习效率?
【8月更文挑战第19天】如何用AI来提高英语学习效率?
|
1月前
|
人工智能 算法
AI 0基础学习,数学名词解析
AI 0基础学习,数学名词解析
13 2
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络不再是黑魔法!Python带你一步步拆解,让AI学习看得见
【8月更文挑战第3天】神经网络,曾被视为难以触及的黑魔法,现已在Python的助力下变得平易近人。以TensorFlow或PyTorch为“魔法杖”,仅需几行Python代码即可构建强大的AI模型。从零开始,我们将教导AI识别手写数字,利用经典的MNIST数据集。通过数据加载、预处理至模型训练与评估,每个步骤都如精心编排的舞蹈般清晰可见。随着训练深入,AI逐渐学会辨认每个数字,其学习过程直观展现。这不仅揭示了神经网络的奥秘,更证明了任何人都能借助Python创造AI奇迹,共同探索未来的无限可能。
32 2
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
AI Native应用中利用联邦学习保障隐私的模型微调实践
【8月更文第2天】随着人工智能技术的发展,越来越多的应用程序开始采用AI原生(AI Native)设计思路,即从一开始就将AI作为核心功能来构建软件和服务。然而,在AI Native应用中,数据隐私和安全性是不容忽视的重要问题。联邦学习(Federated Learning, FL)作为一种新兴的技术框架,为解决这一难题提供了有力的支持。它允许在多个客户端上训练机器学习模型,而无需直接传输原始数据到中心服务器,从而保护了用户的隐私。
78 1
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
利用迁移学习加速AI模型训练
【7月更文第29天】迁移学习是一种强大的技术,允许我们利用已经训练好的模型在新的相关任务上进行快速学习。这种方法不仅可以显著减少训练时间和计算资源的需求,还能提高模型的准确率。本文将详细介绍如何利用迁移学习来加速AI模型的训练,并通过具体的案例研究来展示其在计算机视觉和自然语言处理领域的应用。
61 4
|
30天前
|
机器学习/深度学习 人工智能 搜索推荐
【颠覆传统】解锁记忆新姿势:多模态AI单词助记神器——让单词学习变得生动有趣,打造个性化学习新体验!
【8月更文挑战第21天】多模态AI单词助记模型融合文本、语音与图像,增强英语单词记忆效果。设计上利用多感官刺激提升信息处理与记忆效率。技术栈包括React.js前端、Node.js后端、PyTorch深度学习框架等。实现过程涵盖数据准备、前端开发、后端服务搭建、深度学习模型构建及用户反馈循环。应用显示该模型显著提高学习兴趣与记忆效率,尤其对视觉和听觉学习者有益,个性化推荐系统进一步优化学习体验。
31 0
|
1月前
|
机器学习/深度学习 人工智能 算法
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
72 0