前言
ChatGPT的余波未平,GPT-4的风波又起。这次GPT-4的全新升级,再一次突破了技术的壁垒,很快受到众人的追捧:
有人说GPT-4的出现是场变革,但也许只是对人工智能的过度炒作; 有人说GPT-4可以直接生成好莱坞电影,但也许是对GPT-4的期望值过高; 有人说GPT-4能改变世界,但接下来的发展是什么,还不一定……
GPT-4到底能做什么?又做不到什么?
纵观GPT系列模型的发展史:
第一代模型GPT-1,开始探索模型对语言的理解力; 第二代模型GPT-2,找到了“多任务学习者”的方向; 第三代模型GPT-3以及在此基础上微调的GPT-3.5,也是ChatGPT的前身,能够通过数据的喂养,实现智能问答交流。
而此次GPT-4的发布,又让人眼前一亮。
问题来了:GPT-4比前几代模型到底好在哪?
ChatGPT是这样回答的:
01:GPT-4能识别图片
“GPT-4可以接受图像作为输入并生成说明、分类和分析,”这意味着只要你想识别,GPT-4就能识别图像并输出文本内容。GPT-4开始能“看到”世界。
这一功能的出现,对于有视觉障碍的人群来说,无疑为提高他们的生活便捷打下了坚实的基础。GPT-4在这一方面也有了具体的应用:一款名为Be My Eyes的APP正在开发GPT-4驱动的虚拟志愿者,希望能为盲人、低视力群体提供视觉帮助。
不过据官方宣布图像输入仍然是研究预览,并未公开。关于这一功能的更多信息,我们不得而知。只能期待在下一次的版本中,能带给我们更多的惊喜。
02:创作能力得到强化:长篇小说不是梦
OpenAI表示:“GPT-4能处理超过2.5万字的文本,它比以往任何时候都更具创造力和协作性。”
对GPT-4来说,它可以生成文字内容并进行编辑,甚至可以进行作曲、写剧本或模仿使用者的写作风格。OpenAI的联合创始人Greg Brockman也通过直播展示了GPT-4惊人的创作能力——对长篇文章做核心总结、写代码、创作诗歌……
可以看出,GPT-4不再局限于“Chat”,不再定位于聊天机器人,而是朝着提高生产率、“多栖”方向出发。
03:GPT-4更智能、更聪明
相较之前的版本,GPT-4能更好地理解上下文语境及相应的文本关系。OpenAI也给出了GPT-4与GPT-3.5参加各种考试的成绩。在模拟律师考试结果中,GPT-4的最终分数在应试者的前10%左右,而GPT-3.5的得分大概在倒数10%左右。两个模型版本之间,差异也较为明显。
在这场涉及了“人性”“伦理道德”的考试中,GPT-4取得了不错的成绩,显然比GPT-3.5表现得更为出色。
04:GPT-4的安全性也得到提升
“GPT-4及后续模型有可能以有益和有害的方式对社会产生重大影响。”OpenAI表示,团队也在对GPT-4不断地迭代,就安全性这一问题做出了很多努力,包括对数据的选择和过滤、评估和专家参与、模型安全性的改进以及监测、执行等。
针对GPT一类的模型会生成不良建议、有Bug的代码或不准确的信息等风险问题,团队也聘请了50多位来自人工智能对齐风险、网络安全、生物风险、信任和安全以及国际安全等领域的专家,对GPT-4的这些高风险行为进行对抗性测试。这些专家的反馈和数据为GPT-4的改进提供了依据。
GPT-4自发布以来,话题热度只增不减,一些网友也玩出了新花样:
“天呐!GPT-4竟然能雇佣一名人类工作人员为它解决验证码问题,并说服人类与它合作。
用户l给GPT-4拍了一张自家冰箱的照片,并让其提供菜谱:
但,GPT-4就没有任何问题吗?
GPT-4与前几代模型相比,回答的内容更精确、也更丰富,但也出现了一些问题:
1、回复变慢
猜测因可能有以下方面:
- 首先是流程更复杂。GPT-3有1750亿参数,而GPT-4有100万亿参数,什么概念?这与人类大脑神经元数量相当!因此非常消耗算力;
- GPT-4的提问是有限制的,每四个小时内不能超过100条消息。由此可见,它的处理能力更加多样化;
- GPT-4 是个多模态大模型,由原来的文本处理,到支持图像输入等,整体运作也更为复杂了。
2、 仍存在一些漏洞
尽管此次发布,GPT-4比之前模型的安全性有所提升,但它依旧具有局限性:它有时也会犯简单的推理错误,或在接受用户明显的虚假陈述时过于轻信。有时它也会像人类一样在难题上失败,比如也会在它自己生成的代码中引入安全漏洞。
3、 时间数据采集没有拓宽
在数据采集上,GPT-4依旧缺乏2021年9月之后发生的事件数据。这意味着,在时效性上,GPT-4无法做到及时同步,它无法回答21年之后发生的事件,更无法从其经验中吸取教训。
AI对我们的影响,取决于我们如何定义它。在人类与AI的故事中,与其在科技发展浪潮中战战兢兢,不如成为AI的创造者,创造下一个GPT-X!如果大家想试试升级4.0,可以看往期文章推荐:http://fangze666.com/