📣📣📣达摩院-视觉智能开发平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. 「人生搜索引擎」登陆 iPhone
App 名叫 Rewind的手机智能助手,背靠 GPT-4,可以一键记录、搜索、回答用 Safari 浏览过的所有内容。目前,Rewind macOS、iOS 版均已上架,iPhone、Mac(M1、M2 芯片)安装即用。
2. AI神器Copilot大升级,80%代码秒生成
Github官宣,Copilot模型升级,5年内80%的代码将自动生成。通过模型的改进,以及上下文过滤功能的增强,现在开发人员在写代码的时候可以获得更多量身定做的建议,满足需求。改进后的AI模型超越了之前的Codex模型,可以更迅速地为开发人员提供代码上的建议。新模型由OpenAI、Azure AI和GitHub合作开发,与之前的模型相比,延迟时间缩短了13%。
新模型还有更为复杂的上下文过滤功能,能更广泛地考虑开发人员的上下文和使用模式。
3. OpenAI拟开发 “G3PO”开源模型,应对Llama 2
据The Information消息,OpenAI正在内部开发一个代号为“G3PO”的开源大语言模型,以应对科技巨头Meta最新发布的Llama 2。今年7月18日,Meta发布了Llama 2性能方面大幅度提升,同时允许商业化这对OpenAI造成了严重冲击,吸引了大批开发者。此外,微软成为Meta技术合作伙伴,将在Azure云、Windows上提供Llama 2的部署、微调等服务。多重打击之下,OpenAI开发一个开源模型也是情理之中的事。
由于OpenAI受限于GPU算力,他们的许多短期计划被推迟了。他们的主要客户对API的可靠性和速度提出了抱怨。Sam表示,这主要是由于GPU短缺导致的。此外,他们目前受限于GPU资源,无法对API进行高效微调,例如使用Adapters或LoRa等改进的微调方法。因此,微调的运行和管理都需要消耗大量的计算资源。
此外,全球严格的AI监管框架也对OpenAI的技术创新构成了阻碍。他们不得不将更多的人力和计算资源用于安全策略,从而无法在短期内提供更多的创新功能。这给OpenAI带来了一定的压力。
4. 英特尔为LIama 2大模型提供加速
英特尔通过AI硬件组合及开放的软件环境,服务Meta发布的Llama 2模型。在Llama 2发布之际,英特尔分享了70亿和130亿参数的Llama 2模型的初始推理性能测试结果。这些模型在英特尔AI产品组合上运行,包括Habana Gaudi 2深度学习加速器、第四代英特尔至强可扩展处理器、英特尔至强CPU Max系列和英特尔数据中心GPU Max系列。其中,Habana Gaudi2在近期发布的MLPerf基准测试中,对于128至2000输入token,在70亿参数Llama 2模型上的推理延迟范围为每token 9.0-12.2毫秒,而对于130亿参数模型,范围为每token 15.5-20.4毫秒。
图 基于Habana Gaudi2,70亿和130亿参数Llama 2模型的推理性能
5. 微软即将推出 Windows11 Copilot 的第三方 AI 插件功能
微软确认了 Windows 11 上的 Windows Copilot 功能将支持第三方插件。这份名为“Windows Copilot 的插件:你的意见很重要”的调查,旨在收集符合条件的开发者的见解。微软计划通过一个 30 分钟的 Microsoft Teams 通话来采访合格的开发者,该公司希望收集有关插件与 Windows Copilot 集成的宝贵反馈。
🎉热门产品新发布
AI Native应用:盗梦笔记
和工具类产品不同,游戏天然“离钱最近”,即便不依靠用户主动付费,通过引入广告,也能够达到收支平衡,并且和工具相比,游戏的用户沉浸时间要更多,极端情况下甚至可以在每轮都嵌入广告。于是就有了《盗梦笔记》(内测入口)这款游戏的诞生。
剧情和游戏节奏相对固定,ChatGPT 在这里只是用于丰富一些语料交互,所以这一版本中完全没有所谓“AI Agent”的概念,AI 在这里本质还是用在系统流程环节的工具。
育碧支线是低成本制作开放世界游戏的一种方式,但玩多了由于强烈的公式感,体验就会比较差。本质上其实是“育碧支线”和“经济可用”之间的平衡。
除了经济层面更加持续之外,更长期的一旦有人开始玩,游戏过程中的交互也让我有可能获得一系列中文数据:如果能够获得足够多轮的对话信息,就有可能做一个做一个专属于这个游戏生成的大模型。即使游戏本身可能不如预期,但是这个多轮对话数据集也可以贡献给开源社区。
(Chat GPT测试结果)
(Claude测试结果)
📙精品书单多分享
xAI合伙人Greg Yang的书单推荐(系列一:数学、算法等)
●Grey Yang是谁:
○Greg Yang 是丘成桐在哈佛的学生,主修数学,之后也投入到DL/NLP相关,xAI 之前在微软工作, 就是所在团队的成果,现在是xAI的合伙人。他主要在研究Tensor Programs的框架来解释LLM,即以该理论框架为基础的最近成果之一(Tensor Program V),能在小模型上进行低成本超参搜索,然后迁移到大模型上去,减少大模型超参搜索成本。GPT4 报告中的 Predictable Scaling 小节可能就用到了这个技术,能用训练小模型的表现预测大模型的一些表现。 当时是微软和 OpenAI 合作发的,里面 OpenAI 这边的三个人,都列在 GPT4 的优化和结构小组中。Greg Yang 的终极目标是,开发出大规模深度学习的万物理论( Theory of Everything)。
●书单范围:
○ML&CS,物理&动力学,生物,数学,例如
●完整清单:xAI合伙人Greg Yang的书单推荐 - 智源社区 (baai.ac.cn)
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。