📣📣📣视觉智能开放平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. AI 网站全球流量前 50 榜出炉:ChatGPT 等对话类产品突出
10 月 9 日消息,美国风投公司 a16z 对目前市场上流量最高的 50 款面向 C 端用户开放的 AI 产品进行了排名。a16z 声称,此次排名主要参考的是 SimilarWeb 截至 2023 年 6 月的网站流量数据,对于有 App 的产品则是以估算流量数据,并进行了加权。同时,该榜单中不包括“没有提供网页版”的产品,也并未统计类似 Midjourney 等需要依托 Discord 等第三方平台来运行的产品。
从表单中得知,ChatGPT 在榜单中排行第一,该产品占据了这份 Top50 榜单总流量的 60%。而位居次席的是 Character.ai,据称这是一款“主打个性化的 AI 聊天机器人”,与 ChatGPT 相比,Character.ai 更注重人格属性,可满足用户社交、情感、陪伴、支持等需求。拿下第三的则是谷歌提供的 Bard,相对于 ChatGPT,海外用户使用该机器人的成本更低,且凭借海外谷歌引擎的用户基数,因此终用户也相当多。整体而言,对话类生成式 AI 大模型的流量占比高达 68.7%,不难发现绝大多数海外用户在体验 AI 产品时都是以尝鲜的心态为主。
AI 产品在如今依然处于行业风口,但绝大多数用户的体验依然相当轻度,同时在整个赛道里呈现出“娱乐性”和“生产力”共存的情况,虽然大多数用户更多只是尝鲜,但也有一部分用户发现了生成式 AI 在工具方面的优势。
2. 消息称微软下月公布自家 AI 芯片 Athena,降低对英伟达依赖
10 月 9 日消息,据外媒 The Information 报道,微软即将于下个月公布自行研发的 AI 芯片,从而协助减少对英伟达 GPU 的依赖。外媒声称,该 AI 芯片代号为 Athena,预计微软将在 11 月 14-11 月 17 日的 Ignite 开发者大会上宣布这款自行研发的芯片。而根据 Ignite 2023 的公开议程,今年大会的重点之一,便是“将 AI 融合进环境中”。
随着去年 OpenAI 发布 ChatGPT 引发 AI 风口,带动业界对于英伟达旗下 GPU 的高度需求,甚至一度造成“供不应求”现象,当下微软的 Azure AI 服务,以及 Bing Chat、Bing Creator 和 Copilot 等也都运行在英伟达 H100 GPU 系列之上。当下微软自行研发 AI 芯片,将有助于节省向英伟达采购 GPU 的成本、减少对英伟达的依赖。而根据 The Information 今年稍早报道,微软其实在 2019 年就启动 Athena 项目,至今已有 300 人投入相关项目开发。Athena 项目已经规划了路线图,第一代可能以台积电 5 纳米制程生产,据称当下已有部分微软和 OpenAI 员工拿到 Athena 的工程样品。为了提升产品自主性,不仅微软想自行研发 AI 芯片,谷歌和亚马逊等行业巨头,也早已分别推出自家 AI 芯片。另一方面,业界的 AI 热也使英伟达受益颇丰,今年 Q2 整体营收达 113.3 亿美元。
3. 谷歌云推出新AI搜索功能:帮助医护人员迅速查找信息
Google Cloud 宣布推出新的 AI 支持的搜索功能,该功能将帮助医护人员从不同类型的医疗记录中,快速提取准确的临床信息。例如,如果医生想要了解患者的病史,他们不再需要单独阅读患者的诊疗记录、传真和电子健康记录。他们只需搜索诸如「该患者在过去 12 个月内服用过哪些药物」之类的问题,便能获取相关信息。该公司表示,新功能最终将为医护人员节省大量的时间和精力。
Cloud AI 产品管理高级总监 Lisa O’Malley 表示,新搜索功能还可用于其他关键应用,例如应用正确的计费代码,以及确定患者是否符合参加临床试验的标准。她补充道,新功能可以引用并链接到信息的原始来源,这些信息直接来自组织自己的内部数据,这将有助于减轻临床医生对于信息不准确的担忧。
📖新鲜论文早知道
复旦NLP团队发布80页大模型Agent综述
近日复旦大学自然语言处理团队(FudanNLP)推出LLM-based Agents综述论文,全文长达86页,共有600余篇参考文献。作者们从AI Agent的历史出发,全面梳理了基于大型语言模型的智能代理现状,包括:LLM-based Agent的背景、构成、应用场景以及备受关注的代理社会。同时,作者们探讨了Agent相关的前瞻开放问题,对于相关领域的未来发展趋势具有重要价值。
论文链接:https://arxiv.org/pdf/2309.07864.pdf
●LLM-based Agent论文列表:https://github.com/WooooDyy/LLM-Agent-Paper-List
大型语言模型数据集优化https://baai.org/l/30878
📙精品课程多分享
MIT|“TinyML语高效深度学习计算”课程
大型生成模型(例如大型语言模型、扩散模型)表现出非凡的性能,但它们需要大量的计算资源。为了使它们更容易获得,提高它们的效率至关重要。麻省理工学院“TinyML语高效深度学习计算”课程,涵盖了、模型压缩、剪枝、量化、神经架构搜索、分布式训练、数据/模型并行、梯度压缩以及设备端微调等主题】《6.5940 TinyML and Efficient Deep Learning Computing》
本课程将介绍高效的人工智能计算技术,这些技术可以在资源有限的设备上实现强大的深度学习应用程序。主题包括模型压缩、修剪、量化、神经架构搜索、分布式训练、数据/模型并行性、梯度压缩和设备上微调。它还为大型语言模型、扩散模型、视频识别和点云引入了特定于应用程序的加速技术。本课程还将涵盖有关量子机器学习的主题。学生将获得在笔记本电脑上部署大型语言模型(例如LLaMA 2)的实践经验。
课程地址:https://efficientml.ai/schedule/
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。