OpenAI发布新AI模型GPT-4o和桌面版ChatGPT

简介: OpenAI发布新AI模型GPT-4o和桌面版ChatGPT

本文来自 企业网D1net公众号

OpenAI于周一发布了新的AI模型和桌面版ChatGPT,以及更新后的用户界面,这是公司扩展其受欢迎的聊天机器人的最新举措。


OpenAI新的更新将GPT-4带给所有人,包括OpenAI的免费用户,技术主管Mira Murati在直播活动中表示。她补充说,新的模型GPT-4o"快得多",并在文本、视频和音频方面有了改进的能力。OpenAI表示,最终计划使用户能够通过视频与ChatGPT进行聊天。


"这是我们在易用性方面迈出的第一大步",Murati 说道。


由微软支持的 OpenAI 目前估值超过 800 亿美元,这家公司成立于 2015 年,面临保持在GenAI市场领先地位的压力,同时在投入大量资金用于构建和训练模型的处理器和基础设施的同时,寻找赚钱的方法。


GPT-4o 中的 "o" 代表 "omni"(全能)。新的模型允许 ChatGPT 以更快的速度和更高的质量处理 50 种不同的语言,并且还将通过 OpenAI 的 API 提供,使开发人员可以从今天开始使用新模型构建应用程序,Murati 说道。


她还补充说,GPT-4o 的速度是 GPT-4 Turbo 的两倍,成本只有一半。


OpenAI 的团队成员展示了新模型的音频功能,例如,要求它在公共演讲前帮助安抚某人的情绪。OpenAI 研究员 Mark Chen 表示,该模型能够 "感知你的情绪",并补充说该模型还能够处理用户的打断。团队还要求它分析用户的面部表情,以评论这个人可能正在经历的情绪。


“嘿,你好啊?今天我能怎么让你高兴起来呢?” 当用户打招呼时,ChatGPT 的音频模式这样回答道。


根据博客文章,公司计划在未来几周内测试语音模式,并为 ChatGPT Plus 的付费订阅用户提供早期访问权限。OpenAI 还表示,新模型可以在短至 232 毫秒、平均 320 毫秒内响应用户的音频提示,这与人类在对话中的反应时间相似。


Chen 演示了该模型讲述睡前故事的能力,并要求它改变声音的语调,使其更加戏剧化或机器人化。他甚至要求它唱出这个故事。


此外,OpenAI 表示,新模型甚至可以在音频模式下作为翻译器使用。Chen 演示了这个工具在他用英语讲话的同时,能够听懂 Murati 说意大利语,并在他们对话时将语言翻译成各自的语言。


团队成员还展示了该模型解决数学方程和帮助编写代码的能力,使其成为微软自己的 GitHub Copilot 的一个更强有力的竞争者。


对于 OpenAI 来说,这次发布是自今年 8 月推出 ChatGPT Enterprise(AI 聊天机器人的商业版本)以来,公司最大的一次宣布。据 OpenAI 首席运营官 Brad Lightcap 告诉记者,这个工具的开发时间不到一年,并得到了 20 多家不同规模和行业公司的帮助。


OpenAI、微软和谷歌在GenAI的热潮中处于领先地位,因为几乎每个行业的公司都在竞相将 AI 驱动的聊天机器人和代理添加到关键服务中,以避免被竞争对手甩在后面。本月早些时候,OpenAI 的竞争对手 Anthropic 宣布了其首个企业产品和一个免费的 iPhone 应用程序。


根据 PitchBook 的数据,2023 年有近 700 笔GenAI交易,总投资创纪录达到 291 亿美元,比前一年增长了 260% 以上。预计市场在十年内的收入将超过 1 万亿美元。


业内一些人士对未经测试的新服务快速上市表示担忧,学者和伦理学家对这项技术传播偏见的倾向感到不安。


自 2022 年 11 月 ChatGPT 推出以来,它当时创下了历史上消费者应用程序增长最快的记录,现在大约有 1 亿活跃用户。OpenAI 表示,超过 92% 的财富 500 强公司正在使用该平台。


Murati 在周一的活动中表示,OpenAI 希望“消除一些技术的神秘感”。


“在接下来的几周内,我们将向所有人推出这些功能,”她说。


根据周一的一篇博客文章,新模型将首先在周二向 ChatGPT Plus 和 Team 的客户推出,之后再向 Enterprise 客户推出。从周一开始,ChatGPT 的免费用户也可以使用新模型,但有使用限制。ChatGPT Plus 的用户将拥有比免费用户多五倍的消息容量,而 ChatGPT Team 和 Enterprise 的客户将有更高的使用限制。


Murati 在直播活动的最后感谢了 Nvidia 的首席执行官 Jensen Huang 及其公司提供了必要的图形处理单元 (GPU) 来支持 OpenAI 的技术。


“我只想感谢不可思议的 OpenAI 团队,同时也感谢 Jensen 和 Nvidia 团队为我们带来了最先进的 GPU,使今天的演示成为可能,”她说。

相关文章
|
13天前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
6天前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
150 73
|
15天前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
36 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
1天前
|
存储 人工智能 算法
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
|
23天前
|
机器学习/深度学习 人工智能 自然语言处理
还不懂如何与AI高效交流?保姆级且全面的chatGPT提示词工程教程来啦!(一)基础篇
这篇文章是一篇保姆级的教程,旨在全面介绍如何与AI进行高效交流,包括ChatGPT的前世今生、应用场景以及提问的基础技巧。
还不懂如何与AI高效交流?保姆级且全面的chatGPT提示词工程教程来啦!(一)基础篇
|
8天前
|
人工智能 自动驾驶 云计算
【通义】AI视界|谷歌大模型被盯上!欧盟最高隐私监管机构对PaLM2模型展开调查~
本文汇总了近24小时内科技领域的五大要闻:欧盟对谷歌PaLM2模型启动隐私合规调查;甲骨文推出Zettascale云计算集群,集成大量NVIDIA GPU强化计算力;红杉资本偏好AI应用投资而非模型构建;夸克新推智能助手CueMe,支持长达2万字内容生成;沃尔沃与NVIDIA合作,未来车型将采用后者先进芯片提升自动驾驶功能。以上内容由通义自动生成。
|
10天前
|
机器学习/深度学习 人工智能 供应链
【通义】AI视界|OpenAI的“草莓”模型预计两周内上线!像人类一样思考!
本文介绍了近期科技领域的五大亮点:OpenAI即将推出的新一代AI模型“草莓”,具备高级推理能力;亚马逊测试AI技术加速有声读物生产,通过语音克隆提高效率;Kimi API新增联网搜索功能,拓宽信息来源;顺丰发布物流行业专用大语言模型“丰语”,提升工作效率;钉钉推出“AI班级群”功能,改善家校沟通体验。更多详情,请访问[通义官网]。
|
14天前
|
人工智能 自然语言处理 数据挖掘
【通义】AI视界|性能超越GPT-4o?最强大的开源AI模型来了……
本文介绍了五项最新AI技术动态,包括性能超越GPT-4o的开源AI模型Reflection70B、智谱清言App限时免费的视频通话功能、哈佛医学院研发的癌症诊断AI模型CHIEF、Replit推出的AI编程助手,以及英特尔与日本AIST合作设立的芯片制造研发中心。这些进展展示了AI领域的快速创新与广泛应用。更多详情,请访问通义官网体验。
|
12天前
|
测试技术 人机交互
没有等来OpenAI开源GPT-4o,等来了开源版VITA
【9月更文挑战第9天】近日,论文《Towards Open-Source Interactive Omni Multimodal LLM》介绍了VITA,一种基于Mixtral 8×7B的新型开源多模态大语言模型,能处理视频、图像、文本和音频等多模态数据,并提供先进的人机交互体验,填补了开源模型在多模态能力上的空白。经多任务学习及指令微调,VITA在多个基准测试中表现出色,但仍存在基础能力和嘈杂音频处理等方面的局限。更多详情见论文:https://arxiv.org/pdf/2408.05211
32 3
|
13天前
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。