CVPR一次中66篇,大装置一天训练完GPT-3,商汤准备迎战未来

简介: 商汤的「既要…… 又要…… 还要……」

6 月 19 日,CVPR 2021 在线上拉开帷幕。作为计算机视觉三大顶会之一,本届 CVPR 大会一共接收了 7039 篇有效投稿,最终有1366 篇被接收为poster,295篇被接收为oral,接收率大概为 23.6%


微信图片_20211205152509.jpg在前段时间公布的最佳论文候选名单中,我们发现,华人一作论文占据了半壁江山(16/32)。当然,这一现象并非偶然。其实,早在九年前,华人学者就已经凭借其创新精神在国际 CV 顶会上大放异彩,比如香港中文大学的汤晓鸥团队:2012 年 CVPR 大会仅有的两篇深度学习文章均出自其实验室。2011—2013 年间,该实验室又在 ICCV 和 CVPR 上发表了 14 篇深度学习论文,占据全世界在这两个会议上深度学习论文总数(29 篇)的近一半。


2014 年,汤晓鸥等人创办了商汤科技,这种创新精神也被刻入商汤的基因并延续至今。


在今年的 CVPR 大会上,商汤共有 66 篇论文被接收,远高于业界平均水平。此外,在同期举办的挑战赛中,商汤 - 南洋理工联合实验室(S-Lab)团队一举斩获 CVPR 2021 NTIRE 视频理解挑战赛三项冠军,包括视频超分辨率、重度压缩视频质量增强(固定量化参数,保真度)和重度压缩视频质量增强(固定比特率,保真度)赛道。商汤研究院团队则摘得 CVPR 2021 ActivityNet 时序动作检测任务弱监督学习赛道冠军。


AI 领域发展到今天,如何保持创新活力、加快产业落地是所有企业面临的共同问题。在这一点上,商汤的态度是明确的「既要…… 又要…… 还要……」,即既要保持技术创新的领先,又要加快产业落地,同时还要建设面向整个生态、整个社区的 AI 基础设施,推动 AI 进入工业化发展阶段。


从今年的 CVPR 和商汤最近的一些动向中,我们可以看出这家公司为实现上述愿景所做的努力。在这篇文章中,我们就来聊聊这一话题。


技术创新不能落下


对于商汤今年在 CVPR 中取得的成绩,该公司联合创始人、香港中文大学 - 商汤科技联合实验室主任林达华评价说,「对商汤来说,AI 的研究和创新是刻在基因里的。从公司建立的第一天开始,甚至在建立之前,我们的创始团队就一直把 AI 的基础研究作为持续追求的理想。所以,尽管商汤的整个发展经历了很多阶段,我们也把 AI 落地到了越来越多的产业中去,但我们始终没有忘记,整个 AI 产业发展的最初原动力来自于技术的突破和创新。


商汤的这种理念在历年 AI 顶会中得到了很好的体现,今年的 CVPR 也不例外。从研究方向来看,该公司今年入选的论文分布在多个领域,包括长尾目标检测、轨迹预测、3D 点云补全、3D 场景重建、激光雷达 3D 目标检测等,其中的 3D 点云补全、3D 场景重建等相关论文还被收录为 Oral 论文


3D 点云是 3D 场景和目标的一种直观表示。然而,由于遮挡等问题的存在,扫描得到的 3D 点云通常是不完整的。因此,利用不完整的点云预测目标的完整 3D 形状成为一个重要问题。但是,现有的点云补全方法倾向于生成全局形状骨架,缺乏局部细节。而且,它们大多会学习一个确定性的部分到整体的映射,忽视人造物体中的结构关系。


商汤的研究者认为,点云补全应从残缺点云中学习关系性结构属性来恢复可信且高质量的完整点云形状。为了实现这一点,他们在论文中提出了一个两阶段的网络:首先对残缺点云做概率重建以恢复一个粗略的完整点云,再结合残缺点云做关系性结构增强达到高质量的补全。实验显示,该方法显著提高了生成的完整点云质量。这份研究可以结合很多单目深度感知传感器(如激光雷达或深度相机)完成对未知形状部分的恢复和预估。预估出的完整形状可以有效辅助很多下游任务,如 3D 形状分类、姿态检测、避障和交互。


微信图片_20211205152535.jpg

论文链接:https://arxiv.org/pdf/2104.10154.pdf


3D 场景重建是 3D 计算机视觉的一个核心任务。例如在增强现实(AR)应用中,为了在 AR 效果和周围的物理环境之间形成自然、沉浸式的互动,3D 重建需要非常精确、连贯,还要保持实时性。虽然使用 SOTA 视觉惯性 SLAM 系统可以精确跟踪摄像机运动,但由于重建质量低、计算要求高,基于图像的实时密集重建仍然是一个具有挑战性的问题。


在一篇CVPR最佳论文候选论文中,商汤的研究者提出了一种新的基于神经网络的单目实时场景 3D 重建系统——NeuralRecon。不同于以往基于深度图估计与融合的方法,NeuralRecon 直接基于图像特征预测用 TSDF 表示的局部 3D 表面,并创新地提出了一个联合 TSDF 重建与融合的框架。实验结果表明,该方法在准确率和速度方面都优于 SOTA 方法。

微信图片_20211205152554.jpg

论文链接:https://arxiv.org/pdf/2104.00681.pdf


微信图片_20211205152607.jpg

NeuralRecon的预训练模型在办公区域场景实时重建的结果

在被 CVPR 接收的众多论文中,我们发现,很多研究其实都是由应用场景驱动的,比如 3D 点云补全可能用于自动驾驶、机器人,3D 场景重建可以用于增强现实(AR)等。这也解释了商汤能够长期保持创新活力的重要原因。


林达华在采访中表示,商汤拥有一个业务跟学术连接的环境,是产生新的学术问题的肥沃土壤,「这些问题带给商汤很多激动人心的研究机会,牵引着我们的技术创新。」


产业落地步伐加快


积累了那么多技术,终究是要拿出来用的。在前段时间举办的上海国际汽车工业展览会上,商汤将多年积累的 AI 技术打包,一股脑地呈现在了多款智能汽车上。

这个打成的「包」就是 Sense Auto 智能汽车解决方案,包括 SenseAuto Pilot 智能驾驶和 SenseAuto Cabin 智能车舱。

微信图片_20211205152631.jpg


SenseAuto Pilot 智能驾驶方案中,最引人关注的 SenseAuto Pilot-P 驾驶领航方案可实现高速公路场景下的车道跟随、超车自动变道、导航自动变道、自动上下匝道、匝道通行等多种 L2 + 级高级辅助驾驶功能;已装在多个量产车型中的 SenseAuto Pilot-V 前视视觉感知方案可以提供 200m 前向有效探测,支持自动紧急制动、车道保持辅助、双预警功能,还能有效应对近距离行人 / 非机动车横穿等复杂场景。此外,车道分离 / 汇合点、路面标识、交通灯形状、施工区域锥形筒等长尾场景元素的感知也在这套系统的能力范围之内。


整套系统背后涉及的技术包括激光雷达高精 3D 感知、点云噪声识别、轨迹预测、长尾目标检测等,这些都出现在了今年的 CVPR 接收论文中。商汤表示,该系统能够在最大程度上发挥摄像头、毫米波雷达、激光雷达等传感器的感知优势,显著提升 3D 目标的检测和跟踪性能,提供智能的道路动态目标轨迹预测,支撑系统安全可靠地拓展至城市工况场景。

微信图片_20211205152647.jpg

SenseAuto Pilot-P 驾驶领航方案可以精准识别道路分离、合并点,帮助车辆在匝道内进行合理决策,实现自动上下匝道的 L2 + 级高级辅助驾驶功能


SenseAuto Cabin 智能车舱解决方案同样令人眼前一亮,涵盖 SenseAuto Cabin-D 驾驶员感知系统、SenseAuto Cabin-O 座舱感知系统 、SenseAuto Cabin-K 智能进入、SenseAuto Cabin-V 座舱域视觉控制器等模块。这些功能可以为驾驶员提供无接触的车舱交互,减少点触操作频率;对疲劳、分心以及接打手机等危险行为进行提醒;还能自动感知是否有儿童被独自遗留在车内等。这背后离不开成熟的目标检测、跟踪、识别等视觉算法。


目前,商汤在智能车舱领域已经和全球超过 30 家头部企业展开合作,定点量产项目数超过 30 个,覆盖车辆总数超过 1300 万辆

微信图片_20211205152703.jpg

搭载了商汤 SenseAuto Cabin 智能车舱解决方案的 WEY 全新旗舰车型摩卡首次亮相上海车展。


从智能驾驶到智能车舱,可以看到商汤落地的步伐正在加快。这不仅得益于其与生俱来的创新能力,也离不开丰富的算力资源和算法、数据等方面的积累。这些成果共同构成了商汤正在建设的AI基础设施——SenseCore商汤AI大装置。林达华透露,这个 AI 大装置不仅帮助商汤缩短了创新验证的周期,还将成为未来十年重要的 AI 基础设施,逐渐提供开放服务,演变成一个面向整个生态、整个社区的具有公共性质的设施。


AI 大装置蓄势待发


在上海临港新片区,一座宛如芯片的建筑群将在今年年底投入使用。这是商汤正在建设的人工智能计算中心(Artificial Intelligence Data Center,AIDC),全部建成后 AI 计算峰值速度将达到 3740 Petaflops(1 petaflop 等于每秒 1 千万亿次浮点运算),可以在一天之内把人类石器时代到现在所有时间录成的视频计算完成,也能在一天之内完整训练 OpenAI 的千亿参数模型 GPT-3

微信图片_20211205152718.jpg


但是,AIDC 仅仅是商汤 AI 大装置的一部分,而远非全部。从结构上看,整个大装置共分为三层:

  • 一是算力层。该层以 AIDC 为基础,兼容 AI 芯片和 AI 传感器的强大能力。
  • 二是平台。这一层融合了商汤的数据平台、高性能计算引擎、深度学习训练框架(SenseParrots)以及模型生产平台等,打造了创新的人工智能通用算法开发平台,实现从数据存储、标注到模型训练、生产、部署、测试的全链路、批量化过程。
  • 三是算法层。这一层包含各种算法工具箱,不仅有城市交通、园区等高频应用场景算法,还有火灾、垃圾检测等长尾低频的算法。截止目前,商汤已经推出 13000 多个技术模型,以及 17000 多个商业模型。同时他们也推出了 OpenMMLab 开源算法体系,该体系已在 Github 上获得 3 万多颗星。


建设这么一个 AI 大装置需要投入大量的精力(AIDC 总投资高达 56 亿元),但在商汤看来,这是面向未来必须迈出的一步。

「在经历了几年的产业化之后,AI 已经到了一个全新的阶段,可以说一些简单的问题已经基本上被解决了。下一步就是要深入到更广泛的行业里面,需要新一轮的突破和创新。」林达华说道。


GPT-3 等超大模型的出现让商汤看到了实现下一个突破的希望:「以前我们都是针对一些具体的问题或者高度定制化的场景去生产一些中小模型。但随着 AI 落地推演到越来越广的领域,成千上万的具体问题(长尾问题)开始涌现。如果每个问题都有很多的研究人员投入进去,那么我们就很难深化 AI 的进一步落地。这个时候,整个行业需要通用性更强的模型,用一个模型支撑更多的任务。一方面,这种模型能够让 AI 的研发、落地效率得到一个质的提升;另一方面,它们能够更好地去回应综合场景的问题,比如智慧城市、智慧医疗等。这些任务都需要通过多个任务综合解决。」


但是,模型的通用性越强,需要的数据、算力往往也越多,这便是商汤建设 AI 大装置的底层逻辑。


当然,AI 大装置也不是一朝一夕就建成的。其实早在 2018 年 4 月,商汤就已经开始布局人工智能计算原型机研制项目,虽然当时并不被看好。但好在,后续出现的一些大模型已经显示出了解决长尾问题的巨大潜力。


如今,这个 AI 大装置已经开始发挥它的作用。林达华透露说,「我们几乎所有的研究工作都是在这个大装置的基础上进行的。」「它为做算法研究的同学提供了充足的算力,使他们能够快速地进行实验试错。」此外,大装置中所积累的实用工具也缩短了创新的验证周期。


借助大装置,商汤已经在超大模型技术研究方面取得一定成绩。例如在计算机视觉的卷积神经网络(CNN)领域,通常模型参数都在 1 亿以下,但商汤的 AI 框架 SenseParrots 能支持 50 亿参数超大视觉模型的训练。AIDC 完全投入使用后,计划支持的超大视觉模型训练参数可达更高的数量级。


由于可以显著降低 AI 落地的门槛,商汤的 AI 大装置对于推动整个人工智能行业的发展也有着重要的战略意义。林达华表示,「从整个社会的角度来说,AI 基础设施将逐渐从一个企业内部的平台,发展为逐渐提供开放服务,并最终演变成一个面向整个生态、整个社区的具有公共性质的设施。这些设施的构建能够有效地支撑整个生态,最终使得整个 AI 人才的基础变得更加宽广,从而进一步推动 AI 产业的深化。」

相关文章
|
存储 人工智能 调度
GPT-4 Turbo 发布 | 大模型训练的新时代:超算互联网的调度与调优
算力对训练模型的重要性日益凸显。随着大模型训练的流行,全球显卡和算力正在快速增长。算力后周期市场也在迅速崛起。其中“后”更多是指后服务市场,涵盖从显卡服务器到货IDC之后,形成稳定算力到输出稳定商业推理结果全过程。该过程主要涉及云化、调优、调度、部署、落地和数据管理等环节。
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
143 60
|
16天前
|
人工智能 语音技术 UED
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
36 1
|
4月前
|
机器学习/深度学习 自然语言处理 Swift
从头构建和训练 GPT-2 |实战
从头构建和训练 GPT-2 |实战
53 4
|
4月前
|
数据采集 人工智能 自然语言处理
GPT被封锁了怎么办?轻松获取高质量的数据,训练自己的人工智能和大语言模型。
2023年标志着AI大模型时代的到来,GPT-4等模型在多个领域展现巨大潜力。然而,OpenAI对中国区服务的限制提出了挑战。本文探讨如何使用亮数据代理获取训练大模型所需的数据,包括确定目标、选择代理、数据抓取、清洗,并以西方历史为例,展示如何使用亮数据的静态住宅代理稳定获取DE区域数据,最终在国产AI平台上训练模型,提升知识库的丰富度和准确性。尽管面临外部障碍,但自主获取和训练数据能增强本土AI能力。
|
5月前
|
人工智能
拯救被掰弯的GPT-4!西交微软北大联合提出IN2训练治疗LLM中间迷失
【6月更文挑战第1天】研究人员为解决大型语言模型(LLM)的“中间迷失”问题,提出了IN2训练方法。此方法通过显式监督增强模型对长文本上下文的理解,改善了信息检索能力。应用IN2训练的FILM-7B模型在长文本任务上表现出色,尤其在NarrativeQA数据集上的F1分数提升了3.4。尽管面临数据合成和计算成本的挑战,IN2训练为LLM的进步开辟了新途径,预示着未来在长文本处理领域的潜力。论文链接:https://arxiv.org/pdf/2404.16811
72 5
|
6月前
|
自然语言处理
Meta首发变色龙挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA
【5月更文挑战第27天】Meta推出34B参数的多模态模型Chameleon,通过早期融合技术处理图像和文本,实现全面的多模态建模。在10万亿token的训练数据下,Chameleon在图像字幕生成和文本推理任务中刷新SOTA,展现出在混合模态生成和推理的潜力。然而,模型可能无法完全捕捉图像语义信息,且在某些特定任务上有优化空间。[论文链接](https://arxiv.org/pdf/2405.09818)
98 1
|
6月前
|
人工智能 安全 测试技术
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
【2月更文挑战第18天】Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
74 3
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
|
6月前
|
人工智能 PyTorch iOS开发
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
GPT-SoVITS是少有的可以在MacOs系统下训练和推理的TTS项目,虽然在效率上没有办法和N卡设备相提并论,但终归是开发者在MacOs系统构建基于M系列芯片AI生态的第一步。
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
|
6月前
|
自然语言处理 C++
GPT4 vs Llama,大模型训练的坑
训练大模型,总觉得效果哪里不对,查了三天,终于发现了原因
130 0

热门文章

最新文章

下一篇
无影云桌面