你的可视化ML模型可以用显微镜来看了!OpenAI发布Microscope

简介: 一直以来,如何让机器学习算法这个“黑箱”可视化,是ML社区的共同努力方向。日前,OpenAI发布神经网络可视化库Microscope,已经使8个目前流行的神经网络可视化,最大亮点是它可以像实验室中的显微镜一样工作。

微信图片_20220108184722.png


机器学习算法(ML)通常被称为“黑箱”,人类并不知道AI是怎么决策的,算法从输入到输出的过程就像变魔术一样。

 

由于缺乏可解释性,ML可能会导致很多不可控的后果

 

比如, 2016年Facebook推出的聊天机器人,也因为整天接收无聊网友的对喷,吸收了人类的种种丑恶和偏见,变成了满脑子种族歧视的“嘴臭之王”


微信图片_20220108184725.png

 

2019年,包括Yoshua Bengio在内的许多研究人员联合指责Amazon的Rekognition服务表现出种族和性别偏见:它在预测图像中肤色较黑的女性与肤色较浅的男性时的错误率要高得多。

 

微信图片_20220108184727.png

 

如果我们无法解释AI决策的过程和动机,就无法信任这个智能系统。因此,ML社区一直致力于使算法的学习过程透明化。

 

日前,OpenAI让算法可视化又添新丁


OpenAI发布神经网络可视化库Microscope


QQ图片20220108184804.png


神经元可视化


目前的初始版本分析了8个流行的神经网络。该集合一共包含数百万张图像。

Microscope可以像实验室中的显微镜一样工作,帮助AI研究人员更好地理解具有成千上万个神经元的神经网络的结构和行为。


Microscope的初始模型囊括了8种历史留名、经过广泛研究的计算机视觉模型包括:


  • AlexNet——计算机视觉的一个里程碑,2012年ImageNet的获胜者,被引用超过50,000。


  • AlexNet (Places)——和经典AlexNet模型要有相同架构,但在Places365数据集上训练。


  • Inception v1——该网络也被称为GoogLeNet,2014年开创了ImageNet分类的最新水平。


  • Inception v1 (Places)——和经典Inception v1模型要有相同架构,但在Places365数据集上训练。


  • VGG 19——该网络于2014年推出,比Inception变体更简单,仅使用3x3卷积,没有分支。


  • Inception v3——2015年发布的这一版本改进了初始架构的性能和效率。


  • Inception v4——2016年发布,这是Inception架构的第四次迭代,重点是统一性。


  • ResNet v2 50——ResNets使用skip连接在更深层的网络中实现更强的渐变。这个变体有50层。

微信图片_20220108184951.png

微信图片_20220108184810.png微信图片_20220108184812.png


八个视觉神经网络模型集合


每种模型的可视化都带有一些场景,并且图像在OpenAI Lucid库中可用(见文末Github链接),可以在 Creative Commons许可下重复使用。


Microscope的主要价值在于提供持久的共享工件,以长期对这些模型进行比较研究。


Microscope想要实现两个愿景:希望具有相邻专业知识的研究人员(例如神经科学)能够更轻松地处理这些视觉模型的内部工作


希望它能通过了解神经元之间的连接,为电路协作工作做出贡献,从而可以对神经网络进行逆向工程


Microscope已开源,助力可解释性社区发展


在博客中,OpenAI详细介绍了Microscope的初衷。


OpenAI的Microscope是八个视觉神经网络模型的个重要层和神经元可视化的集合,通常在可解释性方面进行研究Microscope使我们更容易分析这些复杂的神经网络内部形成的特征


现代神经网络的能力是成千上万个神经元相互作用的结果。为了了解它们的行为,OpenAI希望能够快速轻松地详细研究这些神经元的相互作用,并分享这些观察结果在协作环境中尤其如此。例如,一位研究人员可能会推测:

InceptionV1 4c:447是一种汽车检测器,由车轮检测器(4b:373)和窗户检测器(4b:237)组成。


微信图片_20220108184814.png


447汽车检测器


微信图片_20220108184816.png


373车轮检测器


微信图片_20220108184818.png


237窗户检测器


Microscope的目标当有人提出某个观点时,其他人能够快速探索这些神经元,评估观点并发现新的东西


image.gifQQ图片20220108185233.png


Microscope可在几种常用的视觉模型中系统地可视化每个神经元,并使所有这些神经元可链接OpenAI希望这将以多种方式支持可解释性社区:


  1. 尽管这些模型和可视化已经开放源代码(我们帮助维护lucid库,该库用于在“Microscope”中生成所有可视化),但对神经元进行可视化却是乏味的。Microscope将探索神经元的反馈回路从几分钟变为几秒钟。这种快速反馈回路对于我们在进行中的回路项目中发现诸如高低频探测器之类的意外特性至关重要。


  1. 使模型和神经元之间可以相互链接,这使得对那些神经元的研究可以立即进行审查和进一步的探索。它还消除了关于正在讨论的模型和神经元的潜在混淆(五个InceptionV1版本我们又在讨论哪一个?)。这对合作非常有帮助,特别是当研究人员在不同的机构工作时。


  1. 作为ML的一个领域,可解释性的一个奇妙之处在于它的可访问性。与许多其他领域相比,它需要相对较少的计算权限。但系统的可视化神经网络仍然需要数百GPU小时。OpenAI希望,通过分享这个的可视化,可以帮助保持可解释性易于访问。


就像生物学家经常专注于研究几种“模式生物”一样,Microscope也专注于详细研究少量模型。OpenAI的初始版本包括八个经常被研究的视觉模型,以及他们发现在研究它们时特别有用的几种可视化技术。OpenAI计划在未来几个月内扩展到其他模型和技术上。


OpenAI表示非常期待看到社区将如何使用Microscope,他们认为它在支持回路协作(一个通过分析单个神经元及其连接或类似工作来逆向工程神经网络的项目)或类似工作上具有很大的潜力。


盘点近期其他神经网络可视化工具


除了Microscope的神经元可视化之外,近年来的一些工作还试图让ML模型的活动可视化。比如,Facebook的Captum于去年秋天推出,使用可视化来解释PyTorch的神经网络在多模式环境中做出的决策。


微信图片_20220108184823.png


2019年3月,OpenAI和Google发布了激活地图集技术,以可视化机器学习算法做出的决策。


微信图片_20220108184825.png


使用OpenAI的Web查看器浏览激活图集

 

微信图片_20220108184846.jpg


激活图集可以放大

 

还有2019年发布的、现已流行的TensorBoard工具用于可视化ML学习内容。


“现在,您可以托管和跟踪您的ML实验,并公开共享它们,而无需进行设置。只需上传您的日志并共享URL,以便其他人可以查看实验以及您使用TensorBoard所做的事情,” Google工程副总裁Megan Kacholia如是说。


微信图片_20220108184850.jpg


Microscope地址:

https://microscope.openai.com/models


开源地址:

https://github.com/tensorflow/lucid


参考链接:

https://openai.com/blog/microscope/

https://venturebeat.com/2020/04/14/openai-launches-microscope-to-visualize-the-neurons-in-popular-machine-learning-models/

https://venturebeat.com/2019/03/06/openai-and-google-detail-activation-atlases-a-technique-for-visualizing-ai-decision-making/

相关文章
|
23天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
70 2
|
2月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
312 73
|
1月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
2月前
|
人工智能 Serverless API
一键服务化:从魔搭开源模型到OpenAI API服务
在多样化大模型的背后,OpenAI得益于在领域的先发优势,其API接口今天也成为了业界的一个事实标准。
一键服务化:从魔搭开源模型到OpenAI API服务
|
2月前
|
搜索推荐 算法
模型小,还高效!港大最新推荐系统EasyRec:零样本文本推荐能力超越OpenAI、Bert
【9月更文挑战第21天】香港大学研究者开发了一种名为EasyRec的新推荐系统,利用语言模型的强大文本理解和生成能力,解决了传统推荐算法在零样本学习场景中的局限。EasyRec通过文本-行为对齐框架,结合对比学习和协同语言模型调优,提升了推荐准确性。实验表明,EasyRec在多个真实世界数据集上的表现优于现有模型,但其性能依赖高质量文本数据且计算复杂度较高。论文详见:http://arxiv.org/abs/2408.08821
57 7
|
1月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
39 0
|
2月前
|
机器学习/深度学习 人工智能 供应链
【通义】AI视界|OpenAI的“草莓”模型预计两周内上线!像人类一样思考!
本文介绍了近期科技领域的五大亮点:OpenAI即将推出的新一代AI模型“草莓”,具备高级推理能力;亚马逊测试AI技术加速有声读物生产,通过语音克隆提高效率;Kimi API新增联网搜索功能,拓宽信息来源;顺丰发布物流行业专用大语言模型“丰语”,提升工作效率;钉钉推出“AI班级群”功能,改善家校沟通体验。更多详情,请访问[通义官网]。
|
3月前
|
人工智能 机器人
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
|
2月前
|
人工智能 测试技术 开发者
微软发布强大的新Phi-3.5模型,击败谷歌、OpenAI等
微软发布强大的新Phi-3.5模型,击败谷歌、OpenAI等
|
5月前
|
机器学习/深度学习 人工智能 算法
OpenAI发布全新AI视频模型Sora:引领视频创作新纪元
OpenAI发布全新AI视频模型Sora:引领视频创作新纪元
下一篇
无影云桌面