By 超神经
2019 新年里,人工智能领域的第一场口水战已经在 Twitter 打响,这次的主题是由媒体网站 Venturebeat 的一个失误所引发的。
这场口水战中,包括 Yann LeCun、Andrew Ng、诺贝尔奖得主 James D. Watson 都被点名,而最终又指向了关于 AI 职场中的性别偏见。
这次亲自上场撕的主人公是 Anima Anandkumar,虽然不如第一梯队的几位大佬著名,但她也是在机器学习领域里举足轻重的人物。
Anima 目前在 NVIDIA 担任机器学习研究总监,同时也是加州理工计算机与数学系的终身教授。在英伟达之前,Anima 还曾就职于 AWS 担任首席科学家,也曾在 MIT 和微软研究院都工作过。
她的研究涉及大规模学习、深度学习、概率模型和非凸优化等领域,还是 NeurIPS 的专业评审,这次 NeurIPS 的改名,Anima 也做了很多推动。
就在今天,Anima 发表和回复了近 50 条 Twitter ,和其他网友一起疯狂抗议媒体网站 Venturebeat ,在一篇新闻稿中使用了一张处理不恰当的照片。
除了这张照片之外,Anima 还激愤地表达了人工智能科研领域里,一直以来存在的性别歧视,和自己曾经遭遇的对待。
争吵源头:「无头 」AI 女科学家
在 1月 2 日,美国知名的科技媒体 Venturebeat 网站上发布了一篇新闻,是关于四位 AI 领军人物对于 2019 年人工智能发展的预测,其中提到了 Yann Lecun、吴恩达、Hilary Mason 和 Rumman Chowdhury 对于今年人工智能的发展看法。
这篇新闻的标题和内容都没啥大问题,可是题图却出了大大的纰漏。
在 Venturebeat 的网站中,这篇文章的配图中,两位女性科学家的脑袋刚好被截掉了。
这两位只见其身,不见其头的女科学家,分别是云服务巨头 Cloudera 的机器学习负责人 Hilary Mason,还有一位是埃森哲的人工智能责任事业部门的高级监理 Rumman Chowdhury。
首先是由网友发现了这个问题,发了个推吐槽:
也让很多网友觉得无论是何种原因,一家媒体网站出现这样的配图都是不应该的。不过直到目前,这篇文章在 Venturebeat (https://venturebeat.com/)的官方网站上,依旧没有被修改。
女科学家们玻璃心了?
关于这件事的讨论从中国时间的昨天下午,一直到现在仍在进行。Anima 就这篇文章在推特上发出自己的声音,她认为 Venturebeat 这一行为很不应该,应该尽快修改。
一石激起千层浪,又有一位 AI 大拿跳了出来,说这是 Twitter 应该背锅,这只是抓取图片不全而已。
这位跳出来的仁兄就是 Thomas G. Dietterich,他的 Twitter 粉丝里还有吴恩达、李飞飞、Lecun。前段时间由 Lecun 引发关于「AI 伦理」的口水仗里,Thomas 也是积极参与的活跃份子。
Anima 站出来表示,她觉得 Venturebeat 的这篇文章的失误也是因为女性在科技圈里一直以来不受重视,他还举了自己遇到的几个职场中的例子,比如:
这位跳出来的仁兄就是 Thomas G. Dietterich,他的 Twitter 粉丝里还有吴恩达、李飞飞、Lecun。前段时间由 Lecun 引发关于「AI 伦理」的口水仗里,Thomas 也是积极参与的活跃份子。
Anima 站出来表示,她觉得 Venturebeat 的这篇文章的失误也是因为女性在科技圈里一直以来不受重视,他还举了自己遇到的几个职场中的例子,比如:
在接受 Nature 采访时,她谈到了 #protestNIPS 话题( NIPS 改名为 NeurIPS) 和@InclusionInML (一个倡导提高机器学习中的包容性和消除偏见的组织)时,Nature 并没有着重强调女性科学家在这些工作中的贡献,而是花了很大的笔墨去写网红机器人索菲亚。
她认为媒体为了蹭热点吸引眼球,也用男权社会的视角去处理新闻内容,这也是让女性在科技节不受重视的原因之一。
NeurIPS 的求生欲:增加女性主席
相比于 Venturebeat 在编辑上的小失误,NeurIPS 就在去年体现了自己极大的求生欲。
在刚刚结束不久的大会中,NeurIPS 不仅紧急更换了沿用多年的名字,还在除主席之外的四位大会项目中,一连加入了两位女性主席。
她主要的研究方向是计算机视觉和机器学习,再说细一点的话,就是视觉搜索和物体识别。
她最有影响力的研究成果:Pyramid Match Kernel,是图像匹配方面的算法,她 2005 年合作的论文《The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features》, 是该领域经典算法之一。
她在学术上的高产和高质量,许多男性研究者都望尘莫及。
消除 AI 的偏见,更要消除社会的偏见
工程师这个行业中,性别比例本来就十分悬殊,能够脱颖而出的女性工程师或者科学家也是不常有。
前段时间,亚马逊所使用筛选简历的 AI 工具,被曝出有性别歧视的嫌疑,被官方紧急下线。虽然事后表示这是训练出来的一个错误,但也客观的表明了这个领域内,女性还是少数和被忽视的群体。
基于数据学习的 AI 程序,它所学习的数据和模型,来自真实的社会,如果这个领域普遍都是男性视角,就算是无意识的传递,也会让 AI 学习到人群的偏见。
不过随着社会的发展,在 AI 领域,也涌现了越来越多的女性科学家。人们的关注程度也让女性在这个领域也占据着更重要的地位。