ICLR今日放榜!创纪录2594篇投稿,687篇被接受论文华人学者参与近半

简介: 今天,ICLR 2020放榜了!共收到2594篇论文提交,创历史新高,其中,有687篇被接受,接受率为26.5%。粗略统计,大概有320篇被接受的论文中有华人学者参与,占比47%。

微信图片_20220107193826.jpg


终于等到你!今天,ICLR 2020放榜了!


微信图片_20220107193822.jpg


ICLR 2020官宣


作为深度学习领域的顶级会议,ICLR 素有深度学习顶会 “无冕之王” 之称。ICLR 2020共收到2594篇论文提交,其中,有687篇被接受,接受率为26.5%。共计48篇Oral、108篇Spotlight和531篇posters


我们手动统计了一下,大概有320篇被接受的论文中有华人学者参与,占比47%。(人工统计如果有出入还望谅解)


放榜后,不少学者晒出了自己组的成绩:


微信图片_20220107193820.png


UC Berkeley EECS教授马毅表示,自己一位学生的论文被接受了。“这篇文章不是追求什么SOTA,而是重在帮助大家理解。把一个看似困难的问题做得简单明了,而且与以前的经典工作在思想算法上完全统一起来。如果大家关心PCA、ICA、以及DL(Dictionary Learning)的统一关系,这应该是迄今最简单完美的解释。”


查看地址:https://openreview.net/forum?id=SJeY-1BKDS


微信图片_20220107193817.png


CMU计算机学院副教授马坚表示,自己组的Hyper-SAGNN论文现在已被ICLR 2020接受。这是一种用于超图的通用图神经网络。在这项工作中,他们还展示了其对单细胞Hi-C数据的实用性。


查看地址:https://openreview.net/forum?id=ryeHuJBtPH


微信图片_20220107193815.jpg


UCSB计算机科学系助理教授王威廉参与的多篇论文被接受。包括陈文虎同学的“TabFact: A Large-scale Dataset for Table-based Fact Verification”,在这篇文章中,我们与腾讯人工智能实验室陈建树博士合作,提出了一个基于半结构化表格的自然语言推断任务与新的数据集。


以及熊文瀚同学的“Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model ”,在这篇文章中,我们与脸书人工智能实验室Ves Stoyanov等合作,提出了一个新的基于实体的预训练模型,在问答与实体类型预测任务上结果非常不错。


查看地址:

https://openreview.net/forum?id=rkeJRhNYDH

https://openreview.net/forum?id=BJlzm64tDH

接下来和大家分享ICLR 2020的总体结果。(以下“我们”代指ICLR 2020主委会)


687篇论文被接受,接受率为26.5%


我们继续向ICLR递交最出色的工作,但遗憾的是我们无法接受每一篇提交的论文。我们祝贺那些被接受的论文的作者,也希望无法被接受的论文的作者在正在进行的研究中取得成功。

 

ICLR 2020将接受687篇论文:

 

  • 在2594篇提交的论文中有687篇被接受,接受率为26.5%(687/2594);
  • 与往常一样,所有接受的论文都将作为posters展示;
  • 接受的论文中有23%将进行口头报告:108篇论文作为4分钟短报(Spotlights)展示;48篇论文有更长的10分钟发言时间。

 

审查过程与上一年基本没有变化,只是做了两个调整:我们不允许在讨论期间中途公开评论,以使作者和审查人员对讨论的要点有一个清晰的范围;我们有一个明确的一周时间进行替代和紧急审查。我们的大部分变化是在会议方案的结构上。

 

评分系统:为了使决策更加清晰,今年的评级系统进行了简化,去掉了中性评级的选项:我们只有拒绝、弱拒绝、弱接受和接受的选项。

 

需要为这些评级分配数值,以产生一个平均分数,尽管建议本身比数字更重要。

 

分数是不对称的,分别是1分、3分、6分和8分,这是有原因的。对于接受论文,我们担心审稿人不愿意给10分:您可能希望论文被接受,但并不意味着它应该得到10分。我们不想劝阻审稿人去强烈声明“接受”。此外,3分到6分之间的较大差距使得弱拒绝和弱接受之间有更大区分,以提供对建议的更多承诺并避免中立。尽管有些不常规,但得出的平均值对于指导决策还是有意义的。

 

119位AC和2200名审稿人支持ICLR 2020的挑战与改进


我们看到提交给会议的论文数量延续了前几年的趋势,继续显著增长,如下图所示。这使得建立经验丰富的大型审稿人库,变得越来越困难。今年我们很幸运得到了119位AC和2200名审稿人的支持。这个方案委员会的规模没有我们所希望的那么大,却承担了更多的评审负担。我们的AC非常棒! 他们每个人都有20篇论文,在决策方面做得非常好。正是由于他们的勤奋,才使得被接受的论文质量很高。

 

微信图片_20220107193812.png


向ICLR提交论文的数量随时间变化图


公开评议的归档性质:提交给ICLR的一部分作者要认识到,它也是一个归档系统,一旦论文被提交了,它最终将变为非匿名(无论它被撤回、拒绝或做出最终决定),并且不能被删除。一些作者似乎对这一原则有误解或理解不够,我们收到了许多要求删除提交论文的请求,或在一些极端情况下,提交者试图通过用空白PDF替换信息来规避这一政策。选择提交给ICLR就是要接受这一归档政策,未来也需要更加清晰的沟通。

 

双重提交和撤回:我们拒绝了少数论文(不到20篇),因为它们违反了“双重提交政策”。我们也撤回了大量论文,比如与其他会议截止日期临近和重叠,或与其他会议如ACL的“匿名政策”不相符。这是适得其反的,因为这消耗了许多审稿人的精力,他们本可以将工作用在其他方面。我们未来计划的一部分是考虑如何阻止这种结果。


ICLR 2020审稿人资质和评审机制引争议


前段时间,ICLR 2020审稿人资质和评审机制引发了不小的争议。南大周志华教授曝出:ICLR 2020竟然有47%的审稿人从来没有在本领域发表过论文。


微信图片_20220107193809.jpg


在7583位ICLR 2020审稿人中,1078人“不了解该领域”;2484人“读过该领域的很多论文”;2604人“发表过1-2篇论文”;1417人“在该领域发表论文很多年”。这样计算,47%的审稿人从来没有在该领域发表过论


周志华表示,open review仅当参与者都是相当level的专家才有效,否则更容易被误导。学术判断不能“讲平等”,一般从业者与高水平专家的见识和判断力不可同日而语,顶会能“顶”正是因为有高水平专家把关,但现在已不可能了。


此外,一篇ICLR 2020的论文在拿到完美的满分评价(8-8-8)后,额外的两位审稿人连续给了2个1分评价,也引发了激烈讨论。


可见ICLR 2020争议不小,不过还是要恭喜所有被接受的论文,我们也期待看到中国学者的研究获得最佳论文。


参考链接:


https://medium.com/@iclr_conf/ourhatata-the-reviewing-process-and-research-shaping-iclr-in-2020-ea9e53eb4c46


拓展阅读:


ICLR2020 双盲审稿资质雪崩:47%审稿人在领域内没发过论文,8分论文你也能审!

ICLR 2020满分论文慘遭两个1分拒绝!AI顶会评审机制再受质疑

相关文章
|
小程序 前端开发 安全
uniapp中解析markdown支持网页和小程序
对于`markdown`相信大家都不陌生,日常写文档或日常记录都用到的比较多,书写的是`markdown`的格式,实时预览的是转换后的`html`样式。本次实现的需求是在`uniapp`中转换`markdown`文本展示在不同的平台,主要平台是浏览器使用和微信小程序使用。
782 1
|
2月前
|
人工智能 移动开发 小程序
市面上的小程序平台对比
市面上的小程序平台对比
762 128
|
关系型数据库 MySQL 数据库
InnoDB事务和锁定信息:如何识别和解决阻塞查询问题
InnoDB事务和锁定信息:如何识别和解决阻塞查询问题
|
机器学习/深度学习 测试技术 决策智能
【论文速递】CVPR2022 - 全局跟踪Transformers
【论文速递】CVPR2022 - 全局跟踪Transformers
|
存储 缓存 自然语言处理
《VitePress 简易速速上手小册》第7章 高级功能与动态内容(2024 最新版)(下)
《VitePress 简易速速上手小册》第7章 高级功能与动态内容(2024 最新版)
426 1
|
关系型数据库 MySQL 数据库
MySQL-使用Percona进行备份与恢复
MySQL 使用Percona进行备份与恢复
398 0
|
自然语言处理 监控 并行计算
Qwen2大模型微调入门实战(完整代码)
该教程介绍了如何使用Qwen2,一个由阿里云通义实验室研发的开源大语言模型,进行指令微调以实现文本分类。微调是通过在(指令,输出)数据集上训练来改善LLMs理解人类指令的能力。教程中,使用Qwen2-1.5B-Instruct模型在zh_cls_fudan_news数据集上进行微调,并借助SwanLab进行监控和可视化。环境要求Python 3.8+和英伟达显卡。步骤包括安装所需库、准备数据、加载模型、配置训练可视化工具及运行完整代码。训练完成后,展示了一些示例以验证模型性能。相关资源链接也一并提供。
10369 5
Qwen2大模型微调入门实战(完整代码)
|
算法 定位技术
大地经纬度坐标系与Web墨卡托坐标系的转换
大地经纬度坐标系与Web墨卡托坐标系的转换
406 0
|
Python
Python中,将数据写入TXT文件
Python中,将数据写入TXT文件
651 3
|
机器学习/深度学习 运维 自然语言处理
TimeGPT:时间序列预测模型实例
TimeGPT:时间序列预测模型实例