7 Papers & Radios | 联邦图机器学习综述;基于知识图谱和分子图的药物筛选模型(2)

简介: 7 Papers & Radios | 联邦图机器学习综述;基于知识图谱和分子图的药物筛选模型


论文 5:A Neural Network Solves, Explains, and Generates Universitymath Problems by Program Synthesis and Few-shot Learning Athuman Level


摘要:MIT 的学生可以不费吹灰之力就能解决多元微积分、微分方程、线性代数等数学课题,但这些却把机器学习模型给难倒了。因为机器学习模型只能回答小学或高中水平的数学问题,而且它们并不总是能找到正确答案。

MIT、哥伦比亚大学、哈佛大学和滑铁卢大学的研究者,他们使用小样本学习、OpenAI 的 Codex 来自动合成程序,在几秒钟内解决大学数学问题,达到了人类水平。这项研究发表在《美国国家科学院院刊》(PNAS)上。

该模型对生成的解决方案还能进行解释,并能快速生成新的大学数学问题。当研究人员向学生展示这些机器生成的问题时,学生们甚至无法判断这些问题是由算法生成的还是由人类生成的。这项研究还可以用来简化课程内容生成,这对拥有数千名学生的学校和大型开放式网络课程尤其有用。该系统还可以充当在线导师,向学生展示解决数学问题的步骤。

出自六门 MIT 课程的示例问题和解。

推荐:AI 几秒钟内解决大学数学问题,拿到 80% 多准确率,还充当出题老师。

论文 6:Perturbed and Strict Mean Teachers for Semi-supervised Semantic Segmentation


摘要:在本工作中,来自阿德莱德大学、乌鲁姆大学的研究者针对当前一致性学习出现的三个问题做了针对性的处理, 使得经典的 teacher-student 架构 (A.K.A Mean-Teacher) 在半监督图像切割任务上得到了显著的提升。该研究已被计算机视觉顶会 CVPR 2022 大会接收。

方法概览。

推荐:基于一致性的半监督语义分割方法:刷新多项 SOTA,还有更好泛化性。

论文 7:Collaboration Equilibrium in Federated Learning


摘要:联邦学习(federated learning,FL)是指在保护数据隐私的前提下实现分布式多数据源模型训练的学习范式。由于各个数据源的统计异质性在现实场景下广泛存在,同时统计异质性也给联邦学习下合作式的模型学习带来了负面影响,甚至会损害模型性能。因而,这也带来了一个基本问题:一个机构(client)加入合作网络能否获得增益,即参与合作是否意味着自身模型性能的提升。事实上,一个机构并非总是与所有机构合作才能带来自身性能的最大化。

清华大学三年级博士生崔森等人建立了联邦学习下的合作均衡理论,其中各个机构只与对其有利的机构合作,最大程度上避免负迁移的影响,从而实现自身模型性能的最大化。具体地,提出通过两个公理刻画合作均衡:自私原则:没有利益,就没有合作;理性原则:各个机构致力于最大化自身模型性能。他们还提出增益图(benefit graph)的概念,描述了每个机构的最优合作者,并提出了一种基于帕累托优化的方法确定最优合作者。最后在理论上证明了合作均衡的存在性,并提出了一种基于图论的方法,实现 O(V+E) 时间复杂度下的合作均衡。

算法 1:实现合作均衡。

推荐:从自私和理性原则的视角,看联邦学习下的合作均衡理论。


ArXiv Weekly Radiostation

机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:



本周 10 篇 NLP 精选论文是:


1. Recognizing and Extracting Cybersecurtity-relevant Entities from Text.  (from Tim Finin)2. Unravelling Interlanguage Facts via Explainable Machine Learning.  (from Fabrizio Sebastiani)3. Smoothing Entailment Graphs with Language Models.  (from Mark Steedman)4. Dynamic Planning in Open-Ended Dialogue using Reinforcement Learning.  (from Yossi Matias, Craig Boutilier)5. GTrans: Grouping and Fusing Transformer Layers for Neural Machine Translation.  (from Jian Yang, Haoyang Huang)6. Composable Text Control Operations in Latent Space with Ordinary Differential Equations.  (from Xiaodong He, Shuguang Cui)7. Building an Efficiency Pipeline: Commutativity and Cumulativeness of Efficiency Operators for Transformers.  (from Jimmy Lin)8. Improving Distantly Supervised Relation Extraction by Natural Language Inference.  (from Qi Li)9. What Can Transformers Learn In-Context? A Case Study of Simple Function Classes.  (from Percy Liang)10. Efficient Fine-Tuning of Compressed Language Models with Learners.  (from James J. Clark)


本周 10 篇 CV 精选论文是:1. Automatic dense annotation of large-vocabulary sign language videos.  (from Andrew Zisserman)2. TAG: Boosting Text-VQA via Text-aware Visual Question-answer Generation.  (from Larry S. Davis)3. Revisiting the Critical Factors of Augmentation-Invariant Representation Learning.  (from Xiangyu Zhang)4. Explicit Occlusion Reasoning for Multi-person 3D Human Pose Estimation.  (from Alan Yuille)5. Global-Local Self-Distillation for Visual Representation Learning.  (from Tinne Tuytelaars)6. High Dynamic Range and Super-Resolution from Raw Image Bursts.  (from Jean Ponce, Julien Mairal)7. Matching with AffNet based rectifications.  (from Jiří Matas)8. Vision-Centric BEV Perception: A Survey.  (from Yu Qiao, Ruigang Yang, Dinesh Manocha)9. Augmenting Vision Language Pretraining by Learning Codebook with Visual Semantics.  (from C.-C. Jay Kuo)10. Statistical Attention Localization (SAL): Methodology and Application to Object Classification.  (from C.-C. Jay Kuo)



本周 10 篇 ML 精选论文是:1. Flow Annealed Importance Sampling Bootstrap.  (from Bernhard Schölkopf)2. Boosted Off-Policy Learning.  (from Thorsten Joachims)3. Link Prediction on Heterophilic Graphs via Disentangled Representation Learning.  (from Charu Aggarwal)4. A Hybrid Complex-valued Neural Network Framework with Applications to Electroencephalogram (EEG).  (from Xiaogang Wang)5. Bayesian regularization of empirical MDPs.  (from Inderjit Dhillon)6. AdaCat: Adaptive Categorical Discretization for Autoregressive Models.  (from Pieter Abbeel)7. Semi-supervised Learning of Partial Differential Operators and Dynamical Flows.  (from Lior Wolf)8. Robust Graph Neural Networks using Weighted Graph Laplacian.  (from Sandeep Kumar)9. De-biased Representation Learning for Fairness with Unreliable Labels.  (from Yang Wang)10. Understanding the classes better with class-specific and rule-specific feature selection, and redundancy control in a fuzzy rule based framework.  (from Nikhil R. Pal)

相关文章
|
3月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
770 109
|
4月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
月之暗面发布开源模型Kimi K2,采用MoE架构,参数达1T,激活参数32B,具备强代码能力及Agent任务处理优势。在编程、工具调用、数学推理测试中表现优异。阿里云PAI-Model Gallery已支持云端部署,提供企业级方案。
332 0
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
|
7月前
|
人工智能 JSON 算法
【解决方案】DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen 系列是阿里云人工智能平台 PAI 推出的蒸馏语言模型系列,包括 DistilQwen2、DistilQwen2.5、DistilQwen2.5-R1 等。本文详细介绍DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践。
|
8月前
|
人工智能 运维 API
PAI-Model Gallery云上一键部署阶跃星辰新模型Step1X-Edit
4月27日,阶跃星辰正式发布并开源图像编辑大模型 Step1X-Edit,性能达到开源 SOTA。Step1X-Edit模型总参数量为19B,实现 MLLM 与 DiT 的深度融合,在编辑精度与图像保真度上实现大幅提升,具备语义精准解析、身份一致性保持、高精度区域级控制三项关键能力;支持文字替换、风格迁移等11 类高频图像编辑任务类型。在最新发布的图像编辑基准 GEdit-Bench 中,Step1X-Edit 在语义一致性、图像质量与综合得分三项指标上全面领先现有开源模型,比肩 GPT-4o 与 Gemin。PAI-ModelGallery 支持Step1X-Edit一键部署方案。
|
5月前
|
机器学习/深度学习 算法 安全
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
本文探讨在敏感数据上应用差分隐私(DP)进行机器学习的挑战与实践。通过模拟DP-SGD算法,在模型训练中注入噪声以保护个人隐私。实验表明,该方法在保持71%准确率和0.79 AUC的同时,具备良好泛化能力,但也带来少数类预测精度下降的问题。研究强调差分隐私应作为模型设计的核心考量,而非事后补救,并提出在参数调优、扰动策略选择和隐私预算管理等方面的优化路径。
410 3
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
|
4月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署gpt-oss系列模型
阿里云 PAI-Model Gallery 已同步接入 gpt-oss 系列模型,提供企业级部署方案。
|
5月前
|
机器学习/深度学习 人工智能 算法
Post-Training on PAI (4):模型微调SFT、DPO、GRPO
阿里云人工智能平台 PAI 提供了完整的模型微调产品能力,支持 监督微调(SFT)、偏好对齐(DPO)、强化学习微调(GRPO) 等业界常用模型微调训练方式。根据客户需求及代码能力层级,分别提供了 PAI-Model Gallery 一键微调、PAI-DSW Notebook 编程微调、PAI-DLC 容器化任务微调的全套产品功能。
|
6月前
|
存储 人工智能 运维
企业级MLOps落地:基于PAI-Studio构建自动化模型迭代流水线
本文深入解析MLOps落地的核心挑战与解决方案,涵盖技术断层分析、PAI-Studio平台选型、自动化流水线设计及实战构建,全面提升模型迭代效率与稳定性。
263 6
|
5月前
|
机器学习/深度学习 分布式计算 Java
Java 大视界 -- Java 大数据机器学习模型在遥感图像土地利用分类中的优化与应用(199)
本文探讨了Java大数据与机器学习模型在遥感图像土地利用分类中的优化与应用。面对传统方法效率低、精度差的问题,结合Hadoop、Spark与深度学习框架,实现了高效、精准的分类。通过实际案例展示了Java在数据处理、模型融合与参数调优中的强大能力,推动遥感图像分类迈向新高度。

相关产品

  • 人工智能平台 PAI