7 Papers | AAAI 2023杰出论文奖;AI生成文本检测方法综述

简介: 7 Papers | AAAI 2023杰出论文奖;AI生成文本检测方法综述


本周论文包括获得 AAAI 2023 杰出论文奖的 CowClip 算法,以及现有 AI 生成文本检测方法的全面技术介绍


目录:

CowClip: Reducing CTR Prediction Model Training Time from 12 hours to 10 minutes on 1 GPU

DyStyle: Dynamic Neural Network for Multi-Attribute-Conditioned Style Editings

A Survey on Transformers in Reinforcement Learning

Rethinking with Retrieval: Faithful Large Language Model Inference

The Science of Detecting LLM-Generated Texts

Quantum machine learning beyond kernel methods

Organic reaction mechanism classification using machine learning

论文 1:CowClip: Reducing CTR Prediction Model Training Time from 12 hours to 10 minutes on 1 GPU



摘要:新加坡国立大学和字节跳动的研究者通过数学分析证明了在扩大批次时,对于不常见特征的学习率使用传统的学习率放缩,会影响学习的稳定性。

此外,研究者提出 CowClip 的梯度裁剪算法,可以简单有效扩展批大小。通过在 4 个 CTR 预估模型和 2 个数据集上进行测试,团队成功将原始批大小扩大了 128 倍,并没有造成精度损失。尤其是在 DeepFM 上,通过将批大小从 1K 扩大到 128K,CowClip 实现 AUC 超过 0.1% 的改进。在单块 V100 GPU 上,将训练时长从原本的 12 小时,缩短至只需 10 分钟,训练提速 72 倍。

CowClip 算法展示。

推荐:本文获得 AAAI 2023 杰出论文奖(Distinguised Paper)。

论文 2:DyStyle: Dynamic Neural Network for Multi-Attribute-Conditioned Style Editings


摘要:表情编辑技术在特效和修图场景有着广泛的应用。此前,剪映、醒图等 app 上的一键变笑脸模板一经上线就立刻成为出圈爆款;在抖音上,这一特效还引发了热烈的话题讨论,「笑得很好下次别笑了」一度登顶抖音话题热榜。

近日, 在 AI 领域的顶级会议 AAAI 2023 上,来自字节跳动智能创作团队的 3 篇关于表情编辑 GAN 技术的论文入选,揭示了上述爆款特效背后的技术实现方法。

本文中,团队在第一阶段利用预训练的 3D 人脸重建模型,提取 3DMM 表情系数并注入到 StyleGAN 的 w 空间。同时,渲染出 3D shape 用作约束条件,训练特定人脸表情的生成。第一阶段训练完成就可以生产大量的配对数据,训练服务端或移动端的 pix2pix 模型,实现特定表情的编辑。


推荐:一键定制人脸表情没那么难!字节跳动人像编辑 GAN 技术取得突破。

论文 3:A Survey on Transformers in Reinforcement Learning


摘要:为了更好地推动强化学习领域发展,清华大学、北京大学、智源人工智能研究院和腾讯公司的研究者联合发表了一篇关于强化学习中 Transformer(TransformRL)的综述论文,归纳总结了当前的已有方法和面临的挑战,并讨论了未来的发展方向,作者认为 TransformRL 将在激发强化学习潜力方面发挥重要作用。

TransformRL 图示。

推荐:强化学习中的 Transformer 发展到哪一步了?清华、北大等联合发布 TransformRL 综述。

论文 4:Rethinking with Retrieval: Faithful Large Language Model Inference


摘要:大型语言模型 (LLM) 已通过 In-context Learning 在各种复杂任务上展现出卓越的性能,并且无需针对特定任务进行训练或微调,近期 prompt 和解码方面取得的进展也使 LLM 解决复杂推理任务变成了现实。

然而,LLM 可能会存储过时、不全面或不正确的知识,要将 LLM 成功部署到实际应用中,外部知识来源(例如维基百科)至关重要。此前,人们尝试将知识用于较小的语言模型 (LM),例如 T5、BERT 和 RoBERTa,但这些方法通常需要额外的训练或微调,成本高昂,对于 LLM 来说完全不切实际。

罗彻斯特大学、腾讯 AI Lab 和宾夕法尼亚大学的研究者联合提出了一种称为 Rethinking with Retrieval (RR) 的后处理方法,以在 LLM 中利用外部知识。

在三项推理任务上使用 GPT-3 的不同方法的性能对比。

推荐:禁止大型语言模型胡编乱造,给点外部知识,推理靠谱的很。

论文 5:The Science of Detecting LLM-Generated Texts


摘要:自然语言生成 (NLG) 技术的最新进展显着提高了大型语言模型生成文本的多样性、控制力和质量。一个值得注意的例子是 OpenAI 的 ChatGPT,它在回答问题、撰写电子邮件、论文和代码等任务中展示了卓越的性能。然而,这种新发现的高效生成文本的能力也引起了人们对检测和防止大型语言模型在网络钓鱼、虚假信息 和学术造假等任务中滥用的担忧。

例如,由于担心学生利用 ChatGPT 写作业,纽约公立学校全面禁止了 ChatGPT 的使用,媒体也对大型语言模型产生的假新闻发出警告。这些对大型语言模型 滥用的担忧严重阻碍了自然语言生成在媒体和教育等重要领域的应用。

最近关于是否可以正确检测大型语言模型生成的文本以及如何检测的讨论越来越多,这篇文章对现有检测方法进行了全面的技术介绍。

大型语言模型生成的文本检测分类学。

推荐:冒充人类作者,ChatGPT 等滥用引担忧,一文综述 AI 生成文本检测方法。

论文 6:Quantum machine learning beyond kernel methods


摘要:基于参数化量子电路的机器学习算法是近期在嘈杂的量子计算机上应用的主要候选者。在这个方向上,已经引入和广泛研究了各种类型的量子机器学习模型。然而,我们对这些模型如何相互比较以及与经典模型进行比较的理解仍然有限。

近日,来自奥地利因斯布鲁克大学的研究团队确定了一个建设性框架,该框架捕获所有基于参数化量子电路的标准模型:线性量子模型。

研究人员展示了使用量子信息论中的工具如何将数据重新上传电路有效地映射到量子希尔伯特空间中线性模型的更简单图像中。此外,根据量子比特数和需要学习的数据量来分析这些模型的实验相关资源需求。基于经典机器学习的最新结果,证明线性量子模型必须使用比数据重新上传模型多得多的量子比特才能解决某些学习任务,而核方法还需要多得多的数据点。研究结果提供了对量子机器学习模型的更全面的了解,以及对不同模型与 NISQ 约束的兼容性的见解。

这项工作中研究的量子机器学习模型。

推荐:超越核方法的量子机器学习,量子学习模型的统一框架。

论文 7:Organic reaction mechanism classification using machine learning


摘要:化学反应的发现不仅受到获得实验数据的速度的影响,还受到化学家理解这些数据的难易程度的影响。揭示新的催化反应的机理基础是一个特别复杂的问题,通常需要计算和物理有机化学的专业知识。然而,研究催化反应很重要,因为它们代表了最有效的化学过程。

近日,英国曼彻斯特大学(UoM)化学系的 Burés 和 Larrosa 报告了一种机器学习模型,展示了可以训练深度神经网络模型来分析普通动力学数据并自动阐明相应的机理类别,而无需任何额外的用户输入。该模型以出色的精度识别各种类型的机理。

研究结果表明,AI 引导的机理分类是一种强大的新工具,可以简化和自动化机理阐明。预计这项工作将进一步推动全自动有机反应发现和开发的发展。该研究发布在《Nature》上。

动力学分析的相关性和最新技术。

推荐:机器学习模型以出色的精度进行有机反应机理分类。

相关文章
|
20天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI在文本生成中的应用
【8月更文挑战第31天】本文深入探讨了人工智能(AI)在文本生成领域的应用,包括自动写作、聊天机器人和内容创作。我们将分析AI技术如何改变我们创建和消费文本的方式,并讨论其对传统写作行业的影响。通过实例演示,我们将展示如何使用Python编程语言和自然语言处理库来实现一个简单的文本生成模型。
|
12天前
|
JSON 人工智能 数据格式
AI计算机视觉笔记二十六:YOLOV8自训练关键点检测
本文档详细记录了使用YOLOv8训练关键点检测模型的过程。首先通过清华源安装YOLOv8,并验证安装。接着通过示例权重文件与测试图片`bus.jpg`演示预测流程。为准备训练数据,文档介绍了如何使用`labelme`标注工具进行关键点标注,并提供了一个Python脚本`labelme2yolo.py`将标注结果从JSON格式转换为YOLO所需的TXT格式。随后,通过Jupyter Notebook可视化标注结果确保准确性。最后,文档展示了如何组织数据集目录结构,并提供了训练与测试代码示例,包括配置文件`smoke.yaml`及训练脚本`train.py`,帮助读者完成自定义模型的训练与评估。
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术在文本生成中的应用
【8月更文挑战第26天】本文将探讨人工智能(AI)在文本生成领域的应用。我们将介绍AI如何通过自然语言处理(NLP)和机器学习(ML)技术,实现自动生成高质量文本内容的能力。文章将详细解释AI文本生成的基本原理,包括预训练模型、神经网络架构以及训练和优化过程。我们还将讨论AI文本生成技术的局限性和未来发展方向,并提供一些实际的应用案例。
|
24天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI在文本生成中的应用与挑战自动化测试框架的搭建与实践
【8月更文挑战第27天】本文将深入探讨人工智能(AI)在文本生成领域的应用,包括其技术原理、实际应用案例以及面临的主要挑战。通过分析AI文本生成的工作原理和实际效果,我们将揭示这项技术如何改变内容创作、新闻撰写、对话系统等多个领域。同时,我们也将讨论AI文本生成带来的伦理和质量问题,以及如何平衡创新与风险,确保技术的健康发展。
|
9天前
|
机器学习/深度学习 人工智能 编解码
深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
【9月更文挑战第2天】深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
 深入探索AI文生语音技术的奥秘:从文本输入到逼真语音输出的全链条语音合成过程解析
|
11天前
|
机器学习/深度学习 存储 人工智能
AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
【9月更文挑战第1天】AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI在文本生成中的应用与挑战
【9月更文挑战第11天】本文将深入探讨人工智能在文本生成领域的应用及其面临的挑战。我们将通过实际案例分析,了解当前技术如何影响内容创作,并讨论未来可能的发展方向。文章旨在为读者提供一个关于AI文本生成技术的全面视角,包括其优势、局限及潜在影响。
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI在文本情感分析中的应用
【8月更文挑战第40天】本文将深入探讨人工智能在文本情感分析领域的强大应用。我们将从基础概念出发,逐步深入到技术实现,最终通过一个Python代码示例具体展示如何使用自然语言处理库进行情感分析。文章旨在为读者提供一个清晰的指南,了解并实践如何利用AI技术解读和评估文本中的情感色彩。
|
12天前
|
人工智能 开发者
Nature曝惊人内幕:论文被天价卖出喂AI!出版商狂赚上亿,作者0收入
【9月更文挑战第8天】《自然》杂志近日揭露,学术出版商如泰勒·弗朗西斯与微软签订千万美元合约,及威利获高额报酬,将论文提供给科技巨头训练AI模型,引发学界对版权与收益分配的热议。此现象反映了AI对高质量数据的渴求,但亦使研究人员担忧成果被无偿商用,且可能影响学术独立性。尽管AI训练使用学术资源能提升模型科学性,助力科研进展,但如何保障作者权益及维持学术纯粹性仍是亟待解决的问题。https://www.nature.com/articles/d41586-024-02599-9
25 4
|
11天前
|
人工智能 计算机视觉
AI计算机视觉笔记十五:编写检测的yolov5测试代码
该文为原创文章,如需转载,请注明出处。本文作者在成功运行 `detect.py` 后,因代码难以理解而编写了一个简易测试程序,用于加载YOLOv5模型并检测图像中的对象,特别是“人”类目标。代码实现了从摄像头或图片读取帧、进行颜色转换,并利用YOLOv5进行推理,最后将检测框和置信度绘制在输出图像上,并保存为 `result.jpg`。如果缺少某些模块,可使用 `pip install` 安装。如涉及版权问题或需获取完整代码,请联系作者。