LongAlign:港大推出的提升文本到图像扩散模型处理长文本对齐方法

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: LongAlign是由香港大学研究团队推出的文本到图像扩散模型的改进方法,旨在提升长文本输入的对齐精度。通过段级编码技术和分解偏好优化,LongAlign显著提高了模型在长文本对齐任务上的性能,超越了现有的先进模型。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

技术改进:LongAlign通过段级编码和分解偏好优化,显著提升了长文本对齐精度。
主要功能:支持长文本处理、文本到图像对齐和减少过拟合。
应用场景:广泛应用于艺术创作、游戏开发、电影和娱乐行业、广告和营销、教育和培训等领域。

正文(附运行示例)

LongAlign 是什么

公众号: 蚝油菜花 - LongAlign

LongAlign是香港大学研究团队推出的文本到图像(T2I)扩散模型的改进方法,旨在提升长文本输入的对齐精度。传统的T2I模型在处理长文本时,由于编码模型的输入长度限制,往往难以实现精确的对齐。LongAlign通过段级编码技术,将长文本分割处理,适应编码模型的输入限制,从而有效解决了这一问题。

此外,LongAlign还引入了分解偏好优化,基于区分偏好模型中的文本相关和无关部分,应用不同权重减少过拟合,增强对齐度。经过20小时微调,LongAlign显著提高Stable Diffusion v1.5模型在长文本对齐任务上的性能,超越PixArt-α和Kandinsky v2.2等先进模型。

LongAlign 的主要功能

  • 长文本处理:基于分段级编码方法,处理长文本输入,克服预训练编码模型如CLIP的最大输入长度限制。
  • 文本到图像对齐:提高生成图像与输入文本之间的对齐度,确保图像内容与文本描述的准确性。
  • 减少过拟合:基于偏好分解和重加权策略,LongAlign减少了微调过程中的过拟合问题,提高了模型的泛化能力。

LongAlign 的技术原理

  • 分段级编码:将长文本分割成多个段落(或句子),每个段落独立编码,将编码结果合并。支持模型处理超出最大输入长度限制的文本。
  • 偏好分解:分析偏好模型的评分机制,将偏好分数分解为两部分:文本相关部分(衡量文本到图像的对齐)和文本无关部分(评估图像的其他视觉方面,如美学)。
  • 重加权策略:为解决过拟合问题,LongAlign提出一种为文本相关和无关部分分配不同权重的策略。策略基于减少文本无关部分的权重,增强模型对文本内容的关注,提高对齐度。

如何运行 LongAlign

准备环境

pip install -r requirements.txt
# 如果遇到LoRA错误,请运行 `pip uninstall peft`

准备数据集和检查点

训练原始 Stable Diffusion

# 支持长文本输入
bash run_unet.sh align ct5f
# 请将 {args.output_dir}/s{global_step_}_lora_vis.pt 移动到 {args.output_dir}/lora_vis.pt 等

# 长文本对齐的偏好优化
bash run_unet.sh reward test

训练 LCM 版本的 Stable Diffusion

# 支持LCM采样
bash run_unet.sh lcm ct5f

# 长文本对齐的偏好优化
bash run_unet.sh reward_lcm test

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
机器学习/深度学习 自然语言处理 算法
浅述几种文本和图像数据增强的方法
在现实场景中,我们往往收集不到太多的数据,那么为了扩大数据集,可以采用数据增强手段来增加样本,那么平常我们应该怎么做数据增强的呢? 什么是数据增强 数据增强也叫数据扩增,意思是在不实质性的增加数据的情况下,让有限的数据产生等价于更多数据的价值。
|
19天前
|
人工智能 文字识别 测试技术
苹果多模态模型大升级!文本密集、多图理解,全能小钢炮
苹果公司近日发布了其最新版本的多模态模型MM1.5,该模型在文本密集图像理解、视觉引用和定位以及多图推理等方面进行了显著升级。MM1.5基于MM1模型,具备更强的文本处理、视觉理解和多图推理能力,适用于多种下游任务。此外,还推出了专门用于视频理解和移动UI理解的变体。
36 3
|
2月前
|
编解码 人工智能 数据可视化
imagen: 具有深度语言理解的逼真的文本到图像扩散模型
imagen: 具有深度语言理解的逼真的文本到图像扩散模型
19 0
|
3月前
MUMU:用文本、图像引导,多模态图像生成模型
【9月更文挑战第19天】随着人工智能技术的发展,多模态模型因其能处理文本、图像、音频等多种信息而备受关注。在图像生成领域,一种名为MUMU的新模型展现出巨大潜力。MUMU可接收文本和图像提示并生成相应图像,如根据“一个<图片:男人>男人和他的<图片:狗>狗在一个<图片:卡通>动画风格中”生成图像。通过训练包含文本-图像数据集的视觉-语言编码器及扩散解码器,MUMU能实现风格转换和角色一致性等任务,并在图像编辑和合成方面展示出潜力。然而,其仍受限于复杂场景处理能力和计算资源需求。论文详情见链接:https://arxiv.org/abs/2406.18790。
40 1
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
ICML 2024 Spotlight:在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好
【7月更文挑战第13天】ICML 2024 Spotlight: Decoding-time Realignment改善语言模型,减少幻觉,增强人类偏好一致性。研究提出在解码阶段动态调整模型对齐,通过控制参数实现对齐与性能平衡,提高泛化能力。尽管面临参数选择及计算资源挑战,该技术为优化AI文本生成对齐提供了新途径。[论文链接](https://openreview.net/forum?id=n8g6WMxt09&noteId=E3VVDPVOPZ)**
77 9
|
7月前
|
人工智能
8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquare
【5月更文挑战第10天】TextSquare,由字节跳动、华东师大和华中科技大学联合研发,是新型的文本中心视觉问答模型,借助Square-10M数据集在VQA任务上取得突破。在6个OCRBench等基准上超越现有最佳模型,如GPT4V和Gemini。模型利用视觉问答推理数据增强上下文理解,减少幻觉现象,平均准确率75.1%。但面对复杂问题和泛化能力仍有挑战。[论文链接](https://arxiv.org/abs/2404.12803)
82 4
|
7月前
|
机器学习/深度学习 人工智能 达摩院
DDColor:AI图像着色工具,优秀的黑白图像上色模型,支持双解码器!
DDColor:AI图像着色工具,优秀的黑白图像上色模型,支持双解码器!
382 3
|
机器学习/深度学习 人工智能 自然语言处理
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
|
人工智能 人机交互
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
181 0
|
机器学习/深度学习 人工智能 文字识别
扩散模型生成带汉字图像,一键输出表情包:OPPO等提出GlyphDraw
扩散模型生成带汉字图像,一键输出表情包:OPPO等提出GlyphDraw
180 0

热门文章

最新文章