Meta在一篇宣布这项工作的博客文章中表示:“生成式人工智能研究为人们提供了快速、轻松创建新内容的工具,从而推动了创造性表达的发展。只需几句话或几行文字,Make-A-Video就能将想象力赋予生命,创造出独一无二的充满生动色彩和风景的视频。”
Meta首席执行官马克·扎克伯格在Facebook上称这项工作是“惊人的进步”,并补充说:“生成视频比生成照片要困难得多,因为除了正确生成每个像素外,系统还必须预测它们将如何随时间变化。”
这些视频不超过5秒,不包含任何音频,但包含了大量的提示。判断模型性能的最佳方法是观察它的输出。不过目前不允许任何人访问模型。这意味着这些片段可能是研发人员精心挑选出来的,以最好的方式展示这个系统。
同样,虽然这些视频显然是计算机生成的,但这种人工智能模型的输出在不久的将来将迅速提高。相比之下,在短短几年的时间里,人工智能图像生成器已经从创造难以理解的边缘图片发展到逼真的内容。尽管视频的进展可能会因为这一主题的近乎无限的复杂性而缓慢,但无缝视频生成的价值将激励许多机构和公司向该项目投入大量资源。
与文本到图像模型一样,有可能也会产生有害的应用。
Meta在宣布Make-a-Video的博客中指出,视频生成工具“对创作者和艺术家”来说可能是无价的。但是,就像从文本到图像的模式一样,前景也令人担忧。这些工具的输出可能被用于虚假信息、宣传。
Meta表示,它希望“对如何构建这样的生成式AI系统进行深思熟虑”,目前只发表了一篇关于Make-A-Video模型的论文。该公司表示,计划发布该系统的演示版本,但没有说明何时或如何限制对该模型的访问。
值得一提的是,Meta并不是唯一一家致力于AI视频生成器的机构。今年早些时候,清华大学和北京人工智能研究院(BAAI)的一组研究人员发布了他们自己的文本到视频模型,命名为CogVideo。
Meta的研究人员在一篇描述该模型的论文中指出,Make-A-Video正在对成对的图像和标题以及未标记的视频片段进行训练。培训内容来自两个数据集(WebVid-10M和HD-VILA-100M),这两个数据集总共包含了数百万个视频,跨越数十万小时的镜头。这包括由Shutterstock等网站创建并从网上抓取的库存视频片段。
研究人员在论文中指出,除了模糊的镜头和不连贯的动画外,该模型还有许多技术局限性。例如,它们的训练方法无法学习可能只有人类观看视频时才能推断出的信息——例如,一个挥手的视频是从左向右还是从右向左。其他问题包括生成超过5秒的视频,包含多个场景和事件的视频,以及更高的分辨率。Make-A-Video目前输出16帧分辨率为64 64像素的视频,然后使用单独的人工智能模型将其尺寸提高到768 768。
Meta的团队还指出,就像所有使用从网络上抓取的数据训练的人工智能模型一样,Make-A-Video学习并可能夸大了社会偏见,包括有害的偏见。在文本到图像的模型中,这些偏见通常会强化社会偏见。例如,让一个生成一个“恐怖分子”的图像,它很可能描绘的是一个戴着头巾的人。然而,在没有开放访问的情况下,很难说Meta的模型学习到了什么偏见。
Meta表示,该公司“正在与技术社区公开分享这种生成式AI研究和结果,以获得他们的反馈,并将继续使用我们负责任的AI框架来完善和发展我们对这种新兴技术的方法。”
随着绘画和视频领域人工智能生成器逐渐火热,相信很快(也许已经)就会出现其他艺术(比如音乐)的人工智能生成工具了。