专栏名称: 学术头条
致力于科学传播和学术分享,关注计算机科学、认知科学、人工智能科学、神经科学、脑科学等学科领域。我们从跨学科的角度,围绕“认知智能”向科学界和大众介绍相关领域的前沿话题和深度解读。
目录
相关文章推荐
环球人物  ·  萌翻亚洲的她,能否打破“长残魔咒”? ·  15 小时前  
每日人物  ·  中产的保温杯,比iPhone还小了? ·  23 小时前  
环球人物  ·  特朗普家族,下一个网红是她? ·  2 天前  
每日人物  ·  机票跌到200块,我却高兴不起来 ·  2 天前  
51好读  ›  专栏  ›  学术头条

Google DeepMind 最新研究:为AI视频生成创建逼真的背景声音

学术头条  · 公众号  ·  · 2024-06-18 12:02

正文


自 Sora 发布以来,国内外各大科技公司和研究机构都在竞相推出“文生视频”大模型,比如生数科技的 Vidu、快手的可灵和 Runway 昨天才发布的 Gen-3 Alpha 等。


然而, 目前许多系统只能生成无声输出, 在视频生成过程中,为视频生成栩栩如生、同步的音频,亦是一个不可忽视的关键环节,它不仅关系到视频内容的质感和 真实感,还影响到信息的传递和用户的体验。


同样在昨天, Google DeepMind 分享了他们在“视频生音频”方面的新进展—— V2A ,使同步视听生成成为可能


据介绍,V2A 将视频像素与自然语言文本提示相结合,为屏幕上的动作生成丰富的音效。这一技术可与视频生成模型搭配使用,从而 创建具有逼真音效或对话的镜头,从而与视频中的角色和基调相匹配


V2A 还可以为各种传统素材(包括 档案资料、无声电影 等)生成配乐,从而为创作提供更多机会。


以下是 Google DeepMind 官网上的几个配音 demo:


提示:电影、惊悚片、恐怖片、音乐、紧张、氛围、混凝土上的脚步声



提示:音乐会舞台上的鼓手,周围是闪烁的灯光和欢呼的人群



提示:草原上夕阳西下,口琴声悠扬婉转




增强的创意控制


Google DeepMind 表示, 重要的是, V2A 可以为任何视频输入生成数量不限的配乐 。此外,V2A 还可以定义“积极提示”,引导生成的输出朝着所需的声音方向发展,或定义“消极提示”,引导输出远离不想要的声音。


这种灵活性使用户可以对 V2A 的音频输出 进行更多的控制 ,从而可以快速尝试不同的音频输出并选择最佳匹配。


提示:宇宙飞船在浩瀚的太空中疾驰,星星从它身边划过,高速,科幻



提示:空灵的大提琴氛围




V2A 技术是 如何实现的?


据介绍,为 发现最具可扩展性的人工智能架构, 研究团队尝试了自回归和扩散方法,他们发现, 基于扩散的音频生成方法在同步视频和音频信息方面给出了更真实、更令人信服的结果

V2A 系统首先将视频输入编码为压缩表示;然后,扩散模型从随机噪声中迭代改进音频。这一过程在视觉输入和自然语言提示的引导下,生成与提示紧密对齐的同步逼真音频;最后,对音频输出进行解码,将其转化为音频波形,并与视频数据相结合。


图|V2A 系统示意图,该系统利用视频像素和音频提示输入生成与底层视频同步的音频波形。首先,V2A 对视频和音频提示输入进行编码,并通过扩散模型反复运行。然后生成压缩音频,并解码为音频波形。


为了生成更高质量的音频,并增加引导模型生成特定声音的能力,研究团队在训练过程中添加了更多信息,包括 人工智能生成的注释 ,其中包含声音的详细描述和口语对话记录。


通过对视频、音频和附加注释进行训练, V2A 系统 学会了将特定音频事件与各种视觉场景联系起来,同时对注释或文本中提供的信息做出响应。



还需要进一步研究


与现有的“视频生音频”解决方案不同, V2A 系统 可以理解原始像素,而且可以选择添加文字提示。


此外,该系统 无需手动将生成的声音与视频对齐 ,因为手动对齐需要繁琐地调整声音、视觉和时间等不同元素。



不过,研究团队表示,







请到「今天看啥」查看全文