谷歌新研究:利用模型为无声视频配音

来源:IT之家

据谷歌DeepMind新闻稿,DeepMind近日公布了一项利用AI为无声视频生成背景音乐的"video-to-audio"技术。

IT之家获悉,当前DeepMind这款AI模型依然存在局限性,需要开发者使用提示词为模型预先"介绍"视频可能的声音,暂时不能直接根据视频画面添加具体音效。

据悉,该模型首先会将用户输入的视频进行拆解,此后结合用户的用户文字提示,利用扩散模型反复运算,最终以生成与视频画面协调的背景声音,例如输入一条"在黑暗中行走"的无声视频,再添加"电影、恐怖片、音乐、紧张、混凝土上的脚步声"等文字提示,相关模型就能生成恐怖风格的背景音效。

DeepMind同时表示,该"video-to-audio"模型可以为任何视频生成无限数量的音轨,还能够通过提示词内容判断生成的音频"正向性"或"反向性",从而令生成的声音更贴近某些特定场景。

展望未来,DeepMind表示研究人员正进一步优化这款"video-to-audio"模型,计划未来能够让模型直接根据视频内容,无须通过提示词即可生成视频背景音,谷歌新研究:利用模型为无声视频配音同时还将改善视频中人物对白的口型同步能力。

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:无敌椰子

分享:

扫一扫在手机阅读、分享本文