站长资讯网
最全最丰富的资讯网站

英伟达用 AI 给纪录片配音:情绪节奏稳稳拿捏,不说根本听不出来

  虽然日常和你对话的 Siri 声音机械,还常常胡乱断句,但实际上,最新的技术进展显示,AI 的语音合成能力已经可以说得上是以假乱真。

  比如英伟达,最近就发布了一个更懂节奏、更具感情的语音合成 AI。

  在英伟达的纪录片中,她的自我介绍口齿清晰自不必说,气息顿挫、情绪把控,播音员范儿绝对够正。

  帧级控制合成语音

  英伟达将在 9 月 3 日的语音技术顶会 Interspeech 2021 上展示该项目的最新成果。

  不过,其背后的技术,此前就已经帮助自家数字人在 SIGGRAPH Real-Time Live 上摘下了最佳展示奖。

英伟达用 AI 给纪录片配音:情绪节奏稳稳拿捏,不说根本听不出来

  核心是名为 RAD-TTS 的语音合成方法。

  这是一个并行的端到端 TTS 模型。与此前的并行方法不同,RAD-TTS 将语音节奏作为一个单独的生成分布来建模。如此,在推理过程中,语音的持续时间就能被更好地控制。

英伟达用 AI 给纪录片配音:情绪节奏稳稳拿捏,不说根本听不出来

  从 RAD-TTS 的演示界面中也可以看出,用户可以在帧级别上控制合成语音的音调、持续时间和节奏力度。

英伟达用 AI 给纪录片配音:情绪节奏稳稳拿捏,不说根本听不出来

  研究人员还介绍,RAD-TTS 既可以将任意文本转换成说话人的声音,也可以将一个说话人的声音(甚至是歌声)转换成另一个人的声音。

  也就是说,合成语音的制作人可以像指导配音演员一样去“指导”AI,让它学会哪个单词应该重点突出、节奏如何把控更符合创作基调等等。

  机器语音能有多真实?

  其实,不只是英伟达,此前,小冰也发布过超级自然语音技术。

  把一句人类的语音混进小冰的语音里,你能分辨到底哪一句来自真正的人类吗?

  不过,小冰公司 CEO 李笛此前曾表示,AI 的声音太接近真人,就很有可能被滥用。因此小冰禁止为普通个人训练声音。

  但这样的技术,也正在通过电台、便利店等更多商业场景,走进人们的日常生活。

  参考链接:

  [1] 论文地址:https://openreview.net/forum?id=0NQwnnwAORi

  [2]https://blogs.nvidia.com/blog/2021/08/31/conversational-ai-research-speech-synthesis-interspeech/

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

赞(0)
分享到: 更多 (0)
网站地图   沪ICP备18035694号-2    沪公网安备31011702889846号