近日,谷歌旗下人工智能公司DeepMind公布了其在计算机语音合成领域的最新研究突破——WaveNet。WaveNet是一种利用神经网络系统对原始音频波形(Raw SoundWave)建模的技术,生成的音频质量优于目前所有的文本转语音(Text-to-Speech,TTS)系统,将计算机输出音频与人类自然语音差距缩小50%,号称世界最佳!
DeepMind在twitter发文称:“让人类和机器对话是人机交互领域长久以来的梦想!”
通常我们听到的计算机或手机输出的文本转语音(TTS)音频都会觉得别扭、生硬,甚至诡异。此次DeepMind推出的这款新型语音合成系统WaveNet将大大改善这种情况,让机器输出音频更自然、更像人类发声。
当然,让计算机发出声音,这并不是什么新鲜事儿。
最常用的TTS方法可能是拼接式语音合成(Concatenative Synthesis):先录制单一说话者的大量语音片段,建立一个大型语料库,然后简单地从中进行选择并合成完整的大段音频、词语和句子。这种“机械式”方法使得计算机输出音频经常产生语音毛刺、语调的诡异变化、甚至结巴,并且无法调整语音的强调性音节或情绪。
另外一种方法是所谓的参数化方法,利用数学模型对已知的声音进行排列、组装成词语或句子来重新创造音频。这种技术倒是不易产生声音毛刺,所以确实让机器输出的音频听起来不那么机器化。
然而,这两种技术的共同点是:简单、机械地将语音片段拼接起来,而不是从零开始创造出整个音频波形。
音频跳转
WaveNet正是一种从零开始创造整个音频波形输出的技术。
WaveNet利用真实的人类声音剪辑和相应的语言、语音特征来训练其卷积神经网络(convolutional neural networks),让其能够辨别这两方面(语言和语音)的音频模式。使用中,对WaveNet系统输入新的文本信息,也即相对应的新的语音特征,WaveNet系统会重新生成整个原始音频波形来描述这个新的文本信息。
WaveNet组织结构
WaveNet是逐步进行操作的:首先,生成一个音频波形样本;接着再处理、生成一个音频波形样本,逐步进行。其中非常重要的是,新的样本生成都会受到此前样本结果的影响,也即每一步的样本结果都将影响下一步的样本预测,并帮助生成下一步的样本。
最终的音频结果确实表现惊人(试听参照DeepMind网站:https://deepmind.com/blog/wavenet-generative-model-raw-audio/)。相比于连续合成和参数化合成技术,WaveNet输出音频明显更接近自然人声。
DeepMind的WaveNet技术无疑是计算机语音合成领域的一大突破。然而,由于WaveNet是计算整个原始音频波形,每输出一秒音频神经网络必须处理16000个样本,所以WaveNet技术需要强大的运算能力来合成语音。
据DeepMind透露给《金融时报》(Financial Times)的内部消息称,这意味着目前还不能应用于谷歌或其他的任何一项产品中。
然而,这并不是计算机面临的唯一语言问题。翻译自然语言和手写文字也是人工智能系统的一大难题。
起码以现在这速度,在计算机形成真正的智能思考能力之前,它们应该早就能够用花哨的语言和人类交流了。
编辑:李盼
参考:
https://www.technologyreview.com/s/602343/face-of-a-robot-voice-of-an-angel/?set=602333
https://deepmind.com/blog/wavenet-generative-model-raw-audio/
招聘
编辑、视觉设计、运营助理、实习生(编译)
地点:北京
联系:[email protected]
IEEE中国是DeepTech深科技的战略合作伙伴,想要获得最新的科技资讯和会议信息,敬请关注IEEE中国。
MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。
分享至朋友圈才是义举