专栏名称: 移动开发前线
专注于分享移动开发前沿和一线技术。
目录
相关文章推荐
光伏资讯  ·  光热科普!塔式光热! ·  19 小时前  
光伏资讯  ·  光热科普!塔式光热! ·  19 小时前  
前端大全  ·  15 分钟带你感受 CSS :has() ... ·  6 天前  
前端大全  ·  图解Nestjs - 适合中国宝宝的入门指导 ·  5 天前  
得物技术  ·  Java性能测试利器:JMH入门与实践|得物技术 ·  6 天前  
得物技术  ·  Java性能测试利器:JMH入门与实践|得物技术 ·  6 天前  
奇舞精选  ·  vercel是如何做微前端迁移的 ·  6 天前  
奇舞精选  ·  vercel是如何做微前端迁移的 ·  6 天前  
51好读  ›  专栏  ›  移动开发前线

苹果公司透露Siri新发音引擎的内部原理

移动开发前线  · 公众号  · 前端  · 2017-09-14 20:19

正文

有没有觉得Siri最近的声音越来越像真人了?苹果公司透露了他们通过深度学习让 Siri 的发音更加自然的内幕。

iPhone 用户使用自然语言向 Siri 提问,Siri 也通过语音回答问题。Siri 可以使用 21 种语言回答问题,遍布全球 36 个国家。在 2017 年 WWDC 大会上,苹果宣布了 iOS 11 上的 Siri 将使用最新的文本语音引擎。2017 年 8 月,苹果的机器学习期刊透露了他们是如何让 Siri 的发音更加自然的。

iPhone 上的语音是通过拼接预先录制的人类语音来生成的。先录制几个小时的语音,再把它们拆分成单词,然后再把单词拆成最基本的元素:音素。在生成句子的时候,系统会选择合适的音素,再把它们拼接在一起。

为音素选择合适的录音是一件很有挑战性的事情。每一个音素都要与发音相匹配,也要与相邻的其他音素相匹配。旧系统只有几种录音,音素的来源很有限,所以听起来有点不自然。于是苹果决定使用深度学习来确定声音单元在句子中的各种属性。

每一台 iOS 设备都包含了一个小型的预录音素数据库。每一份数据都包含了音频属性:声音频谱的音高和音长。一个经过训练的“深度混合密度网络(deep mixture density network)”用于预测每一个音素在句子中的特征。苹果设计了一个成本函数来训练这个网络,着重考虑到两个方面的问题:如何让音素与发音相匹配以及如何让它与句子相融合。

在通过“Viterbi”算法从数据库里找到需要的数据后,系统会选出最佳的音素组合,把它们拼接起来,然后播放出声音。

另一种方式是生成声波,而不是拼接预录的声音。2016 年 9 月,Alphabets Deepmind 发布了 WaveNet 引擎,可以基于电脑生成文本语音。它的不足是速度很慢,就算使用最快的台式电脑也需要很长时间才能完成合成任务。所以,Siri 不会在短时间使用合成语音代替录制语音。

参考链接:

  • https://www.youtube.com/watch?v=yGsbnKkSUFQ

  • https://machinelearning.apple.com/2017/08/06/siri-voices.html

  • https://deepmind.com/blog/wavenet-generative-model-raw-audio/



小编推荐:

想知道第一部Mac是如何被开发出来的?想了解更多苹果公司的工程师文化?想学习硅谷人是如何将产品做到极致的?想领略乔布斯的领导魅力?这本书都能告诉你。点击【阅读原文】即可购买,还有精美书签赠送哦~