蘋果公司透露了他們通過深度學習讓Siri的發音更加自然的內幕。
iPhone用戶使用自然語言向Siri提問,Siri也通過語音回答問題。Siri可以使用21種語言回答問題,遍布全球36個國家。在2017年WWDC大會上,蘋果宣布了iOS 11上的Siri將使用最新的文本語音引擎。2017年8月,蘋果的機器學習期刊透露了他們是如何讓Siri的發音更加自然的。
iPhone上的語音是通過拼接預先錄制的人類語音來生成的。先錄制幾個小時的語音,再把它們拆分成單詞,然后再把單詞拆成最基本的元素:音素。在生成句子的時候,系統會選擇合適的音素,再把它們拼接在一起。
為音素選擇合適的錄音是一件很有挑戰性的事情。每一個音素都要與發音相匹配,也要與相鄰的其他音素相匹配。舊系統只有幾種錄音,音素的來源很有限,所以聽起來有點不自然。于是蘋果決定使用深度學習來確定聲音單元在句子中的各種屬性。
每一臺iOS設備都包含了一個小型的預錄音素數據庫。每一份數據都包含了音頻屬性:聲音頻譜的音高和音長。一個經過訓練的“深度混合密度網絡(deep mixture density network)”用于預測每一個音素在句子中的特征。蘋果設計了一個成本函數來訓練這個網絡,著重考慮到兩個方面的問題:如何讓音素與發音相匹配以及如何讓它與句子相融合。
在通過“Viterbi”算法從數據庫里找到需要的數據后,系統會選出最佳的音素組合,把它們拼接起來,然后播放出聲音。
另一種方式是生成聲波,而不是拼接預錄的聲音。2016年9月,Alphabets Deepmind發布了WaveNet引擎,可以基于電腦生成文本語音。它的不足是速度很慢,就算使用最快的臺式電腦也需要很長時間才能完成合成任務。所以,Siri不會在短時間使用合成語音代替錄制語音。
標簽:
本站文章除注明轉載外,均為本站原創或翻譯。歡迎任何形式的轉載,但請務必注明出處、不得修改原文相關鏈接,如果存在內容上的異議請郵件反饋至chenjj@fc6vip.cn