苹果公司透露Siri新发音引擎的内部原理
蘋果公司透露了他們通過深度學(xué)習(xí)讓Siri的發(fā)音更加自然的內(nèi)幕。
\\iPhone用戶使用自然語言向Siri提問,Siri也通過語音回答問題。Siri可以使用21種語言回答問題,遍布全球36個國家。在2017年WWDC大會上,蘋果宣布了iOS 11上的Siri將使用最新的文本語音引擎。2017年8月,蘋果的機(jī)器學(xué)習(xí)期刊透露了他們是如何讓Siri的發(fā)音更加自然的。
\\iPhone上的語音是通過拼接預(yù)先錄制的人類語音來生成的。先錄制幾個小時的語音,再把它們拆分成單詞,然后再把單詞拆成最基本的元素:音素。在生成句子的時候,系統(tǒng)會選擇合適的音素,再把它們拼接在一起。
\\\\為音素選擇合適的錄音是一件很有挑戰(zhàn)性的事情。每一個音素都要與發(fā)音相匹配,也要與相鄰的其他音素相匹配。舊系統(tǒng)只有幾種錄音,音素的來源很有限,所以聽起來有點(diǎn)不自然。于是蘋果決定使用深度學(xué)習(xí)來確定聲音單元在句子中的各種屬性。
\\\\每一臺iOS設(shè)備都包含了一個小型的預(yù)錄音素數(shù)據(jù)庫。每一份數(shù)據(jù)都包含了音頻屬性:聲音頻譜的音高和音長。一個經(jīng)過訓(xùn)練的“深度混合密度網(wǎng)絡(luò)(deep mixture density network)”用于預(yù)測每一個音素在句子中的特征。蘋果設(shè)計(jì)了一個成本函數(shù)來訓(xùn)練這個網(wǎng)絡(luò),著重考慮到兩個方面的問題:如何讓音素與發(fā)音相匹配以及如何讓它與句子相融合。
\\\\在通過“Viterbi”算法從數(shù)據(jù)庫里找到需要的數(shù)據(jù)后,系統(tǒng)會選出最佳的音素組合,把它們拼接起來,然后播放出聲音。
\\\\另一種方式是生成聲波,而不是拼接預(yù)錄的聲音。2016年9月,Alphabets Deepmind發(fā)布了WaveNet引擎,可以基于電腦生成文本語音。它的不足是速度很慢,就算使用最快的臺式電腦也需要很長時間才能完成合成任務(wù)。所以,Siri不會在短時間使用合成語音代替錄制語音。
\\查看英文原文:Apple Reveals the Inner Workings of Siri's New Intonation
總結(jié)
以上是生活随笔為你收集整理的苹果公司透露Siri新发音引擎的内部原理的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pandas 数据索引与选取
- 下一篇: 挑选SaaS企业需要注意十要素