市場動態 生活 軟體 頭條話題

微軟打造「VALL-E」人工智慧語音模型,透過3秒長度資料即可模擬真實人聲
甚至可以加入不同情緒時的說話方式,以及在不同房間等環境下的發聲效果

微軟研究人員在一篇論文中描述名為「VALL-E」的人工智慧語音模型,標榜僅需3秒鐘長度的聲音資料,即可建立模擬聲音本人說話語調,甚至可以加入不同情緒時的說話方式,以及在不同房間等環境下的發聲效果。

-

依照微軟研究人員說明,此項人工智慧語音模型是以Meta在Libri-light聲音資料庫收錄源自7000多名演講者、長度超過60000小時的英語演講內容進行訓練,藉此讓人工智慧語音模型學習特定聲音念特定文本內容時的音調呈現方式。

在此學習基礎之下,「VALL-E」便可在參考短短3秒長度聲音資料,即可建立以相同聲音說話方式,並且能依照不同情緒進行表達,更可模擬在不同環境下的說話聲音效果。

-

雖然實際呈現結果中,依然會有部分聲音呈現像是機器發音,但確實有不少聲音呈現結果十分擬真,最主要還是與參考學習樣本是否充足有關,而不同人的習慣發音方式也會有所差異,因此並非所有模擬呈現聲音都相當自然。

為了改善此情況,微軟研究人員表示將持續擴大訓練模型,藉此提高「VALL-E」最終呈現結果更貼近真實。

另外,為了避免「VALL-E」造成不必要影響,微軟並未對外開放「VALL-E」相關編碼內容,同時也強調依循微軟內部人工智慧技術倫理,降低任何潛在風險發生可能性。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響