當前位置: 主頁 > 新聞 >
 

NVIDIA 在 Interspeech 大會分享表達性語言合成研究成果

本文作者:NVIDIA       點擊: 2021-09-01 10:28
前言:
開發人員與創作者可運用最先進的表達性語言合成對話式人工智慧模型 為角色、虛擬助理及個人化數位分身產生聲音
 
原本的自動電話語音和已經發展數十年的 GPS 導航系統都只能發出生硬的機器合成聲音,而人工智慧 (AI) 卻讓智慧型手機和智慧音箱中的虛擬助理呈現逼真的語調。不過,AI 合成的聲音和我們在日常對話及媒體中聽到的真實人聲之間,還是差了那麼一點,原因在於人們說話時帶有複雜的節奏、音調和音色,這是很難以 AI 仿真出來的。

然而這個差距正在迅速縮小。NVIDIA 的研究人員正在打造高品質、可控制的語音合成模型與工具,它們能捕捉人類口說聲音中的豐富細節,又不會聽起來人工感很重。研究人員將於 INTERSPEECH 2021 大會展示這項最新的研究成果,這場會議將持續舉辦至 9 月 3 日。

這些模型有助銀行和零售商的自動語音客服,也能讓電玩遊戲或書籍中的人物更為生動,並即時為數位分身加上合成語音。NVIDIA 內部的創意團隊甚至運用這項技術,為一支介紹 AI 的系列影片製作出富有表現力的旁白內容。

表達性語言合成只是 NVIDIA Research 團隊在對話式 AI 的其中一項研究,這個領域還包括自然語言處理、自動語音辨識、關鍵字偵測、音訊增強等。這項先進研究成果的部分內容已透過 NVIDIA NeMo 工具套件成為開放原始碼,可以在 NGC 容器及其它軟體中心取得,並經最佳化調整,能在 NVIDIA GPU 上高效執行。 

《I AM AI》的幕後花絮
NVIDIA 的研究人員與創意專家對於對話式 AI 不是只會坐而言,還會起而行,在《I AM AI》系列影片中實際運用突破性的語音合成模型,介紹重塑各產業發展的全球 AI 創新者。

但直到最近,都是由真人擔任這些影片的旁白。過去的語音合成模型對於合成聲音的節奏和音調控制能力有限,因此和真人旁白的影片相比,嘗試以 AI 製作影片旁白無法激起觀眾的情感。

在過去的一年裡情況出現了變化,NVIDIA 的文字轉語音研究團隊發展出更強大、控制能力更強的語音合成模型,就像是我們在 SIGGRAPH Real-Time Live 競賽獲獎的展示內容所使用的 RAD-TTS 模型。透過 RAD-TTS,使用個人說話的聲音來訓練文字轉語音模型,可以將任何文字提示變成說話者的聲音。

聲音轉換是它的另一項功能,例如畫面上是 A 在說話 (甚至是唱歌),觀眾們聽到的卻是 B 的聲音。設計 RAD-TTS 介面的靈感來源是將人的聲音當成一種樂器,使用者便能夠逐幀微調合成聲音的音調、持續時間和能量。

影片製作人可以使用這個介面,錄製自己讀出影片腳本的聲音,接著用 AI 模型將說話內容變成女性旁白者的聲音。製作人可以再運用這個基本的旁白內容,像配音員一樣指導 AI 並進行調整,讓合成出來的語音強調特定字眼、修改旁白節奏,以更貼切地表達影片的調性。

這個 AI 模型不只能用在配音上:文字轉語音的功能還能用在遊戲、協助聲音機能或語言機能障礙者,或幫助使用者用自己的聲音翻譯不同語言;甚至還能重現著名歌手的表演,不僅可以配合歌曲旋律,還能配合人聲背後所表達的情感。

讓 AI 開發人員、研究人員取得語音技術
研究人員、開發人員和創作者有了 NVIDIA NeMo 這個用於 GPU 加速的對話式 AI 開源碼 Python 工具包,便能為自己的應用試驗及微調語音模型取得先機。

使用 NeMo 中易用的 API 和已經訓練好的模型,可以協助研究人員開發和自訂用於文字轉語音、自然語言處理及即時自動語音辨識的模型。許多模型已經在 NVIDIA DGX 系統上使用超過十萬小時的開源資料集完成訓練,開發人員可以按照自己的應用場景,在 NVIDIA Tensor 核心 GPU 上以混合精度運算微調任何模型。

NVIDIA NeMo 還藉由 NGC 提供在 Mozilla Common Voice 進行訓練的模型,在 Mozilla Common Voice 資料集中擁有 76 種語言、近 1.4 萬小時的群眾外包語音資料。這項由 NVIDIA 支持的專案企圖以全球最大規模的開放數據語音資料集,讓更多人接觸到語音技術。

語音寶盒:NVIDIA 研究人員揭曉 AI 語音技術
INTERSPEECH 大會聚集超過一千名研究人員,展現他們在語音技術的突破性成果。NVIDIA Research 團隊將在本週舉行的 INTERSPEECH 大會上,對開發人員展示對話式 AI 模型架構與完全格式化的語音資料集。

敬請關注以下由 NVIDIA 講者帶領進行的會議活動:
8 月 31 日 (週二):Scene-Agnostic Multi-Microphone Speech Dereverberation
9 月 1 日 (週三):SPGISpeech: 5,000 Hours of Transcribed Financial Audio for Fully Formatted End-to-End Speech Recognition
9 月 1 日 (週三):Hi-Fi Multi-Speaker English TTS Dataset
9 月 2 日 (週四):TalkNet 2: Non-Autoregressive Depth-Wise Separable Convolutional Model for Speech Synthesis with Explicit Pitch and Duration Prediction
9 月 3 日 (週五):Compressing 1D Time-Channel Separable Convolutions Using Sparse Random Ternary Matrices
9 月 3 日 (週五):NeMo Inverse Text Normalization: From Development to Production

在 NGC 目錄中搜尋 NVIDIA NeMo 模型,並收聽 NVIDIA 研究人員在 INTERSPEECH 大會的精彩演講。
 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11