人工智慧如何生成聲音 第三章_機器如何「理解」聲音

更新 發佈閱讀 36 分鐘

特徵、表徵學習與潛在空間

3.1 從人工特徵到深度表徵學習

如果我們問一個最直接的問題:機器究竟是如何「理解」聲音的?一個看似自然的回答可能是:它先聽到聲音,再分析聲音裡的重要特徵。但這個回答立刻引出下一個更根本的問題:哪些特徵算是「重要」?對人類而言,這個問題似乎不難。我們能分辨一句話說了什麼、是誰在說、語氣是否緊張、背景是否嘈雜。然而,對機器而言,輸入只是一串隨時間變化的數值。機器並不天然知道音高、音色、語速、情緒或語意,它只能透過某種表徵方式,把原始訊號轉換成對任務有用的形式。

在深度學習普及之前,語音與音訊系統大多遵循一條很明確的工程路線:先由研究者根據聲學知識設計特徵,再將這些特徵交給後端的統計模型。這種做法的典型代表,就是上一章提到的 MFCC。研究者先假設:對語音辨識最重要的,不是波形本身的每一個微小起伏,而是頻譜包絡的大致形狀,以及這些形狀在符合人耳感知的 Mel 尺度上的變化。於是,系統就先把波形轉成頻譜,再經過 Mel 濾波器組與倒譜壓縮,最後得到一組相對緊湊的特徵向量。後端模型並不是直接面對原始聲音,而是面對一組已經被人類「預先整理過」的摘要。

這種「人工特徵+統計模型」的範式有它的歷史合理性。早期的計算資源有限,模型容量也有限,若直接用原始波形進行學習,序列過長、變化過細、訓練會非常困難。如果將聲音先轉成較穩定的特徵,可以大幅降低問題難度。從工程角度來看,這是一種把知識前移的策略:由人類先替機器做第一次抽象化,讓模型只處理較高層、較乾淨的資訊。

但這條路線也有明顯的天花板。第一,人工特徵能表達的內容,取決於設計者當時的理論理解。若研究者主要關心語音識別,特徵就會偏向語音內容;若他忽略了情緒、說話者、環境或細緻音色差異,那麼這些資訊往往在前處理階段就已被壓扁或削弱。第二,聲音中的重要規律未必容易被人類事先命名。某些對說話者辨識很關鍵的微小頻譜紋理,某些對情緒識別很敏感的停頓模式,或者某些對音樂風格判別很重要的長程結構,都不一定能被簡單地寫成手工規則。

深度學習帶來的根本性改變,在於它不再假定人類必須先把「正確特徵」整理好,才交給模型去使用。相反地,它讓模型在完成任務的過程中,自己學出有用的中間表徵。這就是表徵學習(representation learning)的核心思想。所謂表徵,不只是某一層神經元的輸出,而是模型對輸入資料所形成的一種內部編碼方式。當一個深度網路為了降低任務損失而調整權重時,它同時也在塑造自己如何看待資料。原始波形經過第一層、第二層、第三層之後,不再只是時間序列,而是逐步轉換成更適合分類、辨識、生成或控制的表徵。

這裡最重要的一點是:表徵不是憑空產生的,它是被任務的目標塑造出來的。如果一個模型的任務是辨認說話者,它就會學到對說話者的身份敏感、對語音內容相對穩定的表徵;如果任務是辨認音素,它就會學到對語音內容敏感、對個人音色相對不敏感的表徵。也就是說,所謂「機器理解了什麼」,不能脫離它被要求完成的任務來談。理解,在機器學習的語境裡,不是先驗的內在意義,而是可以被用來有效完成任務的內部結構。

我們可以用說話者辨識系統作一個具體的對比。傳統方法會先設計一組描述聲道與共振峰特徵的手工參數,再用後端模型判定說話者是否相同。較新的深度模型,則往往直接透過大量的說話者分類或驗證任務,學得一個嵌入向量;像 x-vector 這一類的表徵,就是在這個脈絡下形成的。這種嵌入不需要研究者逐一指認「哪一維代表喉音、哪一維代表鼻音共鳴」,但它在功能上確實攜帶了穩定的說話者資訊,並在實際辨識任務中表現出很高的區分能力。

因此,從人工特徵走向深度表徵學習,不只是方法上的升級,而是知識分工的重組。過去是人類先做大量抽象工作,再交給模型做最後判定;現在則是模型在資料與目標函數的共同約束下,自行形成多層次抽象任務。這個變化的意義,在於機器不再只是使用我們替它準備好的特徵,而是開始自己發現哪些訊號規律值得保留、哪些差異可以忽略、哪些結構具有可遷移的價值。這也正是當代聲音 AI 能夠跨越語音、說話者、情緒、音樂與環境聲等多種任務的重要基礎。

3.2 聲音中的多層次資訊

表徵學習之所以在聲音領域特別重要,一個根本原因在於:聲音不是單層訊號,而是多層資訊的重疊體。表面上,我們聽到的是同一段聲波;實際上,在這段聲波中,同時疊加了語言內容、說話者特徵、韻律情緒、環境條件、音色質地與空間線索。若模型無法把這些層次區分開來,它就很難在不同任務中穩定表現。

讓我們思考一句很簡單的口語句子:「你到了嗎?」如果我們只關心語意內容,這句話無非是在詢問對方是否抵達;對語音識別系統而言,重要的是把字詞序列辨認正確。但同一句話若由不同的人說出來,音高範圍、共鳴特性、發音習慣都會不同,於是說話者特徵又構成了另一個層次。再往上看,若這句話是用焦急、溫柔、懷疑或責備的語氣說出來,即使字詞完全相同,韻律與情緒所傳遞的社會意義卻完全不同。而假使它是在車站、咖啡店、回音很重的走廊或手機通話環境中被錄下,背景環境與通道條件又會進一步改變我們所接收到的波形。

這個例子說明了一件非常重要的事:同一個音訊片段,可以同時回答好幾種不同的問題。它可以告訴我們「說了什麼」,也可以告訴我們「誰說的」、「怎麼說的」、「在哪裡說的」,甚至在音樂與環境聲的情境中,還可能隱含「這是什麼材質的聲音」、「這個聲源離我們多遠」、「這個空間有多大」等訊息。從機器的角度來看,真正困難的不只是從聲音中提取資訊,而是要知道在特定任務裡應該保留哪些資訊、忽略哪些資訊。

我們可以把這些資訊粗略分成五個層次。第一個層次是語意內容(semantic content)。它對應於語音中被說出的詞語、語法結構與命題意義,是自動語音識別與語言理解最關心的部分。第二個層次是說話者特徵(speaker identity),包括聲道形狀、發聲習慣、咬字風格與穩定的音色輪廓。第三個層次是韻律與情緒(prosody and emotion),也就是語調、節奏、重音、語速、停頓、句末升降與情感色彩。第四個層次是背景環境(acoustic environment),例如噪音、混響、通訊通道與麥克風條件。第五個層次則是更細緻的音色與空間感(timbre and spatialization),這在音樂、音效與沉浸式音訊中尤其重要。

然而,這些層次並不是像抽屜一樣分得整整齊齊。它們更像是相互滲透的透明薄膜。說話者身份往往透過音色與共鳴結構表現出來;情緒又會改變語速、能量與基頻;環境混響會讓語音的邊界變得模糊,使內容辨識與說話者辨識都變得更困難。也就是說,模型所面對的不是一組乾淨分離的因素,而是一個高度糾纏的混合訊號。這也是為什麼聲音領域的「解糾纏」(disentanglement)總是比口頭上說起來難得多。

從任務設計的角度來看,不同系統對這些層次有不同的敏感度要求。語音識別系統理想上應該對說話者、環境與情緒具有某種不變性,只把注意力放在語言內容上;說話者識別系統則正好相反,它應該跨越字詞差異,把穩定的說話者特徵提取出來;語音情緒識別要保留韻律線索,但又不希望被背景環境嚴重干擾;語音轉換系統則希望把語意內容保留下來,卻改變說話者身份;TTS 與 voice cloning 系統則希望同時控制內容、音色與韻律,而不是只保留其中一項。

這些層次的重疊與糾纏,構成了聲音表徵問題的根本難度。模型面對的不是一組可以逐項勾選的獨立屬性,而是一個所有因素同時作用、彼此相互滲透的混合訊號。不同任務關心的層次不同,但它們必須從同一段聲音中各取所需。這也意味著,任何表徵方式都無法迴避一個核心問題:在這麼多相互競爭的資訊層次之間,究竟應該保留什麼、忽略什麼?而這正是下一節要討論的問題。

3.3 表徵學習的意義

有了前面的討論,我們可以更準確地理解表徵學習的技術意義。表徵學習並不是單純把高維資料壓縮成低維向量而已;如果只是壓縮,任何一般的有損編碼都在做這件事。真正關鍵的問題是:模型必須學出一種對任務有用、對干擾有韌性、對下游操作可延展的表徵。這種表徵既是一種壓縮,也是一種重新組織。

在神經網路中,這樣的重新組織通常由編碼器(encoder)完成。編碼器接收原始輸入,例如波形、頻譜圖或 Mel 頻譜圖,並把它映射到一個中間向量 z。這個 z 不是輸入的逐點複製,而是一種被任務需求塑形過的摘要。若任務是說話者驗證,那麼 z 應該讓同一說話者的不同語句彼此靠近,讓不同說話者彼此分開;若任務是語音內容表示,那麼 z 應該對說話者與環境變動相對穩定,卻保留音素與語詞的時間結構。

因此,一個好的表徵至少具備三個特徵。第一,它有選擇性:它不會平等保留所有資訊,而會偏向保留與任務相關的訊號。第二,它有可分性:在這個表徵空間裡,不同類別或不同屬性的樣本較容易被區分開來。第三,它有遷移性:它不只對單一任務有效,而可能成為多種任務共用的中介層。正因如此,表徵學習往往比單一任務的最終分類結果更值得重視。分類器可能隨任務更換而被丟棄,但好的表徵常常能被移植到其他問題上繼續使用。

說話者嵌入就是一個非常典型的例子。當模型在大量說話者上進行分類或驗證訓練時,它的中間表徵會逐漸形成一種穩定的說話者空間。這種嵌入並不是由人類事先指定形式,而是在任務壓力下從資料中「長」出來的。x-vector 的成功,也正說明了這件事:對說話者辨識有效的表徵,不必依賴對每一種發聲差異進行人工精細編碼;只要訓練目標設計得當、資料量足夠,模型就可能自行找到具有穩定辨識力的內部結構。

表徵學習的另一個重要價值,在於它讓我們可以把複雜問題拆解成比較模組化的流程。當原始音訊先被映射成一個表徵後,後面的分類、比對、檢索、聚類、生成或控制任務,都可以在這個表徵層上進行。換句話說,表徵成為原始訊號與高層推理之間的介面。這種介面的存在,使系統不必每次都重新從波形開始學起,也使不同模組之間能以較穩定的形式交換資訊。

表徵的遷移性,是近年聲音 AI 特別關鍵的現象。研究者發現,在大量語音上預訓練得到的表徵,不只可用於語音識別,也往往對說話者識別、情緒辨識、語言辨識、關鍵詞偵測等多種任務有效。這代表模型可能抓到了某些較一般性的聲音結構,而不是只記住某一個狹窄任務的答案。像 SUPERB 這類基準測試的出現,其實就是在系統性檢驗:同一套預訓練表徵,是否真的能跨任務遷移,成為聲音處理的通用基礎。

從概念上看,表徵學習也可以被理解為一種任務導向的壓縮。這裡的壓縮不是把資料縮小到最少,而是把與任務無關的變異壓低,把與任務相關的結構保留下來。這種想法與資訊瓶頸(information bottleneck)原理十分接近。資訊瓶頸的直觀想法是:好的表徵應該盡量少攜帶輸入中的冗餘資訊,但盡量多保留與輸出或任務標籤有關的資訊。對聲音而言,這意味著表徵不必逐點記住整段波形,卻應保留足以完成辨識、控制或生成的關鍵結構。

當然,這個說法更適合作為概念框架,而不是對所有深度網路訓練動態的精確描述。正如相關研究指出的,資訊瓶頸理論是否能完整刻畫現代深度模型的實際學習過程,仍存在爭論。但即使如此,它仍然提供了一個很有啟發性的視角:表徵學習的核心問題,始終是在保留與捨棄之間尋找平衡。若保留太少,表徵會失去辨識力;若保留太多,表徵又可能過度糾纏、難以遷移、難以控制。聲音 AI 的許多設計選擇,最終都可以回到這個張力來理解。

3.4 潛在空間作為聲音生成的操作平面

如果說表徵是模型對聲音的內部編碼,那麼潛在空間(latent space)就是這些編碼所形成的幾何場域。這個概念之所以重要,是因為生成模型很少直接在原始波形上進行高層操作;它們更常在某個較抽象的空間裡做插值、採樣、平移與組合,然後再把結果解碼回到可聽的聲音。換句話說,潛在空間不是單純的儲物櫃,而是生成與控制真正發生的平面。

我們可以先用一個直覺性的例子來理解。假設模型把每位說話者的聲音表示成一個 256 維向量。對我們來說,256 維無法直接可視化,但幾何直覺仍然成立:每位說話者在空間中對應一個點,而相似的聲音傾向彼此靠近。若兩位說話者音色相近、說話風格接近,他們的嵌入向量可能距離較小;若一位聲音低沉、另一位尖亮,兩者在空間中的位置通常較遠。這樣的距離關係若與人類感知大致一致,我們就說這個潛在空間具有某種有意義的幾何結構。

一個結構良好的潛在空間,通常至少表現出三種性質。第一是連續性(continuity):空間中相近的點,應對應到感知上相近的聲音,而不是一個點是正常語音,旁邊一點突然變成破碎噪音。第二是群聚性(clustering):屬性相似的樣本會形成群聚,例如相似說話者、相似情緒、相似樂器音色彼此聚在一起。第三是方向性(directionality):沿著某些方向移動時,聲音的某個可辨識屬性會穩定改變,例如音色變亮、情緒變強、語速變快。這三個性質讓潛在空間不只是一堆座標,而是一個可操作、可解釋、可控制的生成結構。

但這裡還要更進一步問一個問題:我們如何知道這些性質真的存在,而不只是理論上的期待?換句話說,若我們說潛在空間具有連續性、群聚性與方向性,那麼這些結構必須能夠在實際操作中被觀察出來。也正因如此,研究者常會用一些可視化與可操作的方式來檢驗潛在空間的形狀,其中最常見、也最直觀的一種,就是看模型是否能在兩個已知的表徵之間做出平滑過渡。

要理解這件事,一個最有說服力的例子,就是說話者空間的內插(speaker interpolation)。所謂「內插」,可以先直觀地理解為:在兩個說話者的潛在表徵之間,取出一系列介於中間的位置,觀察模型生成的聲音是否也會隨之平滑過渡。我們假設zA 是說話者 A 的嵌入,zB 是說話者 B 的嵌入,則我們可以定義一個插值向量:

z(α) = α zA + (1 − α) zB

其中 α 介於 0 與 1 之間。當α=1 時,結果等同 A;當 α=0 時,結果等同 B;而中間的值則代表兩者之間的漸進過渡。若模型的潛在空間學得好,那麼隨著 α 緩慢改變,合成出的聲音也應平滑地從 B 的音色過渡到 A,而不是中途突然崩壞成噪音或不自然的變形。它的目的不是單純製造一個現實中一定存在的「混合說話者」,而是用來檢驗模型是否真的把說話者音色組織成一個連續、有結構的空間。如果空間是雜亂無章的,那麼兩點之間的中間位置很可能對應到毫無意義或嚴重失真的聲音;但如果空間學得良好,中間位置就可能對應到音色上合理、漸進的變化。這種平滑性,正是連續性的具體表現;而如果 A、B 以及與其相似的說話者在空間中彼此靠近,則又反映了群聚性的存在。換句話說,說話者內插之所以重要,不只是因為它聽起來有趣,而是因為它把潛在空間的結構性質,轉化成一個可以直接觀察的實驗。

這個想法不只適用於說話者,也適用於風格與情緒。假設模型在訓練時同時接觸了中性、快樂、悲傷、憤怒等標記語音,則不同情緒的樣本可能在潛在空間中形成有方向性的分布。若某個方向對應「更興奮、更高能量」,那麼我們就可能在推論時沿著這個方向微調潛在向量,使輸出語音更有張力。類似地,在音樂與音效模型中,也可能存在與節奏鬆緊、材質粗糙度、空間開闊感相對應的方向。這裡的重點不在於每一個方向都一定能被人類清楚命名,而在於:只要空間中確實存在穩定的變化軸,模型就有可能提供高層次、可解釋的控制能力。

因此,潛在空間之所以重要,不只是因為它把高維資料壓縮成較短的向量,而是因為它把原本混雜在波形與頻譜細節中的結構,重新整理成可操作的幾何關係。若沒有這一層抽象,我們就很難在不直接碰觸波形細節的情況下,對聲音進行高層操控。也正是在這個意義上,潛在空間不只是模型內部的一個中介層,而是生成模型得以具備控制能力、遷移能力與可解釋性的關鍵基礎。

而且,潛在空間的概念也直接改變了我們對聲音生成任務本身的理解。傳統的語音合成,往往被想成從文字到聲音的確定性映射;但在潛在空間的框架下,生成過程更像是在潛在空間中進行採樣或搜尋,再由解碼器(decoder)把潛在向量映射回可聽的聲音的一個過程。這樣的觀點有一個非常重要的後果:它自然地支持生成的多樣性。也就是說,即使給定相同的輸入條件,例如相同的文字內容與相同的說話者條件,模型仍然可以因為在潛在空間中選取了不同的位置,而生成多種不同但都合理的語音實例。從這個角度看,潛在空間不只是壓縮資料的工具,它也重新定義了「生成」這件事,生成不再只是把唯一正確答案還原出來,而是在一個受約束的可能性空間中,產生多個合理的輸出。

不過,這裡還有一個問題需要進一步探討。即使潛在空間已經呈現出某種連續性、群聚性與方向性,也不代表其中的不同屬性已經被清楚分開。在真實模型裡,說話者、語音內容、情緒、語速、錄音環境等因素,往往不是彼此獨立地分布在空間中,而是相互糾纏在一起。這意味著,當我們試圖沿著某個方向調整「情緒」時,可能同時不小心改變了音色;當我們想保留語音內容、只改變說話者時,也可能連帶影響韻律與能量分布。換句話說,潛在空間若只是有結構,還不夠;若要真正支持穩定、精確的控制生成,還需要更進一步的條件:不同生成因素最好能在空間中被相對清楚地分離開來。

這也就是為什麼後續研究如此重視 disentanglement,也就是所謂的「解耦表徵」。所謂解耦,並不是要求模型把世界切成彼此完全無關的獨立變數,而是希望某些我們特別關心的因素,例如語音內容、說話者特徵、情緒風格,能在表示空間中具有相對穩定、彼此較少干擾的結構。只有在這種條件下,我們才更有可能做到「改變 A 而盡量不動 B」,例如保留同一句話的內容但改變說話者,或保留說話者音色但調整情緒強度。不過,必須誠實指出的是,聲音領域的解耦至今仍是一個未完全解決的開放問題。目前多數系統在實際操作中,仍會出現韻律洩漏、口音殘留、或改變一個屬性時連帶影響其他屬性等現象。尚無公認的通用方法能穩定實現完全解耦;現有的成功案例,大多依賴針對特定因素的架構設計或訓練策略,而非一套放諸四海皆準的解法。

從生成模型的角度看,這一步其實非常關鍵。因為一旦表徵是糾纏的,模型雖然可能仍然能生成自然的聲音,卻很難提供細緻而可靠的控制能力;相反地,若某些屬性在潛在空間中能被較穩定地分離,我們就能用更高層次的方式操控輸出,而不必直接處理低層波形的複雜細節。這也是為什麼在後面的章節裡,當我們討論 voice cloning、情緒語音生成、音訊語言模型與多模態控制時,會一再回到同一個核心問題:模型學到的潛在表徵,究竟是雜亂糾纏的,還是具有可分、可控、可遷移的內部結構?

也就是說,潛在空間的幾何結構,並不是一個只屬於模型分析的抽象問題,它其實直接決定了生成系統後續能做到什麼。若空間缺乏穩定結構,我們就很難進行可靠操控;若空間雖有連續性,卻沒有足夠的可分性,控制仍會彼此干擾;而若空間同時具備連續性、群聚性、方向性與一定程度的解耦,那麼它才真正成為支持高層生成控制的基礎。接下來,我們就要進一步討論:模型如何嘗試在這樣的空間中,把不同因素分離開來,並使這些表徵能夠被穩定地用於生成與控制。

3.5 自監督學習:從未標記音訊中建立通用表徵

前幾節討論的是表徵學習為什麼重要;本節則進一步回答一個在實務上非常關鍵的問題:這些好的表徵究竟從哪裡來?在聲音領域,高品質標記資料往往非常昂貴。逐字轉錄需要大量人工時間,情緒標記帶有明顯主觀性,說話者標記與事件標記也不總是容易取得。相較之下,未標記音訊卻極為龐大:網路影片、播客、通話錄音、公開語料、音樂與環境聲素材幾乎到處都是。於是,一個核心問題便自然浮現:模型能不能先從大量未標記資料中學會一般性的聲音結構,再用較少的標記資料完成特定任務?自監督學習(self-supervised learning, SSL)正是在這個背景下成為聲音 AI 的核心技術。

自監督學習的基本思想,是讓資料自己產生監督訊號。模型不是等待人類給它標籤,而是透過某種預測任務,被迫從資料中提取規律。例如,在自然語言中,模型可以預測被遮蔽的詞;在聲音中,模型則可以預測被遮蔽的時間區段、預測未來片段的表徵,或預測經群聚分析後形成的偽標籤。這些任務雖然不等同於最終應用,但它們要求模型理解時間上下文、局部結構與長程依賴,因此往往能學出相當通用的中間表徵。從這個角度來看,自監督學習真正重要的地方,不只是「省去人工標記」,而是它為模型提供了一條從海量原始資料中抽取一般性結構的途徑。

從概念譜系來看,對比式預測編碼(contrastive predictive coding, CPC)提供了一個重要起點。它的核心想法是:如果一個表徵真的抓住了時序資料中的有用結構,那麼它就應該能幫助模型根據當前上下文預測未來的表徵,並同時區分哪些未來片段屬於同一序列、哪些只是負樣本。這種對比式學習不需要人工標記,卻迫使模型學會時間上的組織與相關性。對聲音而言,這類方法的重要性在於,它把「理解聲音」重新表述成「能否預測聲音的結構」這個問題。模型若能在未標記資料上穩定地完成這種預測,就表示它已經開始掌握聲音中的某些穩定規律。這個想法直接催生了後續的 wav2vec 系列。最初的 wav2vec(Schneider et al., 2019)正是建立在 CPC 的對比式預測框架之上,將其應用於大規模未標記語音的預訓練;而 wav2vec 2.0 則在此基礎上進一步引入遮蔽預測機制與可學習的量化目標,形成了更強大的自監督範式。

wav2vec 2.0(Baevski et al., 2020)則把這條路線推向了更強大的實作形式。它先將原始波形送入編碼器,得到連續潛在表徵,接著遮蔽部分時間區段,要求模型根據上下文去推測被遮蔽區段對應的離散化目標。這裡的離散化,是由模型內部一個可學習的量化模組(基於 Gumbel-Softmax)在訓練過程中同步完成的,而非事先由外部群聚產生。這一點與稍後將介紹的 HuBERT 形成重要對比:HuBERT 的預測目標來自離線群聚所產生的偽標籤,而 wav2vec 2.0 的量化目標則與模型本身共同學習。

這個自監督的學習過程有兩個關鍵效果。第一,模型不能只記住局部波形細節,而必須利用上下文來恢復缺失內容,因此被迫學到較高層的聲學結構。第二,大量未標記語音可以用來做這種預訓練,之後再用少量標記資料針對語音識別或其他任務進行微調。這種「預訓練—微調」的兩階段範式,後來不只影響語音領域,也成為現代大型模型方法論的核心思想之一。

HuBERT(Hidden-Unit BERT,Hsu et al., 2021)走的則是另一條很具啟發性的路線。它並不直接預測波形,而是先把初步聲學特徵做離線群聚,得到一組粗略的偽標籤,再訓練模型去預測這些偽標籤。乍看之下,這似乎有點循環:既然偽標籤本身並不完美,為什麼模型還能學到有用的表徵?關鍵在於,粗糙標籤雖然不精確,卻仍然反映了某些穩定的聲學統計模式。只要模型能利用這些模式學出比原始特徵更好的表徵,下一輪群聚就能再得到更好的偽標籤。如此反覆迭代,便形成一種自我增強的過程。從方法論上看,HuBERT 很重要的一點,是它說明了:即使沒有人工標記,只要模型能從資料中找到相對穩定的結構,也仍然可能逐步建立出更高品質的聲音表徵。

更值得注意的是,自監督學習的重要性,並不只在於替語音識別節省標記成本,更在於它改變了我們對「通用聲音表徵」的理解。過去的系統通常是任務導向的:做語音識別,就為語音識別設計一套特徵;做說話者辨識,就另外設計一套特徵。不同任務各自建立自己的前端,彼此之間的知識共享相對有限。自監督學習則逐漸把這種思路反轉過來:先在大規模未標記語音上學出一個通用的聲音前端,再把這套前端遷移到不同的下游任務上。

在這樣的研究框架下,一個核心問題便浮現出來:如果模型真的學到了較一般性的聲音結構,那麼它不應只在單一任務上有效,而應該在多種任務上都展現穩定的表現。這也是為什麼 SUPERB 這類基準如此重要的原因。SUPERB(Speech processing Universal PERformance Benchmark)可以理解為一組專門用來評估自監督語音表徵的綜合測試基準。它不是只看模型在某一項任務上的最高成績,而是把語音識別、說話者識別、情緒辨識、關鍵詞偵測等多個任務放在一起,檢驗同一套表徵在不同任務之間的整體泛化能力。若一個自監督模型在這些任務上都能表現優異,那就表示它抓到的不只是某個任務特化的技巧,而是某種更一般性的聲音結構。也正是在這個意義上,自監督學習把表徵從任務附屬品,逐漸推向更接近基礎能力的位置。

研究者也逐漸發現,至少在目前以英語為主的若干代表性模型分析中,這些大型自監督模型的不同層,往往對應不同抽象程度的資訊。較低層的表徵保留較多局部聲學細節,較高層則更接近音素、語詞甚至語言內容。雖然,不同模型之間的層級行為並非完全一致,這一規律是否同樣適用於其他語言與聲音類型,仍有待進一步驗證。不過,這仍然讓我們獲得一個啟示,也就是模型的層次本身就像一個光譜:從物理聲學逐步走向語言結構。這一點對後續生成模型尤其重要,因為不同生成任務依賴的是不同層次的表徵。若要做 voice cloning,可能需要保留穩定的說話者特徵;若要做語音內容建模,則需要更偏向內容不變性的表徵;若要做整合式音訊語言模型,則還要思考如何將這些表徵進一步與離散 token 或語言模型介面對接。

總結來說,自監督學習的重要性不只在於「少量標記也能訓練」,更在於它讓大量未標記音訊第一次真正成為建立通用聲音表徵的資源。不過,這裡所說的「通用」我們仍需謹慎理解。目前最具代表性的自監督模型,如 wav2vec 2.0 與 HuBERT,主要是在語音資料上預訓練的,其跨任務遷移能力也以語音相關任務為主。對於環境聲、音樂、音效等非語音聲音,這些模型的遷移效果往往不如在語音任務上顯著。換句話說,當前的「通用」更接近「語音領域內的通用」,而非跨越所有聲音類型的全面通用。真正涵蓋語音、音樂與環境聲的統一表徵,仍是一個正在探索中的方向。但即便如此,我們仍然可以相信,這個方向使聲音領域的發展路徑,開始越來越接近自然語言處理與電腦視覺:先在龐大資料上學出一般表徵,再把這些表徵轉化為不同任務的能力。對本書後續章節任務而言,這個轉變非常關鍵,因為它為聲音生成、音訊語言模型與多模態整合提供了共同的底座。

本章小結

本章的核心問題是:機器如何在一段複雜的聲音中,學到對任務有用的內部表徵。為了回答這個問題,我們先回顧了從人工特徵到深度表徵學習的歷史轉折。早期方法依賴研究者先行設計特徵,模型只在整理過的輸入上做判斷;深度學習則讓模型在任務壓力下自行形成多層次的表徵,從而重新分配了人類知識與機器學習之間的工作邊界。

接著,我們看到聲音本身是一個多層資訊的重疊體。語意內容、說話者身份、韻律情緒、背景環境、音色與空間感,同時存在於同一訊號中,且彼此相互滲透。這使得表徵學習不只是『壓縮資料』而已,而是在多種屬性之間做選擇性保留與選擇性忽略。從這個角度看,表徵的品質將直接決定後續系統能否穩定完成辨識、轉換、控制與生成等任務。

然後,我們引入了潛在空間的觀點。表徵一旦形成,便不只是靜態描述,而是構成一個可操作的幾何空間。插值、採樣、方向移動與屬性控制,都是在這個空間中發生的。潛在空間若具備連續性、聚類性與方向性,就能支撐說話者混合、情緒調整、風格控制等生成操作;若空間破碎或嚴重糾纏,這些操作就會變得不穩定甚至失效。

最後,自監督學習說明了:建立好表徵,並不必然依賴大量人工標記。透過遮蔽預測、對比學習與偽標籤迭代等策略,模型可以從海量未標記音訊中抽取通用結構,再遷移到各種下游任務。這一點使表徵學習從單一任務技巧,進一步變成整個聲音 AI 生態的共同基礎。

帶著這個『表徵—潛在空間—可操作性』的統一視角,我們就能更清楚地理解後續章節中的各種技術路線。下一章將把目光拉回歷史:在深度表徵學習成為主流之前,語音合成系統是如何嘗試以規則與統計方法處理同一個問題的。

參考文獻

Baevski, A., Zhou, Y., Mohamed, A., & Auli, M. (2020). wav2vec 2.0: A framework for self-supervised learning of speech representations. In Advances in Neural Information Processing Systems (Vol. 33, pp. 12449–12460).

Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828.

Higgins, I., Matthey, L., Pal, A., Burgess, C., Glorot, X., Botvinick, M., Mohamed, S., & Lerchner, A. (2017). beta-VAE: Learning basic visual concepts with a constrained variational framework. In Proceedings of the 5th International Conference on Learning Representations (ICLR).

Hsu, W.-N., Bolte, B., Tsai, Y.-H. H., Lakhotia, K., Salakhutdinov, R., & Mohamed, A. (2021). HuBERT: Self-supervised speech representation learning by masked prediction of hidden units. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 29, 3451–3460.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.

Pasad, A., Shi, B., & Livescu, K. (2021). Layer-wise analysis of a self-supervised speech representation model. In Proceedings of the IEEE Automatic Speech Recognition and Understanding Workshop (ASRU) (pp. 914–921).

Qian, K., Zhang, Y., Chang, S., Yang, X., & Hasegawa-Johnson, M. (2019). AutoVC: Zero-shot voice style transfer with only autoencoder loss. In Proceedings of the 36th International Conference on Machine Learning (ICML) (pp. 5210–5219).

Saxe, A., Bansal, Y., Dapello, J., Advani, M., Kolchinsky, A., Tracey, B., & Cox, D. (2019). On the information bottleneck theory of deep learning. Journal of Statistical Mechanics: Theory and Experiment, 2019(12), 124020.

Schneider, S., Baevski, A., Collobert, R., & Auli, M. (2019). wav2vec: Unsupervised pre-training for speech recognition. In Proceedings of Interspeech 2019 (pp. 3465–3469).

Snyder, D., Garcia-Romero, D., Sell, G., Povey, D., & Khudanpur, S. (2018). X-vectors: Robust DNN embeddings for speaker recognition. In Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 5329–5333).

Tishby, N., Pereira, F. C., & Bialek, W. (2000). The information bottleneck method. arXiv preprint physics/0004057.

van den Oord, A., Li, Y., & Vinyals, O. (2018). Representation learning with contrastive predictive coding. arXiv preprint arXiv:1807.03748.

Yang, S.-w., Chi, P.-H., Chuang, Y.-S., Lai, C.-I. J., Lakhotia, K., Lin, Y. Y., Liu, A. T., Shi, J., Chang, X., Lin, G.-T., Huang, T.-H., Tseng, W.-C., Lee, K., Liu, D.-R., Huang, Z., Dong, S., Li, S., Watanabe, S., Mohamed, A., & Lee, H.-y. (2021). SUPERB: Speech Processing Universal PERformance Benchmark. In Proceedings of Interspeech 2021 (pp. 1194–1198).

留言
avatar-img
Dino Lee的AI 智識館
4會員
24內容數
這裡是一個探索 人工智慧 × 人文思想 × 跨域研究 的知識空間。 從《深度認識人工智慧》出發,分享 AI 的基礎概念、最新發展,以及它與心理學、哲學、社會的深度對話。