這套BCI系統運用人工智慧(AI)解碼患者在試圖說話時產生的大腦電生理訊號,不僅能重現使用者腦中所想的字詞,還能同步模擬語調、音高及重音,傳達語意與情感。
該研究指出,此套BCI系統能在腦部活動發出說話意圖後僅10毫秒內,就可以用合成語音即時發出相對應的話語。這大幅突破以往的BCI系統,過去的BCI系統大約會延遲3秒,或是需要使用者模仿完整個句子後才會發音。
這項研究是將BCI系統植入一名45歲男性患者腦中,該名ALS患者因疾病導致控制發聲與語言的神經受損,僅能緩慢發出模糊聲音及口型,在症狀出現5年後,他接受手術,在負責運動控制的腦區植入256個長1.5毫米的矽電極。
研究團隊運用深度學習演算法,每10毫秒就捕捉並分析該區大腦訊號,即時解碼患者嘗試發出的聲音,特別的是,其BCI系統即時解碼的是該患者試圖發出的聲音,而不是他想要說出的詞彙或音素(phonemes),音素是語言中可以改變單詞意義的最小聲音單位。
加州大學戴維斯分校神經科學家Maitreyee Wairagkar解釋,溝通不僅是透過單字表達意思,也常使用語氣詞或感嘆詞來表達意思,這套BCI系統可以完全不受詞庫限制,進行解碼來表達出患者的心聲。
研究團隊更以患者罹病前的採訪錄音訓練AI,打造出可模仿患者真實聲音的合成語音。經過測試,該名男子成功用系統說出「啊」、「喔」、「嗯」等語氣聲,甚至創造新詞,展現該技術不須依賴預設詞庫即可靈活運作。
男子還透過BCI系統拼出單詞、回答開放式問題,也能說出訓練資料庫之外的新詞。他向研究人員表示,聽到合成語音再現自己聲音讓他「感到開心」,且「像是自己的真實聲音」。
研究團隊也進一步進行實驗,證實BCI系統能判別該名男子發言時是否為疑問句或陳述句,並依重音變化即時調整語音語調。Wairagkar表示,我們導入了許多人類自然語音的重要元素,這有別於過去BCI系統僅能發出平淡單調語音。
瑞士日內瓦大學神經工程師Silvia Marchesotti指出,這項研究是一種典範轉移,未來有望開發出在真實日常生活中可使用的BCI語音輔助裝置,並大幅提升病患接受度與應用潛力。
參考資料:https://doi.org/10.1038/d41586-025-01818-1
論文:https://doi.org/10.1038/s41586-025-09127-3
(編譯/李林璦)