對於那些因為癱瘓而導致無法開口說話的人,千思萬緒都只能隱藏在他們的腦海的神經訊號之中,以前從未有人能夠破解人腦中的神經訊息,將之直接轉換為人類可以理解的語言,然而近日三個研究團隊於此有了進展,他們使用神經網路等人工智慧計算模型,成功在某些情況將神經訊號重建為單詞和句子,將腦中的生物電子訊息成功轉換為人類可以理解的語言。
有些人因為中風、疾病等原因喪失了說話的能力,目前,因為癱瘓而無法行動的人們可以利用眼睛,或是身體其他部位的移動來控制游標,或是選擇螢幕上的句子來選出想說的話(如史帝芬 霍金)。然而想像一下,假如電腦可以更直接的與大腦互動,解讀出腦中的訊息,模仿音調,或是流暢的與人對話,這樣的場景對有需要的人可能有多少幫助。
發表於bioRxiv的論文中指出,目前所重建出的語音還不是複雜的對話或是心裡所想的訊息,而是透過監控朗讀、默讀,或是收聽紀錄檔時的腦部活動,再重構這些訊息。
雖然離達到目標的門檻仍然很遙遠,「我們努力透過分析不同神經元再度同時間點的開關來轉換其中的語言。」哥倫比亞大學的電腦科學家Nima Mesgarani表示。「要建構出神經與神經之間如何互動並不簡單。」每個人腦中的神經訊號都不盡相同,因此電腦必須「客製化」每一個人的資訊。這些模型需要使用非常精確的數據,因此,隔著頭蓋骨是不行的。
有機會接觸打開頭蓋骨大腦的機會是非常稀少的,其中一個就是趁著進行腦部腫瘤移除手術時。外接的電子儀器可以幫助醫生避免傷害到腦部的語言或是運動區。另一種是當癲癇患者在手術前植入電極數天,以確定癲癇發作的確切部位。其中一名研究者,Martin說,「我們最多只有20分鐘,或是30分鐘」,可以用於數據收集。「時間真的非常、非常有限。」
...