《Science》嬰兒如何學習語言? 紐約大學創AI解謎 挑戰大師理論

撰文記者 巫芝岳
日期2024-02-15
EnglishFrenchGermanItalianPortugueseRussianSpanish
《Science》嬰兒如何學習語言? 紐約大學創AI解謎 挑戰大師理論 (圖片來源:網路)

近(1)日,美國紐約大學(New York University)的人工智慧(AI)團隊,開發出一項能探究嬰兒如何學習語言的工具。其僅透過以嬰兒視角紀錄的大量影像和語音,就訓練出可有基礎語言能力的AI模型,此發現挑戰了「現代語言學與認知科學之父」Noam Chomsky等科學家,對人類語言學習的理論。該研究論文發表於期刊《Science》。

嬰兒普遍在6個月至9個月大時,開始學習第一個單字,且能將口語單字和對應的視覺影像連結起來。為了解該過程,研究團隊將頭戴式攝影機配戴於一名澳洲嬰兒頭部,在該嬰兒6~25個月大的期間,從其視角進行紀錄;該嬰兒每週配戴兩次、每次記錄約一小時(相當於嬰兒清醒時1%的時間)。

最終,他們一共收集了61個小時的視覺語言資料,並以此訓練出一項神經網絡AI。研究人員根據錄下的畫面,及錄音中其他大人對該嬰兒說的話來訓練AI模型,該模型共接觸了25萬個單字和對應的影像,這些影像是在其玩耍、閱讀、吃飯等活動中所錄下的。

該AI模型使用了一項稱為「對比學習」(contrastive learning)的技術,來了解哪些影像和文字可能有連結關係、哪些無連結關係,進而建立出可用於預測某些單字所指影像的資訊。

研究團隊接著對AI模型進行測試,要求AI將單字和候選影像進行配對(1單字配上4選1的影像),該測試也常用於兒童語言能力評估中。結果顯示,AI配對的成功率為62%,比起1對4的偶然機率25%好相當多。

另外,對於例如蘋果、狗等該模型過去未曾「見」過的例子,其辨識的成功率為35%;對於訓練資料中頻繁出現的物體,AI則能更好地辨識出來;而對外觀變化不大的物體也更容易辨識,但對「可泛指多種物體」的單字,例如:玩具,則較難學習。

未參與此研究的美熹德加州大學(University of California Merced)認知科學家Heather Bortfeld表示,這項AI模型顯示,嬰兒在剛開始學習語言時,僅透過在不同的感官來源間建立聯繫,就可以學到很多東西。

該發現也對美國語言學家Noam Chomsky等科學家提出挑戰,他們認為語言過於複雜,資訊輸入太過稀疏,因此無法透過一般學習過程來習得語言,嬰兒學習語言時需仰賴某些「特殊機制」。但本次研究指出,嬰兒顯然很可能不需特殊機制,就能習得語言。

不過,Bortfeld也表示,這項研究僅仰賴於單一兒童的數據,但每位兒童的成長經驗和環境差異很大,其「普遍性」(generalizability)恐受質疑。

加拿大蒙特利爾大學的機器學習科學家Anirudh Goyal則表示,這項模型只要進一步改善、使其更符合人類學習的複雜性,未來將有很大的潛力促進認知科學發展。

參考資料:

1. 論文原文:https://www.science.org/doi/10.1126/science.adi1374

2. https://www.nature.com/articles/d41586-024-00288-1

(編譯/巫芝岳)