公衛醫療專家投書《BMJ》子刊 疾呼確立AI研發規範前應停止開發  

撰文記者 吳培安
日期2023-05-10
EnglishFrenchGermanItalianPortugueseRussianSpanish
(圖片來源:Pixabay)

美國時間8日,一群公共衛生專家和反核戰醫師組織代表,在《英國醫學期刊全球健康》(BMJ Global Health)上發表分析專文,指出人工智慧(AI)對人類健康與生活可能造成的三大威脅,包括社會、軍事、失業等,並呼籲AI的使用和開發,在得到妥善規範之前應該停止。
 
作者表示,雖然AI確實有著顛覆人類社會的潛能,其中也包含醫療和公共衛生,但有些類型的AI應用,可能會對人類造成生存上的威脅(existential threat),特別是具有自我改進(self-improving)能力的通用型AI (general purpose AI),理論上確實有可能學習、並執行所有人類能做的任務,必須及早考慮它們對人類社會可能造成的傷害。
 
在該篇文章中,作者點出由AI衍生的三種威脅,且它們可能正在發生。
 
第一種威脅,來自於AI能夠快速清理、組織、分析巨量的個人資料,其中也包含圖像。這可能會被運用在操縱民眾的行為和反應,進而顛覆民主體制,類似的案件在2013年和2017年的肯亞選舉、2016年的美國總統大選、2017年法國總理選舉等都發生過。
 
AI能夠快速修正改進,並以深度學習偽造(deep fakes)竄改或變造事實,AI驅動資訊系統,也可能透過造成信任崩壞、造成社會分裂與對立,進一步破壞民主,而公衛問題就會隨之發生。
 
作者指出,AI驅動的監測系統,也可能會被政府或其他權勢者運用,更直接地控制並壓迫人們,例如中國政府的社會信用體系(Social Credit System),就將國民的金融交易、行動、警政紀錄和社交關係等資料,匯集成大數據分析庫,並和人臉辨識軟體串聯。
 
不過,中國並不是唯一發展AI監控的國家,至少還有75個其他的國家,都已經在發展這類系統,其中也包含自由民主國家和軍事專政政府。
 
第二種威脅則在於致命性自主武器系統(LAWS)的開發。作者認為,AI能夠在沒有人為監督下,針對人類目標進行定位、篩選和攻擊人類。LAWS還能和小型的機動性裝置結合(例如無人機),且能大量低成本地製造,輕易地以產業化規模為殺戮做好準備。
 
第三種威脅則是伴隨著AI科技的廣泛導入、所帶來的失業問題,且可能將在未來10年內發生,受影響的人數可能會多達數千萬到上億。作者指出,雖然人們將不用再面對高重複性、危險和令人不快的工作,但失業本身確實和不良的健康成效和行為高度相關。
 
作者認為,自動化程度的增加只將收入從勞工轉移到資本家,助長了財富不均;此外,對於無法工作或是不需要工作的世界,社會將產生何種心理或情緒反應猶未可知;此外,我們也沒有思考需要什麼樣的政策和策略,來打破失業和不良健康狀況之間的關聯。
 
他們呼籲,AI的研發正以指數型成長、成長飛快,這將使得我們避免AI造成嚴重傷害的機會越來越少。而AI能帶來的未來效益,將取決於現在政策和法規機構設計制度,將風險最小化、益處最大化的效率。這除了需要國際間的協議和合作,同時還要避免破壞性的AI軍備競賽。
 
作者也強調,醫療照護專家在警告AI的風險和威脅上也扮演著關鍵角色,如果AI逾越了它對人類和社會的貢獻,我們就必須捍衛民主、強化公共利益機構、削弱權力,以執行有效的制衡,例如推動AI發展的軍工企業,以及針對性錯誤資訊、破壞民主制度和隱私權的社交媒體公司。
 
參考資料:
https://medicalxpress.com/news/2023-05-doctors-health-experts-halt-ai.html
原始論文:
https://gh.bmj.com/content/8/5/e010435
 
(編譯 / 吳培安)