大型語言模型快速發展!WHO呼籲:謹慎監管降醫療疏失

撰文記者 彭梓涵
日期2023-05-19
EnglishFrenchGermanItalianPortugueseRussianSpanish
(圖片來源:網路)
近(16)日,世界衛生組織(WHO)在一份報告中表示,ChatGPT、Bard、Bert等人工智慧(AI)平台迅速擴張,其雖然具有產生改善患者健康的潛力,但設備開發商似乎正在拋開新技術應用的謹慎態度。WHO因此警告,「如果不謹慎行事,AI工具將威脅到患者的安全。」

WHO在報告中表示,草率地採用並未測試的系統,可能會導致醫護人員出錯,對患者造成傷害,也減弱大家對AI的信任,從而破壞或影響前瞻科技在全球的發展與使用。

目前醫療保健中,已經有許多工具引入大型語言模型(LLM)工具,來模仿人類的判斷、工作和交流。

但WHO表示,這些技術許多仍處於試驗階段,因此需要密切關注它們對醫療保健和科學研究價值構成的風險,尤其是這些決策支持工具,用在資源貧乏地區的風險。

這些風險包括訓練AI的數據可能存在偏差(bias),使得工具產生誤導性或不準確的訊息。WHO除了警告也建議,AI工具在廣泛用於醫療保健與臨床醫學前,應該明確的衡量其益處。
 
WHO的警告其實也呼應了日前美國食品藥物管理局(FDA)局長Robert Califf在一次公開演講的內容,Califf表態需對大型語言模型進行靈活的監管,以避免醫療保健系統被難以理解的東西席捲。

除了FDA局長公開呼籲外,推出ChatGPT的OpenAI執行長Sam Altman ,也同意目前AI必須接受監管的觀點,他也希望進一步與政府合作,防止相關的事情發生。

資料來源:https://www.medtechdive.com/news/WHO-artificial-intelligence-AI-caution/650527/

(編譯/彭梓涵)