杜克大學健康政策中心(Duke University Margolis Center for Health Policy)數位衛生政策研究員Christina Silcoxu就建議,FDA應創建各種「標示」,如同食品的營養標示一樣,可以讓臨床醫師了解系統的功能和侷限性,提升AI軟體產品的透明度。
醫療保健的AI工具受到疫情下需求的影響,FDA在2020年就批准或授權高達132種新型醫療器材,創下有史以來的最高紀錄,其中包含預測哪些患者容易出現新冠肺炎(COVID-19)併發症的AI演算法、從電腦斷層(CT)圈選出肺栓塞的AI演算法等。
欠缺前瞻性研究評估 難知臨床環境真實使用情況
不過,錫安山(Cedars-Sinai)醫學中心和史丹福大學的研究人員發表在《Nature Medicine》期刊中的文章提及,FDA近五年批准的130種醫療AI設備,有126種設備僅進行回顧性研究,54項高風險設備也未進行前瞻性研究評估,另外,還有93項產品未在摘要文件中透漏是否有進行多點的產品評估。因此,很難知道這些產品在臨床環境中真實的使用情況。FDA發言人Jeremy Kahn表示,FDA承認近年來使用人工智慧/機器學習(AI/ML)的軟體公司數量激增,向FDA申請AI/ML產品的相關文件也增加,FDA一直努力開發適合這些技術的監管法規。
但在FDA制定相關監管法規之前,幾項迫在眉睫的難題也讓FDA受到考驗,包括:監管單位如何處理公平與偏見的問題?患者和醫師如何獲得這些創新軟體醫材的資訊?
目前,FDA仍有幾種演算法並沒有審查規範,如以症狀分類的聊天機器人、臨床決策軟體等,FDA預計能在今年底完成臨床決策軟體指南草案,將擴大對這些類型軟體的監管。
量身訂製產品生命週期監管
FDA在今年1月已發布首個「人工智慧/機器學習(AI/ML)軟體做為醫療器材(SaMD)行動計劃」,以促進FDA在AI模型持續迭代下,更量身訂製產品生命週期的監管。不過,杜克大學健康政策中心(Duke University Margolis Center for Health Policy)數位衛生政策研究員Christina Silcox仍指出,監管法規還有許多細節需要調整,例如,研發人員常吹捧機器學習演算法具有隨著時間適應或改進的能力,但FDA在目前正在建立監管AI演算法的法規中,卻大多數情況都只鎖定固定的演算法。
是否研發單位在申請批准時,就必須向FDA分享其未來隨著時間拉長、數據越多下,演算法將如何調整?以及演算法是否依舊準確、安全?
Silcox表示,FDA十分重視的一個問題在於,當演算法在不同地方、不同人群上使用時,將如何調整成適用的演算法。
軟體開發透明不足
此外,由於許多AI系統都為開發者所擁有,很難了解該系統如何運作,FDA也認為這些軟體工具應更加透明,以確保演算法沒有任何偏頗。Silcox對此建議,FDA應創建各種「標示」,如同食品的營養標示一樣,可以讓臨床醫師了解系統的功能和侷限性。他認為,透過標籤知道該演算法在哪些人群上接受過訓練和測試,以及測試是如何完成的,將有助於讓AI演算法更加透明化。
例如,醫師需要知道一個AI演算法是否已經過前瞻性研究評估(prospective study),而非只進行回顧性研究,或者是否在不同種族、性別、年齡、不同合併症或不同地點的患者中均運作良好。
取決醫師是否願意使用
根據外媒《MedCity News》對衛生單位的調查中顯示,有12家醫院正在使用與新冠肺炎相關的臨床決策軟體,雖然臨床醫師大多知道軟體中有哪些指標可用於風險評估,但幾乎沒有一家醫院會特別告訴患者,其治療決策與軟體有關。Silcox也提到,有些更棘手的道德問題,也還沒有透過監管法規解決。例如,臨床醫生決策是如何受這些軟體產生實際影響,且從長遠來看,軟體是否會改變醫師的診療方式,都還是需要思考的問題。
不過,無論法規如何,軟體醫材在FDA批准後,最大的決定因素還是取決於臨床醫師是否會使用。
參考資料:https://medcitynews.com/2021/05/fda-faces-big-questions-as-it-takes-a-closer-look-at-ai-regulations/?rf=1
(編譯/李林璦)