《Nature》哈佛余坤興領軍開發「通用型」數位病理AI診斷癌症  

撰文記者 吳培安
日期2024-09-09
美國哈佛大學醫學院生醫資訊學系余坤興(Kun-Hsing Yu)助理教授於《Nature》發表最新研究。(圖左擷取自哈佛醫學院網站)

近(4)日,美國哈佛大學醫學院生醫資訊學系余坤興(Kun-Hsing Yu)助理教授帶領的研究團隊,開發出一款具有廣泛通用性特色的數位病理玻片影像分析AI模組,能夠執行橫跨多種癌症診斷,甚至是找出可能對標準療法反應不彰的患者。研究團隊表示,它的表現超越許多現有的癌症診斷AI,同時也是首個在多個國家患者群體中驗證的AI模型。這項研究發表在《Nature》。
 
標準的組織病理學影像分析AI,聚焦在改善個別診斷的特定任務,例如偵測腫瘤的存在,或是預測腫瘤的基因圖譜(genetic profile),但通常只能在幾種癌症中運作,或是無法廣泛適用於不同的數位化操作流程,抑或是從不同族群採集而來的樣本所得的影像。
 
在這項研究中,團隊開發出一套名為CHIEF的AI模型,其全名為「臨床組織病理學影像評估基礎」(Clinical Histopathology Imaging Evaluation Foundation)。
 
余坤興表示,這是一個多功能的靈活AI平台,可以執行廣泛的癌症評估任務,並在多種癌症的檢測、預後與治療反應相關的多種任務中派上用場,並在19種癌別中完成測試,其擁有的彈性,如同能夠使用大型語言模型的ChatGPT。
 
CHIEF利用兩種互補的預訓練方法(pretraining methods),以提取各種病理學表徵,分別為逐排辨識(tier-level)特徵的非監督式預訓練,以及辨識全玻片模式的弱監督式預訓練。
 
透過這種預訓練方式,CHIEF會察看圖像的特定部分和整張圖像,使其將某特定區域的特定變化與圖像整體互相關聯,更全面地解釋影像,而不僅僅是關注特定區域。
 
研究團隊表示,它能預測多種癌症類型的患者存活率,並準確地找出腫瘤周圍組織的微環境(tumor microenvironment)特徵,進而提升臨床醫師有效準確評估癌症的能力,並找出可能對標準療法反應不彰的患者。
 
研究團隊還使用來自19個解剖學機構的6萬530張全玻片影像,經過高達44兆位元組(TB)的高解析度病理學影像資料庫預訓練,使得CHIEF能夠提取顯微影像表徵,可用於癌症細胞偵測、辨識腫瘤起源、分子圖譜表徵及預後預測。
 
團隊也成功地利用來自24家醫院及患者隊列、32個獨立的玻片資料庫,共計19,491張全玻片影像來驗證CHIEF的表現,顯示其在上述影像表徵的提取表現,比目前最佳的深度學習方法超出了36.1%;在癌症檢測方面,也實現了近94%的準確率,且在包含11種癌症類型的15個數據庫中,表現顯著優於目前的AI方法。
 
研究團隊表示,這項AI模型能夠解決數位病理學中,使用不同族群樣本時觀察到的模型資料變化問題,以及不同玻片製備方法的挑戰,為癌症患者的高效數位病理學評估提供通用基礎。
 
參考資料:
https://www.nature.com/articles/s41586-024-07894-z
 
(編譯 / 吳培安)