Alvin Rajkomar 醫師清楚記得他發現自己迫切需要一個更快的辦法,去閱讀患者醫學影像資料的那一刻。
他躺在加州大學舊金山分校(UCSF)醫學中心加護病房裡的病患,顯示胸部情況將有致命的危險,得立即進行救治。UCSF 助理教授 Rajkomar 知道該怎麼做,只不過他必須等到通過胸部 X 光片來確定診斷內容才能動手。
通常他必須等放射科醫師收集、上傳和檢視影像,技術人員拍攝 X 光片時 Rajkomar 要守在機器旁邊,看著異常處、採取行動 — 並且解救病患的生命。
然而他明白加護病患裡的醫師們不會在拍 X 光片時守在機器旁。Rajkomar 知道他跟他的患者不能再等下去,打算通過 GPU 加速深度學習技術自動進行分析,以加快事情的進展。
Dr. Alvin Rajkomar 訓練他的深度學習演算法,
在胸部側邊 X 光片裡區分出胸部前側 X 光片。
在這個過程中他說明研究團隊如何使用貓、大衣、白花椰菜等一般影像,訓練醫學影像的深度學習演算法。
難以教導電腦閱讀 X 光片內容的原因
Rajkomar 的目標是自動偵測胸部 X 光片裡會有致命危險的異常之處 – 此舉並非取代放射科醫師,而是為醫師提供一個快速警示系統。
「我在醫治病患時,只想要盡快拿到那些重要資料,實在沒有時間等。」Rajkomar 說。
Rajkomar 在教電腦閱讀胸部 X 光片前,得先克服自動分析醫學影像的阻礙,也就是缺乏已經加上標籤、能用於訓練神經網路的醫學影像。病患隱私保障法加上不願分享資料的態度,研究人員常難以取得自家機構以外的醫學影像。
就算是醫療機構拍攝的影像,也常缺乏適當的資訊、詮釋資料(metadata)不一致或是什麼資料都沒有,無法立即派上用場。
真菌跟 X 光有什麼關係
Rajkomar 已在 UCSF 取得約千張 X 光片,卻仍需要數十萬張影像來訓練深度學習演算法,此時他想出了使用尋常影像來訓練神經網路的作法。
「我在想這件事的時候,發現取得其它資料組(進行訓練)並非難事,我得想出新的辦法將其它資料組用在我們的案子上。」他說。
他使用稱為「遷移學習」(transfer learning)的辦法,也就是神經網路將從某一個領域裡取得的知識,用在另一個領域裡。
他利用四顆 TITAN X GPUs 及 CUDA 平行運算平台,加上 ImageNet 公共資料庫裡百萬張彩色影像來訓練神經網路。
接著他將真菌、地質構造、植物等更像是 X 光片的影像轉成灰階,再次用來訓練神經網路,最後使用真正的胸部 X 光片來調校神經網路。
研究團隊使用真菌及其它更像是 X
光片的自然元素影像來調校演算法。
圖片提供:H. Krisp,
維基共享資源(Wikimedia Commons)。
對人類來說易如反掌,對機器來說卻是難如登天
Rajkomar 使用一個需要自動分析進行胸部 X 光片,這麼簡單卻重要的案子來測試他的模型,也就是在胸部側邊 X 光片裡區分出胸部前側 X 光片,這對放射科醫師來說並不難,機器卻不容易做到。
過去在各種病例裡都能成功做到這一點。他也展示了他的演算法能自動對詮釋資料加上註解,這對電腦自動分析胸部 X 光片來說也是必要的舉動(如需更多 Rajkomar 研究相關資料,請見他近期與其他四位 UCSF 研究員合著在 《Journal of Digital Imaging》期刊發表的報告。
Rajkomar 還研究了在臨床上具有重要性的放射線學演算法,以及以深度學習為基礎的自然語言處理技術,以理解臨床病歷記錄的內容。
他說:「我們必須找出方法,運用科技提高醫師的工作效率,這可是攸關生死的事。」
如需更多深度學習相關資訊,請在 iTunes 或 Google Play Music 上收聽我們的 AI Podcast 廣播節目,或是閱讀我們的部落格,其中介紹了這支機器學習快速發展的分支領域。