Re: [討論] 電腦判讀病理切片

作者: paladin499 (芭樂丁)   2016-08-21 22:08:22
Nature communications, DOI: 10.1038/ncomms12474, http://goo.gl/Px17VS
這篇文章其實沒有提出新的方法,用的都是舊有的方法,像是naive Bayes、SVM這些,
所以他們創新的地方只有納入了prognosis(survival time)。然後雖然摘要看起來很厲
害,其實沒有真的那麼厲害。
首先他們提到要用電腦做這件事的原因是,即使是experienced pathologists都不見得能
正確辨識non-small cell lung cancer的各種subtypes(我沒有去check reference 20,
但看起來應該是這樣),然後其中對於adenocarcinoma和squamous carcinoma的分辨率又
很低。
但是他們的各種方法表現得比較好的部分(AUC=0.8左右)其實是在tumor part versus
normal part的部份,可是這部份他們沒有提供一般pathologists的辨識率。在
adenocarcinoma versus squamous carcinoma的部份其實AUC只有0.7左右。乍看之下好像
比pathologists辨識的結果好(k=0.55~0.59 among all pathologists under study),
但其實這有點是雞蛋比蘋果。如果大家已經忘了AUC(area under the curve)在做什麼,
那只要記得一件事就好了,就是中央的那條斜對角線代表的是50%面積的分隔線,也是丟銅
板也應該猜中一半的地方,所以你的方法只要低於這條線就是廢物,也就是比丟銅板猜中
的機率還低。
所以AUC=0.5是門檻,那麼一般的rule of thumb是AUC=0.6~0.7是表現極差的、0.7~0.8是
還可以,要在0.8以上才可以叫不錯。另外,由於各種方法多半都是在sensitivity與
specificity之間有個trade-off,也就是當你的方法越sensitive時,越可能產生false
positives。在AUC的圖裡面,Y軸是sensitivity、X軸是false positive rate,所以雖然
算的都是底下的面積(area under the curve),其實是越靠近左上角越好。但是在
Figure 2(b)裡可以看到有一些方法的sensitivity有到1,可是false positive rate卻高
達55%以上,那這種的其實也沒什麼用處。
他們貢獻比較大的部份應該是從跑這堆classifiers的過程中找出一些足供辨識的
features,可以拿來預測prognosis/survival。Figure 3(c)是他們用training data
(TCGA)找出的features做的adenocarcinoma病患的survival curves,這部份的確分得
還不錯,但是拿去用在testing data(TMA)時,Figure 3(d)其實只有在50個月以後這兩
條survival curves才分得開。這在squamous carcinoma也有差不多的情況,但squamous
carcinoma是在training data的部份就分得更不好了。在臨床上,難道要叫醫生跟病人說
「如果你可以活過四年,我就可以告訴你你大概可以再活多久」?
我想如果電腦可以輔助看片,應該可以減輕醫生的工作量,所以我猜pathologists應該是
樂見其成吧。但是要把電腦訓練到跟人腦差不多聰明(這個是一次只辨識兩種腫瘤喔,兩
種以上又更複雜了),應該還需要一段時間吧。
小弟看這篇文章只是匆匆瀏覽,如有錯誤還請指正。
作者: gundun (螺旋菌)   2016-08-21 23:01:00
推!解釋的好清楚
作者: iimmno (蟹老闆)   2016-08-22 00:36:00
應該還是有很厲害的地方吧??不然怎麼會登在Nature上
作者: fasttrack (nothingness)   2016-08-22 03:10:00
Nature communications算是nature的副牌 和正牌還有差
作者: cerberi (cerberi)   2016-08-22 07:46:00
作者: YCR (每個人的心裡都有)   2016-08-22 08:16:00
作者: loserfatotak (家裡蹲魯肥宅(T^T))   2016-08-22 08:17:00
感謝,終於有人幫讀paper,其實本魯重點在作者是新一代的寶山之光啊<(_ _)>
作者: paladin499 (芭樂丁)   2016-08-22 09:51:00
厲害的地方在找出可以分開survival curves的features雖然replicate的結果沒那麼好但也不錯如果應用在癌篩例如子宮頸癌應該可以減輕醫生的工作量請問什麼叫新一代的寶山之光啊?
作者: gundun (螺旋菌)   2016-08-22 14:42:00
余學長這篇的價值在於真正證明機器學習能有效應用在病理切片判讀,有劃時代的意義。現在AI在影像判讀已快速發展中,GOOGLE DEEPMIND 8月份開始進軍眼科疾病判讀,子宮頸抹片自動判讀市場上已有產品,安克生醫專門做甲狀腺超音波腫瘤輔助判讀,最近更是有場總獎金120萬美金的乳房攝影自動判讀競賽。放射科、病理科、放射腫瘤科都是AI能切入輔助醫療的地方。PS:寶山之光,應該是指台大醫院之光
作者: aimlin ( )   2016-08-22 14:49:00
20年後可能不再需要放射科和病理科醫師,全電腦化了現在該轉行嗎?也許一間醫學中心只需要一兩個二線科醫師check而已
作者: zooxalju (不吃魚的貓)   2016-08-22 14:54:00
以後RAD應該是轉往intervention發展吧純看片子的RAD根本現在沒人要了
作者: aimlin ( )   2016-08-22 14:58:00
同意 大概只需要三四個人輪intervention班以ai的發展速度,應該十年內就可以打CTMR跟資深放射科醫師一樣水準電腦深度學習個上百萬份CT MR study,很難不會判讀吧
作者: paladin499 (芭樂丁)   2016-08-22 15:03:00
可是並沒有有效判讀啊,文章有說這些能上傳到資料庫的都是比較確定的片子,即使是這樣tumor vs. normal都沒有100%了,AUC只有0.8,會比人腦厲害嗎?
作者: daviking (daviking)   2016-08-22 15:32:00
我覺得可能的!
作者: gundun (螺旋菌)   2016-08-22 15:32:00
AlphaGo一開始也沒那麼厲害,也是每天自己跟自己下幾十萬盤棋越來越強,今年比賽前原先李開復預估10年後電腦才會超越人類,但沒想到李世石大輸。如果給電腦的圖檔量越大,訓練出來的判讀軟體越強,這篇論文用上萬張其實只符合minimal的量而已。不過病理切片目前技術的確比較難自動判讀,可能可以先從免疫染色片,像Ki-67著手。
作者: HoterLin (白袍清道夫)   2016-08-22 15:59:00
時間問題而已 遲早被取代
作者: hitoma   2016-08-22 16:29:00
機器人看診也是遲早的問題……什麼都可以被取代
作者: suhhwanjen (九州板蕩一步平)   2016-08-22 19:29:00
如果你是放射/病理科醫師,會不會想提早跳槽到有AI的公司,與其以後被吞併,不如及早先倒戈加入,還當元老因為現在AUC只有0.8,趁機器不完美時還有利用空間
作者: paladin499 (芭樂丁)   2016-08-22 21:35:00
害怕被機器取代的心情從紡織機發明就有了,所以有盧德運動。AlphaGO賽後Michael九段也講了,電腦早就打敗西洋棋手了,但並沒有消滅西洋棋,也不會消滅圍棋。我覺得不用太杞人憂天,有電腦分擔瑣事,人腦就可以專注在更重要的問題。
作者: HoterLin (白袍清道夫)   2016-08-23 16:32:00
ETC打敗國道收費員 怎麼說?

Links booklink

Contact Us: admin [ a t ] ucptt.com