CT Data Curation for Liver Patients: Phase Recognition in Dynamic Contrast-Enhanced CT

CT Data Curation for Liver Patients: Phase Recognition in Dynamic Contrast-Enhanced CT

MICCAI LT会
20191011@LPIXELでの発表資料

Medical Image Learning with Less Labels and Imperfect Data Workshopに採択されている
ZHOU, Bo, et al. CT Data Curation for Liver Patients: Phase Recognition in Dynamic Contrast-Enhanced CT. arXiv preprint arXiv:1909.02511, 2019.

一言で言うと
「造影CTのフェイズを画像ベースで認識させた研究」

835671ae91e49b2637313b91dacda1db?s=128

YoshihiroTodoroki

October 11, 2019
Tweet

Transcript

  1. 1 CT Data Curation for Liver Patients: Phase Recognition in

    Dynamic Contrast-Enhanced CT Bo Zhou1,2 , Adam P. Harrison2 , Jiawen Yao2 , Chi-Tung Cheng4 , Jing Xiao3 , Chien-Hung Liao4 , and Le Lu2 1 : Biomedical Engineering, Yale University, New Haven, CT, USA 2 : PAII Inc., Bethesda, MD, USA 3 : PingAn Technology, Shenzhen, China 4 : Chang Gung Memorial Hospital, Linkou, Taiwan, ROC 発表者:Todoroki Yoshihiro(@Tdys13) #& # ## 0 A C @ E /9 #& C /132#
  2. 2 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning

    with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 0 3 0 #& # ## 0 A C @ E /9 #& C /132#
  3. 3 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning

    with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 -> PACSから最⼩限の労⼒で,AIの学習に最適なCT画像を⾃動抽出する #& # ## 0 A C @ E /9 #& C /132# 0 3 0
  4. 4 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning

    with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 -> PACSから最⼩限の労⼒で,AIの学習に最適なCT画像を⾃動抽出する pなぜ選んだ? - テーマとしてそもそも⾒た事が無かった - 相の認識は難しいと思っていたので,最適なものを選ぶところまで ⾃動化出来たら⾯⽩そうだなと思った - PingAn Technology(平安科技)が⼊っているので - PingAn Healthcareでこの辺りやるのかな?溜める部分ではなく 抽出する領域で新たな市場ができるのかな?と勝⼿に思いを馳せてた #& # ## 0 A C @ E /9 #& C /132#
  5. 5 研究背景 p医⽤画像実験には⼤規模なデータがいる - PACS内のデータが必ずしも綺麗とは限らない - DICOMのタグデータが⼗分ならばテキストマイニングで - 引っ張って来れるが結構不⼗分で信頼性に⽋ける*1 -

    (2002年の結果は今も同じと⾔えるのかは謎) p様々な病院から画像とラベルが揃ったデータを⾃動抽出するツールが欲しい! p相の違いを画像内のみから認識し分類させたい - 放射線科医は臓器や⾎管の特徴から相をある程度把握が出来る - 必要な情報は⼼臓/⼤動脈,⾨脈,腎臓のコントラストの違い *1 Gueld, M.O., Kohnen, M., Keysers, D., andBerthold B. Wein, H.S., Bredno, J., Lehmann, T.M.: Quality of dicom header information for image categorization. In: Proceedings of SPIE Medical Imaging. (2002) #& # ## 0 A C @ E /9 #& C /132#
  6. 6 研究背景 p医⽤画像実験には⼤規模なデータがいる - PACS内のデータが必ずしも綺麗とは限らない - DICOMのタグデータが⼗分ならばテキストマイニングで - 引っ張って来れるが結構不⼗分で信頼性に⽋ける*1 -

    (2002年の結果は今も同じと⾔えるのかは謎) p様々な病院から画像とラベルが揃ったデータを⾃動抽出するツールが欲しい! p相の違いを画像内のみから認識し分類させたい - 放射線科医は臓器や⾎管の特徴から相をある程度把握が出来る - 必要な情報は⼼臓/⼤動脈,⾨脈,腎臓のコントラストの違い *1 Gueld, M.O., Kohnen, M., Keysers, D., andBerthold B. Wein, H.S., Bredno, J., Lehmann, T.M.: Quality of dicom header information for image categorization. In: Proceedings of SPIE Medical Imaging. (2002) #& # ## 0 A C @ E /9 #& C /132#
  7. 7 新規性および貢献点 p新規性 - DICOMのタグなどからフェイズを認識するものでは無く, - 患者の特性からフェイズを認識する - 新たなロス(aggregated cross

    entropy)の提案 p貢献点 - PACSから⾃動的に⼤規模な画像収集が可能になった - Aggregated Cross Entropy (ACE)とシンプルな3DSEモデルにて - ⾼精度の結果を得られた - 視覚的にコントラストを認識し,⾃動的にPACSから収集する⽅法は - 他の画像や部位にも転⽤が容易に可能 #& # ## 0 A C @ E /9 #& C /132#
  8. 8 研究のフロー p前準備 - 匿名化された7,680症例(4,666⼈) - 全症例に対してNC,ART,PV,Delay,Otherのテキストでタグをつける (テキストマイニングと⽐較するため) - 10スライス以下またはスライス間隔が5mm以上の症例を省く

    →1728、1703、1504、1736症例がNC,ART,PV,Delayとしてラベル付け #& # ## 0 A C @ E /9 #& C /132#
  9. 9 研究のフロー p提案⼿法 - 3DSENet + ACE loss - 構造

    :3Dconv ‒ 2,SE Block ‒ 1,FC layer - 2 pACE(Aggregated Cross Entropy) loss - コントラストが有るものを”contrast”でまとめて,計算の効率化を図る ART, PV, Delayを”Contrast”として使⽤ " は ℎ. -. ,/ ≅ 0,. ≅ 1より #& # ## 0 A C @ E /9 #& C /132#
  10. 10 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE,

    3DSE,3DSE+ACE loss p実験使⽤データ - Public データセット (腹部CT,肝臓領域に疾患がある6,997症例,各症例10~30スライス) →スライスで69,970 ~ 209,910枚 p評価指標 - Precision,Recall,F1 Score p 実験環境 - 記載なし *2 Hara, K., Kataoka, H., Satoh, Y.: Learning spatio-temporal features with 3d residual networks for action recognition. In: IEEE CVPR. (2017) 3154‒3160 *3 Tran, D., Bourdev, L., Fergus, R., Torresani, L., Paluri, M.: Learning spatiotemporal features with 3d convolutional networks. In: IEEE international conference on computer vision. (2015) 4489‒4497 #& # ## 0 A C @ E /9 #& C /132#
  11. 11 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE,

    3DSE,3DSE+ACE loss 1728 1703 1504 1736 326 症例数 #& # ## 0 A C @ E /9 #& C /132#
  12. 12 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE,

    3DSE,3DSE+ACE loss #& # ## 0 A C @ E /9 #& C /132# 3DSE+ACE lossの結果をCAMした画像
  13. 13 まとめ pまとめ - Zhouらは画像ベースの造影CTのフェイズ特定の研究を初めて⾏った - 放射線科医が⾒ているところをフェイズごとの学習でモデルも認識した - テキストマイニングと⽐較しても提案⼿法がよく出来ている -

    提案したlossがとても効いてるかは明確ではない p 所感 - 研究の着⽬点すごい⾯⽩いけど後続出るのかな.. - 全体的にシンプルかつ容易な再現実装が可能 - ACE lossは実装簡単だけど,解くタスクに依存しそう (同じようなタスク=全体から必要なものだけを収集し学習する ならば使えるかも) #& # ## 0 A C @ E /9 #& C /132#