Slide 1

Slide 1 text

1 CT Data Curation for Liver Patients: Phase Recognition in Dynamic Contrast-Enhanced CT Bo Zhou1,2 , Adam P. Harrison2 , Jiawen Yao2 , Chi-Tung Cheng4 , Jing Xiao3 , Chien-Hung Liao4 , and Le Lu2 1 : Biomedical Engineering, Yale University, New Haven, CT, USA 2 : PAII Inc., Bethesda, MD, USA 3 : PingAn Technology, Shenzhen, China 4 : Chang Gung Memorial Hospital, Linkou, Taiwan, ROC 発表者:Todoroki Yoshihiro(@Tdys13) #& # ## 0 A C @ E /9 #& C /132#

Slide 2

Slide 2 text

2 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 0 3 0 #& # ## 0 A C @ E /9 #& C /132#

Slide 3

Slide 3 text

3 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 -> PACSから最⼩限の労⼒で,AIの学習に最適なCT画像を⾃動抽出する #& # ## 0 A C @ E /9 #& C /132# 0 3 0

Slide 4

Slide 4 text

4 論⽂について pAccepted by MICCAI 2019 - Medical Image Learning with Less Labels and Imperfect Data Workshop - arXiv(27 Sep. 2019) URL → https://arxiv.org/abs/1909.02511 p何をゴールとした研究か? - CT画像内の臓器および,⾎管特徴からフェイズを認識する研究 -> PACSから最⼩限の労⼒で,AIの学習に最適なCT画像を⾃動抽出する pなぜ選んだ? - テーマとしてそもそも⾒た事が無かった - 相の認識は難しいと思っていたので,最適なものを選ぶところまで ⾃動化出来たら⾯⽩そうだなと思った - PingAn Technology(平安科技)が⼊っているので - PingAn Healthcareでこの辺りやるのかな?溜める部分ではなく 抽出する領域で新たな市場ができるのかな?と勝⼿に思いを馳せてた #& # ## 0 A C @ E /9 #& C /132#

Slide 5

Slide 5 text

5 研究背景 p医⽤画像実験には⼤規模なデータがいる - PACS内のデータが必ずしも綺麗とは限らない - DICOMのタグデータが⼗分ならばテキストマイニングで - 引っ張って来れるが結構不⼗分で信頼性に⽋ける*1 - (2002年の結果は今も同じと⾔えるのかは謎) p様々な病院から画像とラベルが揃ったデータを⾃動抽出するツールが欲しい! p相の違いを画像内のみから認識し分類させたい - 放射線科医は臓器や⾎管の特徴から相をある程度把握が出来る - 必要な情報は⼼臓/⼤動脈,⾨脈,腎臓のコントラストの違い *1 Gueld, M.O., Kohnen, M., Keysers, D., andBerthold B. Wein, H.S., Bredno, J., Lehmann, T.M.: Quality of dicom header information for image categorization. In: Proceedings of SPIE Medical Imaging. (2002) #& # ## 0 A C @ E /9 #& C /132#

Slide 6

Slide 6 text

6 研究背景 p医⽤画像実験には⼤規模なデータがいる - PACS内のデータが必ずしも綺麗とは限らない - DICOMのタグデータが⼗分ならばテキストマイニングで - 引っ張って来れるが結構不⼗分で信頼性に⽋ける*1 - (2002年の結果は今も同じと⾔えるのかは謎) p様々な病院から画像とラベルが揃ったデータを⾃動抽出するツールが欲しい! p相の違いを画像内のみから認識し分類させたい - 放射線科医は臓器や⾎管の特徴から相をある程度把握が出来る - 必要な情報は⼼臓/⼤動脈,⾨脈,腎臓のコントラストの違い *1 Gueld, M.O., Kohnen, M., Keysers, D., andBerthold B. Wein, H.S., Bredno, J., Lehmann, T.M.: Quality of dicom header information for image categorization. In: Proceedings of SPIE Medical Imaging. (2002) #& # ## 0 A C @ E /9 #& C /132#

Slide 7

Slide 7 text

7 新規性および貢献点 p新規性 - DICOMのタグなどからフェイズを認識するものでは無く, - 患者の特性からフェイズを認識する - 新たなロス(aggregated cross entropy)の提案 p貢献点 - PACSから⾃動的に⼤規模な画像収集が可能になった - Aggregated Cross Entropy (ACE)とシンプルな3DSEモデルにて - ⾼精度の結果を得られた - 視覚的にコントラストを認識し,⾃動的にPACSから収集する⽅法は - 他の画像や部位にも転⽤が容易に可能 #& # ## 0 A C @ E /9 #& C /132#

Slide 8

Slide 8 text

8 研究のフロー p前準備 - 匿名化された7,680症例(4,666⼈) - 全症例に対してNC,ART,PV,Delay,Otherのテキストでタグをつける (テキストマイニングと⽐較するため) - 10スライス以下またはスライス間隔が5mm以上の症例を省く →1728、1703、1504、1736症例がNC,ART,PV,Delayとしてラベル付け #& # ## 0 A C @ E /9 #& C /132#

Slide 9

Slide 9 text

9 研究のフロー p提案⼿法 - 3DSENet + ACE loss - 構造 :3Dconv ‒ 2,SE Block ‒ 1,FC layer - 2 pACE(Aggregated Cross Entropy) loss - コントラストが有るものを”contrast”でまとめて,計算の効率化を図る ART, PV, Delayを”Contrast”として使⽤ " は ℎ. -. ,/ ≅ 0,. ≅ 1より #& # ## 0 A C @ E /9 #& C /132#

Slide 10

Slide 10 text

10 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE, 3DSE,3DSE+ACE loss p実験使⽤データ - Public データセット (腹部CT,肝臓領域に疾患がある6,997症例,各症例10~30スライス) →スライスで69,970 ~ 209,910枚 p評価指標 - Precision,Recall,F1 Score p 実験環境 - 記載なし *2 Hara, K., Kataoka, H., Satoh, Y.: Learning spatio-temporal features with 3d residual networks for action recognition. In: IEEE CVPR. (2017) 3154‒3160 *3 Tran, D., Bourdev, L., Fergus, R., Torresani, L., Paluri, M.: Learning spatiotemporal features with 3d convolutional networks. In: IEEE international conference on computer vision. (2015) 4489‒4497 #& # ## 0 A C @ E /9 #& C /132#

Slide 11

Slide 11 text

11 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE, 3DSE,3DSE+ACE loss 1728 1703 1504 1736 326 症例数 #& # ## 0 A C @ E /9 #& C /132#

Slide 12

Slide 12 text

12 実験 p⽐較実験 - 分類精度⽐較①:テキストマイニング,3DSE,3DSE+ACE loss - 分類精度⽐較②:3DResNet*2 ,C3D*3 ,3DSE-SE, 3DSE,3DSE+ACE loss #& # ## 0 A C @ E /9 #& C /132# 3DSE+ACE lossの結果をCAMした画像

Slide 13

Slide 13 text

13 まとめ pまとめ - Zhouらは画像ベースの造影CTのフェイズ特定の研究を初めて⾏った - 放射線科医が⾒ているところをフェイズごとの学習でモデルも認識した - テキストマイニングと⽐較しても提案⼿法がよく出来ている - 提案したlossがとても効いてるかは明確ではない p 所感 - 研究の着⽬点すごい⾯⽩いけど後続出るのかな.. - 全体的にシンプルかつ容易な再現実装が可能 - ACE lossは実装簡単だけど,解くタスクに依存しそう (同じようなタスク=全体から必要なものだけを収集し学習する ならば使えるかも) #& # ## 0 A C @ E /9 #& C /132#