Slide 1

Slide 1 text

画像処理&機械学習 論文LT会 #8 Y-Net: Joint Segmentation and Classification for Diagnosis of Breast Biopsy Images 2019年11月21日(木) 矢農 正紀 (Masanori YANO)

Slide 2

Slide 2 text

論文 2 標題 Y-Net: Joint Segmentation and Classification for Diagnosis of Breast Biopsy Images 論文のURL: https://arxiv.org/abs/1806.01313 公式ページ: https://sacmehta.github.io/YNet/ ⇒ 生検画像からの乳がん診断の論文で、MICCAI 2018採択 First Authorの所属は、アメリカ西海岸のワシントン大学 選んだ理由 ・とある論文の、参考文献に「deep y-net」の存在を確認 (「Foreground-aware Image Inpainting」の、参考文献[1]の論文) ・検索するとY-Net論文が複数あったが、目的の論文は不明 ・でも、本論文もアプローチが興味深かったため紹介

Slide 3

Slide 3 text

U-Netと本論文のY-Net 3 U-Netとは ・セグメンテーションの手法で、MICCAI 2015で発表 ・全結合層なし、スキップ接続(Concatenate)あり 本論文のY-Net ・エンコーダーから分岐し、全結合層を通してクラス分類 ・もとのU-Netに、さらにスキップ接続を追加(図の点線)

Slide 4

Slide 4 text

本論文で使用したデータセット 4 生検画像による乳がん診断のデータセット ・240枚のH&E染色を行った生検画像の全体(WSI)を使用 ・病理医が4種類の診断カテゴリにラベル付け [1] 87人の病理医がランダムに割り当てられた60枚を診断 [2] 3人のエキスパート病理医の審議によりラベルを確定 ・病理医は428箇所のROI(region of interest)をマーク - そのうち58箇所のROIを8種類にセグメンテーション - これらのROIの平均サイズは10,000×12,000 ・本論文では、ROIを同一サイズの「インスタンス」に分割

Slide 5

Slide 5 text

本論文のシステム 5 Y-Net構造の二つの出力を組み合わせてクラス分類 ・インスタンスは384×384単位で、56ピクセルは重複 ・各々のインスタンスを、Y-Net構造のネットワークに通す ・Y-Net構造は、セグメンテーションと確率マップを出力 - セグメンテーションは、8種類のタイプを予測 - 確率マップもピクセル単位で、4種類の診断結果を予測 (ピクセル単位の最大値が、閾値より高いときだけ残す) ・セグメンテーションだけ学習させてから、全体を学習 (いきなり全体を学習させた場合は、正解率が約1%低下)

Slide 6

Slide 6 text

本論文の主な評価結果 6 クラス分類による診断の正解率を7%以上改善 ・訓練された病理医が診断したときの正解率は70.0% ・従来手法のSOTAだったSaliency mapでは55.0% ・Y-NetとDiscriminative maskの組み合わせで62.50% - Segmentation maskからのクラス分類より精度が向上

Slide 7

Slide 7 text

まとめ 7 本論文は、生検画像からの乳がんの検出を高精度化 ・クラス分類の正解率を、従来手法より7%以上改善 ・ネットワークのパラメータ数は、著者の前手法の6.6分の1 ・公式ページ: https://sacmehta.github.io/YNet/ 所感 ・クラス分類のラベル「以外」も活用したことが興味深い ・病理医すごい ・教師データ作成大変そう