論文LT会で作成した「Y-Net: Joint Segmentation and Classification for Diagnosis of Breast Biopsy Images」の説明資料です。
画像処理&機械学習 論文LT会 #8Y-Net: Joint Segmentation and Classificationfor Diagnosis of Breast Biopsy Images2019年11月21日(木)矢農 正紀 (Masanori YANO)
View Slide
論文2標題Y-Net: Joint Segmentation and Classificationfor Diagnosis of Breast Biopsy Images論文のURL: https://arxiv.org/abs/1806.01313公式ページ: https://sacmehta.github.io/YNet/⇒ 生検画像からの乳がん診断の論文で、MICCAI 2018採択First Authorの所属は、アメリカ西海岸のワシントン大学選んだ理由・とある論文の、参考文献に「deep y-net」の存在を確認(「Foreground-aware Image Inpainting」の、参考文献[1]の論文)・検索するとY-Net論文が複数あったが、目的の論文は不明・でも、本論文もアプローチが興味深かったため紹介
U-Netと本論文のY-Net3U-Netとは・セグメンテーションの手法で、MICCAI 2015で発表・全結合層なし、スキップ接続(Concatenate)あり本論文のY-Net・エンコーダーから分岐し、全結合層を通してクラス分類・もとのU-Netに、さらにスキップ接続を追加(図の点線)
本論文で使用したデータセット4生検画像による乳がん診断のデータセット・240枚のH&E染色を行った生検画像の全体(WSI)を使用・病理医が4種類の診断カテゴリにラベル付け[1] 87人の病理医がランダムに割り当てられた60枚を診断[2] 3人のエキスパート病理医の審議によりラベルを確定・病理医は428箇所のROI(region of interest)をマーク- そのうち58箇所のROIを8種類にセグメンテーション- これらのROIの平均サイズは10,000×12,000・本論文では、ROIを同一サイズの「インスタンス」に分割
本論文のシステム5Y-Net構造の二つの出力を組み合わせてクラス分類・インスタンスは384×384単位で、56ピクセルは重複・各々のインスタンスを、Y-Net構造のネットワークに通す・Y-Net構造は、セグメンテーションと確率マップを出力- セグメンテーションは、8種類のタイプを予測- 確率マップもピクセル単位で、4種類の診断結果を予測(ピクセル単位の最大値が、閾値より高いときだけ残す)・セグメンテーションだけ学習させてから、全体を学習(いきなり全体を学習させた場合は、正解率が約1%低下)
本論文の主な評価結果6クラス分類による診断の正解率を7%以上改善・訓練された病理医が診断したときの正解率は70.0%・従来手法のSOTAだったSaliency mapでは55.0%・Y-NetとDiscriminative maskの組み合わせで62.50%- Segmentation maskからのクラス分類より精度が向上
まとめ7本論文は、生検画像からの乳がんの検出を高精度化・クラス分類の正解率を、従来手法より7%以上改善・ネットワークのパラメータ数は、著者の前手法の6.6分の1・公式ページ: https://sacmehta.github.io/YNet/所感・クラス分類のラベル「以外」も活用したことが興味深い・病理医すごい・教師データ作成大変そう