Upgrade to Pro — share decks privately, control downloads, hide ads and more …

金研究室 勉強会 『U-Net: Convolutional Networks for Bio...

金研究室 勉強会 『U-Net: Convolutional Networks for Biomedical Image Segmentation』

U-Net: Convolutional Networks for Biomedical Image Segmentation, Olaf Ronneberger, et al., 2015

winnie279

June 20, 2021
Tweet

More Decks by winnie279

Other Decks in Science

Transcript

  1. U-Net: Convolutional Networks for Biomedical Image Segmentation Olaf Ronneberger, et

    al., 2015 金研 機械学習勉強会 2021/06/20 中村勇士
  2. 画像認識の流れ • 画像分類 ◦ CNN • 物体検出 ◦ R-CNN ◦

    YOLO ◦ SSD • セグメンテーション ◦ FCN:   完全畳み込みネットワーク → 領域検出 ◦ SegNet:   Encoder-Decoder → メモリ効率の上昇 ◦ U-Net:   Skip Connection → 境界検出の精度向上 ReNom NegativeMindException
  3. U-Netとは? • 生命科学分野における細胞の セグメンテーション ◦ 細胞の画像認識の大会で好成績 • U字型のアーキテクチャ ◦ 完全畳み込みネットワーク

    ◦ Encoder-Decoder ◦ Skip Connection:ぼやけた輪郭を修正 • 学習・判別 ◦ 少ない画像でも学習可能 ◦ 学習が高速 ◦ 高精度のセグメンテーション
  4. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト
  5. 畳み込み • 性質 ◦ 特徴量抽出 ◦ 位置情報の保存 → 頑強性 •

    パラメータ ◦ フィルター → 学習による最適化 ◦ ストライド NHN TECHORUS Tech Blog MathWorks MathWorks 農学情報科学 filter = (3 × 3) stride = 2 filter = (3 × 3) stride = 1
  6. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • 画像サイズが一回り小さくなる • フィルタの数 = 特徴量の種類 ◦ 1階層は × 64 ◦ それ以降は × 2
  7. プーリング • 性質 ◦ データの圧縮 → 計算量削減, 過学習抑制 ◦ 位置情報の保存

    → 頑強性 • パラメータ ◦ フィルター ◦ ストライド ◦ 計算方法 ▪ 最大値:Maxプーリング ▪ 平均値:Averageプーリング MathWorks filter = (3 × 3) stride = 1 filter = (3 × 3) stride = 2
  8. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • 画像サイズが ½ × ½ = ¼ になる
  9. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • 画像サイズが一回り小さくなる • 畳み込みフィルタは前の階層の倍 ◦ フィルタの数 = 特徴量の種類の数
  10. 逆畳み込み • Up Conv., Transposed Conv., Deconvolution • 性質 ◦

    データの拡大 → 入力サイズに復元 ◦ 位置情報の保存 → 頑強性 • パラメータ ◦ フィルター → 学習による最適化 ◦ ストライド MathWorks filter = (3 × 3) stride = 2 filter = (3 × 3) stride = 1
  11. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • 画像サイズが 2 × 2 = 4 になる
  12. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • Encodrの出力 → そのままDecoderへ ◦ 位置に対する頑強性の獲得
  13. モデル • Encoder(ダウンサンプリング) ◦ 畳み込み ◦ MAXプーリング • Decoder(アップサンプリング) ◦

    畳み込み ◦ 逆畳み込み ◦ スキップコネクション ◦ 畳み込み • 学習 ◦ 出力:ソフトマックス関数 ◦ 損失関数:交差エントロピー誤差 ◦ 最適化:SGD ◦ データ拡張:変形, シフト, 回転, ドロップアウト • 分類するクラスの分フィルタをかける ◦ それぞれのフィルタに確率を出力