Upgrade to Pro — share decks privately, control downloads, hide ads and more …

GCPUG 鹿児島 × TFUG 鹿児島(合同ゼミ)#10

C5d2725ba7e4ef3d3eaa87f412cab4b6?s=47 fuchami
July 24, 2019

GCPUG 鹿児島 × TFUG 鹿児島(合同ゼミ)#10

C5d2725ba7e4ef3d3eaa87f412cab4b6?s=128

fuchami

July 24, 2019
Tweet

Transcript

  1. 転移学習 GCPUG ⿅児島 × TFUG ⿅児島(合同ゼミ)#10 2019/07/24(wed) ⿅児島⼤学⼤学院 ⼆⾒ 悠樹

  2. about me • ⼆⾒ 悠樹 (Yuki Futami) • ⿅児島⼤学⼤学院理⼯学系研究科 M2

    - 深層学習(Deep Learning)を⽤いた映像解析に関する研究 • インターンやおしごと - RailsでWebアプリの開発・スクレイピング(18.04~現在) - 物体分類モデルにおけるデータ⽔増し⼿法の調査と検証(18.12~19.01) • Like: Deep Learning/Machine Learning/vim/python/ruby • Twitter: @fuchamii, GitHub: fuchami
  3. もくじ l 転移学習(Transfer Learning) ・Fine-tuning l Data Augmentation ü 注意

    - 取り扱う問題対象として画像に焦点を当てています - 間違いがあればご指摘お願いします!
  4. 転移学習

  5. ⼀般的な機械学習モデル

  6. Deep Learning(ニューラルネット)モデル

  7. 転移学習 (Transfer Learning) 「新規タスクの効果的な仮説を効率的に⾒つけ出すために,⼀つ以上の別 のタスクで学習された知識を得て,それを適⽤する問題」 → ある領域(ドメイン)で学習したモデルを、別の領域(ドメイ ン)に適合させる技術。別の関連した問題のデータや学習結果 を再利⽤する。 例:「⼈の顔か判断するモデルがあるけど男⼥の識別もしたい…」

  8. 例:⼀般物体認識タスク ・物体認識タスク:画像に何が映っているかを識別(画像分類) ・ImageNet:学習データが120万枚を越える⼤規模データセット ・画像分類モデルのベンチマークとして使われている

  9. 例:⼀般物体認識タスク ・ImageNetで事前に学習したモデル の重みを⽤いる ・中間層の重みは固定する ・出⼒層のみを再学習させる ・VGG-16やResNetと呼ばれる 畳み込みニューラルネットワーク(Convolutional Neural Network :CNN)

    モデルが採⽤されることが多い
  10. 転移学習のメリット ・ 少ない学習データで⾼い精度を実現できる - Deep Learning(DL)では⼤量のデータが必要… - 既に獲得している特徴量表現から汎⽤性の⾼いモデルを学習できる ・計算コストが少ない -

    DLは⾼いマシンパワーと時間を必要とする - GCPがあるけど安く済ませたい… → 少ないデータと計算コストで Deep Learningの恩恵が受けられる
  11. Fine-Tuning ・CNNは浅い層は汎⽤的な特徴抽出が⾏われている ・層が深くになるにつれて、より細かな特徴抽出を⾏っている。 → CNNにおける出⼒層とそれに近い層のみを再学習させる。

  12. Fine-Tuning ここまで学習させる!

  13. Data Augmentation

  14. Data Augmentation n 画像処理によってバリエーションを増やす⼿法 • 訓練データに対して移動・回転・拡⼤・縮⼩など⼈⼯的な操作 を加えることでデータ数を⽔増しするテクニック • ロバストになるため認識精度が向上する •

    Overfitting(過学習)を防ぐ → ⽬的に合わないパターンや、実際のデータに出てこない バリエーションは避けること Ø Augmentationの例 ü Horizontal Flip ü Vertical Flip ü Random crop ü Rotation ü Channel shift ü Width shift range ü Height shift range ü Zoom
  15. Mixup n 近年提案された新しいData Augmentation⼿法 n 2つのクラスサンプル(x1,x2)を混合して新しい訓練サンプルを⽣成 n その際、混合した割合に応じてOnehot-vectorのラベルyも与える X=λx1+(1­λ)x2 Y=λy1+(1­λ)y2

    ⽝ 猫 ⾞ ⼈ y1 = [ 0, 1, 0, 0 ] y2 = [ 0, 0, 0, 1 ] mix!! y3 = [0, 0.5, 0, 0.5 ] H. Zhang, M. Cisse, Y. N. Dauphin, and D. Lopez-Paz, "mixup: Beyond Empirical Risk Minimization," in arXiv:1710.09412, 2017.
  16. Random Erasing / Cutout n 教師データとなる画像に対してランダムな⼀部短形領域 をマスク する⼿法 • T.

    DeVries and G. W. Taylor, "Improved Regularization of Convolutional Neural Networks with Cutout," in arXiv:1708.04552, 2017. • Z. Zhong, L. Zheng, G. Kang, S. Li, and Y. Yang, "Random Erasing Data Augmentation," arXiv:1708.04896, 2017.
  17. Data Augmentation⽐較

  18. 他のドメインでのData Augmentation • 動画データ - 時系列(時間軸)を反転する • ⾳声データ - ホワイトノイズを加える

    - 再⽣速度に変更を加える - ピッチや発⾳の時間をずらす • テキストデータ - 翻訳機を使って再翻訳する(⽇本語→英語→⽇本語) - 単語の⼀部分をマスクする
  19. ご清聴ありがとうございました

  20. 参考 http://www.kamishima.net/archive/2010-s-jsai_tl.pdf https://medium.com/mhiro2/what-is-transfer-learning- 1018d2a3fe7d https://qiita.com/ANNEX_IBS/items/55c7a8984fe88a756965 https://qiita.com/cvusk/items/aa628e84e72cdf0a6e77