Slide 1

Slide 1 text

転移学習 GCPUG ⿅児島 × TFUG ⿅児島(合同ゼミ)#10 2019/07/24(wed) ⿅児島⼤学⼤学院 ⼆⾒ 悠樹

Slide 2

Slide 2 text

about me ● ⼆⾒ 悠樹 (Yuki Futami) ● ⿅児島⼤学⼤学院理⼯学系研究科 M2 - 深層学習(Deep Learning)を⽤いた映像解析に関する研究 ● インターンやおしごと - RailsでWebアプリの開発・スクレイピング(18.04~現在) - 物体分類モデルにおけるデータ⽔増し⼿法の調査と検証(18.12~19.01) ● Like: Deep Learning/Machine Learning/vim/python/ruby ● Twitter: @fuchamii, GitHub: fuchami

Slide 3

Slide 3 text

もくじ l 転移学習(Transfer Learning) ・Fine-tuning l Data Augmentation ü 注意 - 取り扱う問題対象として画像に焦点を当てています - 間違いがあればご指摘お願いします!

Slide 4

Slide 4 text

転移学習

Slide 5

Slide 5 text

⼀般的な機械学習モデル

Slide 6

Slide 6 text

Deep Learning(ニューラルネット)モデル

Slide 7

Slide 7 text

転移学習 (Transfer Learning) 「新規タスクの効果的な仮説を効率的に⾒つけ出すために,⼀つ以上の別 のタスクで学習された知識を得て,それを適⽤する問題」 → ある領域(ドメイン)で学習したモデルを、別の領域(ドメイ ン)に適合させる技術。別の関連した問題のデータや学習結果 を再利⽤する。 例:「⼈の顔か判断するモデルがあるけど男⼥の識別もしたい…」

Slide 8

Slide 8 text

例:⼀般物体認識タスク ・物体認識タスク:画像に何が映っているかを識別(画像分類) ・ImageNet:学習データが120万枚を越える⼤規模データセット ・画像分類モデルのベンチマークとして使われている

Slide 9

Slide 9 text

例:⼀般物体認識タスク ・ImageNetで事前に学習したモデル の重みを⽤いる ・中間層の重みは固定する ・出⼒層のみを再学習させる ・VGG-16やResNetと呼ばれる 畳み込みニューラルネットワーク(Convolutional Neural Network :CNN) モデルが採⽤されることが多い

Slide 10

Slide 10 text

転移学習のメリット ・ 少ない学習データで⾼い精度を実現できる - Deep Learning(DL)では⼤量のデータが必要… - 既に獲得している特徴量表現から汎⽤性の⾼いモデルを学習できる ・計算コストが少ない - DLは⾼いマシンパワーと時間を必要とする - GCPがあるけど安く済ませたい… → 少ないデータと計算コストで Deep Learningの恩恵が受けられる

Slide 11

Slide 11 text

Fine-Tuning ・CNNは浅い層は汎⽤的な特徴抽出が⾏われている ・層が深くになるにつれて、より細かな特徴抽出を⾏っている。 → CNNにおける出⼒層とそれに近い層のみを再学習させる。

Slide 12

Slide 12 text

Fine-Tuning ここまで学習させる!

Slide 13

Slide 13 text

Data Augmentation

Slide 14

Slide 14 text

Data Augmentation n 画像処理によってバリエーションを増やす⼿法 • 訓練データに対して移動・回転・拡⼤・縮⼩など⼈⼯的な操作 を加えることでデータ数を⽔増しするテクニック • ロバストになるため認識精度が向上する • Overfitting(過学習)を防ぐ → ⽬的に合わないパターンや、実際のデータに出てこない バリエーションは避けること Ø Augmentationの例 ü Horizontal Flip ü Vertical Flip ü Random crop ü Rotation ü Channel shift ü Width shift range ü Height shift range ü Zoom

Slide 15

Slide 15 text

Mixup n 近年提案された新しいData Augmentation⼿法 n 2つのクラスサンプル(x1,x2)を混合して新しい訓練サンプルを⽣成 n その際、混合した割合に応じてOnehot-vectorのラベルyも与える X=λx1+(1­λ)x2 Y=λy1+(1­λ)y2 ⽝ 猫 ⾞ ⼈ y1 = [ 0, 1, 0, 0 ] y2 = [ 0, 0, 0, 1 ] mix!! y3 = [0, 0.5, 0, 0.5 ] H. Zhang, M. Cisse, Y. N. Dauphin, and D. Lopez-Paz, "mixup: Beyond Empirical Risk Minimization," in arXiv:1710.09412, 2017.

Slide 16

Slide 16 text

Random Erasing / Cutout n 教師データとなる画像に対してランダムな⼀部短形領域 をマスク する⼿法 • T. DeVries and G. W. Taylor, "Improved Regularization of Convolutional Neural Networks with Cutout," in arXiv:1708.04552, 2017. • Z. Zhong, L. Zheng, G. Kang, S. Li, and Y. Yang, "Random Erasing Data Augmentation," arXiv:1708.04896, 2017.

Slide 17

Slide 17 text

Data Augmentation⽐較

Slide 18

Slide 18 text

他のドメインでのData Augmentation ● 動画データ - 時系列(時間軸)を反転する ● ⾳声データ - ホワイトノイズを加える - 再⽣速度に変更を加える - ピッチや発⾳の時間をずらす ● テキストデータ - 翻訳機を使って再翻訳する(⽇本語→英語→⽇本語) - 単語の⼀部分をマスクする

Slide 19

Slide 19 text

ご清聴ありがとうございました

Slide 20

Slide 20 text

参考 http://www.kamishima.net/archive/2010-s-jsai_tl.pdf https://medium.com/mhiro2/what-is-transfer-learning- 1018d2a3fe7d https://qiita.com/ANNEX_IBS/items/55c7a8984fe88a756965 https://qiita.com/cvusk/items/aa628e84e72cdf0a6e77