Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AI研修(イントロダクション)【ミクシィ22新卒技術研修】

 AI研修(イントロダクション)【ミクシィ22新卒技術研修】

22新卒技術研修で実施したAI研修の講義資料(イントロダクション)です。

<<AI研修資料一覧>>
#01 イントロダクション
https://speakerdeck.com/mixi_engineers/2022-ai-training-number-01-introduction

#02 data & training編
https://speakerdeck.com/mixi_engineers/2022-ai-training-number-02-data-and-training

#03 Deployment編
https://speakerdeck.com/mixi_engineers/2022-ai-training-number-03-deployment

#04 サービスへの導入編
https://speakerdeck.com/mixi_engineers/2022-ai-training-number-04-service

MIXI ENGINEERS

May 09, 2022
Tweet

More Decks by MIXI ENGINEERS

Other Decks in Programming

Transcript

  1. どんな問題を解決できるか? 様々な分野で様々な問題を解決することができる • 需要・コスト予測 • カスタマー対応 • ゲームデッキのレコメンド • 書類のチェック

    • マーケティングプラン • ゲームAI • キャラクター生成 • 翻訳 • 競馬/競輪の予測 • 音声の変換 • メトリクスの異常検知 • コードレビューの補助 • モーションキャプチャ • 不審な決済ログの洗い出し • … 10
  2. 分類(Classification)と回帰(Regression) 分類 • 出力が離散値 True or False 犬、猫、人... • あらかじめ与えられた

    カテゴリー/クラス/分類 を予測する際に使用 • 例 モンストキャラの画像と種類から 新たなキャラ画像が与えられた時に そのキャラがどの種類かを予測 回帰 • 出力が連続値 金額や人数、温度… • 数字の大小に意味が存在する 値を予測する際に使用 • 例 過去のモンストの売上から 明日の売上を予測 17
  3. 機械学習の流れ 用意したデータ 入力 出力 教師データ(ラベル) 入力(特徴量) 教 師 デ タ

    ー モデル Parameters Hyper Parameters 損失(loss)から Parametersを更新 20
  4. 機械学習の流れ 用意したデータ 入力 出力 教師データ(ラベル) 入力(特徴量) 教 師 デ タ

    ー モデル Parameters Hyper Parameters 損失関数 Loss 最適化関数 (Optimizer) Parameters 更新 22
  5. 多クラス分類問題の代表的な損失関数 損失関数(loss function) ➢ Categorical Cross Entropy Label Name オラゴン

    ブルーリドラ レッドリドラ グリーンリドラ Output 3.57 0.27 1.80 - 0.83 Softmax 0.8200 0.0302 0.1397 0.0101 Label 1 0 0 0 Cross Entropy 0.086 0 0 0 24
  6. 最適化関数一覧 • Gradient Descent (GD) • Stochastic Gradient Descent (SGD)

    • Nesterov Accelerated Descent (NAG) • Momentum • RMSProp • Adagrad • Adam • … 26
  7. 機械学習の流れ 用意したデータ 入力 出力 教師データ(ラベル) 入力(特徴量) 教 師 デ タ

    ー モデル Parameters Hyper Parameters 損失関数 Loss 最適化関数 (Optimizer) Parameters 更新 27
  8. Hyper Parameters: バッチサイズ 一度でトレーニングでどれだけのデータをまとめて学習するか • 理想だけ言えば大きいほうがより安定する ➢ 大きくしすぎると精度悪化の可能性 ➢ 計算量やメモリの使用量が大きくなる

    • バッチサイズと学習率には関係がある ➢ 学習率を固定してバッチサイズを5倍にするということは、 バッチサイズを固定して学習率を1/5にするということに近い 29
  9. 機械学習の流れ 用意したデータ 入力 出力 教師データ(ラベル) 教 師 デ タ ー

    モデル Parameters Hyper Parameters 損失関数 Loss 最適化関数 (Optimizer) Parameters 更新 30