Slide 13
Slide 13 text
その他
● 研究開発基盤を一から構築
○ 分散学習・Preemptive TPU導入によるコスト・時間効率最大化
■ 実験サイクルは早ければ早いほどよい
● 分散学習 => 約8倍
● TPU => 約4倍
■ さらにコストも削減 => 半分以下に
● TPU v3-8が$2.4/h、GPU v100x8が$5.9/h
○ 実験手順簡略化、属人性排除
■ MLの研究開発はデータとかコードがいろんな場所に散在しやすい
● 研究開発戦略の立て方
○ モデル更新の影響
○ アノテーションコスト減らすために教師無しのアプローチはできないか?他の推論に使いまわせる
ように汎用的な特徴ベクトルにできないかなど、精度改善以外の面を気をつけている