Slide 34
Slide 34 text
本 章 の ま と め
34
Transformerにも↓の問題がある
・ 問題1. 学習データが大量になければ力が出ない
・ 問題2. メモリ・計算量がでかい(というか効率がよろしくない)
各々の問題への対応策として↓などがある
・ 解決策1. CNNを蒸留に活用, BERTっぽく事前学習, Optimizerを変える等
・ 解決策2. CNN-likeな構造にする, CNNと組合わせる, Attentionをもとに領域を絞る
結果として、Image Net 1kの世界では、同程度の学習データで、
性能と速度のバランスが取れたTransformerベースな手法が出てきている
©Panasonic Corporation 2021