Slide 28
Slide 28 text
Computer Vision以外
• 自然言語処理
– 翻訳かつ原著 [Vaswani+, NIPS’17] その他多数!!!
– 言語モデル GoogleのBERT [Devlin+, NAACL-HLT’19], PaLM [Chowdhery+, 2022], DeepMindのGopher
[Rae+, 2022], OpenAIのGPT-2/3 [Radford+, 2019][Brown+, NeurIPS’20] など多数
– 2兆トークンからなるデータベースの検索 [Borgeaud+, 2021]
• 音声処理・信号処理
– 表現学習 HuBERT [Hsu+, TASLP’21], SSAST [Gong+, AAAI’22]
– 音声認識 [Lüscher+, INTERSPEECH’19]
– 音楽生成 [Huang+, ICLR’19][Choi+, ICML’20]
– 時系列予測 [Li+, NeurIPS’19][Wu+, NeurIPS’20]
• テーブルデータ
– FT-Transformer [Gorishniy+, NeurIPS’22] ※ただし表データは依然としてGradient Boostingが強い
• Bio/Chem-informatics
– 分子構造解析 [Fuchs+, NeurIPS’20][Rong+, NeurIPS’20]
• エージェント・ロボティクス
– マルチエージェント通信 [Inala+, NeurIPS’20]
– One Shotで模倣学習 [Dasari+Guputa, CoRL’20]
– タスク系列の強化学習 Scene Memory Transformer [Fang+, CVPR’19], Decision Transformer [Chen+,
NeurIPS‘21], Trajectory Transformer [Janner+, NeurIPS‘21], Gato [Reed+, 2022]