Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
金研究室 勉強会 『Attention is all you need』
Search
winnie279
August 12, 2021
Science
0
64
金研究室 勉強会 『Attention is all you need』
Attention is all you need, Ashish et al., 2017, arXiv:1706.03762
winnie279
August 12, 2021
Tweet
Share
More Decks by winnie279
See All by winnie279
5分で学ぶOpenAI APIハンズオン
yjn279
0
110
『確率思考の戦略論』
yjn279
0
81
Amazonまでのレコメンド入門
yjn279
1
96
もう一度理解するTransformer(後編)
yjn279
0
32
金研究室 勉強会 『もう一度理解する Transformer(前編)』
yjn279
0
23
金研究室 勉強会 『U-Netとそのバリエーションについて』
yjn279
0
130
金研究室 勉強会 『Seismic Data Augmentation Based on Conditional Generative Adversarial Networks』
yjn279
0
27
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
yjn279
0
78
金研究室 勉強会 『U-Net: Convolutional Networks for Biomedical Image Segmentation』
yjn279
0
39
Other Decks in Science
See All in Science
効果検証入門に物申してみた_JapanR_2023
s1ok69oo
6
4.6k
脳とAIは似ているか ― NeuroAI の挑戦
ykamit
9
6.9k
BMI 研究はなぜ同じ失敗を繰り返すのか(日本BMI研究会, 2021.11.5)
ykamit
1
2k
KDD2023学会参加報告
tereka114
2
360
AI科学の何が“哲学”の問題になるのか ~問いマッピングの試み~
rmaruy
1
1.4k
Leveraging conformal prediction for calibrated probabilistic time series forecasts to accelerate the renewable energy transition
ingevandenende
2
270
20分で分かる Human-in-the-Loop 機械学習におけるアノテーションとヒューマンコンピューターインタラクションの真髄
hurutoriya
3
910
機械学習を理論から真剣に取り組んでみた件 その2:線形化に挑戦しよう!
nearme_tech
0
100
[NeurIPS 2023 論文読み会] Wasserstein Quantum Monte Carlo
stakaya
0
360
Machine Learning for Materials (Lecture 4)
aronwalsh
0
690
Science of Scienceおよび科学計量学に関する研究論文の俯瞰可視化_LT版
hayataka88
0
530
研究・教育・産学連携の循環の実践
sshimizu2006
0
240
Featured
See All Featured
Teambox: Starting and Learning
jrom
128
8.4k
Art, The Web, and Tiny UX
lynnandtonic
290
19k
Optimizing for Happiness
mojombo
370
69k
Git: the NoSQL Database
bkeepers
PRO
423
63k
How STYLIGHT went responsive
nonsquared
92
4.8k
Done Done
chrislema
178
15k
jQuery: Nuts, Bolts and Bling
dougneiner
60
7.2k
Designing the Hi-DPI Web
ddemaree
276
33k
How to name files
jennybc
65
93k
WebSockets: Embracing the real-time Web
robhawkes
59
7k
Rebuilding a faster, lazier Slack
samanthasiow
74
8.3k
Building Adaptive Systems
keathley
32
1.9k
Transcript
Attention Is All You Need Ashish et al., 2017, arXiv:1706.03762
金研 機械学習勉強会 2021/08/12 中村勇士
Transformerとは? • RNNの問題点 ◦ 長い入力が苦手 ◦ 勾配消失問題が起こりやすい ◦ 並列化が困難 →
GPUによる学習の効率化・大量のデータによる学習が困難 • Transformerによる解決 ◦ 再帰や畳み込みを使用しない ◦ 大規模なモデル・データを使用可能 ◦ 精度の大幅な向上
EQTransformerとの関係 • Transformerをそのまま使用していない ◦ attentionをレイヤーと使用 • 疑問 ◦ Transformerの強み: 再帰や畳み込みをしないこと
◦ LSTM・Convを使って良いのか?
モデル • エンコーダ・デコーダ • Attention • フィード・フォワード・ネットワーク(FFW) • 埋め込み •
ポジショナル・エンコーディング
モデル:エンコーダ・デコーダ
• エンコーダ(左) ◦ input ◦ N = 6 • デコーダ(右)
◦ output ◦ N = 6 モデル:エンコーダ・デコーダ input からの 出力
モデル:埋め込み / ポジショナル・エンコーディング • 埋め込み:単語のベクトル化 ◦ • ポジショナル・エンコーディング ◦ 構造のベクトル化
◦ 再帰や畳み込みの必要がなくなる ◦ モデルの学習が容易になる pos: 単語の順番, i: 次元, d model : 全体の次元数
モデル:Attention • 単語間の相関を表す ◦ どの単語がどの単語に 着目してるか • Q:query • K:key
• V:value • d k :dimention
Transformerの活用 • 自然言語処理(NLP) ◦ BERT ◦ GPT-3 ◦ DALL・E(テキストから画像生成) •
その他 ◦ 地震学:EQTransformer(地震動検出・フェーズピック) ◦ 生物学:AlphaFold2(タンパク質の構造予測) ◦ 音楽:Music Transformer(作曲)
おまけ • Transformer解説:GPT-3、BERT、T5の背後にあるモデルを理解する ◦ AINOW ◦ https://ainow.ai/2021/06/25/256107 • The Illustrated
Transformer ◦ Jay Alammar ◦ http://jalammar.github.io/illustrated-transformer • Embedding Projector ◦ http://projector.tensorflow.org/
モデル:フィード・フォワード・ネットワーク(FFW) • FFW ◦ 2つの線形変換 ◦ ReLU • 学習 ◦
英独:450万の文, 37,000のトークン ◦ 英仏: