Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
ゼロつく2 輪読会 Part3 3.1~3.3 2024年 2⽉22⽇
Slide 2
Slide 2 text
‣ これ以降の図は以下より引⽤ 斎藤 康毅 「ゼロから作るDeep Learning ❷―⾃然⾔語処理編」 はじめに
Slide 3
Slide 3 text
‣ 前回の復習 ‣ カウントベースから推論ベースへ ‣ word2vec ‣ 次回に向けて ⽬次
Slide 4
Slide 4 text
前回の復習
Slide 5
Slide 5 text
‣ コサイン類似度→(⾃⼰)相互情報量 PMI ‣ 値が⼤きいほど共起(⼀緒に出現)しやすい ‣ SVD(特異値分解)による次元削減 前回の復習
Slide 6
Slide 6 text
カウントベースから推論ベー スへ
Slide 7
Slide 7 text
‣ ⼤規模なコーパスを扱いきれない. ‣ SVDまで⾏うと𝑂(𝑛!)の計算コストがかかる. ‣ 学習時に全てのデータを⽤いて1回の処理で分散表現を 獲得 カウントベースの問題点
Slide 8
Slide 8 text
‣ 推論ベース ‣ ミニバッチで学習 推論ベースの登場
Slide 9
Slide 9 text
‣ 周囲の単語から「?」に⼊る単語を推測する. ‣ 単語の出現確率を学習 推論ベースの概要
Slide 10
Slide 10 text
‣ one-hotベクトル 単語の処理
Slide 11
Slide 11 text
word2vec
Slide 12
Slide 12 text
‣ word2vecで提案されているモデルの1つ ‣ コンテキストからターゲットを推測するNN (学習の詳細は次回) CBOW(countinuous bag-of-word)
Slide 13
Slide 13 text
モデルの具体例 コンテキストとしてN個の単語 →⼊⼒層はN個 CrossEntropyLoss
Slide 14
Slide 14 text
‣ 3つの選択肢 1. ⼊⼒側の重み(𝑊"# )だけ 2. 出⼒側の重み(𝑊$%& )だけ 3. 2つの重みを両⽅ ‣ 1.⼊⼒側の重みだけが最もポピュラー 単語の分散表現
Slide 15
Slide 15 text
次回に向けて
Slide 16
Slide 16 text
‣ 使⽤するコーパス ‣ 「You say goodbye and I say hello.」 学習データの準備
Slide 17
Slide 17 text
コンテキストとターゲット
Slide 18
Slide 18 text
ベクトルに変換
Slide 19
Slide 19 text
one-hotベクトル