saw a black cat with a long tail. 近年,⼈⼯知能に注⽬が集まっています.⼈⼯知能技術の⼀つとして,私たち⼈間が普段使って いる⾔葉を機械で扱う技術,すなわち⾃然⾔語処理技術もさまざまな応⽤が期待されています. 世の中には⾃然⾔語で書かれたデータが⾮常に多く存在する上,⼈間と機械のインタフェースに も⾃然⾔語を⽤いることができます.⾃然⾔語処理技術は,新たな製品やサービスを⽣み出した り,業務の効率化を⾏ったりすることにつながり,ビジネスに⼤きく貢献すると考えられますが, まだ幅広く活⽤されているとは⾔えないのが現状です. 近年注⽬される⼈⼯知能の⼀つである⾃然⾔語処理 技術は様々な応⽤でビジネスに貢献できるものだが, まだ幅広くは活⽤されていない。 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」
tail. ⽂頭 I I I … I he he he … he am am am … am is is is … is saw saw saw … saw a a a … a the the the … the black black black … black … … … … … ⽂末 ⽂末 ⽂末 … ⽂末 10 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」
tail. ⽂頭 I I I … I he he he … he am am am … am is is is … is saw saw saw … saw a a a … a the the the … the black black black … black … … … … … ⽂末 ⽂末 ⽂末 … ⽂末 14 各ステップで単語Nグラムモ デルから 直前N-1個の単語の条件付き 確率分布として 単語の確率分布を得る 𝑃 𝑤! = 𝑣& 𝑤!"% , 𝑤!"' , … , 𝑤!"#$% 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」
tail. ⽂頭 I I I … I he he he … he am am am … am is is is … is saw saw saw … saw a a a … a the the the … the black black black … black … … … … … ⽂末 ⽂末 ⽂末 … ⽂末 17 各ステップでの出⼒層で 語彙サイズ数 (𝑉) 次元の ベクトルが得られる ↓ softmaxで正規化し 各単語の⽣成確率とする 𝑃 𝑤! = 𝑣& 𝑤(! = 𝑒) 𝑤! = 𝑣& 𝑤(! ∑ *+, - 𝑒) 𝑤! = 𝑣* 𝑤(! 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」
Parameters non-embedding Compute PF-days, non-embedding Test Loss Figure 1 Language modeling performance improves smoothly as we increase the model size, datasetset size, and amount of compute2 used for training. For optimal performance all three factors must be scaled up in tandem. Empirical performance has a power-law relationship with each individual factor when not bottlenecked by the other two. 出典: Kaplan et al., Scaling Laws for Neural Language Models, arXiv preprint 2001.08361 (2020) 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」
are Few-Shot Learners, Proc. NeurIPS 2020 (タスク記述) Translate English to French (プロンプト) cheeze => (タスク記述) Translate English to French (実例) sea otter => loutre de mer (プロンプト) cheeze => (タスク記述) Translate English to French (実例) sea otter => loutre de mer peppermint => menthe poivrée plush girafe => girafe peluche (プロンプト) cheeze => Zero-shot (実例なし) One-shot (単⼀実例) Few-shot (少数実例) 32 情報処理学会関⻄⽀部 2024年度定期講演会 (2024-11-21) 「⾃然⾔語処理と⼤規模⾔語モデルの基礎」