Slide 19
Slide 19 text
3. 定理 ̶ コーパス中に反復が多ければ
⽂脈内学習は成功しやすい
21
• 定理1︓予測の 0-1 損失の平均は 𝒪(𝑅!
+ 𝐷 τ"
) で押さえられる
論⽂で正確なステートメントを確認したいかた向けの設定メモ︓
• 気になっている「関係データ」
− 合計 𝑛 種の「関係データ」 𝑥!
, 𝜑 𝑥! !
− 例︓{(country, capital of it)} = {(France, Paris), ...}
• LM への⼊⼒ … ⽂脈内学習のプロンプト︔0 〜 𝑛 − 1 ショット
− 𝑃"
≔
− 例︓
• LM からの出⼒
− .
− 例︓
ICTの
不正解率は
当該関係を表す
部分⽊が⼩さいときに,
⼩さくなる
反復の複雑性が低く=コーパスで
当該関係の繰り返しが起きやすく,