Upgrade to Pro — share decks privately, control downloads, hide ads and more …

大規模言語モデル入門4章

Avatar for sugi sugi
February 06, 2024
92

 大規模言語モデル入門4章

Avatar for sugi

sugi

February 06, 2024
Tweet

Transcript

  1. 4.1 モデルの大規模化とその効果 大規模言語モデルの規模を測る方法 - パラメータ数 - コーパスの容量 - 訓練時に使われた計算量 -

    FLOPS - 訓練に必要な計算のほとんどは浮動小数点数の演算であるため、浮動小数点数の回数を 表す指標を使用
  2. 4.2 プロンプトによる言語モデルの制御 - モデルの大規模化によって従来はファインチューニングが必要であったタスクがプ ロンプトを調整することで解けるようになってきている - プロンプトの与え方が重要 - 普通に与えるパターン -

    日本の首都は → 東京である - 機械翻訳 - “こんばんは”を英語に翻訳すると  → ”good evening”になる - 明確に指示を含める方法 - 下記の文を翻訳してください。こんばんは  → ”good evening”
  3. 4.2.1 文脈内学習 - プロンプトを使ってタスクを解く際の有用な方法のひとつとして「例示を与える」方法 がある - 1つ与える:one-shot学習 - 複数与える:few-shot学習(文脈内学習) -

    何も与えない:zero-shot学習 - 例示を与える方法は例を与えるという意味ではファインチューニングに似た考え方 だがパラメータを更新しないという点が異なる
  4. 4.4.1 データセットの再利用 - FLANと同様の方法でNatural Instructions、Super-Natural Instruction、P3 (Public Pool of Prompts)などの大規模なデータセットが構築されている

    - これらのデータセットを連結して新しい大規模データセットを作成し、モデルを訓練 する試みも行われている
  5. 4.5.1 報酬モデリング - A, B, Cが存在し、C, A, Bの順で好ましいとした場合 - C

    < A、C < B、A < Bを生成 - 訓練時は上位のテキストと下位のテキストのスコア差を最大化する 損失関数 - 好ましいテキストの場合には高いスコア - そうでない場合には低いスコア