Slide 1

Slide 1 text

田中 冬馬

Slide 2

Slide 2 text

株式会社ブレインパッド データサイエンティストとしてマーケティング分析,広告文の自動生成などの自然 言語処理の業務に従事 Autores 松尾研究室の研究の自動化プロジェクト その他の活動 LLM 関連で論文執筆 Inductive-bias Learning: Generating Code Models with Large Language Model Data Science wiki データ分析手法,AI 関連の技術に関する民主化を目指しているサイトの作成 Qiita の執筆 LLM のプロンプト技術まとめ 自己紹介

Slide 3

Slide 3 text

LLM Input Output 論文紹介:Language Model Inversion 論文:https://arxiv.org/abs/2311.13647 LLM の出力から入力プロンプトを復元する技術 復元

Slide 4

Slide 4 text

LLM とは Large Language Model( 大規模言語モデル) のこと Transoformer というアーキテクチャが使われているディープラーニングのモデル であり,ChatGPT のサービスで使われているGPT-4 やGPT-3.5-turbo などの総称

Slide 5

Slide 5 text

私 は AI で す LLM の入出力 LLM のベースは Transformer decoder

Slide 6

Slide 6 text

私 は X1 x2 x3 p(x1 |私,は) = 猫 天才 だ で す AI し を ・ ・ ※厳密に条件付き確率を計算しているわけではなく 確率値を返すような関数を近似したものです の中身の合計は1 ( 確率なので) 0.001 0.0004 0.0...1 0.0...3 0.0...4 0.01 0.0...2 0.0...7 ・ ・ ← 最も高い はモデルが出力で きる全トークン数 のベクトル ※ トークン... 文章を分割する際の最小単位 (LLM を作成する際に決めている) ※GPT-4 は約50,000 のトークン数で表現  BPE という手法を使っている

Slide 7

Slide 7 text

私 は AI x2 x3 p(x2 |私,は,AI) = 猫 天才 だ で す AI し を ・ ・ 0.0...8 0.0...5 0.0001 0.003 0.0...4 0.0...1 0.0...2 0.0007 ・ ・ ← 最も高い

Slide 8

Slide 8 text

私 は AI で x3 p(x3 |私,は,AI ,で) = 猫 天才 だ で す AI し を ・ ・ 0.0...2 0.0...1 0.0...1 0.0...3 0.004 0.0...6 0.002 0.0..7 ・ ・ ← 最も高い

Slide 9

Slide 9 text

私 は AI で す LLM は確率分布を出力し 最も確率値が高い言葉( トークン) を選び続けて文章生成が行われる →入力された文章の情報が確率分布に残されていれば復元できる ※ 温度パラメータが0 の場合 最も確率値が高いもの以外を選ぶ方法もある

Slide 10

Slide 10 text

機械学習を勉強するのが好き LLM 確率分布 です 機械学習を学ぶのが好き LLM 確率分布 です 検証 異なるか 文章の一部を類似している言葉に置き換えLLM に入力した時の確率分布を比較する

Slide 11

Slide 11 text

KL ダイバージェンス... 確率分布全体の形状はそこまで差がない 似ている文章を入力しているため当然 ハミング距離... 何単語後も正確に確率分布が一致しているわけではない 最初の入力の違いがずっと伝播している 確率分布のKL ダイバージェンスとハミング距離を比較 検証

Slide 12

Slide 12 text

確率値から文章を復元するモデルを学習 確率分布の数値から文章を再現するモデルを学習( 赤い部分) モデルのベースはT5 を使ったそうです

Slide 13

Slide 13 text

実験結果 元の入力した文章をある程度再現できている

Slide 14

Slide 14 text

まとめ 論文:Language Model Inversion LLM の出力の確率分布には今まで入力された文章の情報が含まれている 確率分布だけから元の入力を再現することができる 今回説明していないが論文で説明されていたこと 確率分布が分からなくても何度か出力が得られれば確率分布を再現できる. つまり,文章の出力しかなくても入力情報を再現できる 社会的な意義 LLM の出力だけから元の入力を再現できるため,セキュリティやプライバシーの 観点でも検討する必要がある

Slide 15

Slide 15 text

ご清聴ありがとうございました