Upgrade to Pro — share decks privately, control downloads, hide ads and more …

大規模言語モデルの驚異と脅威

 大規模言語モデルの驚異と脅威

2022年11月にOpen AIが公開したChatGPTが世界で注目を集めている。一般ドメインかつ多言語で、従来のチャットボットとはレベルの異なる高品質の対話をリアルタイムに実現するサービスを(Research Preview版ではあるが)無料で提供し、検索、金融、広告、教育、法務などの広範囲な分野の転換点となり得ることは、驚異的なことである。本講演では、ChatGPTがベースにしているInstructGPTを中心に、大規模言語モデルやプロンプト、人間のフィードバックによる強化学習などの技術を概観する。また、ChatGPTのような生成型の人工知能が社会やビジネス、学術にもたらす脅威について述べる。

https://aip.riken.jp/sympo/sympo202303/

Naoaki Okazaki

March 28, 2023
Tweet

More Decks by Naoaki Okazaki

Other Decks in Research

Transcript

  1. 大規模言語モデルの
    驚異と脅威
    岡崎 直観
    東京工業大学
    情報理工学院
    [email protected]
    https://www.nlp.c.titech.ac.jp/

    View full-size slide

  2. 岡崎 直観(おかざき なおあき)
    1
    https://www.chokkan.org/
    2007年東京大学大学院情報理工学系研究科博士課程修了。東北大学大学院情報科学研究科准教授を経て、
    2017年より東京工業大学情報理工学院教授。言語処理学会理事。ACL 2023 Program Chair。

    View full-size slide

  3. 大規模言語モデルの驚異
    2

    View full-size slide

  4. ChatGPTがもたらした「驚異的」な体験
    3
    ※ Yoav GoldbergのEMNLP 2022のオープニング(2022年12月7日)のスライドより: https://twitter.com/zkozareva/status/1601087900409397248

    View full-size slide

  5. GPT-4の驚異的な性能
    4
    https://twitter.com/DrJimFan/status/1635694095460102145
    https://twitter.com/ruchowdh/status/1635714392372449282
    OpenAI. 2023. GPT-4 Technical Report. https://cdn.openai.com/papers/gpt-4.pdf
    Stanfordの大学院に入学できる
    GRE(米国大学院の入学試験)やUBE(米
    国統一司法試験)などで高スコアを収める
    抽象的な創造性に欠ける
    AP EnglishやLeetcodeの成績を見ると、人
    間の能力とは大きな差がある

    View full-size slide

  6. 大規模言語モデルをめぐる驚異的なスピード
    5
     OpenAIがChatGPTを公開(正確には2022年11月30日公開)
     (ChatGPTのエクスペリエンスが凄いと評判になる)
     ChatGPTは公開後5日で100万ユーザを獲得
     Stack OverflowがChatGPTで生成された投稿を禁止
     GoogleがChatGPTに関して「コードレッド」を宣言と報道
    2023年3月
    2023年2月
    2023年1月
    2022年12月
     OpenAIがAIで生成されたテキストを判別するツールを公開
     OpenAIがサブスクリプションサービスChatGPT Plusを発表
     MicrosoftがChatGPTを搭載した検索エンジンBingを発表
     Googleが(ChatGPT対抗と言われる)対話型のサービスBardを限定公開
     Metaが大規模言語モデルLLaMA(7B~65B)を公開
     OpenAIがChatGPTとWhisperのAPIを公開
     MicrosoftがAzure OpenAI ServiceでChatGPTを提供
     OpenAIがGPT-4を発表
     Googleが大規模言語モデルPaLM(540B)のAPIを限定公開
     GitHubがGPT-4を搭載したCopilot Xを発表
     機械学習の国際会議ICMLが生成型AIで論文を執筆することを禁止
     自然言語処理の国際会議ACLが生成型AIに関するポリシーを発表
     MicrosoftがOpenAIに約1.3兆円を投資するとの報道
     Natureが論文の共著者としてChatGPTを認めない方針を発表
     ChatGPTの月間アクティブユーザが1億人と推計される(過去最速で達成)

    View full-size slide

  7. 研究者にとって驚異的なこと
    6
    言語モデルでそこまでできるのか!
     言語モデルは原理上「テキストの続き」を予測するだけなのに
     大規模言語モデルは単語予測器に過ぎないという批判があるが、単語予測器だ
    けで自然言語で与えた指示を理解し、様々なタスクを解けることは驚異的
     文脈処理や長文生成が苦手であったはずが、驚くほど良くなっている
     コーパス(言語モデルの学習データ)のどこかに書かれているから回答できる
    という説明があるが、本当にそれだけなのか?

    View full-size slide

  8. 言語モデルとは
    7
     単語(トークン)列𝑦𝑦1
    , … , 𝑦𝑦𝑇𝑇
    の生成確率𝑃𝑃(𝑦𝑦1
    , … , 𝑦𝑦𝑇𝑇
    )を推定する
     テキストの続き(あるテキストに続く単語)を予測できる
    𝑦𝑦∗ = argmax
    𝑦𝑦∈𝑉𝑉
    𝑃𝑃 英国, の, 首都, は, 𝑦𝑦
     様々なタスクは言語モデルとして定式化できる
     機械翻訳: 𝑃𝑃 The, capital, of, UK, is, London, [SEP], 英国, の, 首都, は, 𝑦𝑦
    全単語の集合
    𝑃𝑃 英国, の, 首都, は, 東京 = 0.00000043
    𝑃𝑃 英国, の, 首都, は, パリ = 0.00000082
    𝑃𝑃 英国, の, 首都, は, … … = ⋯
    𝑃𝑃 英国, の, 首都, は, ロンドン = 0.00000103
    𝑦𝑦∗ = ロンドン
    計算された確率の最大値を
    与える単語を選択する

    View full-size slide

  9. 条件付き確率による言語モデル
    8
     先頭から単語を順に生成する条件付き確率の積で表現する
    𝑃𝑃 𝑦𝑦1
    , … , 𝑦𝑦𝑇𝑇
    = 𝑃𝑃 𝑦𝑦1
    BOS 𝑃𝑃 𝑦𝑦2
    BOS, 𝑦𝑦1
    ⋯ 𝑃𝑃 𝑦𝑦𝑇𝑇
    BOS, … , 𝑦𝑦𝑇𝑇−1
     テキストの続きを予測する問題
    𝑃𝑃 英国, の, 首都, は, 𝑦𝑦 = 𝑃𝑃 英国 BOS 𝑃𝑃 の BOS, 英国 ⋯ 𝑃𝑃 は BOS, … , 首都 𝑃𝑃 𝑦𝑦 BOS, … , は
    より、
    𝑦𝑦∗ = argmax
    𝑦𝑦∈𝑉𝑉
    𝑃𝑃 英国, の, 首都, は, 𝑦𝑦 = argmax
    𝑦𝑦∈𝑉𝑉
    𝑃𝑃(𝑦𝑦|英国, の, 首都, は)
     条件付き確率𝑃𝑃 𝑦𝑦𝑡𝑡
    BOS, … , 𝑦𝑦𝑡𝑡−1
    をどのように求めればよいか?
    先頭の単語を生成
    2番目の単語を生成
    𝑇𝑇番目の単語を生成
    𝑃𝑃 東京 | BOS, 英国, の, 首都, は = 0.08
    𝑃𝑃 パリ |BOS, 英国, の, 首都, は = 0.01
    𝑃𝑃 … … |BOS, 英国, の, 首都, は = ⋯
    𝑃𝑃 ロンドン |BOS, 英国, の, 首都, は = 0.76
    𝑦𝑦に何を当てはめても定数
    𝑦𝑦∗ = ロンドン
    計算された確率の最大値を与えるyを選択する

    View full-size slide

  10. 条件付き確率を統計的に求める
    9
     条件付き確率を単語列の出現頻度から推定する(以降BOSは省略)
    𝑃𝑃(𝑦𝑦𝑡𝑡
    |𝑦𝑦1
    , … , 𝑦𝑦𝑡𝑡−1
    ) =
    #(𝑦𝑦1
    , … , 𝑦𝑦𝑡𝑡−1
    , 𝑦𝑦𝑡𝑡
    )
    #(𝑦𝑦1
    , … , 𝑦𝑦𝑡𝑡−1
    )
     単語列の出現回数#(⋅)は大規模なコーパス(ウェブ上の文書)で計測する
     ウェブ検索エンジンのヒット件数で置き換えて考えると分かりやすい
    “英国の首都はロンドン”で検索すると8件
    “英国の首都は” で検索すると21,700件
    #(⋅)はコーパス内で括弧内の
    単語列が出現した回数
    𝑃𝑃 ロンドン 英国, の, 首都, は =
    8
    21,700
    意外に少ない
    ❌ データスパースネス問題
    単語列が長くなると、その出現回数#(⋅)
    が急速に減少し、条件付き確率の推定が
    困難になる(何でもウェブに書いてある
    とは限らない)
    ❌ 類義語問題
    類義語が個別の事象として扱われてしま
    う(“イギリスの首都はロンドン”で検索
    すると、8,320件もヒットする)

    View full-size slide

  11. nグラム言語モデル(深層学習以前の言語モデル)
    10
     条件付き確率の条件部を𝑛𝑛 − 1個前までの単語で打ち切る
    𝑃𝑃(𝑦𝑦𝑡𝑡
    |𝑦𝑦0
    , … , 𝑦𝑦𝑡𝑡−1
    ) ≈ 𝑃𝑃(𝑦𝑦𝑡𝑡
    |𝑦𝑦𝑡𝑡−𝑛𝑛+1
    , … , 𝑦𝑦𝑡𝑡−1
    ) =
    #(𝑦𝑦𝑡𝑡−𝑛𝑛+1
    , … , 𝑦𝑦𝑡𝑡−1
    , 𝑦𝑦𝑡𝑡
    )
    #(𝑦𝑦𝑡𝑡−𝑛𝑛+1
    , … , 𝑦𝑦𝑡𝑡−1
    )
     データスパースネス問題をある程度回避できる
     テキストの続きを予測する問題を3グラム言語モデルで解く場合
    𝑃𝑃 𝑦𝑦 英国, の, 首都, は ≈ 𝑃𝑃 𝑦𝑦 首都, は =
    #(首都, は, 𝑦𝑦)
    #(首都, は)
    ❌ 長距離依存(離れた位置にある単語の関係性)を扱いにくい
    𝑦𝑦𝑡𝑡
    よりも前に
    ある全単語
    𝑦𝑦𝑡𝑡
    から𝑛𝑛 − 1個前
    までの単語
    どこの首都について聞かれて
    いるのか考慮できない!
    𝑃𝑃 東京 | 首都, は = 0.74
    𝑃𝑃 パリ |首都, は = 0.03
    𝑃𝑃 … … |首都, は = ⋯
    𝑃𝑃 ロンドン |首都, は = 0.05
    𝑦𝑦∗ = 東京

    View full-size slide

  12. RNN型ニューラル言語モデル (Mikolov+ 2010)
    11
    BOS
    softmax softmax softmax softmax softmax
    英国 の 首都 は
    𝑃𝑃 𝑦𝑦1
    |BOS 𝑃𝑃 𝑦𝑦2
    |英国
    T Mikolov, M Karafiát, L Burget, J Černocký, S Khudanpur. 2010. Recurrent Neural Network Based Language Model. In INTERSPEECH, pp. 1045-1048.
    𝑃𝑃 𝑦𝑦3
    |英国の 𝑃𝑃 𝑦𝑦4
    |英国の首都 𝑃𝑃 𝑦𝑦5
    |英国の首都は
    ✅ 埋め込み表現(単語ベクトル)により類義語・関連語を考慮できる
    😟😟 原理上は長距離依存を扱えるが、固定長のベクトルだけでは情報を覚えきれない
    😟😟 ネットワークが単語位置方向に深くなるため、学習が難しくなる(勾配爆発・消失)
    単語
    ベクトル
    隠れ状態
    ベクトル
    確率分布
    ベクトル
    勾配
    消失

    View full-size slide

  13. ニューラル機械翻訳(系列変換モデル)における進展
    12
    The capital of UK is
    +
    London BOS 英国 の 首都 は
    英国 の 首都 は ロンドン
     2014年頃から深層学習に基づく機械翻訳の研究が盛んに (Sutskever+ 2014)
     機械翻訳モデルと言語モデルのアーキテクチャは似ている
     大規模言語モデルの基盤となるアイディア(例:注意機構)が次々と生み出される
    ✅ 注意機構により、固定長のベクトルだけを用いるのではなく、入力単語の情報を柔軟に
    参照しながら翻訳単語の予測を行えるようになり、長い入力文の翻訳精度が向上した
    😟😟 入力文中の単語間、出力文中の単語間の長距離依存を考慮しにくい
    I Sutskever, O Vinyals, Q V Le. 2014. Sequence to Sequence Learning with Neural Networks. In NIPS, pp. 3104–3112.
    D Bahdanau, K Cho, Y Bengio. 2015. Neural Machine Translation by Jointly Learning to Align and Translate. In ICLR.
    注意機構 (Bahdanau+ 2015)
    どの単語に着目するべきか
    自動的に学習・決定される

    View full-size slide

  14. Transformerの登場(Vaswani+ 2017)
    13
    The capital of UK is
    +
    London BOS 英国 の 首都 は
    英国 の 首都 は ロンドン
     自己注意だけで単語間の情報を統合するモデル
     位置エンコーディング、マルチヘッド注意、残差結合、層正規化などの工夫を盛り込む
    ✅ 単語間の情報の統合に要するコストが距離に依らない(長距離依存を扱いやすい)
    ✅ 並列計算で実装しやすい(GPUやTPUなどのハードウェアを活用しやすい)
    ✅ 大規模言語モデルに限らず、自然言語処理以外の分野も含めて、汎用的に用いられる基
    盤アーキテクチャとなった
    A Vaswani, N Shazeer, N Parmar, J Uszkoreit, L Jones, A N. Gomez, L Kaiser, I Polosukhin. 2017. Attention is All You Need. In NIPS, pp. 5998–6008.
    前ページのモデルとの主な相違点
     単語位置方向(横方向)の矢印が撤廃された
     単語同士が1ホップで結合される

    View full-size slide

  15. Transformerの登場により機械翻訳の性能は著しく向上
    14
    35
    29.3
    33.3
    28.4
    25.16
    24.61
    23
    21.6
    20.7
    0 5 10 15 20 25 30 35 40
    Transformer Big + 逆翻訳 (Edunov+ 18)
    Transformer Big (Ott+ 18)
    DeepL (press release, 17)
    Transformer (Vaswani+ 17)
    CNN (Gehring+ 17)
    Googleのニューラル機械翻訳 (Wu+ 16; 当時)
    注意機構 (Luong+ 15)
    RNN (Jean+ 15)
    統計的機械翻訳 (Durrani+ 14)
    英語からドイツ語への翻訳の精度をWMT 2014データセット上でBLEUスコアとして計測したもの(高いほどよい)
    20年間の統計的機械
    翻訳の研究の蓄積

    View full-size slide

  16. Generative Pre-Training (GPT)
    15
    入力の
    埋め込み表現
    出力の
    埋め込み表現
    GPT
    Transformerの
    デコーダ
    入力単語列
    ℎ1
    0 ℎ2
    0 ℎ3
    0 ℎ4
    0 ℎ5
    0 ℎ6
    0 ℎ7
    0 ℎ8
    0 ℎ9
    0 ℎ10
    0 ℎ11
    0
    ℎ1
    𝐿𝐿 ℎ2
    𝐿𝐿 ℎ3
    𝐿𝐿 ℎ4
    𝐿𝐿 ℎ5
    𝐿𝐿 ℎ6
    𝐿𝐿 ℎ7
    𝐿𝐿 ℎ8
    𝐿𝐿 ℎ9
    𝐿𝐿 ℎ10
    𝐿𝐿 ℎ11
    𝐿𝐿
    の 首都 は ロンドン で 、 世界的 に 有名 な 観光
    A Radford, K Narasimhan, T Salimans, I Sutskever. 2018. Improving Language Understanding by Generative Pre-Training. Technical report.
    https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
     Transformerの生成部(デコーダ)を言語モデルとして学習したもの(事前学習)
     学習データとして本やウェブから収集した大量のテキストを用いる
     大量のテキストから言語に関する一般的な知識を獲得することを狙う
     パラメータ数は117M (GPT)、117M~1.54B (GPT-2)、125M~175B (GPT-3) と巨大化
    正解の
    出力単語列
    単語予測の
    確率分布
    英国 の 首都 は ロンドン で 、 世界的 に 有名 な

    View full-size slide

  17. ファインチューニング
    16
    入力の
    埋め込み表現
    出力の
    埋め込み表現
    GPT
    Transformerの
    デコーダ
    入力単語列
    ℎ1
    0 ℎ2
    0 ℎ3
    0 ℎ4
    0 ℎ5
    0 ℎ6
    0 ℎ7
    0 ℎ8
    0 ℎ9
    0 ℎ10
    0 ℎ11
    0
    ℎ1
    𝐿𝐿 ℎ2
    𝐿𝐿 ℎ3
    𝐿𝐿 ℎ4
    𝐿𝐿 ℎ5
    𝐿𝐿 ℎ6
    𝐿𝐿 ℎ7
    𝐿𝐿 ℎ8
    𝐿𝐿 ℎ9
    𝐿𝐿 ℎ10
    𝐿𝐿 ℎ11
    𝐿𝐿
    A Radford, K Narasimhan, T Salimans, I Sutskever. 2018. Improving Language Understanding by Generative Pre-Training. Technical report.
    https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
     所望のタスクが解けるように事前学習済みの(言語)モデルを調整(学習)すること
     言語に関する一般的な知識をベースに、タスク固有の知識を獲得することを狙う
     2018年頃から流行しているアプローチ(代表例はGPT, BERT, ELMo)
    ✅ 多くの自然言語処理タスクで当時の世界最高性能を更新した
    😟😟 タスク固有の層(図中の𝑊𝑊
    𝑦𝑦
    )をモデルに追加する必要がある
    😟😟 大規模なモデルではファインチューニングのコストが高い
    含意
    𝑊𝑊
    𝑦𝑦
    softmax
    猫 が ソファー で 寝て いる SEP 動物 が 寝て いる

    View full-size slide

  18. プロンプト:言語モデルだけでタスクを汎用的に解く
    17
     大規模言語モデルに与える「テキスト(=プロンプト)」を工夫すれば、言語モデルの
    アーキテクチャを変更せずにタスクを解けるのではないか?(GPT-2とGPT-3の論文)
     テキストに続く単語を予測させる(通常の言語モデルの使い方)
    英国の首都は
     タスクの説明によるプロンプト(zero-shot)
    次の質問に答えてください。英国の首都はどこでしょうか?
     タスクの説明と解き方の例を連結したプロンプト(few-shot)
    次の質問に答えてください。
    日本の首都は東京です。
    英国の首都はどこでしょうか?
    ☺ モデルを変更する必要がない(テキストの続きさえ予測できれば良い)
    ☺ タスクの解き方をテキストで与えるため、言語モデルが汎用的に振舞うように見える
    😟😟 ファインチューニングを行った場合と比較すると、タスクの正解率が低いことが多い
    T. B. Brown, B. Mann, N. Ryder, M. Subbiahet, et. al. 2020. Language Models are Few-Shot Learners. arXiv:2005.14165.
    ロンドン
    ロンドン
    英国の首都はロンドンです。

    View full-size slide

  19. GPT-3のタスクでの性能
    18
    T. B. Brown, B. Mann, N. Ryder, M. Subbiahet, et. al. 2020. Language Models are Few-Shot Learners. arXiv:2005.14165.

    View full-size slide

  20. 言語モデルの超大規模化
    19
    言語モデルの性能と計算能力、訓練データ量、パラメータ数の間にべき乗則 (Kaplan+ 2020)
    J Kaplan et al. (2020) Scaling Laws for Neural Language Models. arXiv:2001.08361.
    A D Thompson. (2023) Language model sizes. LifeArchitect.ai. https://lifearchitect.ai/models/
    GPT-3以降、超大規模な言語モデルの構築が試みられる(Thompson 2023)

    View full-size slide

  21. Instruction Tuning (FLAN) (Wei+ 2022)
    20
    J Wei, M Bosma, V Y Zhao, K Guu, et. al. 2022. Finetuned Language Models are Zero-Shot Learners. ICLR.
     言語モデルの構成を変えずに、複数のタスクでファインチューニングする
     タスク毎にテンプレートを用意し「プロンプト(タスクの指示と事例)+出力」
    という形式の学習データに変換することで、言語モデルとして追加学習できる
     実験では自然言語推論、常識推論、感情分析、言い換え、質問応答、機械読解、
    共参照解析、要約、機械翻訳など、62個のデータセットを用いた
    ☺ タスクをゼロショットで解く実験において、GPT-3よりも高い精度を達成
    ☺ タスクの指示を自然言語で与えることが成功の鍵であることが示唆された

    View full-size slide

  22. 思考の連鎖(Chain of Thought)
    21
    J Wei, X Wang, D Schuurmans, M Bosma, et. al. 2022. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS.
    T Kojima, S S Gu, M Reid, Y Matsuo, Y Iwasawa. 2022. Large Language Models are Zero-Shot Reasoners. NeurIPS.
     解答例をモデルに与えるときに「考え方」を含めるようにする
     言語モデルが単語を予測するときに、思考過程と解答を出力するようになる
     Wei+ (2022) ではデータセットに思考過程を手作業で付与
     Kojima+ (2022) では”Let’s think step by step”をプロンプトに含める手法を提案
    ☺ 数学問題、常識推論、記号推論などのタスクの性能を大幅に改善
















    View full-size slide

  23. GPT-3で含意関係認識を解く例
    22

    View full-size slide

  24. 人間のフィードバックに基づく強化学習
    (RLHF: Reinforcement Learning from Human Feedback)
    23
    N Stiennon, L Ouyang, J Wu, D M Ziegler, R Lowe, C Voss, A Radford, D Amodei, P Christiano. 2020. Learning to Summarize from Human Feedback.
    NeurlIPS.
    人間のフィードバックに基づいて要約モデルを強化学習する(Stiennon+ 2022のFigure 2を改変)
    人間のフィードバックを収集 報酬モデルを学習 近傍方策最適化(PPO)
    Reddit TL;DR
    データセット
    か ら Reddit の
    投稿を抽出す

    様々な方策を
    利用して要約
    の集合を得る
    2つの要約を評
    価対象として
    選ぶ
    どちらが投稿
    の要約として
    ふさわしいか、
    人間が判断す

    人間が価値判
    断した(1つ
    の投稿に対す
    る)2つの要
    約を報酬モデ
    ルに与える
    それぞれの要
    約に対して報
    酬モデルが報
    酬𝑟𝑟を計算する
    報酬と人間の
    価値判断に基
    づいて損失を
    計算し、報酬
    モデルを更新
    する
    データセットから
    新しい投稿をサン
    プルする
    方策𝜋𝜋が投稿に対
    する要約を生成す

    報酬モデルが要約
    に対する報酬を計
    算する
    近傍方策最適化に
    より、報酬に基づ
    いて方策を更新す

    言語モデルの目的関数(尤度最大化)と人間が望む出力との溝を強化学習で埋める

    View full-size slide

  25. InstructGPT (Ouyang+ 2022)
    24
     ChatGPTの基となるモデル(ChatGPTの詳細に関する論文は公開されていない)
     人間のフィードバックによる強化学習(RLHF)により、プロンプトで与えられた人間
    の指示に従い、詳細な応答を返すように調整されたモデル
    L Ouyang, J Wu, X Jiang, D Almeida, et. al. 2022. Training Language Models to Follow Instructions with Human Feedback. arXiv:2203.02155.

    View full-size slide

  26. 大規模言語モデルの驚異を実現する仕組み
    25
     言語モデルは「テキストの続き」を予測する
     Transformerの登場により、言語生成タスクの性能が向上
     事前学習とファインチューニングという方法論が成功を収める
     プロンプトにより、言語モデルであらゆるタスクに取り組む
     GPT-2やGPT-3の論文では未知のタスクをプロンプトで汎用的に解く方法を探求
     Instruction Tuningにより、言語モデルのままタスクでファインチューニング
     解きたいタスクを自然言語の「指示」としてモデルに与えられるようになった
     大量のデータや計算資源を用いて言語モデルは大規模化
     強化学習との組み合わせにより、人間がふさわしいと考える出力が得
    られるように調整
     訓練データ作成やモデルへのフィードバックを与える作業も成功の要因の一つ

    View full-size slide

  27. 大規模言語モデルの脅威
    26

    View full-size slide

  28. 大規模言語モデルが人間の脅威にもなり得る
    27
    T Eloundou, S Manning, P Mishkin, D Rock. 2023. GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
    arXiv:2303.10130.
     検索、金融、広告、教育、法務などの広範囲な分野の転換点
     大規模言語モデルを組み込んだサービスが爆発的に発表される
     翻訳・通訳、調査官、作家などの仕事を短縮する (Eloundou+ 2023)
     嘘(hallucination)
     分からない場合でも平然と嘘をつく、事実に基づかない応答をしてしまう
     バイアス
     性別や人種などに関する社会のバイアスを学習・増幅してしまう
     特定の個人や団体の利益になるような応答をするように調整できてしまう
     個人情報の暴露
     悪用

    View full-size slide

  29. 「賢い」大規模言語モデルを作ることのハードルが上がる
    28
     大量の計算資源と人的資源が必要
     GPT-3 (175B) の学習に要するコストは460万ドルと言われている
     RLHFによる要約の研究 (Stiennon+ 2020) では、人間の作業時間は数千時間と報告
     InstructGPTの研究 (Ouyang+ 2022) では、 40人の作業者が数万件の事例をアノ
    テーション(ChatGPTのデータの規模感は明らかにされていない)
     大規模言語モデルの性能の検証や再現が困難に (OpenAI 2023)
    N Stiennon, et al. 2020. Learning to Summarize from Human Feedback. NeurlIPS.
    L Ouyang, et al. 2022. Training Language Models to Follow Instructions with Human Feedback. arXiv:2203.02155.
    OpenAI. 2023. GPT-4 Technical Report. https://cdn.openai.com/papers/gpt-4.pdf

    View full-size slide

  30. 大規模言語モデルが論文を書く?
    29
     ChatGPTの登場後間もなく、論文執筆への応用が話題となる
     英語を母語としない著者にとっては、執筆支援や英文校正に利用できる
     大学では大規模言語モデルによって書かれたレポートの取り扱いが問題となる
     Nature: AIにより生成された文章やAIを著者にすることを禁止
     Artificial intelligence (AI) policy: Text generated from AI, machine learning, or
    similar algorithmic tools cannot be used in papers published
    in Science journals, nor can the accompanying figures, images, or graphics be the
    products of such tools, without explicit permission from the editors. In addition, an
    AI program cannot be an author of a Science journal paper. A violation of this
    policy constitutes scientific misconduct.
     ICMLも生成型AIの文章を含めることを禁止(実験結果としてはOK)
     Papers that include text generated from a large-scale language model (LLM)
    such as ChatGPT are prohibited unless the produced text is presented as a part of
    the paper’s experimental analysis.
    Science Journals: Editorial Policies: https://www.science.org/content/page/science-journals-editorial-policies#authorship
    Clarification on Large Language Model Policy LLM: https://icml.cc/Conferences/2023/llm-policy

    View full-size slide

  31. 計算言語学会(ACL 2023)のポリシー
    30
     論文投稿: 生成型AIを利用した場合は申告せよ
     文章校正(Grammarlyなど): 申告不要
     入力支援(入力自動補完など): 申告不要
     文献調査: 申告不要だが、記述の正確性と提示される文献のバイアスに要注意
     文章生成: 生成した箇所および正確性について申告が必要。生成されたテキストが
    既存の出版物と同じである場合は引用が必要
     アイディア生成: 生成モデルを使ったこと、およびそのモデルの貢献を明示すべき
     文章生成+アイディア生成: 生成モデルを共著者として扱う必要があるが、それは
    できないため、この使い方は推奨しない
     プログラムの自動生成: 申告の対象ではないが、コードの著作権に注意が必要
     査読
     文章校正ツールを使うことは問題ない
     査読中の論文は機密情報なので、ChatGPTのようなサービスは利用不可
     査読が生成型AIによって書かれたと疑われる場合
     査読の内容に専門性が無いケースと同様の扱いで報告する
    ACL 2023 Policy on AI Writing Assistance: https://2023.aclweb.org/blog/ACL-2023-policy/

    View full-size slide

  32. まとめ
    31
     最先端の対話型AI(ChatGPT)が我々に新しい体験をもたらした
     「おもちゃ」ではない「物知り」が身近にいて、対話・相談できることの楽しさ
     一部の研究者・エンジニアだけでなく、一般の方でも対話型AIを活用できる
     無料公開や低価格でのAPI公開により新しい使い方やサービスが生まれつつある
     検索、金融、広告、教育、研究、法務などの広範囲な分野の転換点になり得る
     嘘、バイアス、個人情報、悪用等の懸念もあり
     (すでに取り組みは行われているが)対処法が今後も検討・改善されていく
     自前で大規模言語モデルで学習データを構築し、研究を進めていくことも重要
     人間とAIの棲み分けを再考する時期
     人間の知性とは何か? 人間が身に付けるべき能力とは何か?
     AIが生成した文章の「オリジナリティ」を受容するか?

    View full-size slide

  33. 参考資料
    32
     今井. ChatGPT 人間のフィードバックから強化学習した対話AI.
     https://www.slideshare.net/ShotaImai3/chatgpt-254863623
     黒橋. ChatGPTの仕組みと社会へのインパクト. 第62回 大学等におけるオンライン教育
    とデジタル変革に関するサイバーシンポジウム「教育機関DXシンポ」
     https://edx.nii.ac.jp/lecture/20230303-04
     西田, 斉藤, 西田, 田中. NLPとVision-and-Languageの基礎・最新動向. DEIM2023.
     https://speakerdeck.com/kyoun/deim-tutorial-part-1-nlp
     https://speakerdeck.com/kyoun/deim-tutorial-part-2-vision-and-language
     松尾. AIの進化と日本の戦略. 自民党「AIの進化と実装に関するプロジェクトチーム」.
     https://note.com/akihisa_shiozaki/n/n4c126c27fd3d
     宮脇. Prompt Engineering 勉強会 / 2023.03.21 GPT-4 Prompt 報告会.
     https://speakerdeck.com/smiyawaki0820/2023-dot-03-dot-21-gpt-4-prompt-bao-gao-hui
     横井. ChatGPT と自然言語処理 / 言語の意味の計算と最適輸送. Workshop OT 2023.
     https://speakerdeck.com/eumesy/chatgpt-and-intro-of-ot-for-nlp
     ChatGPTで自然言語処理は終わるのか?. 言語処理学会第29回年次大会(NLP2023)
     https://www.youtube.com/watch?v=TXgOrYUPs_s&t=2s
     GPT-4 Creator Ilya Sutskever. Eye on AI.
     https://www.youtube.com/watch?v=SjhIlw3Iffs
    この資料では「デザイン・レイアウトで伝わる!プレゼン資料」のデザイン・テンプレート(https://ppt.design4u.jp/template/)を利用しました

    View full-size slide