Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Elix, GTCヘルスケアフォローアップウェビナー, Transformerの要点とその化学への応用

Elix
April 21, 2023

Elix, GTCヘルスケアフォローアップウェビナー, Transformerの要点とその化学への応用

2023年4月21日(金)に、NVIDIA社により開催された、「GTC ヘルスケア フォローアップ ウェビナー」にて弊社井上が掲題のテーマについて講演を行いました。その講演資料となります。

Elix

April 21, 2023
Tweet

More Decks by Elix

Other Decks in Research

Transcript

  1. Copyright © Elix, Inc. All rights reserved. ⼤規模⾔語モデル (Large Language

    Models, LLM) が世間⼀般の注⽬を集めている • ここ最近では、ChatGPT (右図) でGPT-4という モデルが搭載されて話題に ⼤規模⾔語モデル = ⼤規模な⾔語モデル • ⼤規模 ◦ モデルパラメータ数が多い ◦ ⼤量のテキストデータで訓練される • ⾔語モデル ◦ ⾃然⾔語の⽂の現れ⽅をモデル化したもの ⼤規模⾔語モデルの台頭 2
  2. Copyright © Elix, Inc. All rights reserved. トークン: ⽂字列の最⼩の構成単位 •

    ⾃然⾔語 ➔ 単語 • 化合物のSMILES⽂字列 ➔ 原⼦・結合を表す記号 • DNA配列 ➔ 核酸コード / コドン • タンパク質のアミノ酸配列 ➔ アミノ酸コード ⾔語モデルでは、⼊⼒されたトークン列に続くトークンが何かを予測 ➔ 予測される確率に従ってトークンをサンプリングし、サンプリング したトークンを末尾に付け⾜す操作を繰り返すことで⽂字列を⽣成 ⾔語モデルの訓練では、訓練サンプルをうまく⽣成できるように (i.e., 次時刻のトークンを正確に予測できるように) 訓練 ⾔語モデルによる⽂字列の⽣成と訓練 3 Cl c 1 c c c c ⼊⼒ (⽣成途中) ⾔語モデル c: 40 % C: 7 % n: 10 % ộ [EOS]: 0.2% 出⼒ (各操作の選択確率) Cl c 1 c c c c c 修正された⼊⼒ サンプリング 再⼊⼒
  3. Copyright © Elix, Inc. All rights reserved. ⼊⼒された系列から、それに対応する別の系列を⽣成するネットワーク • エンコーダ:

    トークンの列 ➔ ベクトル (潜在変数, latent variable) の列 ◦ 潜在変数は対応するトークンの情報を反映 • デコーダ: エンコーダの出⼒ ➔ トークンの列 (⾔語モデル) 例) 機械翻訳 エンコーダに「私は学⽣です。」を⼊⼒ ➔ エンコーダの出⼒をもとに、デコーダから “Iʼm a student.” が⽣成 ü 使い⽅次第で様々なタスクに利⽤可能 ü 全結合型ニューラルネットワークのみの組み合わせでできているため、 (RNNとは違って) 訓練時に系列を⼀気に処理できる ü ⼤規模にすればするほど性能改善が期待される (スケーリング則[2]) Transformer[1] 4 [1] A. Vaswani, et al. NeurIPS, 30 (2017). [2] J. Kaplan, et al. arXiv preprint, arXiv:2001.08361 (2020). エンコーダ デコーダ 図: 論⽂[1]のFigure 1
  4. Copyright © Elix, Inc. All rights reserved. cf.) 変分オートエンコーダ (Variational

    Auto-Encoder, VAE) 5 低次元の数値ベクトル (潜在変数) からサンプルを⽣成するモデル • エンコーダ: サンプル ➔ 潜在変数 • デコーダ: 潜在変数 ➔ サンプル • 潜在空間 (latent space): 潜在変数のなす空間 ➔ サンプリングした潜在変数をデコーダに通すことで新規サンプルを⽣成できる サンプルから求めた潜在変数から、元のサンプルが再構成しやすくなるよう訓練 ➔ 潜在変数に訓練データセットの特徴が反映され、⽣成サンプルも訓練サンプル らしいものになる ⼊⼒ 再構成された ⼊⼒ 潜在変数 エンコーダ デコーダ
  5. Copyright © Elix, Inc. All rights reserved. Transformerには、系列を変換する際に、系列に含まれる各潜在変数の 情報を参照しながら変換する機構 (注意機構,

    attention) がある • 系列に含まれるすべての潜在変数の重要度を計算して組み合わせる ü ⻑期的な⽂脈を考慮して潜在変数を作成できる • 潜在変数の情報を多⾓的に捉えるため、複数個の注意機構を併⽤ (マルチヘッド注意機構) • デコーダでは、トークンの⽣成時に⽣成済みトークンのみを参照 できることを考慮し、適切なマスキングを適⽤して使える情報を制限 注意機構 (Attention) 6 私 は 学⽣ です。 私 は 学⽣ です。 図: 論⽂[1]のFigure 1 [1] A. Vaswani, et al. NeurIPS, 30 (2017).
  6. Copyright © Elix, Inc. All rights reserved. パラメータ数の多いTransformerを⼤規模なデータで訓練すれば良い性能が得られる 教師あり学習をする場合は、⼊⼒に対して正解ラベルが定まったサンプルが必要! ✘

    ラベル付きのサンプルを集めるのは⼤変…… ◦ 特に、ライフサイエンスの分野では、データ収集に実験が必要な場合も多い ü ラベルなしのデータであれば、⽐較的集めやすい ◦ Web上にデータベースとしてまとまっていることも ➔ ラベルなしデータを利⽤した教師なし学習でモデルを事前訓練して、訓練済みモデルを⽬的のタスクに 応じて調整する (ファインチューニング) 「⼤規模なデータ」はどう集めるのか? 7
  7. Copyright © Elix, Inc. All rights reserved. Transformerのデコーダ部分 (の亜種) を⾔語モデルとみて訓練

    • 訓練⽅法 (とモデル構造の微妙な違い) によって、GPT-1, GPT-2, GPT-3, GPT-4と進化中 ü 次のトークンをうまく予測できるように訓練するので、 ラベルなしサンプルのみで訓練できる ü 訓練済みモデルで⽂字列を⽣成できるだけでなく、 ファインチューニングすれば予測タスクにも利⽤できる Generative Pre-trained Transformer (GPT)[1] 8 図: Wikipedia「GPT (⾔語モデル)」のページより [1] A. Radford, et al. Technical report, OpenAI (2018).
  8. Copyright © Elix, Inc. All rights reserved. Transformerのエンコーダ部分を⾃⼰教師あり学習で訓練 • ⾃⼰教師あり学習:

    ラベルなしサンプルから⾃動⽣成した ラベルを予測するタスク (プレテキストタスク) で訓練 • BERTのプレテキストタスク: マスク復元タスク ◦ ⼊⼒されたトークンの⼀部をランダムに隠し、 隠されているトークンが何かを当てる: An ( apple ) is a round, red, and sweet fruit. ü データのもつ構造 (⽂法など) や特徴を捉えた潜在変数 を計算できる ü ファインチューニングで様々なタスクに利⽤可能 Bidirectional Encoder Representations from Transformers (BERT)[1] 9 [1] J. Devlin, et al. arXiv preprint, arXiv:1810.04805 (2018). 図: 論⽂[1]のFigure 1
  9. Copyright © Elix, Inc. All rights reserved. プロパティの予測・分⼦構造の⽣成・化学反応の予測など、幅広く⽤いられている • MolGPT[1]

    ◦ ChEMBL・ZINCから取得した約350万個のSMILES⽂字列を⽤いて、GPT-1の軽量版を訓練 ➔ スキャフォールドやプロパティを指定した構造⽣成に成功 • MolBERT[2] ◦ ChEMBLから取得した約160万個のSMILES⽂字列を⽤いて、BERTの要領で事前学習 ➔予測タスクごとに訓練済みモデルをファインチューニングしたモデルが良い予測性能を⽰した • Molecular Transformer[3] ◦ USPTOデータセットの化学反応データで訓練したモデルによる反応⽣成物予測 • ChemCrow[4] ◦ GPT-4から化学系の外部ツールを利⽤できるようにした試み Transformerの化学への応⽤例 10 [1] V. Bagal, et al. J. Chem. Inf. Model., 62.9, 2064-2076 (2021). [2] B. Fabian, et al. arXiv preprint, arXiv:2011.13230 (2020). [3] P. Schwaller, et al. ACS Cent. Sci., 5.9, 1572-1583 (2019). [4] A. M. Bran, et al. arXiv preprint, arXiv:2304.05376 (2023).