Upgrade to Pro — share decks privately, control downloads, hide ads and more …

MultiInstruct: Improving Multi-Modal Zero-Shot ...

Kohei Uehara
August 21, 2023

MultiInstruct: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning(最先端NLP勉強会2023)

最先端NLP勉強会2023( https://sites.google.com/view/snlp-jp/home/2023 )での発表資料です.

Kohei Uehara

August 21, 2023
Tweet

More Decks by Kohei Uehara

Other Decks in Research

Transcript

  1. 最先端NLP勉強会2023 MultiInstruct: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning 著者:Zhiyang

    Xu, Ying Shen, Lifu Huang 学会:ACL2023 発表者:上原康平(東京大学 原田・長・黒瀬・椋田研究室 助教 )
  2. • ⼤規模⾔語モデル(Large Language Model; LLM)の学習において, Instruction Tuning の有効性が知られている → Vision

    & Language モデルではどうか? • 実際にデータセットを作成(MultiInstructデータセット)して実験 • 既存のデータセットに Instruction を追加して整備 • 実験 • Instructionの種類を増やす → 性能向上 • ⾃然⾔語のみの Instruction を⽤いた転移学習も有効 ※ 特に注のない場合,スライド内の画像はMultiInstructの論⽂より引⽤ 1 ざっくり⾔うと
  3. • ⼤規模⾔語モデルのチューニング技法 • Prompt Tuning • タスクに応じたプロンプトを学習 • In-context Learning

    • 少数サンプルをコンテキストとして提⽰したときに, 新規タスクを解けるように学習 • Instruction Tuning • 【指⽰⽂ – 回答】形式のデータセットを⽤いてモデルを追加学習 • タスクを⾃然⾔語で説明したデータで学習するため, 新規タスクにも対応しやすい 2 前置き
  4. • ⼤規模⾔語モデルにおける Instruction Tuning の有効性は知られている cf. Natural Instructions は 61のタスクについてのInstructionデータを収集し,未知タスクへの

    汎化性が向上することを確認 • Vision & Languageモデルにおける Instruction Tuning の有効性を 検証する • 解決すべき課題 • Vision & Languageモデル⽤のInstructionデータセットは存在しない • Instructionの多様さの重要性も未知数 → 実際にデータセットを構築し,実験を⾏うことで実証する 3 研究⽬的 Mishra et al., “Cross-task generalization via natural language crowdsourcing instructions”, ACL2022
  5. • 作り⽅ • 各タスクのデータは既存のデータセット(MS COCO, VQA, …)を使う • 指⽰⽂:アノテーターに書いてもらう •

    アノテーターを2⼈ずつペアにして相互チェックを実施し,品質を担保 • 最終的には,1タスクにつき5つの指⽰⽂を収集 • 計 約23万5千件(?)の【指⽰⽂ – 回答】データからなるデータセットを構築 ※ MultiInstructの論⽂にはデータの件数について記載なし,M3IT [Li+, 2023] の論⽂より引⽤ 7 データセット作成 Li et al., “M3IT: A Large-Scale Dataset towards Multi-Modal Multilingual Instruction Tuning”, arxiv, 2023
  6. • 指⽰⽂ • 指⽰⽂本体 + プレースホルダー(<TEXT>, <REGION>, <OPTION>など) • VQA:Answer

    the question <QUESTION> based on the content of the given image • Grounded Captioning:Given the region <REGION> in the image, generate a caption for that region • 指⽰⽂などにおける領域の扱い⽅ • 領域座標を x, y それぞれ最⼤1,000に量⼦化 • 座標を表現するための特殊トークン(<bin_0>, ..., <bin_999>)で各座標を表現 • 座標値(連続値)を直接的に扱うより,トークン数を少なくできる 8 データセットの例
  7. • OFAモデル:⼤規模Transformerで画像‧テキストを同時に扱うモデル • いくつかの事前学習タスクで訓練済(Visual Grounding, Grounded Captioning, Image-Text Matching, Image

    Captioning, VQAなど) 9 実験:モデル Wang et al., “OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework”, ICML2022
  8. • そもそも⾃然⾔語による指⽰⽂は必要なのか? • MultiInstructでの訓練 vs. タスク名のみを⽤いた訓練(TaskName) ※ TextVQA, Visual Text

    Extraction, Visual Dialogの評価指標はRougeL,その他はAccuracy ※ OFATaskName以外は,指⽰⽂5種類の結果の平均値 10 実験:指⽰⽂の⽐較結果 Common- sense VQA Visual Entailment Visual Spatial Reasoning NLVR TextVQA Grounded VQA Visual Text Extraction Visual Dialog Disaster Type Classification OFA 0.40 41.86 35.29 52.10 9.30 0.00 17.62 28.71 9.64 OFATaskName 29.01 55.70 53.76 55.35 23.80 0.00 36.30 25.18 62.65 OFAMultiInstruct 31.17 55.06 53.90 56.18 26.46 47.22 62.43 32.91 56.00 ⾃然⾔語による指⽰⽂を⽤いた訓練は,新規タスクへの適応に効果的
  9. • ⾔語onlyのInstructionを使った転移学習は有効か? • MultiInstructでの訓練 vs. w/ Natural Instructionsでの訓練 • Mixed

    Instruct … Natural InstructionsとMultiInstructをランダムにシャッフルして訓練 • SeqInstruct … まずNatural Instructionsで,次にMultiInstructで順番に訓練 ※ TextVQA, Visual Text Extraction, Visual Dialogの評価指標はRougeL,その他はAccuracy 11 実験:転移学習の結果 Common- sense VQA Visual Entailment Visual Spatial Reasoning NLVR TextVQA Grounded VQA Visual Text Extraction Visual Dialog Disaster Type Classification OFAMultiInstruct 31.17 55.06 53.90 56.18 26.46 47.22 62.43 32.91 56.00 OFAMixedInstruct 30.27 53.74 52.61 55.96 23.67 54.99 46.56 38.02 64.31 OFASeqInstruct 31.23 52.98 53.11 56.63 26.67 54.46 60.62 35.10 57.89 ⾔語のみのタスクによる転移学習の効果は限定的
  10. • Instructionの多様性は重要か? • タスクごとの指⽰⽂の数を変化(1個 vs. 5個)させて実験 • 評価指標 • Aggregated

    Performance … 全タスクの指標値の平均 • Sensitivity … 指⽰⽂の変化に対する性能変動の指標(標準偏差 / 平均) 12 実験:指⽰⽂の多様性についての結果 # Instructions Aggregated Performance ↑ Sensitivity ↓ 1 42.81 24.62 5 47.82 10.45 Instruction の多様性は重要
  11. • Instruction Tuningを⾏う際は,なるべく多様なタスクを含めるのが良い • ⾔語のみのInstructionデータを混ぜて訓練する場合は, ステージを分けて訓練するよりランダムに混ぜて訓練(Mixed Instruct)する⽅が Sensitivityの観点では良い • MultiInstructで訓練するとNLPタスクへの性能は低下する

    • Natural Instructionsをランダムに混ぜて訓練(Mixed Instruct)すると, Natural Instructionsのみで訓練した場合とほぼ同等になる まとめ:NLP InstructionとV&L Instructionをランダムに混ぜて, なるべく多様なタスク‧多様な指⽰⽂で訓練するのが良い 13 その他の知⾒
  12. • Instruction Tuning は,Vision & Language モデルにおいても有効 • 特に,タスクの多様性‧指⽰⽂の多様性が,未知タスクへの 汎化能⼒獲得において重要

    • その後も,Instruction Tuning 系 V&L データセットは継続的に新しく 構築され続けている • GPT-4 などの LLM の恩恵により,データセット構築がさらに加速 14 まとめ
  13. • GPTを⽤いた新規 Instruction データセットの作成 → 画像アノテーション(物体ラベル,bounding boxなど)をGPTに⼊⼒ e.g., LLaVA, LLaVAR,

    MIMIC-IT, ... 15 その後の研究 cat ... [100, 152, 164, 211] dog ... [178, 160, 224, 205] house ... [54, 68, 94, 122] a cat is playing with a dog image bbox caption GPT-4 Instruction Data Question: What kind of animals are in front of the house? Answer: A cat and a dog is in front of the house. Question: Please describe the image in detail. Answer: ...
  14. 16 昨今の潮流 データセット名 Size Task Data by GPT Date 備考

    MultiInstruct 235K 26 ✗ Dec-22 Mini-GPT4 ~3.5K 1 ◯ Apr-23 比較的少量データでのtuning LLaVA 158K 3 ◯ Apr-23 GPT-4を用いた新規データ作成 InstructBLIP 1.6M 28 ✗ May-23 思想はMultiInstructに近い X-LLM ~7.5K > 1 ◯ May-23 中国語,音声も含む VisionLLM ~500K? 5 ✗ May-23 DetectionやSegmentationも MultiModal GPT ? > 5 ✗ May-23 対話形式を意識 ChatBridge ~4.6M ? ◯ May-23 画像・音声・動画など LLaVA-Med 60K 1 (chat) ◯ Jun-23 医療ドメイン特化 M3-IT 2.4M 40 ◯ Jun-23 多言語・大規模 徐々にデータセットのサイズ‧タスク数ともに増加している
  15. Reference Mini-GPT4 Zhu et al., “MiniGPT-4: Enhancing Vision-Language Understanding with

    Advanced Large Language Models”, arXiv, 2023 LLaVA Liu et al., “Visual Instruction Tuning”, arXiv, 2023 InstructBLIP Dai et al., “InstructBLIP: Towards General-purpose Vision-Language Models with Instruction Tuning”, arXiv, 2023 X-LLM Chen et al., “X-LLM: Bootstrapping Advanced Large Language Models by Treating Multi-Modalities as Foreign Languages”, arXiv, 2023 VisionLLM Wang et al., “VisionLLM: Large Language Model is also an Open-Ended Decoder for Vision- Centric Tasks”, arXiv, 2023 Multimodal-GPT Gong et al., “MultiModal-GPT: A Vision and Language Model for Dialogue with Humans”, arXiv, 2023 ChatBridge Zhao et al., “ChatBridge: Bridging Modalities with Large Language Model as a Language Catalyst”, arXiv, 2023 LLaVA-Med Li et al., “LLaVA-Med: Training a Large Language-and-Vision Assistant for Biomedicine in One Day”, arXiv, 2023 M3IT Li et al., “M3IT: A Large-Scale Dataset towards Multi-Modal Multilingual Instruction Tuning”, arXiv, 2023