$30 off During Our Annual Pro Sale. View Details »

[論文解説] One Embedder, Any Task: Instruction-Fine...

Reon Kajikawa
November 29, 2023
24

[論文解説] One Embedder, Any Task: Instruction-Finetuned Text Embeddings

単体の埋め込みモデルから複数の埋め込みを生成するINSTRUCTORの紹介

Reon Kajikawa

November 29, 2023
Tweet

More Decks by Reon Kajikawa

Transcript

  1. One Embedder, Any Task: Instruction-Finetuned Text Embeddings Hongjin Su, Weijia

    Shi, Jungo Kasai, Yizhong Wang, Yushi Hu, Mari Ostendorf, Wen-tan Yih, Noah A. Smith, Luke Zettlemoyer, Tao Yu ACL 2023 URL:https://aclanthology.org/2023.findings-acl.71 発表者:B4 梶川 怜恩
  2. 既存のテキスト埋め込み • 新しいタスクやドメインで評価すると性能が低下する[1][2] • 例)SimCSEだと…類似性タスク〇 検索タスク△ 対処 • タスクやドメインのデータセットでさらに追加学習すること →

    さらなる注釈データを必要とするため困難 2 導入:テキスト埋め込み [1]Muennighoff et al.:Massive Text Embedding Benchmark (EACL’23) [2]Thakur et al.;BEIR: A Heterogenous Benchmark for Zero-shot Evaluation of Information Retrieval Models(NeurlPS’21)
  3. • 命令の追加学習(Instruction tuning)[3] • タスク全般を解決できるようにする訓練形式 4 導入:Instruction tuning [3]Wei et

    al.:Finetuned Language Models Are Zero-Shot Learners(ICLR’22) 埋め込みでは まだ研究されていない
  4. 学習 • 2つの入力例が与えられたときに出力候補で区別するよう対照学習 → 同じクラス(似た出力文)を正例とする → 正例間の余弦類似度を最大化,負例を最小化する 𝑥, 𝑦: 入力,

    𝐼𝑥 , 𝐼𝑦 : 命令 𝑠 𝑥, 𝑦 = cos(𝐸𝐼 𝑥, 𝐼𝑥 , 𝐸𝐼 𝑦, 𝐼𝑦 ) ℒ = 𝑒𝑠(𝑥,𝑦+)/𝛾 Σ𝑦∈ℬ 𝑒𝑠(𝑥,𝑦)/𝛾 9 INSTRUCTOR 同じクラスを正例 (似た出力文を正例)
  5. 学習データセット • MEDI:人手で作成した命令を含む330のデータセット • super-NIデータセット:多様な命令を含む300のデータセット • KILT, MedMCQA, Sentence Transformer埋め込みデータセット

    デュアルエンコーダ • GTR model[4] • T5から初期化されたデュアルエンコーダ • base, large, XLを使用 11 実験設定:INSTRUCTOR [4] Ni et al.:Large Dual Encoders Are Generalizable Retrievers (EMNLP’22)
  6. 3つのベンチマークで評価した 1. MTEB:7つのタスクにわたる56のデータセットから構成 2. Billboard:テキスト生成タスクの自動評価(人手評価との相関係数を評価) 3. Prompt:プロンプト選択タスク(データ集合からプロンプトを選択する) 1. 学習データ・評価データをエンコード 2.

    余弦類似度に基づいて評価データに最も類似するいくつかの例を取り出す 3. 取り出した例で文脈内学習した性能を評価(良い性能→良いプロンプト例を選択できた) 上記のデータセットをタスク別に分けて、命令を設定 12 実験設定:評価方法 66/70個は学習中に未見