Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文紹介20251007

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for Shota Sato Shota Sato
March 26, 2026
4

 論文紹介20251007

Avatar for Shota Sato

Shota Sato

March 26, 2026

Transcript

  1. Same Task, Different Circuits: Disentangling Modality-Specific Mechanisms in VLMs Yaniv

    Nikankin, Dana Arad, Yossi Gandelsman, Yonatan Belinkov 小町研究室 M1 佐藤祥太 ※注釈がない図表は論文からの引用です 1
  2. 事前知識(1) • VLMについて[1] ◦ 画像と言語を入力 ◦ 画像と言語を別々にエンコード ◦ 画像特徴を言語特徴空間に射影 ◦

    それぞれの特徴をLLMに入力 ◦ 言語の出力を得る • 画像のエンコード (ViT) [2] ◦ 画像を分割して系列に ◦ Transformerアーキテクチャ [2] AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE [Dosovitskiy+, 21] [1] Visual Instruction Tuning [Liu+, 23] 2
  3. 事前知識(2) • テキストバイアスについて [3] ◦ VLMはテキストに依存してる ◦ 本当は画像をちゃんと見て回答してほしい (お気持ち) [3]

    Words or Vision: Do Vision-Language Models Have Blind Faith in Text? [Deng+,25] どんなメカニズムで起こっているのだろう ...?🤔 3
  4. 回路の構築方法 • 構成要素の重要度スコア → 入力の変化に対して、その構成要素が出力に及ぼす影響 7 2つの入力での活性値の 差 e→e’に変えたときのロジット差の勾配の平均 実際にどれくらい動いたか 

    ×  その動きがどれだけ影響するか スコア上位 p%の構成要素を選択して回路を構築する 入力p:猫が2匹の画像 入力p’:猫が3匹の画像 質問:猫は何匹いますか? →数値に寄与するところが重要