Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Idiosyncrasies in Large Language Models

Avatar for hajime kiyama hajime kiyama
September 06, 2025
14

Idiosyncrasies in Large Language Models

paper introduction for japanese.

Avatar for hajime kiyama

hajime kiyama

September 06, 2025
Tweet

More Decks by hajime kiyama

Transcript

  1. 概要 • 大規模言語モデルの特異性を調査 ◦ 特異性:モデルの癖(独自の出力パターン) • 5つのLLMの出力の分類タスクを解く ◦ 指示チューニングされたものは高精度に分類可能 ◦

    プロンプトを変えても分類精度は維持 • LLMごとの癖を分析 ◦ 単語レベルの出現分布が良い識別特徴 ◦ 意味的な言い換えをしても分類性能は下がらない 2
  2. • 系列の分類タスク ◦ 埋め込みモデルをファインチューニングして精度をみる ◦ LLM2Vec の結果を記載 [Parishad+, COLM2024] •

    データセット ◦ 同じプロンプト集合から11000件の出力を獲得 ◦ 10000を訓練用、1000を検証用に使用 LLMの分類手法 4 https://arxiv.org/abs/ 2404.05961
  3. • 比較アーキテクチャ ◦ Chat API ▪ GPT-4o, Claude-3.5-Sonnet, Glok-2, Gemini-1.5-Pro,

    DeepSeek-V3 ◦ Instruct/Base LLM ▪ Llama3.1-8b,Gemma2-9,Qwen2.5-7b,Mistral-v3-7b ◦ Qwen2.5 family ▪ 7B, 14B, 32B, 72B LLMの分類設定 5
  4. LLMの具体的な特異性の評価 • LLMの出力間の語彙的な差異の定量化 ◦ テキスト類似度指標のF1スコアの平均 ◦ ROUGE-1 ◦ ROUGE-L ◦

    BERTScore • LLMの特異性の次元 ◦ 単語・文字 ◦ マークダウン形式 ◦ 意味的な内容 16 https://qiita.com/icoxfog417/items/65faecbbe27d3c53d212 https://arxiv.org/abs/1904.09675
  5. LLMの特異性ーマークダウン形式 • 各LLMのマークダウンの要素を分析 ◦ 太字 ◦ 斜体 ◦ 見出し ◦

    番号付きリスト ◦ 箇条書き(バレット) ◦ コードブロック 21
  6. 合成データによる特異性の伝播 • LLMの出力でSFTすると特異性が伝播する ◦ 比較モデル両方に別のLLMで生成した合成データでSFTする • 性能 ◦ Llama3.1-8b+ChatGPT vs

    Gemma2-9b+ChatGPT ▪ SFT前:96.5% ▪ SFT後:59.8% ▪ 特異性は伝播する ◦ Qwen2.5-7b+Llama3.1-8b vs Qwen2.5-7b+Gemma2-9b ▪ 分類性能:98.9% ▪ 同じモデルに別の合成データを学習させることで分類可能 26
  7. 概要(再掲) • 大規模言語モデルの特異性を調査 ◦ 特異性:モデルの癖(独自の出力パターン) • 5つのLLMの出力の分類タスクを解く ◦ 指示チューニングされたものは高精度に分類可能 ◦

    プロンプトを変えても分類精度は維持 • LLMごとの癖を分析 ◦ 単語レベルの出現分布が良い識別特徴 ◦ 意味的な言い換えをしても分類性能は下がらない 28