Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Idiosyncrasies in Large Language Models

Avatar for hajime kiyama hajime kiyama
September 06, 2025
3

Idiosyncrasies in Large Language Models

paper introduction for japanese.

Avatar for hajime kiyama

hajime kiyama

September 06, 2025
Tweet

More Decks by hajime kiyama

Transcript

  1. 概要 • 大規模言語モデルの特異性を調査 ◦ 特異性:モデルの癖(独自の出力パターン) • 5つのLLMの出力の分類タスクを解く ◦ 指示チューニングされたものは高精度に分類可能 ◦

    プロンプトを変えても分類精度は維持 • LLMごとの癖を分析 ◦ 単語レベルの出現分布が良い識別特徴 ◦ 意味的な言い換えをしても分類性能は下がらない 2
  2. • 系列の分類タスク ◦ 埋め込みモデルをファインチューニングして精度をみる ◦ LLM2Vec の結果を記載 [Parishad+, COLM2024] •

    データセット ◦ 同じプロンプト集合から11000件の出力を獲得 ◦ 10000を訓練用、1000を検証用に使用 LLMの分類手法 4 https://arxiv.org/abs/ 2404.05961
  3. • 比較アーキテクチャ ◦ Chat API ▪ GPT-4o, Claude-3.5-Sonnet, Glok-2, Gemini-1.5-Pro,

    DeepSeek-V3 ◦ Instruct/Base LLM ▪ Llama3.1-8b,Gemma2-9,Qwen2.5-7b,Mistral-v3-7b ◦ Qwen2.5 family ▪ 7B, 14B, 32B, 72B LLMの分類設定 5
  4. LLMの具体的な特異性の評価 • LLMの出力間の語彙的な差異の定量化 ◦ テキスト類似度指標のF1スコアの平均 ◦ ROUGE-1 ◦ ROUGE-L ◦

    BERTScore • LLMの特異性の次元 ◦ 単語・文字 ◦ マークダウン形式 ◦ 意味的な内容 16 https://qiita.com/icoxfog417/items/65faecbbe27d3c53d212 https://arxiv.org/abs/1904.09675
  5. LLMの特異性ーマークダウン形式 • 各LLMのマークダウンの要素を分析 ◦ 太字 ◦ 斜体 ◦ 見出し ◦

    番号付きリスト ◦ 箇条書き(バレット) ◦ コードブロック 21
  6. 合成データによる特異性の伝播 • LLMの出力でSFTすると特異性が伝播する ◦ 比較モデル両方に別のLLMで生成した合成データでSFTする • 性能 ◦ Llama3.1-8b+ChatGPT vs

    Gemma2-9b+ChatGPT ▪ SFT前:96.5% ▪ SFT後:59.8% ▪ 特異性は伝播する ◦ Qwen2.5-7b+Llama3.1-8b vs Qwen2.5-7b+Gemma2-9b ▪ 分類性能:98.9% ▪ 同じモデルに別の合成データを学習させることで分類可能 26
  7. 概要(再掲) • 大規模言語モデルの特異性を調査 ◦ 特異性:モデルの癖(独自の出力パターン) • 5つのLLMの出力の分類タスクを解く ◦ 指示チューニングされたものは高精度に分類可能 ◦

    プロンプトを変えても分類精度は維持 • LLMごとの癖を分析 ◦ 単語レベルの出現分布が良い識別特徴 ◦ 意味的な言い換えをしても分類性能は下がらない 28