Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
対話品質の評価に向き合う
Search
Asei Sugiyama
May 22, 2024
Technology
3
500
対話品質の評価に向き合う
RAG MLOps LT大会!!!
https://mlops.connpass.com/event/315387/
での登壇資料です
Asei Sugiyama
May 22, 2024
Tweet
Share
More Decks by Asei Sugiyama
See All by Asei Sugiyama
AI との良い付き合い方を僕らは誰も知らない
asei
0
260
最近の生成 AI の活用事例紹介
asei
1
130
AI エージェント活用のベストプラクティスと今後の課題
asei
2
560
エージェントの継続的改善のためのメトリクス再考
asei
3
740
生成AI活用のベストプラクティス集を作ってる件
asei
1
850
GenAIOps: 生成AI時代の DevOps
asei
0
66
生成AI活用の実践解説 (速報版)
asei
1
1.6k
実践AIガバナンス
asei
3
1k
Eval-Centric AI: Agent 開発におけるベストプラクティスの探求
asei
1
360
Other Decks in Technology
See All in Technology
フルカイテン株式会社 エンジニア向け採用資料
fullkaiten
0
9.9k
AWSの新機能をフル活用した「re:Inventエージェント」開発秘話
minorun365
2
450
子育てで想像してなかった「見えないダメージ」 / Unforeseen "hidden burdens" of raising children.
pauli
2
320
AWS re:Invent 2025~初参加の成果と学び~
kubomasataka
0
190
半年で、AIゼロ知識から AI中心開発組織の変革担当に至るまで
rfdnxbro
0
140
ペアーズにおけるAIエージェント 基盤とText to SQLツールの紹介
hisamouna
2
1.7k
【開発を止めるな】機能追加と並行して進めるアーキテクチャ改善/Keep Shipping: Architecture Improvements Without Pausing Dev
bitkey
PRO
1
130
Lookerで実現するセキュアな外部データ提供
zozotech
PRO
0
200
AI with TiDD
shiraji
1
280
ESXi のAIOps だ!2025冬
unnowataru
0
350
モダンデータスタックの理想と現実の間で~1.3億人Vポイントデータ基盤の現在地とこれから~
taromatsui_cccmkhd
2
270
20251203_AIxIoTビジネス共創ラボ_第4回勉強会_BP山崎.pdf
iotcomjpadmin
0
140
Featured
See All Featured
Side Projects
sachag
455
43k
sira's awesome portfolio website redesign presentation
elsirapls
0
89
The Straight Up "How To Draw Better" Workshop
denniskardys
239
140k
Darren the Foodie - Storyboard
khoart
PRO
0
1.9k
Chrome DevTools: State of the Union 2024 - Debugging React & Beyond
addyosmani
9
1k
Color Theory Basics | Prateek | Gurzu
gurzu
0
150
The Cult of Friendly URLs
andyhume
79
6.7k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
122
21k
Are puppies a ranking factor?
jonoalderson
0
2.4k
jQuery: Nuts, Bolts and Bling
dougneiner
65
8.3k
A Tale of Four Properties
chriscoyier
162
23k
Done Done
chrislema
186
16k
Transcript
対話品質の評価に向き合う Asei Sugiyama
自己紹介 杉山 阿聖 (@K_Ryuichirou) Software Engineer @ Citadel AI Google
Cloud Innovators Champion @ Cloud AI/ML MLSE 機械学習オペレーション WG 機械学習図鑑 共著 決闘者 @ マスターデュエル
まとめ LLM の対話品質の評価では、典型的な品質特性以外に次々に新たな品質 特性が提案されており、ベンチマークとなるデータセットの開発も進行 している 実用上はボトムアップな評価をヒアリングやログから行うことも有用 で、デジタル庁による評価レポートは推進するうえでかなり参考となる 評価時にはチームで評価を行うことになる点に注意し、必要な場合は不 適切な文章でも評価すると良い
TOC 対話の品質特性 <- 対話の品質評価のワークフロー 実務上の Tips
対話の品質特性 LLM 以前の対話の品質評価 LLM 時代の対話の品質評価 品質の評価方法
LLM 以前の対話の品質評 価 AIによる対話の品質評価は 新しいことではない これまでは主にチャットボ ットで行われ、正答率が重 要視された ユーザーからのフィードバ ックで典型的には計測
チャットボット(ふたば)に質問する|国税庁 https://cloud.google.com/vertex-ai/docs/pipelines/notebooks
LLM 時代の対話の品質評価 タスクが多様なため正答率 以外の指標が必要に Q&A, 要約, 翻訳, コード 生成, etc...
ユーザーからのフィードバ ックで「良さ」を測ること はできる 「良さ」とは何かが問題に なる ChatGPT https://chatgpt.com/
QA4AI AIプロダクト品質保証ガイド ライン AI 技術への過度の期待を予防し、適 切な活用や適時のリリースを行うた めの、AIプロダクトの品質保証に対 する共通的な指針を与えるものであ る。 2024.04
版 で大規模言語モデル・対 話型AIの包括的な品質特性の定義に 取り組んでいる QA4AI https://www.qa4ai.jp/
AIプロダクト品質保証ガイドラインによる品質特性 QC01: 回答性能 QC02: 事実性‧ 誠実性 QC03: 倫理性‧ アラインメント QC04:
頑健性 QC05: AI セキュリティ その他: 透明性・説明可能性・アクセシビリティー・ユーザビリティと社 会心理的側面・機能適応性
所感 (1/2) 回答性能に含まれている「創造性‧ 多様性」は、既存の Chatbot では求 められなかった性質 (典型的には正確性だけが求められた) 誠実性のような、新たな品質特性が出現している ハルシネーションや不整合を含む返答を行わないこと、不確かさが高い
回答に対してそのような明記を行う誠実性(Truthfulness)も求めるこ ととなる
所感 (2/2) これ以外の品質特性もさまざまに考えられる 著者の石川先生が発表中で「新たな品質特性が今この場で見つかるかも しれない」と述べられているほど
品質の評価方法 (1/3) QA4AI では現状の方法としてベンチマークとなるデータセットを用いた 方法を紹介している 品質特性ごとに使えるデータセットや計測方法を紹介 ベンチマークとなるデータセットを用いた評価には次の課題がある 1. 得点として計測させる方法に収束させがち 2.
測りたい品質特性に合ったベンチマークがあるとは限らない 3. 測りたい品質特性を事前に明確にできなければいけない
品質の評価方法 (2/3) 1. 得点として計測させる方法に収束させがち 例: 倫理観は得点化できるのか? 2. 測りたい品質特性に合ったベンチマークがあるとは限らない 社内の問い合わせで「社内で用いられる特定の様式にしたがっている」 という品質特性が求められた場合、そのようなデータセットが必要とな
る (当然そんなものはない) LLM を適用したい個別のユースケースで重要となる品質特性は未知のも のであるかもしれない
品質の評価方法 (3/3) 3. 測りたい品質特性を事前に明 確にできなければいけない 商品の品名を作成する場 合、当然売れるタイトルを 付けたい どのような特性があれば売 れるのかは非自明
なぜ、最悪の業績なのに年商の20%にもあたる1億円の売上を手放してまで楽天 市場から退店するのか|鷲尾 岳 / ワシオ株式会社 3代目社長 https://note.com/t_washio/n/n46ed6f71ef46
TOC 対話の品質特性 対話の品質評価のワークフロー <- 実務上の Tips
対話の品質評価のワークフロー ボトムアップな対話の品質評価 2023年度 デジタル庁・行政における生成AIの適切な利活用に向けた技 術検証レポート 過去の取り組み 自動化に関する取り組み
ボトムアップな対話の品質評価 ベンチマークとなるデータセットによるトップダウンな事前評価には独 特な難しさがある ベンチマークによる事前評価だけではなく、ヒアリングや実際に利用し たログを用いたボトムアップな事後評価も重要 ベンチマーク以外の方法を共有
2023年度 デジタル庁・行政 における生成AIの適切な利活 用に向けた技術検証 ヒアリングを行いながら検 証対象とするユースケース を整理 各ユースケースに対して評 価項目を定義して、評価用 データ
10 件ずつを用意して 評価 2023年度 デジタル庁・行政における生成AIの適切な利活用に向けた技術検証を 実施しました|デジタル庁 https://www.digital.go.jp/news/19c125e9-35c5- 48ba-a63f-f817bce95715
アンケートによる評価 利用者へのアンケートによ る評価を合わせて実施 ユーザー間での利用頻度に 差があり、高頻度に使う人 のほうが効果を体感してい ることが判明 2023年度 デジタル庁・行政における生成AIの適切な利活用に向けた技術検証を 実施しました|デジタル庁
https://www.digital.go.jp/news/19c125e9-35c5- 48ba-a63f-f817bce95715
デジタル庁2023年度事業 行政での生成AI利活用検証から見えた10の学び (3/3)|デジタル庁 https://digital-gov.note.jp/n/nbabf667519fc
筆者の過去の取り組み 対話ログを眺める 対話ログからユースケースを整理 ユースケースごとに評価観点を整理 人手で評価 (ユースケースごとに100件程度) 評価結果をレポートとして提供
自動化に関する取り組み LLM による評価は人手によ る評価と相関するという報 告がある 人手による評価と LLM によ る評価を比較検証すること で評価の自動化が検証可能
評価用のツールも開発して いる (LangCheck) citadel-ai/langcheck: Simple, Pythonic building blocks to evaluate LLM applications. https://github.com/citadel-ai/langcheck
None
TOC 対話の品質特性 対話の品質評価のワークフロー 実務上の Tips <-
実務上の Tips チームによる評価 異常系の評価
チームによる評価 誰か一人で評価できるのであれば (経験上) それがベスト 分量の問題から、チームで評価を行うことも多い
チームによる評価の注意点 複数人が同じデータに対し て評価をこない、多数決を 行うことはあまり効率的で はない 複雑なタスクの場合、クラ ウドサービスでアノテーシ ョンする方法はかなり厳し い Margaret
A. Webb, June P. Tangney "Too Good to Be True: Bots and Bad Data From Mechanical Turk" Perspectives on Psychological Science (2022) https://journals.sagepub.com/doi/10.1177/17456916221120027
過去に行った評価方法 評価観点やサンプルをドキュメントとして作成し、チームで共有 それぞれの人に異なるサブセットを割り振り、手分けして評価 判断に迷った事例を持ち寄り、チームで評価結果を決定 判断に迷った事例をドキュメントに追加
注意点 最初からドキュメントですべてをカバーしようとしすぎない 「正しい評価」の定義が可能なら LLM は必要ない ユースケースの分類では、最初から過度に詳細な分類を作らない 分類自体も評価しながら変更するのが良い
参考書籍 Human-in-the-Loop 機械学習が 良い情報源となる 翻訳のレビューに参加 アノテーションの方法について 詳細を記述した本としては出色 の出来 Robert (Munro)
Monarch 著 上田 隼也 訳 角野 為耶 訳 伊藤 寛祥 訳 "Human-in-the- Loop機械学習" 共立出版 2023 年 https://www.kyoritsu- pub.co.jp/book/b10039888.html
異常系の評価 ボトムアップな評価で述べた方法では「良い文章」のは手に入る 異常系に該当する「答えてほしくない文章」は手に入りにくい とくに社内利用の場合、ほとんどの人がマジメに使うので
AnswerCarefully 不適切な質問に対する、望まし い回答を作成したデータセット LLM の評価において使われた実 績がある Citadel AI として作成に協力 AnswerCarefully
Dataset – RIKEN-AIP, LIAT https://liat- aip.sakura.ne.jp/wp/answercarefully-dataset/
まとめ LLM の対話品質の評価では、典型的な品質特性以外に次々に新たな品質 特性が提案されており、ベンチマークとなるデータセットの開発も進行 している 実用上はボトムアップな評価をヒアリングやログから行うことも有用 で、デジタル庁による評価レポートは推進するうえでかなり参考となる 評価時にはチームで評価を行うことになる点に注意し、必要な場合は不 適切な文章でも評価すると良い