Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIプロダクトのプロンプト実践テクニック / Practical Techniques for...

AIプロダクトのプロンプト実践テクニック / Practical Techniques for AI Product Prompts

【概要(TL;DR)】
PeopleX AI面接におけるプロンプト実践テクニックを紹介

・最適なモデル選択: タスクに応じた速度・コスト・精度のトレードオフ
・zero-shotから始める: few-shotのバイアスを避ける
・「するな」より「しろ」: 期待する振る舞いを簡潔に定義
・指示は最小限に: 根本的な問題解決を優先
・「重要」は危険信号: コンパクトな設計を心がける

【登壇情報】
サポーターズCoLab
https://supporterz-seminar.connpass.com/event/371242/

【PeopleX採用強化中】
Engineer Entrance Book: https://engineer-entrance.peoplex.jp/
イベント情報: https://peoplex.connpass.com/event/371639/

Avatar for Jumpei Sakatsu

Jumpei Sakatsu

October 22, 2025
Tweet

More Decks by Jumpei Sakatsu

Other Decks in Technology

Transcript

  1. ⾃⼰紹介 株式会社 PeopleX PeopleX AI⾯接 エンジニア スタートアップ創業メンバー、 AbemaTVなどを経て、PeopleXに参 画。AI上司、AI面接などAI/HR領域の新規サービスを 12ヶ月で5

    本立ち上げ。 @2025 PeopleX Inc. 6 ex- AbemaTV 坂津 潤平 JUMPEI SAKATSU ❤サウナ, スプラトゥーン, 鬼滅の刃, ジブリ, ホラー作品 @saka2jp サ活だいすき坂津と覚えてください (サウナ活動)
  2. AI⾯接 3 24時間365⽇対応の労働⼒ 柔軟な対話AIが⼈に代わり業務 個社に合わせた業務設定 ・24時間365日対応可能な労働力 ・夜間、土日での対応可能 ・マネジメント不要 ・全て録画と文字起こしで事後確認可 ・営業、接客など顧客接点の職種も可

    ・24時間365日で顧客対応でリード、商談対応 ・グローバル対応可能(多言語対応) ・受付、接客など会社の顔として振る舞い ・個社の需要に沿った質問カスタマイズ ・複数のAIワーカーを簡単に作成可
  3. 個⼈利⽤ vs プロダクト利⽤ プロダクトでは「⼀貫性」と「再現性」が求められる 個⼈利⽤ • 曖昧な⼊⼒でもOK • 「いい感じ」で⼗分 •

    品質のばらつきが許容される プロダクト利⽤ • ⼀貫性が必要 • 再現性が必要 • 品質の安定性が必須 @ 2025 PeopleX Inc. 3
  4. GPTの動作メカニズム②:Transformer Transformerの構成 @ 2025 PeopleX Inc. 10 🧠 Encoder(符号化部) ・⼊⼒⽂を受け取り、意味的な特徴を抽出。

    ・主に翻訳などの「⼊⼒→出⼒」型タスクで利⽤される(例:BERTなど)。 💬 Decoder(復号部) ・Encoderの出⼒+これまでの⽣成トークンをもとに次のトークンを予測。 ・主に⽂章⽣成モデル(GPTなど)で利⽤される ※ GPTシリーズは、この中のDecoder部分のみを⽤いた「⾃⼰回帰型(autoregressive)」Transformer
  5. GPTの動作メカニズム③:ファインチューニング 各モデルの⽤途に合わせて、特定タスクで教師あり学習を⾏う Supervised Fine-Tuning(SFT) ・⼈間が作成した「良い応答例」を教師データとして追加学習させる ・これにより、質問応答・⽂書要約・翻訳などの具体的なタスク性能が向上する RLHF(Reinforcement Learning from Human

    Feedback) ・⼈間の評価者が「より良い応答」を選び、それを報酬信号としてモデルをさらに改善する ・これにより、⾃然で安全・有⽤な会話ができるようになる ※ ファインチューニングはできないモデルもあります @ 2025 PeopleX Inc. 8
  6. プロンプト構造 効果的な4つの要素 1 導⼊部: ドキュメントの種類を明確化 2 最適なコンテキスト配置: ⚠ Recency Bias

    / Lost in the Middleを考慮 3 リフォーカス: ⻑いプロンプトでの注意喚起 4 移⾏: 説明から解決への確実な移⾏ @ 2025 PeopleX Inc. 14
  7. 実践テクニック① 最適なモデル選択 タスクの複雑性、速度、コストを考慮しましょう モデルタイプ 特徴 適⽤例 Reasoning models 複雑なタスクに優れる、処理遅い ・⾼コスト

    数学、コード⽣成、論理推論 GPT models ⾼速・コスト効率的、明⽰的指⽰ が効果的 ⽂章⽣成、翻訳、要約 Large models ⾼精度・領域横断的 複雑な問題解決 Small models ⾼速・低コスト 特定タスク特化 @ 2025 PeopleX Inc. 20
  8. まとめ:今⽇から実践できる5つのポイント 27 1 最適なモデル選択: タスクに応じた速度・コスト・精度のトレードオフ 2 zero-shotから始める: few-shotのバイアスを避ける 3 「するな」より「しろ」:

    期待する振る舞いを簡潔に定義 4 指⽰は最⼩限に: 根本的な問題解決を優先 5 「重要」は危険信号: コンパクトな設計を⼼がける @ 2025 PeopleX Inc.
  9. 重要な⼼構え LLMの特性を理解した設計と、予測可能なプロンプトを⼼がける LLMの特性を理解した設計を • LLMは、学習したパターンを基に与えられた⽂ 脈から統計的に最も可能性の⾼い次のテキストを ⽣成していることを忘れない • LLMが得意なことを理解し、ソリューションの どの部分をLLMに移譲できるかを適切に判断する

    出⼒が予測できるプロンプトを • プロンプトを読んで出⼒の予測が難しい場合はプ ロンプトを⾒直すよい機会 • ⼈間が読んで出⼒が容易に想像できるような シンプルで洗練されたプロンプトを設計する @ 2025 PeopleX Inc. 28
  10. 参考⽂献 ・”LLMの仕組み(簡単バージョン)” by 3Blue1BrownJapan ・”Best practices for prompt engineering with

    the OpenAI API” by OpenAI ・”Prompt engineering - Enhance results with prompt engineering strategies.” by OpenAI ・”Prompt engineering overview” by Anthropic ・”LLMのプロンプトエンジニアリング” by O’Reilly Japan @ 2025 PeopleX Inc. 29