Upgrade to Pro — share decks privately, control downloads, hide ads and more …

【登壇資料】AI開発基礎

Avatar for エブリー エブリー
September 26, 2025
7

 【登壇資料】AI開発基礎

26卒エンジニア内定者向け技術研修

Avatar for エブリー

エブリー

September 26, 2025
Tweet

More Decks by エブリー

Transcript

  1. 3 Copyright © 2015 every, Inc. All rights reserved. この講義の目的

    背景や目的を知った上で AIを使えるようになる
  2. 4 Copyright © 2015 every, Inc. All rights reserved. 目次

    第1部:AI基礎知識 • AIとは? • 言語モデル(LLM) • トークン化とコンテキスト長 • 埋め込み(Embeddings) 第2部:LLMの要素技術 • プロンプトエンジニアリング • 推論時のプロンプト手法 • RAG技術 • LLMの拡張・統合技術 • コンテキストエンジニアリング 第3部:開発ツールと活用事例 • 開発支援ツール(Cursor / Claude Code) • 自律型エージェント( Devin) • MCP tools • 非コーディングツール( Gemini / NotebookLM)
  3. 7 Copyright © 2015 every, Inc. All rights reserved. AI

    = Artificial Intelligence = 人工知能 https://www.ai-gakkai.or.jp/whatsai/AIfaq.html 知的な機械,特に,知的なコンピュータプログラムを作る科学と技術です. 人の知能を理解するためにコンピュータを使うことと関係がありますが,自然界の生 物が行っている知的手段だけに研究対象を限定することはありません. ———— ジョン・マッカーシー (2007)
  4. 8 Copyright © 2015 every, Inc. All rights reserved. AIという言葉はかなり広義

    Artificial Intelligence Machine Learning Deep Learning Generative AI LLM
  5. 9 Copyright © 2015 every, Inc. All rights reserved. AIはLLMだけじゃない

    予測/物体検出/レコメンド/翻訳/音声認識/生成 etc… Artificial Intelligence Machine Learning Deep Learning Generative AI LLM ※)画像は全てAIに作らせました
  6. 10 Copyright © 2015 every, Inc. All rights reserved. 特化型人工知能

    (Artificial Narrow Intelligence) 汎用型人工知能 (Artificial General Intelligence) AIの今とこれから 現状 特定の限られたタスクや問題解決 に特化して設計されたAI 株価予測 AlphaGo(囲碁) 異常検知 近い未来 あらゆるタスクを 人間と同等またはそれ以上に こなすことができるAI 事例なし その先? 人工超知能 (Artificial Super Intelligence) 人類叡智総和の 1万倍の知能を持つAI 事例なし ※)諸説あります
  7. 12 Copyright © 2015 every, Inc. All rights reserved. 人間の言葉をコンピュータが理解し、タスクを実行できるようにする技術の総称

    例:検索候補表示、翻訳アプリ、メールのスパム判定、ChatGPT、ニュース要約 言語モデル = Language Model 参考)直感LLM ―ハンズオンで動かして学ぶ大規模言語モデル入門, Jay Alammar、Maarten Grootendorst 著、中山 光樹 訳 ~2000 2013 2017 2018 2019 2020 2021 2022 2023 word2vec attention BERT GPT GPT-2 GPT-3 ChatGPT T5 bug-of-words
  8. 13 Copyright © 2015 every, Inc. All rights reserved. 言語モデル

    GPT系 (Generative Pre-trained Transformer) 生成モデル (デコーダのみ) テキスト生成を目的としている 通常は埋め込みは生成しない (テキスト生成) 主に言語を表現すること、 通常はテキストを生成しません (分類、検索、埋め込み生成 など) 表現モデル (エンコーダのみ) BERT系 (Bidirectional Encoder Representations from Transformer) 特に大規模なモデル(※) 大規模言語モデル (LLM) ※)パラメータ、学習データ量、計算量、etc.
  9. 14 Copyright © 2015 every, Inc. All rights reserved. Transformer

    Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems 30 (2017). Self-Attention(自己注意)で系列内の全トークン関係を同時に捉えることが可能。 • 長距離依存に強い • GPU並列で高速学習・推論 • 大規模化が可能
  10. 15 Copyright © 2015 every, Inc. All rights reserved. トークン化

    文字を単語やサブワードといったトークンに分割する This is a smart cat 参考)直感LLM ―ハンズオンで動かして学ぶ大規模言語モデル入門, Jay Alammar、Maarten Grootendorst 著、中山 光樹 訳 This is a smart cat My dog is smart My dog is smart 1412 342 45 765 トークン化 トークンID 従来はスペース区切り で個々の単語に分割されていたが、 中国語や日本語などの単語の間にスペースがない言語では問題が発生する LLMはトークナイザー( tokenizer)によって分割される 367 45 142 765 469 tokenizer 言語モデル
  11. 16 Copyright © 2015 every, Inc. All rights reserved. コンテキスト長(コンテキストウィンドウ)

    モデルが一度に処理できるトークンの最大数 This is a smart cat My dog is smart 入力 . 1 2 3 4 5 6 7 8 LLM 最大コンテキスト: 128 9 10 出力 hogehoge hogehoge 入力の更新 11〜 コンテキスト長が長ければLLMは長い文書を入力しても理解、処理可能 LLMは自己回帰的な性質を持つため、新しいをトークンを生成するたびにコンテキスト長が増加
  12. 17 Copyright © 2015 every, Inc. All rights reserved. ベンダーモデルごとのコンテキスト長

    ベンダー モデル モダリティ 最大コンテキスト OpenAI GPT‑5 テキスト/画像 400,000 tokens OpenAI GPT‑4.1 テキスト/画像 1,000,000 tokens OpenAI GPT‑4o mini テキスト/画像 128,000 tokens Anthropic Claude Sonnet 4 テキスト/画像 200k(標準)/ 500k(Enterprise)/ 1M(APIベータ) Anthropic Claude Opus 4.1 テキスト/画像 200,000 tokens Google Gemini 2.0 Flash テキスト/画像/音声/動画 1,000,000 tokens Google Gemini 2.5 Flash テキスト/画像/音声/動画 1,000,000 tokens Meta Llama 3.1 (8B/70B/405B) テキスト 128,000 tokens Mistral Mistral Large 2 テキスト 128,000 tokens Cohere Command R テキスト 128,000 tokens xAI Grok 4 テキスト/画像 256,000 tokens
  13. 18 Copyright © 2015 every, Inc. All rights reserved. 埋め込み(embeddings)

    埋め込み = データの意味を捉えたベクトル表現 参考)直感LLM ―ハンズオンで動かして学ぶ大規模言語モデル入門, Jay Alammar、Maarten Grootendorst 著、中山 光樹 訳 犬 猫 道路 車 モデル (1.00, 0.80) (0.98, 0.82) (0.10, 0.60) (0.20, 0.50) 入力 出力 犬 (1.00, 0.80) 猫 (0.98, 0.82) 道路 (0.10, 0.60) モデルによって埋め込みベクトルを出力 ベクトルが近い単語は意味的に近いといえる
  14. 21 Copyright © 2015 every, Inc. All rights reserved. なぜプロンプトエンジニアリングが重要か

    プロンプトを工夫することで同じ LLMのモデルでも出力が大きく変わる 悪いプロンプト • 「〇〇」について教えて • 「〇〇」を解決して 良いプロンプト • あなたは優秀なカスタマーサポートです。 • 「〇〇」の観点で「△△」の課題を解決してください
  15. 22 Copyright © 2015 every, Inc. All rights reserved. 効果的なプロンプトの構成方法

    4つの基本構成要素 1. 導入部(Role) • モデルの役割定義 2. コンテキスト( Context) • 必要な前提知識 3.制約条件( Constraints) • 守るべきルール 4. 指示 (Instructions) • 具体的なタスク
  16. 23 Copyright © 2015 every, Inc. All rights reserved. プロンプト構成の具体例

    あなたは経験豊富なカスタマーサポートのスペシャリストです。 製品情報: • 製品名:AI Assistant Pro • 価格:月額3,000円 制約: • 返答は3文以内にまとめる • 不明な点は推測せず、確認を促す タスク:問い合わせに回答してください 導入部 コンテキスト 制約 指示
  17. 24 Copyright © 2015 every, Inc. All rights reserved. Structured

    Output(構造化出力) AIをシステムに組み込むときに出力形式をプロンプトで制御する手法 LLMを提供するSDKでは、事前定義されたスキーマ に従わせることが可能なものもある AIの出力形式を制御する手法 システム:あなたは感情分析の専門家です。 タスク:感情を「ポジティブ」「ネガティブ」「ニュートラル」のいずれかに判定してください。 以下のJSON形式で回答してください: { "sentiment": "ポジティブ/ネガティブ/ニュートラル", "confidence": 0.0-1.0の数値 } レビュー:「素晴らしい製品でした!」
  18. 26 Copyright © 2015 every, Inc. All rights reserved. Zero

    shotプロンプティング プロンプトに具体的な例を含めない方法 カスタマーレビュー感情分析の例 システム:あなたは感情分析の専門家です。 タスク:感情を「ポジティブ」「ネガティブ」「ニュートラル」のいずれかに判定してください。 レビュー:「素晴らしい製品でした!」 出力:ポジティブ
  19. 27 Copyright © 2015 every, Inc. All rights reserved. Few-shotプロンプティング

    AIはパターンを踏襲して補完を生成することに長けている → 例を提示して精度向上 メリット • パターンを学習して精度が向上する デメリット • コンテキストが増えると混乱を招きやすくなる • モデルが例示された情報に偏る システム:あなたは感情分析の専門家です。 タスク:感情を「ポジティブ」「ネガティブ」「ニュートラル」のいずれかに判定してください。 例: 「最悪のサービスでした」→ ネガティブ 「普通でした」→ ニュートラル 「最高!友人にも勧めます」→ ポジティブ 「品質は良いが、価格が高すぎる」 → ニュートラル レビュー:「素晴らしい製品でした!」
  20. 29 Copyright © 2015 every, Inc. All rights reserved. Chain

    of Thought(CoT) LLMに推論の中間過程を考慮させる手法 • 直接回答ではなく、段階的な推論過程を出力させる • 生成された中間の過程が次のトークン予測のコンテキストになる • 推論過程が複雑で、中間の状態を参照することが重要な場合に有効
  21. 30 Copyright © 2015 every, Inc. All rights reserved. CoTあり

    vs CoTなし 問題:商品の原価に30%の利益を上乗せして定価とし、 その定価から20%割引で販売。原価1000円の場合の利益は? CoTなし:「100円」(計算過程不明) CoTあり: 1. 定価 = 1000円 × 1.3 = 1300円 2. 販売価格 = 1300円 × 0.8 = 1040円 3. 利益 = 1040円 - 1000円 = 40円 精度改善:数学・論理問題で大幅に向上
  22. 31 Copyright © 2015 every, Inc. All rights reserved. CoT実践のポイント

    効果的な指示文 • 「ステップバイステップで考えてください」 • 「段階的に推論過程を示してください」 • 「まず問題を分解し、順番に解いてください」 実装上の考慮事項 • 数学や論理問題以外などで必ず精度が向上するわけではない • トークン消費量:通常より増加 • レスポンス時間:より長い生成時間 • コスト:APIコールあたりの料金増加
  23. 32 Copyright © 2015 every, Inc. All rights reserved. ReAct

    Reasoning and Acting 推論と行動の統合アプローチ 1. Thought:タスクを分析・計画 2. Action:外部ツール実行 3. Observation:結果を観察 4. 繰り返し:目標達成まで継続
  24. 33 Copyright © 2015 every, Inc. All rights reserved. ReAct実装例

    • 天気予報の AIワークフローの実装時 質問:東京の現在の天気は? Thought: 天気情報APIを呼び出す必要がある Action: weather_api(location="Tokyo") Observation: 晴れ、気温23°0 Answer:東京の現在の天気は晴れで、気温は 230です
  25. 35 Copyright © 2015 every, Inc. All rights reserved. RAGの基本概念

    Retrieval-Augmented Generation 外部知識をLLMに動的に提供する手法 構成要素: 1. Document Store:知識ベース 2. Embeddings:文書のベクトル化 3. Retriever 関連文書の検索 4. Generator :LLMによる回答生成
  26. 36 Copyright © 2015 every, Inc. All rights reserved. RAGの実装フロー

    3つのフェーズ 1. 準備フェーズ • 文書の分割(チャンク化) • 埋め込みベクトル生成 • ベクトルDB保存 2. 検索フェーズ • クエリのベクトル化 • コサイン類似度による検索 3. 生成フェーズ • 検索結果をコンテキストに含める • ハルシネーション抑制効果
  27. 37 Copyright © 2015 every, Inc. All rights reserved. RAGを用いた動的なプロンプトの構築

    ユーザー質問 「先週購入したノートPCを返品したい」 RAGの処理フロー • 質問をベクトル化→検索 • 関連文書を取得 • プロンプトに動的に組み込む [文脈]返品規定:30日以内、未開封品のみ [文脈]初期不良の返品保証:初期不良7日以内交換 [質問] 先週購入したノートPCを返品したい
  28. 38 Copyright © 2015 every, Inc. All rights reserved. RAGあり

    vs RAGなし RAGなしの応答 「一般的に返品は一定期間内で可能です。詳しくはサポートにお問い合わせください。」 RAGありの応答 「ノートPCは購入後30日以内で未開封の場合のみ返品可能です。先週購入とのことですが、開封 済みの場合、初期不良であれば7日以内の交換対応が可能です。」 → 具体的な情報に基づいた正確な回答
  29. 40 Copyright © 2015 every, Inc. All rights reserved. AIエージェントとは

    AIエージェント • LLMとツールを組み合わせて自律的にタスクを実行するシステム • 人間の指示を受けて、複数ステップの作業を自動化 基本的な動作 従来のチャットボットとの違い • チャットボット: 質問に答える形式 • エージェント: 実際に作業を実行(コード作成、メール送信、データ分析など)
  30. 41 Copyright © 2015 every, Inc. All rights reserved. MCP

    MCP(Model Context Protocol) • Anthropicが開発したLLMとデータソースを接続する標準プロトコル • LLMが外部システムと安全に通信するための共通規格 目的 • データアクセスの標準化
  31. 42 Copyright © 2015 every, Inc. All rights reserved. MCP

    AIアプリケーションの USB-C • USB-Cが多様なケーブルを1本に統一したように、MCPは独自実装していたツール接続を1つ の標準プロトコルに統一
  32. 43 Copyright © 2015 every, Inc. All rights reserved. MCPの種類

    1. Tools(ツール) • アクションを実行する関数を提供 • 例: データベースクエリを実行, メール送信 2. Resources(リソース) • 読み取り専用のデータソースへのアクセスを提供 • 例: ローカルファイル, データベーススキーマ情報などを読み取る 3. Prompts(プロンプト) • 事前定義されたプロンプトテンプレートを提供 • 例: 「コミットメッセージ生成」のようなプロンプトテンプレート
  33. 44 Copyright © 2015 every, Inc. All rights reserved. A2A(Agent-to-Agent

    Protocol) 異なるAIエージェント同士の対話を実現する標準プロトコル A2Aが解決する課題 • 各社のAIが独自仕様になると相互連携が困難になる • 複数AIを組み合わせた高度なタスクが困難 • エージェント間の役割分担を明確化したい 実用例 • 翻訳AI → 要約AI→感情分析AI • 各専門AIが連携して複雑なタスクを処理
  34. 46 Copyright © 2015 every, Inc. All rights reserved. コンテキストエンジニアリングとは

    コンテキストウィンドウ • LLMの作業メモリ(指示、知識、ツール結果、対話履歴) • トークンという単位でモデルごとに制限がある コンテキストが増加したときの課題 • 容量超過: ウィンドウサイズを超えてエラー • 性能劣化: 情報過多で精度低下 • コスト爆発: トークン数に比例して料金増加 • コンテキスト汚染: 誤情報が後続の推論に影響 コンテキストエンジニアリング • LLMのコンテキストウィンドウに適切な情報を適切なタイミングで配置する技術
  35. 47 Copyright © 2015 every, Inc. All rights reserved. コンテキストエンジニアリングの4つの基本戦略

    Write(書き込み) • コンテキストウィンドウ外部にデータを保存して後で参照 Select(選択) • タスクに必要な情報のみを選択的に取得 Compress(圧縮) • 冗長な情報を削除・要約して容量を節約 Isolate(分離) • 異なるコンテキストを別々に管理して干渉を防ぐ
  36. 48 Copyright © 2015 every, Inc. All rights reserved. 4つの戦略の具体例

    Write(書き込み)の例 • 研究タスク: 調査計画をメモファイルに保存し、200Kトークン超過時も参照可能に • ChatGPTメモリ: 「私は東京在住のエンジニア」を永続保存 Select(選択)の例 • コードエディタ: 1万ファイルから現在編集中の関連5ファイルのみ取得 • ツール選択: 「天気を教えて」→ 100個のツールから天気APIのみ選択 Compress(圧縮)の例 • Claude Code: 95%到達時に「100ターンの対話→5段落の要約」に自動圧縮 • 検索結果: 10ページの文書→関連する3段落のみ抽出 Isolate(分離)の例 • マルチエージェント: データ分析は分析専門エージェント、文書作成は執筆専門エージェントが担当
  37. 49 Copyright © 2015 every, Inc. All rights reserved. コンテキストエンジニアリングの活用例

    ClaudeCodeの例 • Auto-compact機能 ◦ コンテキストウィンドウの95%到達時に自動発動 ◦ 全対話履歴を要約に変換してトークン削減 • CLAUDE.mdファイル ◦ プロジェクト固有のルールや指示を外部ファイルに保存 ◦ 必要時のみ読み込んで参照 • ファイル操作の分離 ◦ ファイル作成・編集の詳細はツール実行として処理 ◦ LLMには結果の概要のみ返す • コード変更の差分表示 ◦ 全コードではなく変更箇所のみをコンテキストに含める • タスク計画の外部保存 ◦ 長期タスクの計画を別の記憶領域に書き出し ◦ 進捗状況を別途管理
  38. 51 Copyright © 2015 every, Inc. All rights reserved. AIコーディングの現状と重要性

    AIコーディングは「もう当たり前」 • 開発現場での標準ツールとして定着 エブリーエンジニアの全員が AIを活用 • 計画→実装→テスト→PRなど、ほとんどの開発フローでAIが介入 開発効率10倍を目指す • AIツールの効果的な活用により、生産性の大幅な向上を目指す コード品質の向上 • AIによるベストプラクティスの提案やバグの早期発見
  39. 52 Copyright © 2015 every, Inc. All rights reserved. 開発体制の変化

    職種のオーバーラップが起きている AIツールの普及により、従来の職種の境界線が曖昧になり、個人のできることの幅が増えている エンジニア:開発効率が上がることで、よりプロダクトを考えられる 開発作業の効率化により、ビジネス価値や顧客体験の向上に注力できる時間が増加 PdM:簡単なプログラムはエンジニアが実装 プロダクトマネージャー(PdM)も技術的な理解を深め、AIツールを活用して簡易的な実装が可能に
  40. 53 Copyright © 2015 every, Inc. All rights reserved. エブリーで活用されているAIツール概要

    開発支援 • Cursor • Claude Code 自立型エージェント • Devin MCP tools • GitHub MCP • Atlassian MCP • Figma MCP • Redash MCP 非コーディング • Gemini • NotebookLM
  41. 54 Copyright © 2015 every, Inc. All rights reserved. Cursorの紹介と活用方法

    Cursorとは • AIを統合したコードエディタ • GPTやClaudeなどのAIモデルを活用して、コード生 成、編集、デバッグなどを対話形式で実行可能 • Visual Studio Codeをベースに作られており、既存の 拡張機能や設定を引き継ぎながらAIの恩恵を受けら れる 活用方法 • チャット機能でAIに質問や相談をしながら、新しいコー ドブロックをゼロから生成 • 既存のコードを選択して、リファクタリングやバグ修 正、機能追加などをAIに指示 • AIによる補完機能の活用 • Rulesで、ドメイン知識を与えたり、固定のフローを記 載して効率化 https://cursor.com
  42. 55 Copyright © 2015 every, Inc. All rights reserved. Claude

    Codeの紹介と活用方法 Claude Codeとは • Anthropic社が開発した、ターミナル上で動作するAI コーディングエージェント • プロジェクト全体の文脈を理解して、実装を支援してく れる • 自律性の高さが特徴 活用方法 • 基本的にCursorと同様の使い方が可能 • Planモードで実装内容を固めてから、実装に取り掛か る • Hooks機能、custom slash commands、sub-agents などの便利な機能を活用 https://docs.anthropic.com/ja/docs/claude-code/overview
  43. 56 Copyright © 2015 every, Inc. All rights reserved. CursorとClaude

    Codeの比較 項目 Cursor Claude Code 形態・UI IDE(Visual Studio Code のフォーク)として提供。 GUIベースで エディタ内でAI支援が行える CLI(ターミナル)ベース。エディタを問わず、ターミナルから操作可能 操作のスタイ ル チャットでの指示、インタラクティブな補完や差分表示など 自律的アクション(複数ファイルの編集、テスト実行、 Gitコミットなど) をCLIで制御 リアルタイム 補完 エディター内で即時に補完や生成が可能 リアルタイム補完には対応しておらず、ターミナル指示ベースで動作 コンテキスト 理解 コードベースの全体をインデックス化し、自然言語のクエリで理 解できる 非常に大きな文脈ウィンドウで複雑なコード構造を処理できる 使用できるモ デル gpt, claudeなど複数社のモデルが使用できる claude系のモデルのみ 導入・習得難 易度 VS Codeユーザーなら簡単。 GUIに慣れていれば導入もス ムーズ CLIのため、導入にはやや学習が必要
  44. 57 Copyright © 2015 every, Inc. All rights reserved. Devinの紹介と活用方法

    Devinとは • 米国のAIスタートアップ企業Cognitionが開発 • 完全自律型のAIソフトウェアエンジニア • チケット理解からPR作成まで開発プロセス全体を自 律的に遂行する 活用方法 • 難しくないけど面倒なタスクの実行 • 軽微な修正タスク • 簡単だけど数が多いリファクタを並列実行 • 他のコードを模倣できるタスク • アラート分析 • 複数のリポジトリを跨った実装 • DeepWikiでリポジトリの内容理解 https://devin.ai/
  45. 58 Copyright © 2015 every, Inc. All rights reserved. MCP

    toolsの紹介 GitHub MCP GitHubリポジトリ内の情報にAIがアクセスできるようになる • IssueやPull Requestの取得・作成・編集などの管理 • AIがGitHub上の情報を把握し、文脈に沿ったコーディン グ支援を提供 Figma MCP Dev Mode MCP Server(β)でデザインデータに直接アクセス • 選択したフレームからコードを生成 • 変数・コンポーネント・レイアウトをIDEに直接取り込める • 課題であったフロントエンドのAIコード支援を補助 Atlassian MCP エブリーでは、Confluenceというサービスに社内の情報を蓄 積している • ページの取得・作成・編集などの管理 • AIにプロダクトの仕様書や会議の議事録などの情報を、 コンテキストとして与えることが可能 Redash MCP MCPは自作することもできる • クエリ一覧/実行/作成/更新、ダッシュボード情報取得に 対応 • redashを触ったことがない・SQLをあまり書かない人が 自然言語でクエリを操作することができる
  46. 59 Copyright © 2015 every, Inc. All rights reserved. Gemini・NotebookLMの紹介

    Gemini • Googleの汎用AI • Google Workspace内の情報(ドキュメント、スライド など)を観にいくことができる • 「学習コーチ」モードで、効率的に学習 • どんなに聞いても嫌がられない NotebookLM • アップロード /指定した資料だけを根拠に引用つきで 答えるAIアシスタント • Google Docs / Slides / PDF / テキスト & Markdown / Web URL / YouTube / 音声など対応 • 読みたい記事などをポッドキャスト化 • マインドマップで内容を整理 • チームの仕様や、会議資料などをまとめて、プロジェ クト専用の AIを作成 https://gemini.google.com https://notebooklm.google.com
  47. 61 Copyright © 2015 every, Inc. All rights reserved. 課題

    次のタスクのプロンプトを作って任意のLLM(ChatGPT, Geminiなど)に入力し、改善してみてく ださい タスク: 「1から100までの素数を出力する」プログラムを作って解説する 1. 基本:「素数を見つけるプログラム書いて」 2. 形式指定:「関数として実装し、リストで返して...」 3. LLMにアルゴリズムを説明させてみる 4. 他に自分でプロンプトの工夫 【提出内容】 • 最も良かったプロンプト1つとその理由 • コードとその説明, 出力結果 • 何を追加/変更したか • なぜその改善が必要だったか • 期待される出力の違い 改善のポイント
  48. 62 Copyright © 2015 every, Inc. All rights reserved. 提出方法

    1. 研修用リポジトリで PRを作成 2. レビュワーに講師( taniguchi-kyoichi, kazu-gor, eikuma)の3人を指定
  49. 63 Copyright © 2015 every, Inc. All rights reserved. 参考・引用

    • 直感 LLM - O'Reilly Japan • [1706.03762] Attention Is All You Need • LLMのプロンプトエンジニアリング - O'Reilly Japan • API に Structured Outputs を導入 | OpenAI • OpenAI Platform Docs: Function Calling and Tool Use • [2210.03629] ReAct: Synergizing Reasoning and Acting in Language Models • [2005.14165] Language Models are Few-Shot Learners • [2409.12183] To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning • Prompt Engineering | Kaggle • Context Engineering • 人工知能の FAQ