Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Microsoft Startup community : Build 2025 Recap ...

Microsoft Startup community : Build 2025 Recap MCP and A2A

Avatar for Kyohei MORIYAMA

Kyohei MORIYAMA

June 24, 2025
Tweet

More Decks by Kyohei MORIYAMA

Other Decks in Programming

Transcript

  1. Azure AI Foundry Security & Governance Copilot Studio Visual Studio

    GitHub Foundry SDK Foundry Models Foundry Agent Service Azure AI Search Foundry Observability Azure AI Services Azure Machine Learning Azure AI Content Safety Serverless Control Azure Kubernetes Service Azure Container Apps Azure App Service Azure Functions Cloud Azure Azure Arc Foundry Local Edge
  2. Foundry の新発表 @ Build Azure AI Foundry モデルの モデル ルーター

    Public Preview お客様の多様なユースケースに適 したLLMを選ぶ Azure AI Foundry のプロビジョ ニング済みスループット General Availability Azure AI Foundry モデル間での容 量のデプロイと予約 モニタリングダッシュボード リソースの使用状況、パフォーマ ンス、コンプライアンスに関する リアルタイムの洞察を提供 プロビジョニングされたスルー プットの動的スピルオーバー Public Preview サービスを中断なしにトラフィッ クバーストを管理 プロンプトキャッシング General Availability 応答時間の短縮、スループットの スケーリング、トークンコストの 削減 バッチ大規模ワークロード のサポート 最大数十億のトークンが大量の バッチリクエスト処理を高速化 Public Preview General Availability General Availability Public Preview Public Preview Public Preview
  3. Azure AI Foundry モデルのモデル ルーター Public Preview お客様の多様なユースケースに適したLLMを選択! 最適なルーティング ハイパフォーマンス

    コストの最適化 モデルルーターの使用とGPT-4.1のみの使用を比較したテストでは、 同様の精度で最大60%のコスト削減
  4. モデルルーターとは何か? チャレンジ タスクに適したLLMを選択することは困難 ユーザーは、特定のユースケースに対して単一のLLMに 固執することがよくある 可能性 スマートルーティングは、品質を維持しながらコストを最適化 最適なモデルを動的に選択することで、ユーザーエクスペリエンスを 低下させることなく費用を削減 ルーターのエンドポイント

    “How is the weather in Paris in May?” <シンプルなクエリ> “Plan a 5-day itinerary from Paris to Venice for a vegan family of 10” <複雑なクエリ> ルーター (AI モデル) gpt-4.1- mini gpt-4.1- nano … a b ダイナミック・インテリ ジェント・ルーティング 最適な応答 <アウトプット> a b Step 1 ユーザーは、Chat Completions API または Responses API を使用してエ ンドポイントを呼び出し Step 2 ルーターは、入力パラメーター (プロンプト、 ツールの使用など) を評価し、最適なモデルに 動的にルーティング Step 3 エンドポイントは、 もとになるモデルの応答を返す
  5. Azure OpenAI Provisioned 大量のミッションクリティカルなアプリケーションに最適 予測可能なパ フォーマンス 予約済み処理能力 容易なスケーリング コスト削減 高スループット

    ピーク時の大量処理 低遅延 リアルタイムのユーザーエク スペリエンスの向上 運用効率 スループットの向上と リソース使用率の向上 99%のレイテンシSLAにより、ミッションクリティカルなアプリケーションの予測可能なパフォーマンスを確保
  6. Azure AI Foundry のプロビジョニング済みスループット General Availability 異なるモデル間での 1 つの PTU

    モデル切替の 最適化 操作の簡素化 コスト効率の高い スケーリング
  7. Azure AI Foundry Security & Governance Foundry Models Foundry Agents

    Azure AI Search Foundry Observability Azure AI Services Azure Machine Learning Azure AI Content Safety Copilot Studio Visual Studio GitHub Foundry SDK Cloud Azure Azure Arc Foundry Local Edge Foundry Models
  8. 最初のころの基盤モデルって? 10 20 500 5,000 20,000 10,000 2,000 1,000 50

    100 200 GPT-4 GPT-4 Turbo 100 20 40 60 80 GPT-3.5 Turbo Higher capability (Benchmarks) Higher efficiency (Thousand tokens / $) OpenAI Tier-1 | Babel Tier-1 | Babel
  9. 基盤モデルが爆発的に増えました! Higher capability (Benchmarks) 100 20 40 60 80 10

    20 500 5,000 20,000 10,000 2,000 1,000 50 100 200 GPT-4.5 Claude 3 Opus o1 Gemini 2.5 Pro Grok 3 Reasoning Sonnet 3.7 Reasoning Sonnet 3.5 o1 mini GPT-4o Grok 2 Sonnet 3.7 Llama 3.1 405B Llama 3.3 70B Llama 3 70B Claude 3 Sonnet Gemini 1.5 Pro o3-mini Claude Instant Gemini 1.0 Pro Llama 3 8B Phi 3 14B Phi 3 3.8B Llama 3.2 3B Gemini 1.5 Flash Gemini 2.0 Flash Nova Lite Nova Micro GPT-4o Mini Phi 4 Nova Pro Mixtral 8x7B Llama 2 70B Llama 2 13B Llama 2 7B DeepSeek-R1 DeepSeek-V3 0324 DeepSeek-R1 70B Distill QwQ GPT-4 GPT-4 Turbo GPT-3.5 Turbo OpenAI Other AWS Google Meta Anthropic Microsoft GPT-4.1 GPT-4.1 mini GPT-4.1 nano Tier-1 | Babel Tier-1 | Babel Higher capability (Benchmarks) Higher efficiency (Thousand tokens / $)
  10. Azure AI Foundry で使える基盤モデル Offering 11,000+frontier and open models Cohere

    Command R+ Command R Command A Cohere Rerank Embed v3-Multilingual Embed v3-English Embed 4 Meta Meta-Llama-3 Meta-Llama-3.1-405B Llama-3.2 Llama-3.3 Llama4-Scout Llama4-Maverick CodeLlama Llama-Guard Hugging Face Qwen QwQ 32b DeepCogito Seethal Sentiment Roberta Google Flan Intel Bert Cross Encoder Intfloat Multilingual E5 Cerebras Databricks Databricks/dbrx-base Databricks/dbrx-instruct NVIDIA Nemotron-3-8B-4k Nemotron-3-8B-Chat-SFT/ RLHF/SteerLM Nemotron-3-8B-QA NIMS microservices inc: Mistral 7B Instruct v0.3 DeepSeek R1 Distill Llama Mixtral 8x7B Instruct Llama 3.2 NV Rerank QA Snowflake Snowflake/arctic-base Snowflake/arctic-instruct Core 42 JAIS Mistral AI Mistral Large Mistral Medium 3 Mistral Nemo Mistral Small Mistral 7B Mixtral 8x7B – Mixture of Experts Codestral Mistral OCR Azure OpenAI o1/o1-mini o3/o3-mini o4-mini GPT-4o/GPT-4o mini GPT-Image-1 Sora GPT-4.1/ 4.1-mini/4.1-nano Dall*E-3 Whisper Microsoft Phi-4 Phi-4-mini/multimodal Phi-4-mini-reasoning Phi-4-reasoning/ reasoning- plus Bitnet Magma Aurora BioEmu OmniParser v2 DeepSeek DeepSeek-R1 DeepSeek-V3 0324 MAI-DS-R1 (Microsoft AI) Industry Models Fidelity/Saifr Sight Machine Bayer Cerence Paige AI Prism Rockwell Virchow RA-FT-Optix Black Forest Labs Flux Pro 1.1 Stability Stable Diffusion Stable Image Ultra xAI Grok 3 Grok 3 mini Bria Bria 2.3 Fast Nixtla Time GEN-1 NTT Data Tsuzumi Gretel Navigator SDAIA ALLaM-2-7b-instruct Deci DeciCoder DeciDiffusion
  11. Azure AI Foundry Security & Governance Foundry Models Foundry Agents

    Azure AI Search Foundry Observability Azure AI Services Azure Machine Learning Azure AI Content Safety Copilot Studio Visual Studio GitHub Foundry SDK Cloud Azure Azure Arc Foundry Local Edge Foundry Agents
  12. AI.Azure.com Azure AI Foundry Agent Service Generally available マルチエージェント ワークフロー

    オープンで相互運用 可能なツール 信頼とセキュリティ Azure AI Foundry シングルエージェントおよびマルチエージェントのワークフローをオーケストレーション
  13. Azure AI Foundry Agent Service Trust データ、ネットワーキング、 セキュリティに対する顧客制御 ▪ BYO-file

    storage ▪ BYO-search index ▪ BYO-virtual network* ▪ BYO-thread storage* ▪ Auth integration Choice Foundry Modelsによる モデル選択と柔軟性 Azure OpenAI GPT-4o, GPT-4o mini, etc. Llama 3.1-405B-Instruct Mistral Large Cohere-Command-R-Plus Tools 最も豊富な接続性 Knowledge Actions Logic Apps* Azure functions OpenAPI
  14. Foundry Agents Service Interop Import external agents Assistants API Responses

    API* Activity protocol* A2A* Agent protocol✧ MCP* Azure AI Foundry Expose your agent externally Assistants API Responses API✧ Activity protocol✧ A2A Agent protocol✧ MCP* * Available with Semantic Kernel ✧ Coming soon Foundry Agent の 相互接続性
  15. 制御性 / 可視性 / カスタマイズ性 プラットフォームの統合 / 使いやすさ / 開発スピード

    IaaS PaaS SaaS Infrastructure-as-a-service Platform-as-a-service Software-as-a-service Semantic Kernel Agent framework Azure AI Foundry Agent service Copilot Studio Agents Microsoft の製品でエージェント システムを構築するさまざまな方法
  16. MCP vs API 項目 MCP (Model Context Protocol) 一般的なAPI (Application

    Programming Interface) 定義 LLMやエージェントがツールやデータソースとやり取りするための、 Anthropic発のオープン標準プロトコル。JSON-RPC 2.0ベースで、 ツール呼び出しやコンテキスト維持を規定する。 ソフトウェアコンポーネント間で機能やデータをやり取りするため のインターフェース仕様。REST/HTTP、SOAP、gRPCなど多様な方式 があり、サービスやプラットフォーム毎に設計・公開される。 目的 AIエージェント(Copilot Studio等)が“接続 once, integrate anywhere”を実現し、標準化されたフォーマットでツール・データ取 得を行う。 特定サービスやライブラリの機能を外部から利用可能にし、異なる システム間で機能連携やデータ交換を行う。 通信方式 JSON-RPC 2.0/gRPC/HTTP Streaming など、プロトコル仕様で定 義された手順に沿う。イベントストリーミング(SSE→HTTP Streaming)にも対応。 主にREST over HTTPが主流。SOAP(XML)、gRPC(Protocol Buffers )、GraphQLなど、多種多様。各APIが採用する方式はバラバラ。 標準化レベル オープン標準として仕様が公開されており、複数のクライアント/ サーバ実装が共存。Copilot Studioをはじめ、Anthropic、Replitなど で採用例が拡大中。 各ベンダー・プロジェクト毎に個別仕様。OpenAPIやGraphQL Schemaなどと連携されることもあるが、異なるAPI間の互換性は保 証されない。 コンテキスト管 理 エージェントとの会話状態やモデル呼び出し時の“前後関係”(プロン プト履歴/ツール結果)をプロトコルで扱い、一連のフローを自動 的に追跡・管理。 基本的に1リクエスト1レスポンス。状態管理はクライアント側で担 保する必要があり、会話や連続的処理を行う場合はセッションIDや トークン管理などで別途実装が必要。 拡張性 新しいツールやデータソースは「MCPサーバー」としてプラグイン 可能。YAMLスキーマに従ってコネクタを作成すれば、Copilot Studio 側の設定だけで利用できる。 エンドポイント追加や拡張は各APIプロバイダの設計次第。仕様変更 やバージョン管理が個別に必要で、クライアント側の実装変更が伴 いやすい。 ユースケース例 - Copilot Studioでのエージェントツール連携- ClaudeなどのAIアシス タントがDB・検索サービスに直接アクセス- Windows AI Foundryの “USB-C of AI”連携 - Azure Functions/Web API経由でのデータ取得・計算処理- サード パーティ公開API(Twitter API、Stripe APIなど)の呼び出し- マイク ロサービス間通信
  17. MCP Deep-Dive Mahesh Murag (Anthropic) AI Engineerセッションより引用 MCP Client 

    ツールの呼び出し  リソースへのクエリ  プロンプト補完 MCP Server  ツールの公開  リソースの公開  プロンプトの公開 ツール モデル制御 モデルによって呼び出 される関数 リソース アプリケーション制御 アプリケーションに 公開されるデータ プロンプト ユーザー制御 AIインタラクション用の事 前定義されたテンプレート 取得/検索 メッセージの送信 DB レコードの更新 ファイル データベースレコード API レスポンス ドキュメントQ&A トランスクリプトの概要 JSONとして出力
  18. Microsoft の MCP エコシステム Model Context Protocol MPC は、LLM アプリと外部データ

    ソース間のシームレスな統合を可能に Azure API Management Build Local & Remote MCP Servers Tools Community Enterprise Windows MCP Clients & Host Copilot Studio VS Code Foundry Agent Visual Studio Semantic Kernel Registry GitHub Copilot C# MCP SDK Microsoft Connectors Azure Functions Microsoft Teams Windows
  19. Model Context Protocol を使った AIアプリや エージェントとの統合を簡素化 Copilot Studio は、エージェントをデータやツールに接続するた めの標準化された方法である

    MCP をサポート これは、エージェント用のUSB-Cポートのようなもの エージェントを MCP 対応コネクタに接続し、利用可能な最新の アクションとナレッジを有効活用 データ損失防止、認証、仮想ネットワークなど、エンタープラ イズのセキュリティと制御をコネクタに適用 事前に構築された MCP 対応コネクタの増え続けるライブラリか ら、サーバーのマーケットプレイスにアクセス Learn more at aka.ms/mcs-mcp MCPサーバーによりツールを追加 残高を確認 カードの ブロックを解除 新しいカード を発注 銀行 エージェント Copilot Studio+MCPを使った実装例
  20. Foundry Agents interop Assistants API Responses API* A2A* Agent protocol✧

    Activity protocol* Assistants API Responses API✧ A2A Agent protocol✧ Activity protocol✧ Import external agents Expose your agent externally MCP* MCP* * Available with Semantic Kernel ✧ Coming soon Azure AI Foundry Foundry Agent の 相互接続性
  21. Semantic Kernel AI and Agent Orchestration AI Services Azure OpenAI

    Foundry Catalog OpenAI Hugging Face NVIDIA Deepseek Google Gemini AWS Bedrock Plugins OpenAPI MCP A2A Logic Apps Filters and telemetry OpenTelemetry Azure Monitor Aspire Dashboard Azure AI Content Safety Z Memory Services Azure AI Search Azure CosmosDB Elasticsearch MongoDB Pinecone Qdrant Redis Local models Ollama ONNX LM Studio Phi SLM Model Family Prompts YAML Semantic Kernel Python Java .NET Agent Services Azure AI Agent Service Bedrock Agents AutoGen Crew AI
  22. Foundry Agents interop Assistants API Responses API* Agent protocol✧ Activity

    protocol* Assistants API Responses API✧ Agent protocol✧ Activity protocol✧ Import external agents Expose your agent externally MCP* MCP* Azure AI Foundry A2A* A2A * Available with Semantic Kernel ✧ Coming soon Foundry Agent の 相互接続性
  23. /demo 1. Azure AI Foundry からモデルや機能を確認 2. Foundry Local を使う

    3. MCP Server を VSCodeから使う a. Azure MCP Server w/ GitHub copilot agent mode
  24. モデルの実行 foundry model run phi-3.5-mini foundry model ls モデルの確認 Fondry

    Localの利用方法 コードでの実装方法については割愛、懇親会で後ほど。。。
  25. Microsoft が提供している MCP Server (2025/06/24現在) - Microsoft Learn Docs MCP

    Server - 2025/6 に “Microsoft Learn Docs MCP Server” に名称変更されました。 - エンドポイントは https://learn.microsoft.com/api/mcp で、LLM/エー ジェントから公式ドキュメントを検索するための microsoft_docs_search ツールを提供します。 - Azure MCP Server (プレビュー) - Azure リソースを自然言語で操作できるようにするプレビュー版サーバー です。 - MCP を実装し、GitHub Copilot エージェント モード、OpenAI Agents SDK、セマンティック カーネルなどのクライアントと連携可能。Entra ID 認証や Azure CLI/azd コマンド群の呼び出しもサポートします。 https://learn.microsoft.com/ja-jp/azure/developer/azure-mcp-server/get-started