Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[Oracle TechNight#99] 生成AI時代のAI/ML入門 ~ AIとオラクルデ...

Sponsored · SiteGround - Reliable hosting with speed, security, and support you can count on.

[Oracle TechNight#99] 生成AI時代のAI/ML入門 ~ AIとオラクルデータベースの関係 (前半)

2026年4月30日に実施した Oracle Database Technology Night#99 「生成AI時代のAI/ML入門 ~ AIとオラクルデータベースの関係」の前半、AI/ML入門セッションのスライドになります。
人工知能、機械学習、生成AI関連技術領域の全体感をお伝えする内容になっています。

Avatar for oracle4engineer

oracle4engineer PRO

May 01, 2026

Video

More Decks by oracle4engineer

Other Decks in Technology

Transcript

  1. 広義の人工知能(AI)の歴史 1950 1960 1970 1980 1990 2000 2010 2020 2022

    1950 アラン・チューリング: 「計算する機械と知性」 第一次AIブーム 第二次AIブーム 第三次AIブーム 2012 深層学習の登場 AlexNet@ILSVRC 2012 1966 ELIZA (会話システム) 1997 DeepBlue (Chess名人と対戦) ChatGPT 2017 Attention is All You Need Big Data 単純パーセプトロン 多層パーセプトロン CNN Attention Transformer RNN LSTM GAN 線形SVM (1963) 非線形SVM (1992) Adaboost (1997) XGBoost (2014) LLM Multimodal AI 生成AI 3 バックプロパゲーション(1986) randomForest (2001) k-means (1957/1982) 決定木 (CART) 1984) ARIMA (1970) ルールベースAIの時代 ヒトの様にふるまうための思考、行動パターンの 研究、計画探索、パーセプトロン等の基礎技術 が生まれ、ルール定義による自動応答システム などが作られた。 →ルールが明文化できる問題しか扱えなかった エキスパートシステムの時代 人手で整備された知識に基づいて処理す る仕組みによって適用可能範囲が拡大し、 知識表現の研究が進んだ。 →知識を生成するコストが膨大すぎた 深層学習を筆頭にAI技術が大きく発達 ・インターネットに蓄積されたデータやBig Dataブームにより、 利用可能なデータが爆発的に増加 ・データ処理の重要性が高まり、AIの実用化・利用を加速 ・クラウドによる大規模計算インフラの用意が容易になったこと で、さらに加速 → これらが連鎖的に作用し、LLM(大規模 言語モデル)の誕生に至った Copyright © 2026, Oracle and/or its affiliates
  2. 広義のAIと機械学習(Machine Learning/ML) 4 広義の人工知能 機械学習(ML) ニューラルネットワーク(NN) 深層学習(DL) Transformer 生成AI LLM

    multimodal AI( LMM) 非ML系人工知能 ・エキスパートシステム(知識ベース) ・計画・探索アルゴリズム 基礎的グラフアルゴリズム Dijkstra, A*... 最適化 遺伝的アルゴリズム,CSP.. ・記号的AI / 知識表現・推論 RDFS/OWL推論 非NN系ML ・決定木 ・線形モデル ・サポートベクタマシン ・Random Forest ・XGBoost ・K-means ・k-近傍法 ・ナイーブベイズ ・Apriori 非DL系NN ・単層パーセプトロン ・skip-gram ・RBF 非Transformer系DL ・CNN ・RNN ・LSTM ・GAN 非生成AI系Transformer ・BERT ・embedding model (生成AIサービなどの) Copyright © 2026, Oracle and/or its affiliates
  3. 今回は用法、用途に大きな違いがあることから、 2つに分けてお話させていただきます。 • 「機械学習」パート • 主にTransformerを除く機械学習 • 用途に応じてデータからモデルを生成して利用することが多い • 「生成AI」パート

    • Transformerモデルの大規模学習 • 主にTransformerの学習済みのモデルを利用するもの 本資料では2つのパートに分けてお話します 5 Copyright © 2026, Oracle and/or its affiliates
  4. 広義のAIと機械学習(Machine Learning/ML) 6 広義の人工知能 機械学習(ML) ニューラルネットワーク(NN) 深層学習(DL) Transformer 生成AI LLM

    multimodal AI( LMM) 非ML系人工知能 ・エキスパートシステム(知識ベース) ・計画・探索アルゴリズム 基礎的グラフアルゴリズム Dijkstra, A*... 最適化 遺伝的アルゴリズム,CSP.. ・記号的AI / 知識表現・推論 RDFS/OWL推論 非NN系ML ・決定木 ・線形モデル ・サポートベクタマシン ・Random Forest ・XGBoost ・K-means ・k-近傍法 ・ナイーブベイズ ・Apriori 非DL系NN ・単層パーセプトロン ・skip-gram ・RBF 非Transformer系DL ・CNN ・RNN ・LSTM ・GAN 非生成AI系Transformer ・BERT ・embedding model (生成AIサービなどの) 今回の説明での機械学習(ML)の範囲 Copyright © 2026, Oracle and/or its affiliates
  5. 広義のAIと機械学習(Machine Learning/ML) 7 広義の人工知能 機械学習(ML) ニューラルネットワーク(NN) 深層学習(DL) Transformer 生成AI LLM

    multimodal AI( LMM) 非ML系人工知能 ・エキスパートシステム(知識ベース) ・計画・探索アルゴリズム 基礎的グラフアルゴリズム Dijkstra, A*... 最適化 遺伝的アルゴリズム,CSP.. ・記号的AI / 知識表現・推論 RDFS/OWL推論 非NN系ML ・決定木 ・線形モデル ・サポートベクタマシン ・Random Forest ・XGBoost ・K-means ・k-近傍法 ・ナイーブベイズ ・Apriori 非DL系NN ・単層パーセプトロン ・skip-gram ・RBF 非Transformer系DL ・CNN ・RNN ・LSTM ・GAN 非生成AI系Transformer ・BERT ・embedding model (生成AIサービなどの) 今回の説明での「生成AI」の範囲 Copyright © 2026, Oracle and/or its affiliates
  6. 現状の把握:教師なし学習 現状の把握には何か解くべき正解があるわけではなく、データのあるがままを処理することで何かを浮かび上が らせるような機械学習タスクがあります。 • クラスタリング(グループ化) • データを似たもの同士で分けることでデータの構造を浮かび上がらせる • 代表的アルゴリズム:k-means, 階層的クラスタリング

    • 外れ値検出(異常検知) • データの中で仲間外れのデータを見つける • 代表的アルゴリズム:LOF, One-Class SVM • 次元削減 • データが表現する情報を集約し、本質的な特徴を際立たせる • 代表的アルゴリズム:主成分分析(PCA) • ルールの発見(リコメンデーション) • データの隠れた関係性や組み合わせ(同時発生頻度など)を発見する • 代表的アルゴリズム:Apriori,協調フィルタリング 機械学習が対処する代表的なタスク(現状把握) 13 Copyright © 2026, Oracle and/or its affiliates
  7. 未来の予測:教師あり学習 予測対象(正解データ)を含むデータを学習し、未来/未知のデータに対する正解を予測するタスクになります。 予測対象のデータの形式によって機械学習タスクとしては2つに分けられます。 • 回帰 • 数値(連続値)を予測する(売上等の数値の値そのものが対象) • 代表的アルゴリズム:線形回帰, 決定木,

    SVM, Random Forest, XGBoost • 時系列に特化( LSTM ) • 分類 • ラベルを予測する("売れる/売れない" のどちらになるか 等の離散的な値が対象) • 代表的アルゴリズム:ロジスティック回帰, 決定木, SVM, Random Forest, XGBoost • 画像データに特化( CNN ) 機械学習が対処する代表的なタスク(未来の予測) 14 ※アルゴリズムの共通性について 多くのアルゴリズム(決定木、Random Forest、SVM等)は、 「出口(出力方法)」を変えるだけで、回帰・分類のどちらにも対応可能です。 Copyright © 2026, Oracle and/or its affiliates
  8. 1. 訓練データを用いて学習し 2.学習結果を用いてタスクをこなす 機械学習の 基本構造 17 訓練 データ 学習器 +

    学習結果 + 学習結果 新規データ 結果 Copyright © 2026, Oracle and/or its affiliates
  9. 1. 訓練データを用いて学習し 2.学習結果を用いてタスクをこなす 機械学習の 基本構造 18 訓練 データ 学習器 +

    学習結果 + 学習結果 新規データ 結果 入力データから 学習結果を生成する機構 生成された学習結果 こなしたいタスクの対象データ タスクの成果 Copyright © 2026, Oracle and/or its affiliates
  10. 1. 訓練データを用いて学習し 2.学習結果を用いてタスクをこなす 機械学習の 基本構造(ML語に翻訳1) 19 訓練 データ 学習器 +

    学習結果 + 学習結果 新規データ 結果 =アルゴリズム モデル モデル 予測値(スコア) Copyright © 2026, Oracle and/or its affiliates
  11. 1. 訓練データを用いて学習し 2.学習結果を用いてタスクをこなす 機械学習の 基本構造(ML語に翻訳2) 20 訓練 データ アルゴリズム +

    モデル + モデル 新規データ 予測値(スコア) ML用語 =モデル構築 ( ≒学習,モデリング,フィッティング.. ) ML用語 =モデル適用(≒ 予測, スコアリング.. ) Copyright © 2026, Oracle and/or its affiliates
  12. モデル構築 ( ≒学習,モデリング,フィッティング.. ) モデル適用(≒ 予測, スコアリング.. ) 機械学習の 基本構造

    21 訓練 データ アルゴリズム + モデル + モデル 新規データ 予測値(スコア) Copyright © 2026, Oracle and/or its affiliates
  13. モデル構築 ( ≒学習,モデリング,フィッティング.. ) モデル適用(≒ 予測, スコアリング.. ) 機械学習の 基本構造(中身の例)

    22 訓練 データ アルゴリズム + モデル + モデル 新規データ 予測値(スコア) Y = aX + b となるaとbを探す (a=2, b=2) Y, X 4, 1 12, 5 6, 2 10, 4 ... Y, X ?, 3 X=3 Y=3x2 +2 Y = 8 Copyright © 2026, Oracle and/or its affiliates
  14. モデル構築 ( ≒学習,モデリング,フィッティング.. ) モデル適用(≒ 予測, スコアリング.. ) 機械学習の 基本構造

    24 訓練 データ アルゴリズム + モデル + モデル 新規データ 予測値(スコア) 実装に必要なもの + しないといけないこと Copyright © 2026, Oracle and/or its affiliates
  15. 機械学習プロジェクトの流れ CRISP-DM (Cross-industry standard process for data mining) 25 「使えるデータはあるのか」

    データを探索、収集、理解し、デー タの状態を確認する 「何を解決したいのか」 ビジネス課題の理解、定義 データを目的やアルゴリズムの期 待する入力に沿った形に変換する (結合、欠損補完、特徴量生成...) 課題とデータに適したアルゴリズ ムを選定し、モデルを構築する 「課題を期待通り解決できるか」 目的に応じてモデルの出来(精度など) を評価する 「システムへの組み込み」 作成したモデルを対象システムに 導入する 導入後は精度などを監視、評価 し、改善のサイクルを回す 出典(wikipedia) https://en.wikipedia.org/wiki/Cross-industry_standard_process_for_data_mining Copyright © 2026, Oracle and/or its affiliates
  16. • 生成AIと比べて手法的にも硬い機械学習はそれはそれで健在 • 回帰、分類、クラスタリング等の従来の機械学習の手法で解決できる課題に対しては、軽量かつ高精 度でまだまだ圧倒的優位 • 広がる新しい用途:生成AI関連技術との併用 • 自然言語系処理:生成AIや生成AIサービスのEmbeddingの利用による処理の高度化 •

    Embeddingされたデータを元に機械学習の分類器で仕分け • かつてよく利用された単語の出現頻度(bag-of-words)による分類よりも意味解釈レベルが高くなる • AI Agentが利用するツールの選択など推論の一部代替 (例) • ReActパターンでのユーザークエリと対応するツールの推定をLLMによる推論ではなく軽量な機械学習による分 類を利用することで応答時間短縮 • ユーザークエリの検索難易度をスコアすることで検索結果のハイブリッド検索結果のスコアリング手法を変更 生成AI登場後の機械学習 26 Copyright © 2026, Oracle and/or its affiliates
  17. 全体の構造 Transformerとは Attention(注意機構)を持つTransformer blockを沢山(数十〜百以上)重ねた構造を持つニューラルネットワーク。 Attentionは、Multi-head Self Attentionと呼ばれる方式になっていて、 まずエンコードされた文字入力は Attention層から入り、 隠れ層1層と出力層の2層のFFN(Feed

    Forward)を経て、 transformer block出力層にたどり着きます(※)。 その出力が次のtransformer blockの入力になるといった形です。 ちゃんと理解したい場合 Transformerの全体構造 Multi-head Self Attentionの構造 QKVの意味 という流れで理解していくと飲み込みやすそう Transformerとは 29 Attention Is All You Needより引用 ※実際にはAttention出力、FFN出力の手前に 残差接続 (add & norm ) が入り、学習の高速化と安定化を補助してます。Transformer blockを100段 とか積み上げても減衰しないのはこの残差接続のおかげという面もあります。 Copyright © 2026, Oracle and/or its affiliates
  18. 従来(RNN/LSTM)では • 単語を逐次処理するため文章の処理に時間がかかった • 出現距離の離れた単語の影響が減衰する構造になってしまい長文の解釈が難しかった 結果として大規模化してもコストに対して大きな性能向上が見込めなかった 一方、Transformerでは、 • Attention機構の導入によってこれまで逐次処理が基本であった言語処理を一括で並列処理可能になった •

    Positional Encodingによる単語の位置表現 • RNN/LSTMでは処理順序で位置を暗黙に表現していたが、Attentionでは並列一括処理のため明示的に位置情報を付 与する必要性があった • これによって任意の長さの文章の単語を順序を保持したまま処理できるようになった • 上記のAttentionを並列に並べたMultihead Attentionにより、多様な関係性を同時に処理できるようになった • 1つの入力から同時に異なる視点で単語間の関係を抽出できるようになった • 残差接続+正規化(Add&Norm)によってTransformer blockの深層化が可能になった • attention層とFFN層の2層を持つ構造と(Add&nNorm)機構の相性がよく、数十〜百以上の層を重ねても 効果的に勾配消失、爆発を抑制できた Transformerのどこが凄かったのか 30 Copyright © 2026, Oracle and/or its affiliates
  19. 従来(RNN/LSTM)では • 単語を逐次処理するため文章の処理に時間がかかった • 出現距離の離れた単語の影響が減衰する構造になってしまい長文の解釈が難しかった 結果として大規模化してもコストに対して大きな性能向上が見込めなかった 一方、Transformerでは、 • Attention機構の導入によってこれまで逐次処理が基本であった言語処理を一括で並列処理可能になった •

    Positional Encodingによる単語の位置表現 • RNN/LSTMでは処理順序で位置を暗黙に表現していたが、Attentionでは並列一括処理のため明示的に位置情報を付 与する必要性があった • これによって任意の長さの文章の単語を順序を保持したまま処理できるようになった • 上記のAttentionを並列に並べたMultihead Attentionにより、多様な関係性を同時に処理できるようになった • 1つの入力から同時に異なる視点で単語間の関係を抽出できるようになった • 残差接続+正規化(Add&Norm)によってTransformer blockの深層化が可能になった • attention層とFFN層の2層を持つ構造と(Add&nNorm)機構の相性がよく、数十〜百以上の層を重ねても 効果的に勾配消失、爆発を抑制できた Transformerのどこが凄かったのか 31 従来ではスケールしようがなかった言語処理が並列化できるようになり 大規模な学習が可能に + スケーリング則 (=損失がパラメータ数とデータ量に対してべき乗則で減少する経験則) ↓ これらが巨額の投資を正当化 計算量リソースの大量投入、大規模化が実現した Copyright © 2026, Oracle and/or its affiliates
  20. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 32 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る out IN Copyright © 2026, Oracle and/or its affiliates
  21. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 33 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る out IN Copyright © 2026, Oracle and/or its affiliates
  22. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 34 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 3.トークンが追加された全文を再度LLMに入れる 1.ユーザーからの文章が トークン化されて入る out IN Copyright © 2026, Oracle and/or its affiliates
  23. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 35 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る あなた は 猫 です か ? いいえ 4.ここ(次)にハマる確率の最も高い単語が導出される out out IN IN 3.トークンが追加された全文を再度LLMに入れる Copyright © 2026, Oracle and/or its affiliates
  24. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 36 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る あなた は 猫 です か ? いいえ 私 4.ここ(次)にハマる確率の最も高い単語が導出される out out IN IN 3.トークンが追加された全文を再度LLMに入れる Copyright © 2026, Oracle and/or its affiliates
  25. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 37 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る あなた は 猫 です か ? いいえ 私 4.ここ(次)にハマる確率の最も高い単語が導出される out out IN IN 5.トークンが追加された全文を再度LLMに入れる 以降、文書終わりフラグ(EOS)が来るまで、繰り返し ※画像生成の場合、次の予測という形式ではなく、白紙(全てがノイズ)の全体から少しずつ確率に基づいて色を調整し(ノイズを除去し)、鮮明にしていくイメージです 3.トークンが追加された全文を再度LLMに入れる Copyright © 2026, Oracle and/or its affiliates
  26. LLMの回答生成の仕組み(自己回帰) LLMは、基本的に次にどのような単語 が来るのかを確率的に予想して 当てこむことを繰り返して回答を生成しています 生成AI ( Transformer )が実際にやっていること 38 あなた

    は 猫 です か ? LLM ユーザーからの質問 あなた は 猫 です か ? いいえ 2.ここ(次)にハマる確率の最も高い単語が導出される 1.ユーザーからの文章が トークン化されて入る あなた は 猫 です か ? いいえ 私 4.ここ(次)にハマる確率の最も高い単語が導出される out out IN IN 5.トークンが追加された全文を再度LLMに入れる 以降、文書終わりフラグ(EOS)が来るまで、繰り返し ※画像生成の場合、次の予測という形式ではなく、白紙(全てがノイズ)の全体から少しずつ確率に基づいて色を調整し(ノイズを除去し)、鮮明にしていくイメージです 3.トークンが追加された全文を再度LLMに入れる LLM内には会話を永続的に記憶する機構はなく、 LLMがモデル構築時に学習した文書データを元に 次の単語を予測し、問いの文章に繋いでいっているだけ Copyright © 2026, Oracle and/or its affiliates
  27. 平均化の罠 LLMがモデル構築時に学習した文書データを元に 次の単語を予測し、問いの文章に繋いでいっているだけ なので、弱点があります 平均化の罠 • 学習データの確率に依存するため、大量にある一般的な情報の影響が強く出る • 有名なもの、一般的なものに過剰に結びついてしまう •

    「ロミオ」はすぐ「ジュリエット」に結びついてしまう • 文脈による意味の変化に対応しにくい • 「望遠鏡で泳ぐ少女を見た」 → 「望遠鏡」で「見た」 が一般的 • 「驚くべきことに望遠鏡で泳ぐ少女を見た」 → 「驚くべきことに」が入ることにより本当は「望遠鏡で泳ぐ」可能性 があるが、、 生成AIの弱点 :第1弾:平均化の罠 40 これに対抗する手段の1つとしてプロンプトを利用した制御があります Copyright © 2026, Oracle and/or its affiliates
  28. プロンプト プロンプトとは、LLMに送る「コンテキスト(文脈)全体」のこと。 質問文だけではなく、役割や話題の方向性などの「情報の土台」を構築することで、LLMが生成する単語の 確率分布をコントロールすることができる。一般的な情報に向かいがちなLLM回答を質問者の意図した文脈 に固定し、平均化の罠の回避を試みることができる LLMにもよるが、プロンプトは一般に用途によって以下の4つのタグが設けられていることが多い • system • 基本的に全てのやり取りに付与され、憲法のように最も権限が強い命令と認識される。

    • 絶対守らなければならないルールやサービスを定義するようなAIサービス提供側の仕様書にもなる • user • ユーザの入力内容(履歴含む) • assistant • 生成AIの回答内容(履歴含む) • tool/tool_use/function.. • 生成AIが外部ツールなどを利用して取得した結果(比較的新しいタグ) VS 平均化の罠: 41 ※前述の通り、LLMにはこれらの全てが毎回渡され、次の単語を予測するという動作を行うことで回答を生成していきます。 そのためsystemだけでなく、質問文(user)の記載によっても一定の制御が可能となっています。 Copyright © 2026, Oracle and/or its affiliates
  29. LLMがモデル構築時に学習した文書データを元に 次の単語を予測し、問いの文章に繋いでいっているだけ なので、弱点があります • 知識の不足 →ハルシネーション(尤もらしい嘘/幻覚) • 学習していない未知の事柄に対し、「辞書にある単語の繋がり」だけで文章を構築してしまう。 • 分からないと言わずに、単語の繋がりの確率の良い組み合わせ(尤もらしく見える)で文章を作ってしまう

    • 例)マニアックなコード生成をさせるとありそうだけど存在しない関数を使ったコードを生成、 • 記憶容量の不足 → コンテキストウィンドウの限界 • 実装上、一度に入力できる文字数に限界があるため、それを超えたデータを与えることができない • 人と違い限界に達するとそれ以前のやり取りは完全に忘却されるため様々な違和感が発生する • 限界を超えたデータを対象とした質問ができない 生成AIの弱点 :第2弾:知識の不足/記憶容量の不足 42 Copyright © 2026, Oracle and/or its affiliates
  30. Retrieval Augmented Generation (RAG) RAGとは、外部ナレッジベースを検索して、関連するデータを取得、 プロンプトに加えることでLLMが知らない情報を補完し、回答を生成する手法。 • 知識の不足を外部ナレッジベースから取得したデータで補う • 検索結果の応答の量を調整することで記憶容量の限界にも配慮

    膨大なデータから"必要な箇所を含む一部だけ"を検索抽出してプロンプトに渡すことで、記憶容量(コンテ キストウィンドウ)の限界も回避 VS 知識の不足 / 記憶容量の限界 43 ※詳しくは別セッション AI Vector Searchで触れる予定です ユーザー RAG機構 LLM ナレッジベース ②検索では、キーワード検索だけでは意図に合わない情報を 拾ってきてしまうことが頻出し、ベクトル検索(意味的に近い情 報を検索する技術)が文書RAGの検索技術として台頭 ①質問 ②検索 ③検索結果 ④質問+検索結果 ⑤回答 Copyright © 2026, Oracle and/or its affiliates
  31. ReActパターン(ReAct) ReActは与えられたタスクに対して、 1.何が必要かを考え(Reason:推論)し、 2.行動(Action)し、 3.結果を観察(Observation)する というループを正しいと思われる回答になるまで繰り返す方法論。 このループで、RAGの一発勝負という弱点を克服し、検索が失敗しても、必要な情報取 得が完了するまで検索などのツール利用を行い結果を取得することが可能になる ※ LLMによるReActが期待した動作をするのは、このReason,

    Action, Observationのサイクルが多くの学習データの単語出現パ ターンとして出現していたため、結果的に正しいReasonが導き出せているだけ → LLMが思考できているわけではない そのためReActの動作制御においても単語予想の確率操作という観点でプロンプトを記述することが有効であるケースが多いです。 (例:fewshot(具体例)の提示、Actionの選択肢を明示的に記述、Reason結果の妥当性評価結果を強制、否定文は苦手なので避ける) VS RAGの弱点:一発勝負 45 ユーザー ReAct機構 LLM ツール Copyright © 2026, Oracle and/or its affiliates
  32. 性能問題/コンテキスト問題再び ReAct普及で顕在化した課題: • 性能問題: ループ中は処理フローが待ち状態に • ループ中はユーザーから見るとダンマリになる • 内部でReAct機構とLLM,ツール(検索など)やり取りが続く •

    結果が芳しくなくLLM問い合わせ回数が増加すると更に応答が劣化 • フローが長く、複数回、複種類のツール利用結果をまとめるような処理では顕著に性能が劣化する • コンテキスト問題再燃: プロンプトの肥大化 • ReAct機構のプロンプトには大量の情報が詰め込まれていく • Reason,Action,ObervationのReAct動作の基本データ、 ReAct制御のための情報、ユーザ意図を含む 情報、ツールの使用ルール、取得されたデータなど • 多様な処理を繰り返すとプロンプトが爆発的に肥大化コンテキストウィンドウの上限が問題に • 過去文脈の忘却による誤回答などが発生 ReActの次の壁: 49 ユーザー ReAct機構 LLM ツール コンテキスト 肥大化 いつまで待てば いいのか AI Agent Copyright © 2026, Oracle and/or its affiliates
  33. Multi-Agent構成 問い合わせをタスクに分割し、各タスクを並列なReAct機構(AI Agent)を分担する Multi-Agent構成によって各問題の解決を図ってる • VS 性能問題(ループ中は処理フローが待ち状態に): • 問い合わせを本来の処理フローから分離並列化することで待ちの回避 •

    VS コンテキスト問題(プロンプトの肥大化): • 役割を分担することで1つのプロンプトに与えるコンテキストを削減 AI Agent間の上下関係の有無、集約的な処理の有無などでトポロジーはいろいろあるが上記の課題を複 数のAI Agentを動作させることで解決しようという方向性は同じ 残念ながら ここで更に問題が VS ReActの次の壁:性能問題/コンテキスト問題再び 50 AI Agent (Manager) (Orchestrator) ユーザー AI Agent (Worker) AI Agent (Worker) Copyright © 2026, Oracle and/or its affiliates
  34. ツールの混沌 Agentが量産され利用ツールが多様化するとツールの混沌が顕現 • ツールの混沌の要因 • 仕様がバラバラ • 呼び出し方式,認証/認可,利用ルールがツールごとに違う • ツール/Agentごとの認証認可

    • 出力形式がバラバラ ( json/text/yaml/表..) • エラー処理がバラバラ (リトライ、フォールバック,,) • コンテキスト肥大化の再再燃 • 各Agentがツールの仕様書をプロンプトに保持 Multi-Agent推進の足枷に • Agent開発ごとに都度仕様書学習・記述が必要 • コンテキストの肥大化問題 • 新規ツール追加のたびにAgent改修 • Agentが増えると運用コストが膨大に Multi-Agent構成で顕在化した問題: 51 Agent A ツールA ツールB Agent B ツールC ツール 仕様書 A ツール 仕様書 B ツール 仕様書 A ツール 仕様書 C ・各Agentはツール仕様書を持つ必要あり ・使うツールの分だけツールの情報を保持 ・各ツールへの認証認可も管理 ツールE ツール 仕様書 E Agent C ツール 仕様書 A ツール 仕様書 B ツール 仕様書 C ツール 仕様書 E ツールD ツール 仕様書 D ツール 仕様書 D ユーザー コンテキスト ユーザー コンテキスト ユーザー コンテキスト Copyright © 2026, Oracle and/or its affiliates
  35. mcp/mcpサーバによるツールの混沌からの解放 ツールに関連する情報をmcp サーバに集約することで、 Agent-ツール間に存在した多くの問題が解決 • ツール仕様書をMCPサーバー側に一元管理 → プロンプト肥大化を根本解消 • 呼び出し形式・認証・エラー処理を標準化

    → カオスが消滅 • 新規ツール追加時もMCPサーバーだけ改修 → Agent側改修が最小化 VS ツールの混沌 52 Agent A ツールA ツールB Agent B ツールC ・ツール仕様書などはMCPサーバに集約管理 ・AgentはMCPサーバに共通フォーマットでツール と必要項目だけを遅ればMCP サーバが実行し、 結果をAgentに返す ツールE Agent C ツールD MCP サーバー ツール 仕様書 A ツール 仕様書 B ツール 仕様書 D ツール 仕様書 E ツール 仕様書 C mcp mcp mcp MCPは本来、異種LLMモデル間やクライアントとLLM間でコンテキストを集約することを目的としていた。し かし、複数ツールの同期処理のニーズから、機能的にインターフェイスを共通化する仕組みも備えていた。こ れに目をつけたAgent開発者たちは、MCP/MCP ServerをJSON-RPCで簡単に連携できるAPIハブと して利用し、さらにMCPに対応するツールが増えたこともあって、結果的に現在ではAPIのハブのような位置 付けで運用されている。 ユーザー コンテキスト ユーザー コンテキスト ユーザー コンテキスト Copyright © 2026, Oracle and/or its affiliates
  36. • 人工知能技術、機械学習技術では処理系(アルゴリズム)とデータが重要な進化材料 • 今は第3次ブームの真っ只中 • 今回は以下のように区分した • 人工知能>機械学習>ニューラルネットワーク>深層学習>Transformer>生成AI 機械学習パート •

    データを学習することで特定のタスクを実行するもの • タスクには大きく、現状把握、未来予測、最適な行動があり、 • それぞれ、教師なし学習、教師あり学習、強化学習が対応する 生成AI • 生成AI/LLMはTransformerの発明によって生まれたモデル • LLMは与えられた文章からそれに続く単語を予測することを繰り返して文章生成をしているだけ • まだ歴史が浅いこともあり、様々な弱点があり、それを克服するたびに新しい課題が顕在化しては、対応する手法が発 見されるということを繰り返しており、今後も様々な手法が出てくることが予想される • Prompt -> RAG -> ReAct = Agent -> Multi-Agent -> mcp まとめ 55 Copyright © 2026, Oracle and/or its affiliates
  37. 56