Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ゲーム産業におけるAIアーキテクチャと自動化工程

miyayou
September 01, 2023

 ゲーム産業におけるAIアーキテクチャと自動化工程

情報処理学会 連続セミナー2023第5回 の講演資料です。

miyayou

September 01, 2023
Tweet

More Decks by miyayou

Other Decks in Business

Transcript

  1. レベルスクリプト ナビゲーションAI キャラクターAI メタAI 1995 2000 2005 2010 1994 (ゲームの3D化)

    1999 (スクリプティッドAIによる 大型ゲームのキャラクター制御の限界。 自律型AI技術のアカデミックからの流入) 2005 (ウィル・ライトによる“メタAI”定義) 2008 (“LEFT 4 DEAD”に におけるAI Director) 2010頃~ (オープンワールド型 ゲームの隆盛) スパーシャルAI 1980 PlayStation (1994) Xbox360 (2005) PlayStation3 (2006) スクリプティッドAI 三宅陽一郎、水野勇太、里井大輝、 「メタAI」と「AI Director」の歴史的発展、日本デジタルゲーム学会(2020年、Vol.13, No.2) LS-Modelモデル LCN-AI連携モデル MCS-AI動的連携モデル MCN-AI連携モデル
  2. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル(三宅,2020)
  3. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル
  4. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル
  5. 知能の世界 環境世界 認識の 形成 記憶 意思の 決定 身体 制御 エフェクター・

    身体 運動の 構成 センサー・ 身体 意思決定 モジュール 意思決定 モジュール 意思決定 モジュール 記憶体 情報処理過程 運動創出過程 身体部分 情報 統合 運動 統合
  6. FC SFC SS, PS PS2,GC,Xbox Xbox360, PS3, Wii DC (次世代)

    Hardware 時間軸 2005 1999 ゲームの進化と人工知能 複雑な世界の 複雑なAI ゲームも世界も、AIの身体と内面もますます複雑になる。 単純な世界の シンプルなAI (スペースインベーダー、タイトー、1978年) (アサシンクリード、ゲームロフト、2007年)
  7. 強化学習(例) 強化学習 (例)格闘ゲーム キック パン チ 波動 R_0 : 報酬=ダメージ

    http://piposozai.blog76.fc2.com/ http://dear-croa.d.dooo.jp/download/illust.html
  8. 強化学習 (例)格闘ゲームTaoFeng におけるキャラクター学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero Candela

    Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx Microsoft Research Playing Machines: Machine Learning Applications in Computer Games http://research.microsoft.com/en-us/projects/mlgames2008/ Video Games and Artificial Intelligence http://research.microsoft.com/en-us/projects/ijcaiigames/
  9. 機能環 効果器 受容器(刺激→興奮(記号)) 客体 活動神経網 知覚神経網 前野佳彦訳・ユクスキュル「動物の環境と内的世界」 (みすず書房) 知覚世界 活動世界

    知覚微表担体 対象化された機構 活動担体 内的世界 興奮(記号) 興奮 興奮 運動形態 =特定の筋肉を動かす 中枢神経網
  10. Physical Informat ion Abstract Informat ion More Abstract Informat ion

    Abstraction Time Decision-Making Decision-Making Decision-Making Multi-Layered Blackboard Abstraction Abstraction Reduction Reduction Reduction World World Dynamics Artificial Intelligence Object Object image on the lowest layer (Umwelt) Object image on the second layer Object image on the third layer Decision-Making Object image on the top layer
  11. 年 企業 テーマ 開発環境公開 2003 Microsoft 「Teo Feng」における強化学習 2005 Microsoft

    「Forzamotor Sports」における強化学習 2013 DeepMind AtariのゲームをDQNで学習 〇 2015 DeepMind 囲碁 AlphaGO 2017 AnyLogic 倉庫・機械などモデルのシミュレーション Microsoft 「パックマン」多報酬学習 Hybrid Reward Architecture for Reinforcement Learning 〇 2019 Google 「サッカーシミュレーター」による強化学習の研究 〇 DeepMind 「Capture the flag」によるディープラーニング学習 〇 Microsoft 「AirSim」ドローンシミュレーター 〇 Nvidia 「ドライビングシミュレーター」 Mircrosoft 「TextWorld」アドベンチャーゲームを題材に言語学習 〇 facebook 「CraftAssist」マインクラフト内で会話研究 〇 CarMelon カーネギーメロン大学「MineRL」マインクラフトを使ったAIコンテスト 〇 facebook 「LIGHT」ファンタジーワールドを構築してクラウドワーカーで会話研究 〇 OpenAI 「Dota2」OpenAIによる「OpenAIFive」 〇 DeepMind 「StarCraft2」AlphaStar 〇 DeepMind 「Capture the Flag」QuakeIII エンジン 〇 2020 Nvidia GameGAN「ディープラーニングによるパックマンの目コピー」 〇 DeepMind 「Agent57」AtariのほとんどのゲームをDQN+LSTMなどで学習 〇 OpenAI 「HIDE AND SEEK」かくれんぼを用いたマルチエージェントのカリキュラム学習 〇
  12. Early in the learning process … … after 15 minutes

    of learning Reward for decrease in Wulong Goth’s health Ralf Herbrich, Thore Graepel, Joaquin Quiñonero Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx
  13. Early in the learning process … … after 15 minutes

    of learning Punishment for decrease in either player’s health Ralf Herbrich, Thore Graepel, Joaquin Quiñonero Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx
  14. Ralf Herbrich, Thore Graepel Applied Games Group Microsoft Research Cambridge

    Ralf Herbrich, Thore Graepel, Joaquin Quiñonero Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" https://www.slideserve.com/liam/forza-halo-xbox-live-the-magic-of- research-in-microsoft-products
  15. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx
  16. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx
  17. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 • 揺らぎ • ライン – コーナーやそのコンビネーションに対し

    て、どれぐらいスムーズに車をガイドするか。 • コーナーへの突入スピードとブレーキを踏むタイ ミングと。保守的か過激か。 • コーナーの頂点にどれぐらい近づくか、どれぐら いの速度でそこを抜けるか? • コーナーを抜ける時のスピードとコーナーを回る 時のスピード。 Drivatar がプレイヤーのコントロールから学習するもの Microsoft Research Drivatar™ in Forza Motorsport http://research.microsoft.com/en-us/projects/drivatar/forza.aspx
  18. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx プレイヤーの特性を解析する 特徴となる数値をドライブモデルに渡す
  19. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx レーシングラインを事前に構築する。生成というよりテーブルから組み合わせる。
  20. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx レーシングラインを事前に構築する。生成というよりテーブルから組み合わせる。
  21. 機械学習 (例)FORZA MOTORSPORT におけるドライビング学習 Ralf Herbrich, Thore Graepel, Joaquin Quiñonero

    Candela Applied Games Group,Microsoft Research Cambridge "Forza, Halo, Xbox Live The Magic of Research in Microsoft Products" http://research.microsoft.com/en-us/projects/drivatar/ukstudentday.pptx レーシングラインに沿わせるのではなく、理想とする位置とスピードから コントローラーの制御を計算して、物理制御によって車を運転する。
  22. Forza motorsports (EA) Jeffrey Schlimmer, "Drivatar and Machine Learning Racing

    Skills in the Forza Series" http://archives.nucl.ai/recording/drivatar-and-machine-learning-racing-skills-in-the-forza-series/
  23. Drivatar (Microsoft, Forza Motorsport) How Forza's Drivatar Actually Works |

    AI and Games #60 https://www.youtube.com/watch?v=JeYP9eyIl4E
  24. 年 企業 テーマ 開発環境公開 2003 Microsoft 「Teo Feng」における強化学習 2005 Microsoft

    「Forzamotor Sports」における強化学習 2013 DeepMind AtariのゲームをDQNで学習 〇 2015 DeepMind 囲碁 AlphaGO 2017 AnyLogic 倉庫・機械などモデルのシミュレーション Microsoft 「パックマン」多報酬学習 Hybrid Reward Architecture for Reinforcement Learning 〇 2019 Google 「サッカーシミュレーター」による強化学習の研究 〇 DeepMind 「Capture the flag」によるディープラーニング学習 〇 Microsoft 「AirSim」ドローンシミュレーター 〇 Nvidia 「ドライビングシミュレーター」 Mircrosoft 「TextWorld」アドベンチャーゲームを題材に言語学習 〇 facebook 「CraftAssist」マインクラフト内で会話研究 〇 CarMelon カーネギーメロン大学「MineRL」マインクラフトを使ったAIコンテスト 〇 facebook 「LIGHT」ファンタジーワールドを構築してクラウドワーカーで会話研究 〇 OpenAI 「Dota2」OpenAIによる「OpenAIFive」 〇 DeepMind 「StarCraft2」AlphaStar 〇 DeepMind 「Capture the Flag」QuakeIII エンジン 〇 2020 Nvidia GameGAN「ディープラーニングによるパックマンの目コピー」 〇 DeepMind 「Agent57」AtariのほとんどのゲームをDQN+LSTMなどで学習 〇 OpenAI 「HIDE AND SEEK」かくれんぼを用いたマルチエージェントのカリキュラム学習 〇
  25. Q-Learning とは • Q = 期待される報酬 (意思決定関数) • S =

    State (座標、速度、現在の姿勢) • A = Action (キック、パンチ、波動拳) • R = 報酬 • Q (s,a ) という関数を決める方法
  26. 世界 五感 身体 言語 知識表 現型 知識 生成 Knowledge Making

    意思決定 Decision Making 身体 運動 生成 Motion Making インフォメーション・フロー(情報回廊) 記憶 キャラクターにおける学習の原理 行動の表現 結果の表現 意思決定 Q(s,a) 関数
  27. Deep Q Network (DQN)とは • Q = 予想される報酬 (意思決定関数) •

    S = State (座標、速度、現在の姿勢) • A = Action (キック、パンチ、波動拳) • R = 報酬 • Q (s,a ) という関数を決める方法 深層ニューラルネットワーク Deep Q Network
  28. 世界 五感 身体 言語 知識表 現型 知識 生成 Knowledge Making

    意思決定 Decision Making 身体 運動 生成 Motion Making インフォメーション・フロー(情報回廊) 記憶 キャラクターにおける学習の原理 行動の表現 状態・結果の表現 意思決定 ニューラル ネットワーク (DQN)
  29. 年 企業 テーマ Open 2003 Microsoft 「Teo Feng」における強化学習 2005 Microsoft

    「Forzamotor Sports」における強化学習 2013 DeepMind AtariのゲームをDQNで学習 〇 2015 DeepMind 囲碁 AlphaGO 2017 AnyLogic 倉庫・機械などモデルのシミュレーション Microsoft 「パックマン」多報酬学習 Hybrid Reward Architecture for Reinforcement Learning 〇 2019 Google 「サッカーシミュレーター」による強化学習の研究 〇 DeepMind 「Capture the flag」によるディープラーニング学習 〇 Microsoft 「AirSim」ドローンシミュレーター 〇 Nvidia 「ドライビングシミュレーター」 Mircrosoft 「TextWorld」アドベンチャーゲームを題材に言語学習 〇 facebook 「CraftAssist」マインクラフト内で会話研究 〇 CarMelon カーネギーメロン大学「MineRL」マインクラフトを使ったAIコンテスト 〇 facebook 「LIGHT」ファンタジーワールドを構築してクラウドワーカーで会話研究 〇 OpenAI 「Dota2」OpenAIによる「OpenAIFive」 〇 DeepMind 「StarCraft2」AlphaStar 〇 DeepMind 「Capture the Flag」QuakeIII エンジン 〇 2020 Nvidia GameGAN「ディープラーニングによるパックマンの目コピー」 〇 DeepMind 「Agent57」AtariのほとんどのゲームをDQN+LSTMなどで学習 〇 OpenAI 「HIDE AND SEEK」かくれんぼを用いたマルチエージェントのカリキュラム学習 〇
  30. Deep Q-Learning (2013) Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex

    Graves, Ioannis Antonoglou, Daan Wierstra, Martin Riedmiller (DeepMind Technologies) Playing Atari with Deep Reinforcement Learning http://www.cs.toronto.edu/~vmnih/docs/dqn.pdf 画面を入力 操作はあらかじめ教える スコアによる強化学習
  31. 学習過程解析 Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis

    Antonoglou, Daan Wierstra, Martin Riedmiller (DeepMind Technologies) Playing Atari with Deep Reinforcement Learning http://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
  32. • Pπ ロールアウトポリシー(ロールアウトで討つ手を決める。 Pπ(a|s) sという状態でaを討つ確率) • Pσ Supervised Learning Network

    プロの討つ手からその 手を討つ確率を決める。Pσ(a|s)sという状態でaを討つ確 率。 • Pρ 強化学習ネットワーク。Pρ(学習済み)に初期化。 • Vθ(s’) 局面の状態 S’ を見たときに、勝敗の確率を予測 する関数。つまり、勝つか、負けるかを返します。 Mastering the game of Go with deep neural networks and tree search http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html https://deepmind.com/research/alphago/
  33. 囲碁AI: 位置評価関数から位置評価ニューラルネットワークへ Mastering the game of Go with deep neural

    networks and tree search http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html https://deepmind.com/research/alphago/ S Q R
  34. 年 企業 テーマ Open 2003 Microsoft 「Teo Feng」における強化学習 2005 Microsoft

    「Forzamotor Sports」における強化学習 2013 DeepMind AtariのゲームをDQNで学習 〇 2015 DeepMind 囲碁 AlphaGO 2017 AnyLogic 倉庫・機械などモデルのシミュレーション Microsoft 「パックマン」多報酬学習 Hybrid Reward Architecture for Reinforcement Learning 〇 2019 Google 「サッカーシミュレーター」による強化学習の研究 〇 DeepMind 「Capture the flag」によるディープラーニング学習 〇 Microsoft 「AirSim」ドローンシミュレーター 〇 Nvidia 「ドライビングシミュレーター」 Mircrosoft 「TextWorld」アドベンチャーゲームを題材に言語学習 〇 facebook 「CraftAssist」マインクラフト内で会話研究 〇 CarMelon カーネギーメロン大学「MineRL」マインクラフトを使ったAIコンテスト 〇 facebook 「LIGHT」ファンタジーワールドを構築してクラウドワーカーで会話研究 〇 OpenAI 「Dota2」OpenAIによる「OpenAIFive」 〇 DeepMind 「StarCraft2」AlphaStar 〇 DeepMind 「Capture the Flag」QuakeIII エンジン 〇 2020 Nvidia GameGAN「ディープラーニングによるパックマンの目コピー」 〇 DeepMind 「Agent57」AtariのほとんどのゲームをDQN+LSTMなどで学習 〇 OpenAI 「HIDE AND SEEK」かくれんぼを用いたマルチエージェントのカリキュラム学習 〇
  35. DQNのさらなる発展 • 最後までスコアに苦しんだゲーム • Montezuma’s Revenge • Pitfall • Solaris

    • Skiing Agent57: Outperforming the human Atari benchmark (DeepMind) https://deepmind.com/blog/article/Agent57-Outperforming-the-human-Atari-benchmark
  36. 年 企業 テーマ Open 2003 Microsoft 「Teo Feng」における強化学習 2005 Microsoft

    「Forzamotor Sports」における強化学習 2013 DeepMind AtariのゲームをDQNで学習 2015 DeepMind 囲碁 AlphaGO 2017 AnyLogic 倉庫・機械などモデルのシミュレーション Microsoft 「パックマン」多報酬学習 Hybrid Reward Architecture for Reinforcement Learning 2019 Google 「サッカーシミュレーター」による強化学習の研究 〇 DeepMind 「Capture the flag」によるディープラーニング学習 Microsoft 「AirSim」ドローンシミュレーター 〇 Nvidia 「ドライビングシミュレーター」 Mircrosoft 「TextWorld」アドベンチャーゲームを題材に言語学習 〇 facebook 「CraftAssist」マインクラフト内で会話研究 〇 CarMelon カーネギーメロン大学「MineRL」マインクラフトを使ったAIコンテスト 〇 facebook 「LIGHT」ファンタジーワールドを構築してクラウドワーカーで会話研究 〇 OpenAI 「Dota2」OpenAIによる「OpenAIFive」 〇 DeepMind 「StarCraft2」AlphaStar 〇 DeepMind 「Capture the Flag」QuakeIII エンジン 〇 2020 Nvidia GameGAN「ディープラーニングによるパックマンの目コピー」 〇 DeepMind 「Agent57」AtariのほとんどのゲームをDQN+LSTMなどで学習 〇 OpenAI 「HIDE AND SEEK」かくれんぼを用いたマルチエージェントのカリキュラム学習 〇
  37. 「かくれんぼ」によってマルチエージェ ントを学習させる • オブジェクトがあって、動かしたり固 定したりできる。 • オブジェクトは直方体、傾斜台、長い 板がある。 • 一度固定したオブジェトは動かせない

    • エージェントは次第にオブジェクトを 利用してかくれんぼをするようになる • 6種類の戦術を順番に発見・学習して いく https://openai.com/blog/emergent-tool-use/ Emergent Tool Use From Multi-Agent Autocurricula (2019) Bowen Baker, Ingmar Kanitscheider, Todor Markov, Yi Wu, Glenn Powell, Bob McGrew, Igor Mordatch https://arxiv.org/abs/1909.07528
  38. 意思決定 スパーシャル AI モーション クエリー 返答 報告 ボディ層 (身体層) 環境

    センサー センサー センサー 静的・動的解析 状態指定 報告 メタAI クエリー 返答 タスク (命令) ゲームプレイ結果報告 ナビゲー ションAI モーション 指定 キャラクターAI 自動生成 プロシージャル技術 ゲームプレイ
  39. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル
  40. ネットワーク上のグラフ検索法 A*法 M F L B A S O P

    D C G S V H Q X K N J R T W E I U Z Y G 5 4 6 3 7 2 3 B C 3 3 2 2 4 3 5 5 出発点(S)を中心に、そのノードまでの 最も短い経路を形成して行く。Gにたどり着いたら終了。 ゴール地点がわかっている場合、現在のノードとゴールとの推定距離(ヒューリスティック距離) を想定して、トータル距離を取り、それが最少のノードを探索して行く。 各ノードの評価距離=出発点からの経路+ヒューリスティック距離 ヒューリスティック距離 (普通ユークリッド距離を取る) 3+14.2 3+13.8 G H 3 5+10.5 6+8.4
  41. (メッシュ) コスト : 0.5 見通し: 1.0 地表: 土 (メッシュ) コスト

    : 0.8 見通し: 0.7 地表: 沼 (オブジェクト) 動かせる : (1.0,0.8)向き 持ち上げる: false 上に乗れる: false 硬さ: 0.9 重たさ: 0.4 (オブジェクト) アクション:レバー倒す 効果: 扉が開く (オブジェクト)扉 メッシュ同士の リンク情報
  42. プレイヤー予測経路(ゴールデンパス) M. Jack , M. Vehkala, “Spaces in the Sandbox:

    Tactical Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  43. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  44. Tom Mathews Making "Big Data" Work for 'Halo': A Case

    Study http://ai-wiki/wiki/images/d/d8/AI_Seminar_177th.pdf
  45. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  46. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  47. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  48. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  49. M. Jack , M. Vehkala, “Spaces in the Sandbox: Tactical

    Awareness in Open World Games,” GDC 2013, https://www.gdcvault.com/play/1018136/Spaces-in-the-Sandbox-Tactical
  50. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル
  51. (例)「ゼビウス」(ナムコ、1983) 敵出現テーブル巻き戻し 敵0 敵1 敵2 敵3 敵4 敵5 『あと面白い機能なんですけれど、 ゼビウスには非常に簡単なAIが組み込まれています。

    「プレイヤーがどれくらいの腕か」というのを判断して、 出てくる敵が強くなるんです。 強いと思った相手には強い敵が出てきて、 弱いと思った相手には弱い敵が出てきます。 そういっ たプログラムが組み込まれています。 ゲームの難易度というのは「初心者には難しくて、上級者 には簡単だ」ということが、 ひとつの難易度で(調整を)やっていくと起きてしまうので、 その辺を何 とか改善したいな、ということでそういったことを始めてみたのですけれど、 お陰で割合にあまり上 手くない人でも比較的長くプレイできる、 うまい人でも最後のほうに行くまで結構ドラマチックに楽 しめる、 そういった感じになっています。』 - 遠藤雅伸(出演)、1987、「糸井重里の電視遊戯大展覧会」『遠藤雅伸ゼビウスセミナー』フジテレビ -
  52. メタAI(=AI Director)によるユーザーのリラックス度に応じた敵出現度 ユーザーの緊張度 実際の敵出現数 計算によって 求められた 理想的な敵出現数 Build Up …プレイヤーの緊張度が目標値を超えるまで

    敵を出現させ続ける。 Sustain Peak … 緊張度のピークを3-5秒維持するために、 敵の数を維持する。 Peak Fade … 敵の数を最小限へ減少していく。 Relax … プレイヤーたちが安全な領域へ行くまで、30-45秒間、 敵の出現を最小限に維持する。 Michael Booth, "The AI Systems of Left 4 Dead," Artificial Intelligence and Interactive Digital Entertainment Conference at Stanford. http://www.valvesoftware.com/publications.html より具体的なアルゴリズム
  53. 安全な領域までの道のり(Flow Distance) メタAIはプレイヤー群の経路を トレースし予測する。 - どこへ来るか - どこが背面になるか - どこに向かうか

    Michael Booth, "The AI Systems of Left 4 Dead," Artificial Intelligence and Interactive Digital Entertainment Conference at Stanford. http://www.valvesoftware.com/publications.html
  54. プレイヤーからの可視領域 可視領域(プレイヤーから見えている 部屋)では、敵のスパウニング(発生) はできない。 Michael Booth, "The AI Systems of

    Left 4 Dead," Artificial Intelligence and Interactive Digital Entertainment Conference at Stanford. http://www.valvesoftware.com/publications.html
  55. 敵出現領域 背後 前方 Michael Booth, "The AI Systems of Left

    4 Dead," Artificial Intelligence and Interactive Digital Entertainment Conference at Stanford. http://www.valvesoftware.com/publications.html 前方と背後のプレイヤー群から見えてない部屋に、 モンスターを発生させる。
  56. Procedural Generation in WarFrame • Warframe ではダンジョンが自動生成される。 Daniel Brewer, AI

    Postmortems: Assassin's Creed III, XCOM: Enemy Unknown, and Warframe (GDC2015) http://www.gdcvault.com/play/1018223/AI-Postmortems-Assassin-s-Creed
  57. Black Combination in WarFrame • ブロックを組み合わる • 完全に零からの生成 ではない。 このような生成のことを

    Semi-procedural と言う。 Daniel Brewer, AI Postmortems: Assassin's Creed III, XCOM: Enemy Unknown, and Warframe (GDC2015) http://www.gdcvault.com/play/1018223/AI-Postmortems-Assassin-s-Creed
  58. スタートポイント、出口、目的地の 自動生成 Daniel Brewer, AI Postmortems: Assassin's Creed III, XCOM:

    Enemy Unknown, and Warframe (GDC2015) http://www.gdcvault.com/play/1018223/AI-Postmortems-Assassin-s-Creed
  59. ヒートマップ(影響マップ)を用いて ゲーム中にプレイヤーの周囲を自動解析 Daniel Brewer, AI Postmortems: Assassin's Creed III, XCOM:

    Enemy Unknown, and Warframe (GDC2015) http://www.gdcvault.com/play/1018223/AI-Postmortems-Assassin-s-Creed ヒートマップ(影響マップ)とは、対象(ここではプレイヤー)を中心に、位置に温度(影響度)を 与える方法です。距離に応じて減衰します。また時間が経つと、周囲に熱が拡散します。
  60. Tactical Map の例 (影響マップ) (例)敵と自分の勢力をリアルタイムに計算する。 4 6 8 8 8

    8 6 4 2 0 -1 -2 -4 -4 -4 -2 4 6 8 8 8 8 4 2 1 0 -2 -4 -4 -2 4 6 8 8 8 6 3 1 0 -2 -4 -4 -4 -2 4 6 8 8 8 6 6 4 1 0 -2 -4 -4 -2 2 4 6 8 6 6 4 4 0 -1 -2 -4 -4 -4 -2 1 2 4 6 6 4 2 2 -4 -5 -3 -3 -4 -4 -2 -1 3 3 3 3 4 2 2 0 -4 -5 -5 -8 -8 -6 -4 -2 3 3 2 2 2 0 -2 -4 -8 -10 -10 -8 -4 -2 3 3 3 2 2 1 0 -4 -8 -10 -10 -8 -8 -4 -2 2 2 2 2 1 1 0 -3 -8 -10 -10 -8 -8 -4 -2 1 1 1 1 0 0 -2 -4 -8 -8 -8 -8 -8 -8 -8 -8 0 0 0 0 0 -1 -1 -2 -5 -6 -6 -6 -8 -8 -8 0 0 0 0 -1 -2 -2 -2 -4 -4 -4 -6 -8 -8 -8 -8 0 0 0 0 -1 -2 -2 -2 -2 -2 -2 -2 -2 -2 -2 0 0 0 0 -1 -2 -2 -2 -2 -2 -2 -2 -2 -2 -2 -2 0 0 0 0 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1
  61. アクティブ・エリアセット(Active Are Set) Daniel Brewer, AI Postmortems: Assassin's Creed III,

    XCOM: Enemy Unknown, and Warframe (GDC2015) http://www.gdcvault.com/play/1018223/AI-Postmortems-Assassin-s-Creed アクティブ・エリアセットは、プレイヤーの周囲の領域で、 リアルタイムにメタAIがゲームを調整する領域
  62. ゲームとディープラーニング 現状 • この3年間で、ゲーム産業以外で、ゲームを用いたディープ ラーニングの研究が増加している。 • 当のゲーム産業では、それ程多くない。 理由 • 強化学習(DQNなど)を研究するには、結局ルールを持つシ

    ミュレーション空間を使う必要がある。 • データがないところでディープラーニングを活用したい • 現実空間で応用する前に箱庭で成長させたい • ほとんどすべて研究環境がオープンソースになっている。
  63. 現実世界 現実世界 センサー エフェクタ デジタル ツイン × 世界モデル (ディープ ラーニング)

    都市の 世界モデルの獲得 世界モデル シミュレーション 意思決定 都市の夢を見る シミュレーション エンジン 都市メタAIの エージェント・ アーキテクチャ 情報経路
  64. 現実世界 メタバース (ゲーム エンジン) 物理法則 化学法則 経済法則 社会法則 生物法則 知能の法則

    抽出 実装 物理シミュレーション 化学シミュレーション 経済シミュレーション 社会シミュレーション 生物シミュレーション 知能シミュレーション シミュレーション化 サイエンス・エンジニアリング 情報処理 物・運動 データ構造・プログラム
  65. 風 頂点 ポリゴン 頂点 移動計算 移動計算 メモリ CPU or GPU

    変 更 アーティスト エンジニア ロード (格納) 実行
  66. ゲームエンジンの時代 • ゲームエンジンは古くからある(80年代、ナムコのタスクシステム) • ゲームの規模が小さいうちは効果が大きくない • 90年代(ほとんどない。ソースコードレベル) • 00年代(黎明期) •

    ゲームエンジン群雄割拠時代(2010-2020) • 市販のエンジンに加えて、それぞれのゲーム会社でゲームエンジンが作られた • 現代では、ゲームエンジンなしで大型ゲームは作れない • ゲームエンジン=ゲームの質に直結、ゲーム開発の技術を集積する場所 • Unreal Engine(Epic)とUnity3Dが生き残った • Unreal Engine アメリカ 巨漢大砲主義の思想 • Unity 3D デンマーク(北欧)Do it yourself の思想
  67. 大型ゲームエンジン一覧(他にもたくさん) タイトル ゲームエンジン名 会社 Far Cry 3,4 DUNIA ENGINE 2

    Ubisoft Montreal THE DIVISION snow drop engine Ubisoft (massive) Assassin’s creed: syndicate AnvilNext 2.0 game engine Ubisoft Montreal For Honor AnvilNext 2.0 game engine Ubisoft Montreal Rise of Tomb Raider Foundation engine Crystal Dynamics The Witcher 3 RED ENGINE CD PROJEKT Dragon Age : Inquisition frostbite engine EA DICE ゲームエンジン名 会社 汎用型 Unity3D Unity Technologies (デンマーク) 汎用型 UNREAL ENGINE 4 Epic Games (米) 汎用型 CryEngine CryTech (独) 汎用型 Lumberyard Amazon 汎用型 Stingray Autodesk
  68. ゲームの中、ゲームの外 ゲーム周辺AI (外=開発、現実) ゲームAI (中=コンテンツ) メタAI キャラクター AI ナビゲーション AI

    開発支援 AI QA-AI 自動バランス AI インターフェース 上のAI データ マイニング シミュレーショ ン技術 ゲーム 可視化 ユーザーの 生体信号 プロシー ジャルAI
  69. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル
  70. 意思決定 スパーシャル AI モーション クエリー 返答 報告 ボディ層 (身体層) 環境

    センサー センサー センサー 静的・動的解析 状態指定 報告 メタAI クエリー 返答 タスク (命令) ゲームプレイ結果報告 ナビゲー ションAI モーション 指定 キャラクターAI 自動生成 プロシージャル技術 ゲームプレイ
  71. Rogue (1980)のダンジョン生成法 Rect[0] Rect[0] Rect[1] Rect[0] Rect[1] Rect[2] Rect[3] このようにアセット(ゲームのデータ)をツールなどを通して製作するのではなく、

    プログラムで作ることを「プロシージャル・コンテンツ・ジェネレーション」(PCG)と言う。 http://racanhack.sourceforge.jp/rhdoc/intromaze.html
  72. Far Cry 2 Dunia Engine - Growing Vegetation (Far Cry

    HQ) https://www.youtube.com/watch?v=FI3oR6vqn1Q
  73. L-system による街の自動生成 City Engine(central pictures) Yoav I H Parish, Pascal

    Müller http://www.centralpictures.com/ce/tp/paper.pdf http://www.centralpictures.com/ce/ George Kelly, Hugh McCabe, A Survey of Procedural Techniques for City Generation http://www.gamesitb.com/SurveyProcedural.pdf
  74. L-system による街の自動生成 City Engine(central pictures) Yoav I H Parish, Pascal

    Müller http://www.centralpictures.com/ce/tp/paper.pdf http://www.centralpictures.com/ce/ George Kelly, Hugh McCabe, A Survey of Procedural Techniques for City Generation http://www.gamesitb.com/SurveyProcedural.pdf
  75. 評価 選 択 交叉 突然変異 ルール チェック 整合性 がある か?

    ポリシー 選択 速度が 遅い? ゴミ 箱 テストプ レイ 前と似て いる 引き分け になり やすい 母集団 Mark J. Nelson, “Bibliography: Encoding and generating videogame mechanics”, IEEE CIG 2012 tutorial URL https://www.kmjn.org/notes/generating_mechanics_bibliography.html Cameron Browne,“Evolutionary Game Design”, SpringerBriefs in Computer Science, 2011 URL https://www.springer.com/jp/book/9781447121787
  76. PCGML PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa,

    Philip Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212
  77. PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa, Philip

    Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212
  78. PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa, Philip

    Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212
  79. PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa, Philip

    Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212
  80. PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa, Philip

    Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212 PCGRL参考 • https://twitter.com/togelius/status/1222038094507102208 • https://twitter.com/i/status/1222038094507102208
  81. ゲームAI研究の新展開 • 2023/7/4 • オーム社 CHAPTER 1 ゲームと知能研究 CHAPTER 2

    不完全情報ゲーム CHAPTER 3 不確定ゲーム CHAPTER 4 コミュニケーションゲーム CHAPTER 5 実環境のゲーム CHAPTER 6 ゲームデザイン CHAPTER 7 メタAIとプロシージャル コンテンツ ジェネレーション CHAPTER 8 人間らしさと楽しさの演出 CHAPTER 9 ゲーム体験の評価 CHAPTER 10 人間の認知機能とスキルアップの原理 CHAPTER 11 認知研究とAIの人間への影響 https://www.ohmsha.co.jp/book/9784274230776
  82. PCGRL: Procedural Content Generation via Reinforcement Learning Ahmed Khalifa, Philip

    Bontrager, Sam Earle, Julian Togelius https://arxiv.org/abs/2001.09212
  83. 人間が製作し、 人工知能がチェックする Adversarial Reinforcement Learning for Procedural Content Generation Linus

    Gisslén, Andy Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  84. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  85. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  86. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  87. CoG 2021: Adversarial Reinforcement Learning for Procedural Content Generation SEED

    – Electronic Arts https://www.youtube.com/watch?v=kNj0qcc6Fpg
  88. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  89. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  90. Adversarial Reinforcement Learning for Procedural Content Generation Linus Gisslén, Andy

    Eakins, Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar https://arxiv.org/abs/2103.04847
  91. Earth revival (Nuverse, 中国のゲーム) • 800ms以下で会話を生成 • アニメーション生成(10 から 20秒の)

    • …つまり20 時間のコンテンツをわずか48分で生成 • GPT3 • 音声生成 Nuverse lets AI do all the talking and moving of NPCs in Earth: Revival https://premortem.games/2023/03/22/nuverse-lets-ai-do-all- the-talking-and-moving-of-npcs-in-earth-revival/ ジェネレーティブAIでゲーム開発支援! GDCで発表されたリア ルな事例や取り組みを紹介 https://www.famitsu.com/news/202303/24297009.html
  92. ChatGPT と Stable Diffusion を用いた RPG: Tales of Syn •

    How AI-assisted RPG Tales of Syn utilizes Stable Diffusion and ChatGPT to create assets and dialogues • https://gameworldobserver.com/2023/03/06/tales-of-syn-ai- rpg-stable-diffusion-chatgpt-game • Tales of Syn • https://talesofsyn.com/ • https://twitter.com/_hackmans_/status/1624501399383072768
  93. ChatGPT と Stable Diffusion を用いた RPG: Tales of Syn •

    https://twitter.com/_hackmans_/status/1624501399383072768 • https://talesofsyn.com/
  94. Tales of Syn Game - NPC Chat GPT3 Prototype (Tales

    of Syn) https://www.youtube.com/watch?v=ejw6OI4_lJw
  95. ゲームとディープラーニング 現状 • この3年間で、ゲーム産業以外で、ゲームを用いたディープ ラーニングの研究が増加している。 • 当のゲーム産業では、それ程多くない。 理由 • 強化学習(DQNなど)を研究するには、結局ルールを持つシ

    ミュレーション空間を使う必要がある。 • データがないところでディープラーニングを活用したい • 現実空間で応用する前に箱庭で成長させたい • ほとんどすべて研究環境がオープンソースになっている。
  96. 参考文献 • 三宅陽一郎 「デジタルゲームAI技術を応用したスマートシティの設計」 人工知能学会誌、37巻4号(2022年) 10ページ • 三宅陽一郎 • 「メタバースの成立と未来

    ―新しい時間と空間の獲得へ向けて―」, 情報処理, Vol.63 No.7 (2022年) 34ページ https://ipsj.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=218538&item_no=1&page_id=13&block_id=8 https://www.jstage.jst.go.jp/article/jjsai/37/4/37_436/_article/-char/ja/
  97. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能 MCS-AI動的 連携モデル(三宅,2020)
  98. 都市全体の知能(意識) 交通全般を制御するAI 各エリアを 監視・制御するAI 各ビルを監視・ 制御するAI 道路を 監視・制御 するAI 各広場を

    監視・制御 するAI 人の流れを 監視・制御 するAI 抑止・委任 報告 抑止・委任 報告 監視 制御 人 ドローン ロボット デジタル アバター 報告 命令 人 監視 制御 監視 制御 協調 協調 協調・ 命令 監視 制御 デ ジ タ ル ツ イ ン / メ タ バ ス / 世 界 モ デ ル 都 市 キャラクターAI ス パ | シ ャ ル AI メタAI 空 間 記 述 表 現 協調 協調
  99. (メッシュ) コスト : 0.5 見通し: 1.0 地表: 床 推奨高度:5m (メッシュ)

    コスト : 0.5 見通し: 1.0 地表: 床 推奨高度:10m (メッシュ) コスト : 2.5 見通し: 1.0 地表: 土 推奨高度:10m 壁面:ガラス 壁との衝突は 必ず回避してください エージェント ナビゲーション・メッシュ (メッシュ) コスト : 0.5 見通し: 1.0 地表: 床 推奨高度:7m エレベーターの入り口: 使用する場合は、 メッセージ001を送ってください 空間記述表現
  100. オンラインゲーム メタバース 物理空間 世界観 強固、かつ詳細 なるべく緩い設定 現実のまま 物語 大きな物語を準備 物語に沿って

    イベントが展開 特になし ユーザーが作り出す 現実の経済、人間関係 (ソーシャル)、社会、 など無限の要素 キャラクター (人)の役割 世界、物語の中で 最初から定義 特になし ユーザー の関係の中で発生 不明(実存) オンラインゲーム 物理空間 純粋なメタバース (空っぽの空間)
  101. 現実世界 (1) お金の動き (2) 物の動き (3) 人・動物の動き (4) 自然の動き デジタル

    ツイン (現実世界 そっくりの メタバース) 同期 引き写し ミラーワールド スマートシティ センシングと情報取り込 みによる(1)-(4)の同期 ロボット・AI・情報提示に よるサービス・干渉
  102. 現実世界 現実世界 センサー エフェクタ デジタル ツイン × 世界モデル (ディープ ラーニング)

    都市の 世界モデルの獲得 世界モデル シミュレーション 意思決定 都市の夢を見る シミュレーション エンジン 都市メタAIの エージェント・ アーキテクチャ 情報経路
  103. メタバース 情報の 蓄積 シミュレー ション による予測 人間の叡知 一つの集合知性として機能する 物理空間 への作用

    センサー 意思決定 エフェクター 物理空間 からの情報 物理空間へ の作用 集合知性の エージェント・アーキテクチャ
  104. 物理世界 物理世界 デジタル世界 物理世界 集合知性 メタバース 物理世界 機械 Level I

    Level 0 Level III Level II 意識の変容 人とデジタル空間の融合 物理世界
  105. ゲームエンジンのUnityにPLATEAUのモデルを入れた画面。 モデルは、品川駅周辺のモデル ~都市全体の外観~ ~道路~ PLATEAUは建物のモデル のみなので、市民が実際に 歩くことになる道路は自作。 Pythonでの数値シミュレー ション同様、この道路1つ1 つにサービスの水準を設定

    し、市民が通ると効用が得 られるような画面を作る。 今後の展望:実際の都市の3Dモデルによるシミュレーション 石政龍矢 三宅陽一郎「メタAI型スマートシティ形成の提唱-」 第64回土木計画学研究発表大会、2021年12月
  106. メタAI型スマートシティの有効性の検証 横軸はシミュレーションの回数、縦軸は社会全体の効用について、 メタAIがある場合の効用から、ない場合の効用を引いたもの 全ての状況において、 メタAIを導入した方が社 会全体の効用が高くな る メタAIがある場合とない場合の差 各パターン 効用の差

    ~留意点~ 検証の目的はメタAIが 上手く機能することの確 認であるため、効用の 差の大きさにはあまり 意味はない 石政龍矢 三宅陽一郎「メタAI型スマートシティ形成の提唱-」 第64回土木計画学研究発表大会、2021年12月
  107. オンラインゲーム メタバース 物理空間 世界観 強固、かつ詳細 なるべく緩い設定 現実のまま 物語 大きな物語を準備 物語に沿って

    イベントが展開 特になし ユーザーが作り出す 現実の経済、人間関係 (ソーシャル)、社会、 など無限の要素 キャラクター (人)の役割 世界、物語の中で 最初から定義 特になし ユーザー の関係の中で発生 不明(実存) オンラインゲーム 物理空間 純粋なメタバース (空っぽの空間) オンラインゲームとメタバースの違い
  108. 時代 メタバース世界の多様化 2006 セカンドライフ 2008 meet-me 2018 2006 Roblox 2009

    Internet Adventure 2012 The Sandbox 2008 PlayStation Home 2011 2021 Horizon Worlds 2008 ai sp@ce メタバース 創成記 メタバースと ゲーム空間の 融合 セカンド ライフの影響 メタバースと 現実空間・ 経済との融合 2017 フォートナイト 2022 仮想通貨SAND導入(2017年-) 2003 EVE ONLINE 2015 2000 Phantasy Star Online / Phantasy Star Online 2 UGCを軸とした オンラインゲーム アイテム課金モデル 仮想通貨の隆盛
  109. ソー シャル 空間 ゲーム 空間 ソーシャル 空間 メタバース ソーシャル 空間

    1990 2010 2000 2020 オンラインゲームにおいて 徐々にソーシャル的要素が 入れられていった。SNSに 対抗する必要があった。 1990年代において ゲームはソロプレイか その場の数人でする ものであった。 ゲーム的要素の少ないソーシャル 空間をメインとするメタバースが 台頭する。しかし、ゲームとは つながっている。 ゲーム的要素がまったくない、 独立したソーシャル空間が成立 する。SNSの延長としての ソーシャル空間。 SN S SNS SNS ソーシャル 空間 SNSの台頭と拡大 ゲーム 空間 ゲーム 空間 SNS+ゲーム空間=メタバース
  110. ゲーム空間とソーシャル空間 の関係 関係図 特徴 ゲーム空間をメインとしつつ、 その周辺のソーシャル空間を 配置する ゲーム空間を補完する形、或いは ゲーム空間で満たされない部分を ソーシャル空間においてみたすよ

    うに設計する。たとえば、ゲーム 空間が戦闘であれば、ソーシャル 空間は音楽・演劇など。 ソーシャル空間をメインとし つつ、その中にゲーム空間が 埋め込まれる。 ソーシャル空間がメインであり、 そこにそれぞれ独立したゲーム空 間が埋め込まれる。多くの場合、 ユーザーが作成したミニゲームが 点在する形となる。 ゲーム空間-ソーシャル空間 一体型 ゲーム空間とソーシャル空間の区 別ではない。あらゆる場所がゲー ム空間であり、ユーザーが望めば、 あらゆる空間で交流が可能である。 ゲーム空間 ソーシャル 空間 ゲーム 空間 ゲーム 空間 ゲーム 空間 ゲーム 空間 ソーシャ ル 空間 Roblox Sandbox フォートナイト あつ森など ソーシャル 空間
  111. 人 人 テキスト テキスト 人 人 画像/声 画像/声 人 人

    擬似身体・声 擬似身体・声 空間 メタバース オンライン会議 SNS・チャットなど 拡張するコミュニケーション
  112. 人 エー ジェ ント エー ジェ ント エー ジェ ント

    エー ジェ ント エー ジェ ント エー ジェ ント 人 エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント 人 エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント 人-エージェント-エージェント-人関係 人-人関係 から 人-AI-AI-人 関係へ
  113. 文化 社会 文化は社会を変える AI文化はAIを変える 集積された文化を編纂し促進するAI =科学者・芸術家 AI文化はAIが集積する エー ジェン ト

    エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント エー ジェ ント
  114. ゲーム世界 プレイヤー (主人公) プレイする バーチャル アイドル プロデューサー 応援する・ プロデュース する

    ゲーム世界 (eSports) 観戦者 観戦する メタバース 一参加者 参加する デジタル世界への参加の仕方の変化 デジタル空間への参加の仕方の変化
  115. レベル キャラクターAI レベルを認識し、 自律的な判断を行い、 身体を動かす. 敵・味方 キャラクタ- プレイヤー 情報獲得 スパーシャルAI

    空間全般に関する思考 メタAI, キャラクターAIの為に 空間認識のためのデータを準備 ナビゲーション・データの管理 パス検索 戦術位置解析 オブジェクト認識 メタAI エージェントを動的に配置 レベル状況を監視 エージェントに指示 ゲームの流れを作る Order Ask & Report ゲーム全体をコントロール Support query query 頭脳として機能