Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ゲーム理論の基礎 (非協力ゲーム)
Search
AiTachi
August 06, 2022
Science
0
340
ゲーム理論の基礎 (非協力ゲーム)
ゲーム理論の本当に基本的なところを書きました。
自分の研究への応用はいずれ書きたいと思っています。
AiTachi
August 06, 2022
Tweet
Share
More Decks by AiTachi
See All by AiTachi
Dockerを使っていい感じの環境を作る
tcbnai12
0
240
Other Decks in Science
See All in Science
機械学習 - DBSCAN
trycycle
PRO
0
1.4k
Algorithmic Aspects of Quiver Representations
tasusu
0
130
【論文紹介】Is CLIP ideal? No. Can we fix it?Yes! 第65回 コンピュータビジョン勉強会@関東
shun6211
5
2.2k
コミュニティサイエンスの実践@日本認知科学会2025
hayataka88
0
110
Distributional Regression
tackyas
0
240
2025-05-31-pycon_italia
sofievl
0
120
Lean4による汎化誤差評価の形式化
milano0017
1
390
データベース05: SQL(2/3) 結合質問
trycycle
PRO
0
860
PPIのみを用いたAIによる薬剤–遺伝子–疾患 相互作用の同定
tagtag
0
120
Optimization of the Tournament Format for the Nationwide High School Kyudo Competition in Japan
konakalab
0
140
ド文系だった私が、 KaggleのNCAAコンペでソロ金取れるまで
wakamatsu_takumu
2
1.8k
データベース04: SQL (1/3) 単純質問 & 集約演算
trycycle
PRO
0
1.1k
Featured
See All Featured
Believing is Seeing
oripsolob
0
16
The Hidden Cost of Media on the Web [PixelPalooza 2025]
tammyeverts
2
130
How to Align SEO within the Product Triangle To Get Buy-In & Support - #RIMC
aleyda
1
1.3k
How To Speak Unicorn (iThemes Webinar)
marktimemedia
1
350
YesSQL, Process and Tooling at Scale
rocio
174
15k
The MySQL Ecosystem @ GitHub 2015
samlambert
251
13k
Fight the Zombie Pattern Library - RWD Summit 2016
marcelosomers
234
17k
How STYLIGHT went responsive
nonsquared
100
6k
Fashionably flexible responsive web design (full day workshop)
malarkey
408
66k
Joys of Absence: A Defence of Solitary Play
codingconduct
1
260
Deep Space Network (abreviated)
tonyrice
0
22
Gemini Prompt Engineering: Practical Techniques for Tangible AI Outcomes
mfonobong
2
230
Transcript
ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 1
目次 戦略型ゲーム 戦略型ゲームの定義 最適反応とナッシュ均衡 混合戦略と混合戦略ナッシュ均衡 数値計算 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai,
Twitter: @tcbn_ai 2
1. 戦略型ゲーム 1.1. 戦略型ゲームの定義 戦略型ゲーム:複数の意思決定主体間の相互作用を表す数理モデル 意思決定主体は自分自身の行動 (純粋戦略) を選択する 行動に対して利得が与えられている 利得は、自分の行動と他の意思決定主体の行動に依存して決まる
数学的に戦略型ゲームを定義する。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 3
Def (戦略型ゲーム) 戦略型ゲーム は、タプル として定義される。 ただし、 : プレイヤーの集合 (有限集合) :
純粋戦略空間 : プレイヤー の純粋戦略集合 : 利得関数、 : プレイヤー の利得関数 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 4
例:囚人のジレンマ , , は以下の表のように定義。 \ プレイヤー が戦略 、プレイヤー が戦略 をとったとき
プレイヤー の利得: プレイヤー の利得: ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 5
補足 :第 要素のみが であるような 次元単位ベクトル とする。 人ゲームの利得は行列 (利得行列) として表現される。 に対して、
, , ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 6
プレイヤー 、プレイヤー の利得行列 は以下のようになる。 囚人のジレンマの例では、 となる。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai,
Twitter: @tcbn_ai 7
1.2 最適反応とナッシュ均衡 とする。 Def (最適反応) が に対する純粋最適反応 他のプレイヤーの行動を固定したときの最適な行動 等価な条件は、 1つとは限らないが、必ず存在する
ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 8
Def (ナッシュ均衡) が (純粋戦略) ナッシュ均衡 自分だけが行動を変更しても得をしない 等価な条件は、 1つとは限らず、存在しない場合もある すべてのプレイヤーにとって合理的 実現すればそこから動かない。どのように実現するかは考えな
い。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 9
例:囚人のジレンマ \ プレイヤー の戦略を に固定したときのプレイヤー の利得 プレイヤー が をとる: 、プレイヤー
が をとる: プレイヤー の戦略を に固定したときのプレイヤー の利得 プレイヤー が をとる: 、プレイヤー が をとる: ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 10
プレイヤー の戦略を固定したときも同様。 最適反応 に対して に対して ナッシュ均衡: 囚人のジレンマでは、ナッシュ均衡はパレート最適ではない。 パレート最適:自分の利得を上げるには他のプレイヤーの利得 を悪化させる状態 双方のプレイヤーにとって利得が一番良いのは
となるこ と。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 11
1.3 混合戦略と混合戦略ナッシュ均衡 ゲーム を考える。 上の確率分布 をプレイヤー の混合戦略と呼ぶ。 は以下のように表される。 また、純粋戦略空間 に対応する混合戦略空間
は、 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 12
補足 は単位ベクトル を頂点とする 次元単位単 体となる。 のとき、混合戦略 は、線分 , 上の点である。 ゲーム理論の基礎
(非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 13
以下の記号を定義する。 : で が実際に起こる確率 利得関数の混合戦略への拡張 (期待利得関数) は、以下で定義される。 , ゲーム理論の基礎 (非協力ゲーム)
AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 14
ゲーム は、 に拡張される。 人ゲームとき、利得関数 は利得行列 を用いて以下のよう に表現される。 ゲーム理論の基礎 (非協力ゲーム) AiTachi,
GitHub:tcbn-ai, Twitter: @tcbn_ai 15
例:囚人のジレンマ 混合戦略集合 は以下のように定義される。 利得関数 は以下のように定義される。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter:
@tcbn_ai 16
Def (最適反応) を に対する純粋戦略最適反応、 を に対する混合戦略最適反応と呼ぶ。 純粋戦略最適反応対応 : 混合戦略最適反応対応 :
ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 17
Def (ナッシュ均衡) が成り立つとき、 をナッシュ均衡という。 ナッシュ均衡 すべてのプレイヤーにとって合理的な解 有限ゲームでは必ず存在 (複数存在する可能性あり) ゲーム理論の基礎 (非協力ゲーム)
AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 18
例:調整ゲーム \ ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 19
プレイヤー の混合戦略を で固定する。プレイヤ ー が純粋戦略をとるときの期待利得は、 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter:
@tcbn_ai 20
プレイヤー の混合戦略を で固定する。プレイヤー が純粋戦略をとるときの期待利得は、 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai
21
混合戦略最適反応対応 は、 と求められる。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 22
ナッシュ均衡は ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 23
1.4 数値計算 Python の nashpy というパッケージを使うと、2人ゲームの定義、ナ ッシュ均衡の導出が可能。 python3 -m venv
~/.venvs/game_numerical source ~/.venvs/game_numerical/bin/activate (game_numerical) pip install --upgrade pip (game_numerical) pip install -r requirements.txt requirements.txt には、 numpy , nashpy , jupyter , ipykernel が記述 されていれば良い。 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 24
例:じゃんけん A = np.array([[0, 1, -1], [-1, 0, 1], [1,
-1, 0]]) B = np.array([[0, -1, 1], [1, 0, -1], [-1, 1, 0]]) coordination_game = nash.Game(A, B) coordination_game ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 25
Zero sum game with payoff matrices: Row player: [[ 0
1 -1] [-1 0 1] [ 1 -1 0]] Column player: [[ 0 -1 1] [ 1 0 -1] [-1 1 0]] ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 26
equilibria = coordination_game.vertex_enumeration() for eq in equilibria: print(eq) (array([0.33333333, 0.33333333,
0.33333333]), array([0.33333333, 0.33333333, 0.33333333])) ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 27
参考文献 [1] 岡田章, ゲーム理論, 2011. [2] H. Peter, Game Theory:
A Multi-Leveled Approach, Springer, 2015. [3] Nashpy's documentation, accessed on 08/06/2022 ゲーム理論の基礎 (非協力ゲーム) AiTachi, GitHub:tcbn-ai, Twitter: @tcbn_ai 28