Upgrade to Pro — share decks privately, control downloads, hide ads and more …

集合知メカニズムのモデル化についての一考察

 集合知メカニズムのモデル化についての一考察

2021年JIMA春季大会の集合知メカニズム研究会OSでの発表スライドです.

1852ac80648a76e2a64589c7d6ee75c3?s=128

hajimizu

May 15, 2021
Tweet

Transcript

  1. 集合知メカニズムのモデル化についての一考察 水山 元 青山学院大学 mizuyama@ise.aoyama.ac.jp 2021 年 5 月 16 日

    集合知メカニズムデザインの研究 OS JIMA 春季大会 H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 1 / 23
  2. 目次 1 研究の背景と目的 2 集合知メカニズムの静的な標準形 3 時間発展を明示的に含むモデルへの拡張 4 まとめ H.

    Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 2 / 23
  3. Introduction 目次 1 研究の背景と目的 2 集合知メカニズムの静的な標準形 3 時間発展を明示的に含むモデルへの拡張 4 まとめ

    H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 3 / 23
  4. Introduction 集合知メカニズムとその対象タスク 集合知メカニズムとは 「複数人に分散している知識(分散知)を集約 して集合知を形成する仕組みを捉えるためのフレームワーク」 である. 対象タスクの分類(暫定) ▶ 予測タスク:予測値,分布,モデルなどを構成するタスク.真値 (実現値)が観測可能で,それを配当計算に利用できる.

    ▶ 推定タスク:推定値,分布,モデルなどを構成するタスク.真値 (母数)は観測困難なため,配当計算には利用できない. ▶ 評価タスク:評価値,分布,モデルなどを構成するタスク.集団 としての主観評価を決めるもので,真値は利用できない. ▶ 列挙タスク:集合の要素を列挙する形式のタスク.追求する真の 集合は,事後的にも完全には把握できないことが多い. H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 4 / 23
  5. Introduction 集合知メカニズムの理論的な特徴づけ 集合知メカニズムの設計者と参加者の思惑 ▶ 集合知メカニズムの設計者は,設計者の利得(=「成果物として の集合知の価値」−「それを得るためのコスト」 )を最大化したい. ▶ 集合知メカニズムへの個々の参加者は,それぞれ自分自身の利得 (=「参加することで得られる配当」−「参加するコスト」+「成果

    物としての集合知の価値」 )を最大化したい. 本研究の目的 集合知メカニズムを,一般的な社会的選択のメカニズムデザインに類 する形でモデル化することによって,その特徴を理論的に分析したり, その設計問題を数理的に検討したりできるようにすること H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 5 / 23
  6. Standard Static Model 目次 1 研究の背景と目的 2 集合知メカニズムの静的な標準形 3 時間発展を明示的に含むモデルへの拡張

    4 まとめ H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 6 / 23
  7. Standard Static Model 定式化の方針 ▶ ベイジアンゲームのフレームワークで定式化する. ▶ 集合知の対象についての各参加者の私的情報を分散知と名付け, それをタイプに含める. ▶

    集合知は全参加者の行動に基づいて形成されると考える. ▶ 集合知メカニズムは一般には間接メカニズムであると考える. ▶ 設計者は行動への対価として参加者に配当を支払うものとする. ▶ 配当計算に真値が利用できる場合と,できない場合とがある. ▶ 参加者の行動には(行動に依存した)コストがかかる場合がある. ▶ 参加者は集合知に無関心なことが多いが,関心を持つ場合もある. H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 7 / 23
  8. Standard Static Model 基礎となるベイジアンゲーム ベイジアンゲーム:G = (N, Ω, fΩ, (Xi,

    Hi, hi, ui)i∈N ) ▶ N( = {1, 2, . . . , N} ) :参加者の集合 ▶ Ω:可能な世界の状態の集合(標本空間) ▶ fΩ :Ω 上の事前分布(暫定的に Ω は有限集合と仮定しておく) ▶ Xi :参加者 i ∈ N の可能な行動の集合( X ≡ ×j∈N Xj ) ▶ Hi :参加者 i の可能なタイプの集合( H ≡ ×j∈N Hj ) ▶ hi ( : Ω → Hi ) :参加者 i のタイプ ▶ ui ( : X × H → R ) :参加者 i の利得 H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 8 / 23
  9. Standard Static Model 基礎となるベイジアンゲームの期待利得 ▶ h( = (h1, . .

    . , hN ) ) :全参加者のタイプ ▶ fH :h の事前分布( fH(h) = (h1(ω),...,hN (ω))=h fΩ(ω) ) ▶ h−i :参加者 i を除いた全参加者のタイプ ▶ si ( : Xi × Hi → [0, 1] ) :参加者 i がタイプ hi のときの混合戦略 ▶ Si :可能な si の集合 Si =    si xi∈Xi si(xi|hi) = 1 ∀hi ∈ Hi    H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 9 / 23
  10. Standard Static Model 基礎となるベイジアンゲームの均衡 参加者 i の期待利得: eui(s|hi) = h−i∈H−i

      x∈X ui(x, h) · j∈N sj(xj|hj)   · fH(h−i|hi) 戦略の組 s∗ = (s∗ 1 , . . . , s∗ N ) がベイジアンナッシュ均衡となる条件: eui(s∗|hi) ≥ eui(s∗ −i , si|hi) ∀si ∈ Si, ∀hi ∈ Hi, ∀i ∈ N H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 10 / 23
  11. Standard Static Model 集合知と分散知 ▶ o( : Ω → O

    ) :集合知の対象の真値 ▶ fO :o の事前分布( fO(o) = o(ω)=o fΩ(ω) ) ▶ wi :参加者 i の分散知(集合知の対象に関する私的情報) ▶ Wi :可能な wi の集合( Hi = Wi × H′ i ￿ ) ▶ 全参加者の行動から集合知を形成する関数:q : X → Y ▶ 参加者 i にとっての集合知 y ∈ Y の価値:vi : Y × H → R 参加者 i は y には無関心であることも多い( vi = 0 ∀y ∈ Y ) . ▶ 参加者 i の行動 xi にかかるコスト:ci : Xi × Hi → R H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 11 / 23
  12. Standard Static Model 参加者の利得 配当計算に真値 o が利用できない場合 ▶ 参加者 i

    への配当関数:pi : X → R ▶ 参加者 i の利得:ui(x, h) = pi(x) − ci(xi|hi) + vi[q(x)|h] 配当計算に真値 o が利用できる場合 ▶ 参加者 i への配当関数:pi : X × O → R ▶ 参加者 i の利得: ui(x, h) = o∈O pi(x, o) · fO(o|wi) − ci(xi|hi) + vi[q(x)|h] H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 12 / 23
  13. Standard Static Model 設計者にとっての集合知の価値 ▶ 真値 o 観測後の集合知 y の評価:vO

    0 : Y × O → R ▶ 真値 o 観測後の理想的な集合知:y∗(o) = argmax y∈Y vO 0 (y|o) ▶ 真値 o 観測前の理想的な集合知: y∗(w) = argmax y∈Y o∈O vO 0 (y|o) · fO(o|w) = argmax y∈Y [v0(y|w)] ▶ 真値 o 観測前の集合知 y の評価( v0 : Y × W → R ) : v0(y|w) = o∈O vO 0 (y|o) · fO(o|w) H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 13 / 23
  14. Standard Static Model 設計者の利得 配当計算に真値 o が利用できない場合 ▶ 設計者の利得: u0(x|w)

    = v0[q(x)|w] − i∈N pi(x) 配当計算に真値 o が利用できる場合 ▶ 設計者の利得: u0(x|w) = o∈O vO 0 [q(x)|o] − i∈N pi(x, o) · fO(o|w) H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 14 / 23
  15. Standard Static Model 設計者の期待利得と設計問題 設計者の期待利得(最大化) eu0(s) = ω∈Ω x∈X u0[x|w(ω)]

    · i∈N si[xi|hi(ω)] · fΩ(ω) メカニズムの設計変数 ▶ 行動空間:X ▶ 集合知関数:q ▶ 配当関数:pi H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 15 / 23
  16. Extension to Dynamic Model 目次 1 研究の背景と目的 2 集合知メカニズムの静的な標準形 3

    時間発展を明示的に含むモデルへの拡張 4 まとめ H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 16 / 23
  17. Extension to Dynamic Model 集合知の時間発展 ▶ 相互作用の時間軸を離散的に捉え,その始点を 0,終点を T とし,

    時間 t = (0, 1, 2, …, T) とおく. ▶ 時間 t での全参加者の行動を xt = (x1,t, . . . , xN,t) ∈ Xt とおく. ▶ 集合知関数を qt : (×t τ=1 Xτ ) → Y に拡張し,時間 t までの全参加 者の行動を反映した集合知を yt+1 = qt(x1, , . . . , xt) とおく. ▶ 各参加者 i が毎時間 t に行動 xi,t を決める前に,所定のフィード バック情報 zt を提示する. zt : (×t τ=1 Xτ ) → Z ( or zt : Y → Z ) H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 17 / 23
  18. Extension to Dynamic Model 参加者の戦略 ▶ 集合知の時間発展は,zt を状態,xt を介入としたマルコフ決定過 程で捉えられると仮定する.

    ▶ 任意の時間 t に参加者 i がとると考えられる自然な戦略のクラス は,このフィードバック情報 zt (と自分のタイプ hi )で条件付け られた混合戦略である. si,t : Xi,t × Z × Hi → [0, 1]   xi,t∈Xi,t si,t(xi,t|zt, hi) = 1   H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 18 / 23
  19. Extension to Dynamic Model 配当関数の拡張と参加者の利得 ▶ 参加者 i にとっての集合知の価値は,その途中経過 yt

    (t < T) に はかかわらず,最終形 yT にのみ依存するものとする. ▶ 真値 o を用いる配当関数を pi : (×t τ=1 Xτ ) × O → R に拡張する. (真値 o を用いない配当関数は pi : (×t τ=1 Xτ ) → R に拡張する. ) ▶ 参加者 i の利得(配当計算に真値 o が利用できる場合) : ui(x1, . . . , xT |h) = o∈O pi(x1, . . . , xT , o) · fO(o|wi) − T t=1 ci(xi,t|hi) + vi[qT (x1, . . . , xT )|h] H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 19 / 23
  20. Extension to Dynamic Model 設計者の利得 ▶ 設計者にとっての集合知の価値も,その途中経過 yt (t <

    T) には かかわらず,最終形 yT にのみ依存するものとする. ▶ 設計者の利得(配当計算に真値 o が利用できる場合) : u0(x1, . . . , xT |w) = o∈O vO 0 [qT (x1, . . . , xT )|o] − i∈N pi(x1, . . . , xT , o) · fO(o|w) H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 20 / 23
  21. Extension to Dynamic Model 設計者の期待利得と設計問題 設計者の期待利得(最大化) eu0(s) = ω∈Ω T

    t=1 xt∈Xt u0(x1, . . . , xT |w(ω)) · T t=1 i∈N si,t[xi,t|zt(x1, . . . , xt−1), hi(ω)] · fΩ(ω) メカニズムの設計変数 ▶ インタラクション:行動空間 Xt と集合知関数 qt ▶ インタフェース:参加者に提示する情報 zt ▶ インセンティブ:配当関数 pi H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 21 / 23
  22. Summary 目次 1 研究の背景と目的 2 集合知メカニズムの静的な標準形 3 時間発展を明示的に含むモデルへの拡張 4 まとめ

    H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 22 / 23
  23. Summary まとめ ▶ 本稿では,一般的な社会的選択メカニズムのモデルに類する形式 で,集合知メカニズムの数理的なモデル化を試みた. ▶ これはまだ完成形ではなく,今後さらに洗練させていくためのベ ースであると考えている. ▶ 今後の主な課題は,まず具体的な事例を,このモデルに沿って記

    述していくことである. ▶ また,メカニズムによって規定されるゲームの特徴づけや,それ に基づくメカニズムの評価や設計がその先の課題になる. H. Mizuyama (AGU) Collective Intelligence Mechanism May 16, 2021 23 / 23