Upgrade to Pro — share decks privately, control downloads, hide ads and more …

クラスター係数 / Clustering Coefficient

Yuki Iwanaga
February 27, 2023

クラスター係数 / Clustering Coefficient

■3.9節
ランダム・ネットワークのクラスター係数を求め,それが現実のネットワークのクラスタリングを説明しているのかを議論し,最後にワッツ・ストロガッツ・モデルを導入.

■教科書
Barabási, A.-L. (2019)『ネットワーク科学』池田裕一・井上寛康・谷澤俊弘監訳、京都大学ネットワーク社会研究会訳、共立出版
【英語版】http://networksciencebook.com/

■Pythonコード
https://github.com/Nagayu71/NetworkScience-Seminar/tree/main/NetworkScience

Yuki Iwanaga

February 27, 2023
Tweet

More Decks by Yuki Iwanaga

Other Decks in Science

Transcript

  1. 3.9 クラスター係数
    国際人間科学部 グローバル文化学科
    岩永悠希

    View full-size slide

  2. クラスター係数のおさらい
    局所クラスター係数:注目するノードとその隣接ノードが三角形を構成している度合い
    𝐶𝑖
    =
    𝐿𝑖
    𝑘𝑖
    2
    =
    2𝐿𝑖
    𝑘𝑖
    (𝑘𝑖
    − 1)
    ここで𝑘𝑖
    はノード𝑖の次数,𝐿𝑖
    はノード𝑖を頂点とする三角形の数である.
    局所クラスター係数𝐶𝑖
    は二つの隣接ノードが互いにつながる確率とも言える.
    (2.15)
    平均クラスター係数:無作為に選択したノードが,その二つ隣接ノードと三角形をなしている確率
    𝐶 =
    𝐶1
    + 𝐶2
    + ⋯ + 𝐶𝑖
    𝑁
    =
    1
    𝑁

    𝑖=1
    𝑁
    𝐶𝑖
    (2.16)

    View full-size slide

  3. 二項分布の期待値
    離散確率変数𝑋のとりうる値を𝑥1
    , 𝑥2
    , … , 𝑥𝑛
    とする.また, その確率関数を𝑝(𝑥𝑖
    )とすると, 𝑋の期待値は
    𝐸 𝑋 = ෍
    𝑖=1
    𝑛
    𝑥𝑖
    𝑝 𝑥𝑖
    と定義される.𝑋 ~ 𝐵 𝑛, 𝑝 のとき
    𝐸 𝑋 = ෍
    𝑥=1
    𝑛
    𝑥 ×
    𝑛
    𝑥
    𝑝𝑥 1 − 𝑝 𝑛−𝑥
    = ෍
    𝑥=1
    𝑛
    𝑥 ×
    𝑛!
    𝑥! 𝑛 − 𝑥 !
    𝑝𝑥 1 − 𝑝 𝑛−𝑥
    = ෍
    𝑥=1
    𝑛 𝑛!
    𝑥 − 1 ! 𝑛 − 𝑥 !
    𝑝𝑥 1 − 𝑝 𝑛−𝑥
    = ෍
    𝑧=0
    𝑛−1 𝑛!
    𝑧! 𝑛 − 1 − 𝑧 !
    𝑝𝑧+1 1 − 𝑝 𝑛−1−𝑧
    = 𝑛𝑝 ෍
    𝑧=0
    𝑛−1 𝑛 − 1 !
    𝑧! 𝑛 − 1 − 𝑧 !
    𝑝𝑧 1 − 𝑝 𝑛−1−𝑧
    = 𝑛𝑝 ෍
    𝑧=0
    𝑛−1 𝑛 − 1
    𝑧
    𝑝𝑧 1 − 𝑝 𝑛−1−𝑧
    = 𝑛𝑝 ∵ 確率関数の合計は1

    View full-size slide

  4. ランダム・ネットワークのクラスター係数
    ランダム・ネットワークのクラスター係数𝐶𝑖
    を計算するには,ノード𝑖のもつ𝑘𝑖
    個の隣接ノード間の
    リンク数𝐿𝑖
    の期待値 𝐿𝑖
    を見積もる必要がある.
    考え方
    1. 𝐺(𝑁, 𝑝)モデルにおいて,ノード𝑖の任意の二つの隣接ノード間にリンクが張られる確率は𝑝
    2. 𝑘𝑖
    個の隣接ノード間で可能なリンクの総数は𝑘𝑖
    (𝑘𝑖
    − 1)/2本
    3. ゆえに,𝐿𝑖
    ~ 𝐵(𝑘𝑖 𝑘𝑖−1
    2
    , 𝑝)
    ∴ 𝐿𝑖
    = 𝑝
    𝑘𝑖
    𝑘𝑖
    − 1
    2
    ノード𝑖の局所クラスター係数は
    𝐶𝑖
    =
    𝐿𝑖
    𝑘𝑖
    2
    =
    2𝐿𝑖
    𝑘𝑖
    (𝑘𝑖
    − 1)
    = 𝑝 =
    𝑘
    𝑁 − 1
    ネットワークの平均クラスター係数は
    𝐶 =
    1
    𝑁

    𝑖=1
    𝑁
    𝐶𝑖
    =
    1
    𝑁

    𝑖=1
    𝑁
    𝑘
    𝑁 − 1
    =
    𝑘
    𝑁 − 1
    (3.21)

    View full-size slide

  5. 式(3.21)の解釈
    𝐶𝑖
    = 𝑝 =
    𝑘
    𝑁 − 1
    (3.21)
    ランダム・ネットワークにおいて
    1. 平均次数の値が決まっている場合,ネットワークが大きくなるほど,各ノードのクラスター係数
    は小さくなる.
    2. 各ノードのクラスター係数は,その次数とは独立に決まる.
    ※式(3.21)をグラフ描画用に変形
    𝐶𝑖
    𝑘
    =
    1
    𝑁 − 1
    log10
    𝐶𝑖
    𝑘
    = log10
    1
    𝑁 − 1
    log10
    𝐶𝑖
    𝑘
    = log10
    (𝑁 − 1)−1
    log10
    𝐶𝑖
    𝑘
    = − log10
    (𝑁 − 1)
    𝑌 = log10
    𝐶𝑖
    𝑘
    ,𝑋 = log10
    (𝑁 − 1)とおくと
    𝑌 = −𝑋
    よって,式(☆)は両対数グラフで
    (☆)
    線形の関係とし
    て捉えられる.

    View full-size slide

  6. 実ネットワークのクラスタリングとの比較
    RNモデルでは現実のネットワークのクラスタリングの様子を捉えられない
    式(3.21)
    𝐶
    𝐶
    𝐶
    図a. All Networks
    • ランダム・ネットワークでは,クラスター係数は
    ネットワークサイズ𝑁に依存して減少する.
    • 現実のネットワークのクラスター係数は,
    𝑁には依存しない.
    図b~d. 𝐶の次数𝑘𝑖
    への依存性
    • 実ネットワークでは,クラスター係数𝐶 𝑘 *はノードの
    次数が大きくなるにつれ規則的に減少する.
    * 𝐶 𝑘 は次数𝑘をもつすべてのノードのクラスター係数の平均値
    Barabási, A.-L. Network science (Cambridge University Press, 2016). http://barabasi.com/networksciencebook/.

    View full-size slide

  7. ワッツ・ストロガッツ・モデル
    Duncan Watts と Steven Strogatz は,次の2つの観察事実に基づき,
    ランダム・ネットワークモデルを拡張することを提案した[1].
    1. スモールワールド性
    実ネットワークでは,任意の2つのノード間の平均距離は,𝑁に対数的に依存する.
    𝑑 ≈
    ln 𝑁
    ln 𝑘
    2. 大きいクラスター係数
    実ネットワークでは,同程度の𝑁と𝐿をもつランダム・ネットワークで期待される値
    𝐶 =
    𝑘
    𝑁 − 1
    よりもずっと大きい平均クラスター係数をもつ(前頁図a).
    (3.19)
    [1]Watts, D., Strogatz, S. Collective dynamics of ‘small-world’ networks. Nature 393, 440–442 (1998).

    View full-size slide

  8. ワッツ・ストロガッツ・モデルの特徴
    図a~c
    規則格子(大きいクラスター係数;スモールワールド性なし)
    とランダム・ネットワーク(小さいクラスター係数;スモール
    ワールド性あり)の間をとったもの.
    図d
    大きいクラスター係数とスモールワールド性の共存を示す.
    リンクのつなぎかえ確率がある範囲内にある限り,小さい平均
    経路長と大きいクラスター係数を維持できる.
    Barabási, A.-L. Network science (Cambridge University Press, 2016). http://barabasi.com/networksciencebook/.
    ワッツ・ストロガッツ・モデル(スモールワールド・モデル)は以下の2つの特徴を持つ.

    View full-size slide

  9. 個々のネットワークの意味
    規則格子(regular graph)
    • 「人々は自分の住んでいる場所からもっとも近い範囲で友人関係を結ぶ」
    という状態を表す.
    • 「友だちの友だちは友だち」という関係がたくさんある.
    ランダム・ネットワーク(random graph)
    • 「人々は自分の住んでいる場所とは無関係に友人関係を結ぶ」という状態
    を表す.
    • 「友だちの友だちは友だち」という関係はほとんどない.
    スモールワールド・ネットワーク
    • 多くの人々は身近な人たちとだけつながっており、「友だちの友だち」と
    いう状態は維持されている.
    • ランダムなつなぎ換えによって,知らないうちに世界の他者との距離がと
    ても短くなっている.
    Barabási, A.-L. Network science (Cambridge University Press, 2016). http://barabasi.com/networksciencebook/.

    View full-size slide

  10. ワッツ・ストロガッツ・モデルの限界
    ワッツ・ストロガッツ・モデルにも限界はある.
    1. WSモデルはランダム・ネットワークを拡張したものであるため,ポアソン分布に見られるように
    可能な次数には上限がある.ゆえに,大きい次数をもつノードは存在しない.
    2. WSモデルのクラスター係数𝐶 𝑘 は𝑘に依存せず,実ネットワークで現れるクラスター係数の
    次数依存性は再現できない.
    3. 「大きいクラスター係数とスモールワールド性の共存」を理解するには,ネットワークの正確な
    次数分布から出発する必要がある.

    View full-size slide

  11. Pythonによる実装
    notebookの内容
    • ランダム・ネットワークの生成
    • スモールワールド・ネットワークの生成と論文のグラフ再現
    • pyvisによるネットワークのインタラクティブな可視化
    • ネットワークにおける情報拡散のシミュレーション
    ファイルはここからダウンロードできます
    参考文献
    • 一ノ瀬元喜. 「NetworkXによるネットワーク分析」,
    https://sites.google.com/site/igenki/youtube?authuser=0, (参照 2022/07/10)
    • 橋本洋志, 牧野浩二. 『Pythonコンピュータシミュレーション入門:人文・自然・社会科学の数理モデル』.
    オーム社, 2021年
    • Thu Vu. “Network of The Witcher | Relationship Extraction & Network Analysis with Spacy & NetworkX”.
    Thu Vu data analytics. 2022. https://youtu.be/fAHkJ_Dhr50, (参照 2022/07/10)

    View full-size slide