Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Ph.D. defense "Convex Manifold Approximation for Tensors"

Ph.D. defense "Convex Manifold Approximation for Tensors"

Ph.D. thesis is available in https://ir.soken.ac.jp/records/6661

Kazu Ghalamkari

October 03, 2023
Tweet

More Decks by Kazu Ghalamkari

Other Decks in Science

Transcript

  1. Convex Manifold Approximation for Tensors ガラムカリ 和 総合研究大学院大学 複合科学研究科 情報学専攻

    博士論文 発表会 February 1, 2023 審査委員:杉山 麿人, 𠮷田 悠一, 井上 克巳, 山田 誠, 三村 和史 (敬称略)
  2. 5 Motivation 5 □様々な構造を有するデータの非負低ランク近似 5 少ない基底(主成分)の線形結合で近似し,特徴量の抽出,メモリの削減,パターンの発見 😀 ≃ ≃ ≃

    ≃ 停止条件,学習率,初期値,ランクの適切な設計が必要 😢 データの空間の幾何的な構造に注目して,これらの困難を緩和😀
  3. 12 □ LTR: 低タッカーランク近似法 12 □ 欠損行列の高速ランク1近似 勾配法に基づかず,学習率, 収束判定の設計が不要で高速な手法を開発 ✨

    本研究の貢献 ランクのチューニングが不要✨ 低ランク構造ではなく, モード間の関係に注目した凸な分解 適用 解の公式を導出 Chapter 3 Chapter 4 Chapter 5 □ テンソル多体近似 データ(テンソル)の空間の幾何や平坦性に注目して,最適化と解空間の設計を工夫している (相互作用表示)
  4. 14 □ 半順序集合 (DAG) 集合 の任意の要素𝑠1 , 𝑠2 , 𝑠3

    ∈ に次の関係があるときに, を半順序集合と呼ぶ. (1)反射律: 𝑠1 ≤ 𝑠1 (2)反対称律: 𝑠1 ≤ 𝑠2 , 𝑠2 ≤ 𝑠1 ⇒ 𝑠1 = 𝑠2 (3)推移律:𝑠1 ≤ 𝑠2 , 𝑠2 ≤ 𝑠3 ⇒ 𝑠1 ≤ 𝑠3 □ 半順序集合 上の対数線形モデル 写像𝑝: → 0,1 として,順序集合 上の対数線形モデルを定義する.自然パラメータ𝜽で分布が定まる. 𝜃空間 𝜂空間 メビウス関数𝜇を用いて,期待値パラメータ𝜼で分布を定めることもできる. Sugiyama, M., Nakahara, H., & Tsuda, K. Tensor balancing on statistical manifold. ICML2017 14 メビウス関数 入力のデータ構造 半順序集合上の対数線形モデル
  5. Chapter 3. Legendre Tucker Rank Reduction github.com/gkazunii/Legendre-tucker-rank-reduction 1.Ghalamkari, K., Sugiyama,

    M. NeurIPS 2020 WS DiffGeo4DL 2.Ghalamkari, K., Sugiyama, M. NeurIPS 2021 3.Ghalamkari, K., Sugiyama, M. Information Geometry Journal (Springer) ★ (前半) テンソルランク1近似 ★ (後半) ビンゴルールによるタッカーランク削減 6:15
  6. テンソルのランク1近似公式の導出 29 全ての多体の𝜃-パラメータが0. ランク1条件(𝜽-表示) 𝜂𝑖𝑗𝑘 = 𝜂𝑖11 𝜂1𝑗1 𝜂11𝑘 ランク1条件(𝜼-表示)

    射影後の全ての𝜼-パラメータが特定できた. メビウス反転公式より,射影後のランク1テンソルが求まる. メビウス反転公式 10:00
  7. テンソル𝒫 ∈ ℝ>0 𝐼×𝐽×𝐾の各軸方向の和の積で得るテンソル は,𝒫 ∈ ℝ>0 𝐼×𝐽×𝐾からのKL情報量を最小化するランク1テンソルである. 𝑖のみに依存する 規格化ベクトル

    𝑗のみに依存する 規格化ベクトル 𝑘のみに依存する 規格化ベクトル 添字が3個で総和が1のテンソル を,確率変数が3個ある同時分布とみなしていた. 添字が1個で総和が1のベクトル は,確率変数が1つしかない分布とみなせる. テンソルのランク1近似は同時分布を確率変数が1つしかない分布の積で近似する操作 KL情報量最小化の最良ランク1近似公式 (𝒅 = 𝟑 の場合) 平均場近似:多体問題を一体問題に帰着する方法論として物理学では頻繁に登場 30 ちなみに… フロベニウス誤差 最小化はNP困難 最良ランク1分解公式と平均場近似 K.Huang, et al. “Kullback-Leibler principal component for tensors is not NP-hard.” ACSSC 2017 の結果を情報幾何学の観点から再現
  8. ランク1近似と平均場近似 ボルツマンマシンの平均場近似 𝑝 𝒙 = 1 𝑍(𝜽) exp ෍ 𝑖

    𝜃𝑖 𝑥𝑖 + ෍ 𝑖<𝑗 𝜃𝑖𝑗 𝑥𝑖 𝑥𝑗 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 𝜂𝑖 = ෍ 𝑥1=0 1 ⋯ ෍ 𝑥𝑛=0 1 𝑥𝑖 𝑝 𝒙 重み (相互作用) バイアス (磁場) 𝒙 ∈ 0,1 𝑛 31
  9. ランク1近似と平均場近似 ボルツマンマシンの平均場近似 𝑝 𝒙 = 1 𝑍(𝜽) exp ෍ 𝑖

    𝜃𝑖 𝑥𝑖 + ෍ 𝑖<𝑗 𝜃𝑖𝑗 𝑥𝑖 𝑥𝑗 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 𝜂𝑖 = ෍ 𝑥1=0 1 ⋯ ෍ 𝑥𝑛=0 1 𝑥𝑖 𝑝 𝒙 重み バイアス = 1 𝑍(𝜽) exp ෍ 𝑖 𝜃𝑖 𝑥𝑖 = 𝑝 𝑥1 … 𝑝(𝑥𝑛 ) 𝒙 ∈ 0,1 𝑛 32
  10. ランク1近似と平均場近似 𝑂 2𝑛 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 𝐷𝐾𝐿 Ƹ 𝑝𝑒

    , 𝑝 ҧ 𝜂𝑖 = sigmoid 𝜃𝑖 + ෍ 𝑘 𝜃𝑘𝑗 ҧ 𝜂𝑘 平均場方程式 ボルツマンマシンの平均場近似 𝑝 𝒙 = 1 𝑍(𝜽) exp ෍ 𝑖 𝜃𝑖 𝑥𝑖 + ෍ 𝑖<𝑗 𝜃𝑖𝑗 𝑥𝑖 𝑥𝑗 𝜂𝑖 = ෍ 𝑥1=0 1 ⋯ ෍ 𝑥𝑛=0 1 𝑥𝑖 𝑝 𝒙 𝑂 2𝑛 重み バイアス 𝒙 ∈ 0,1 𝑛 33
  11. ランク1近似と平均場近似 テンソルのランク1近似 𝑝𝜃 (𝑖, 𝑗, 𝑘) = exp ෍ 𝑖′=1

    𝑖 ෍ 𝑗′=1 𝑗 ෍ 𝑘′=1 𝑘 𝜃𝑖′𝑗′𝑘′ 𝑂 2𝑛 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 平均場方程式 独立分布の積からなる分布の集合 𝜂𝑖11 = ෍ 𝑗′=1 𝐽 ෍ 𝑘′=1 𝐾 𝒫𝑖𝑗′𝑘′ ҧ 𝜂𝑖 = sigmoid 𝜃𝑖 + ෍ 𝑘 𝜃𝑘𝑗 ҧ 𝜂𝑘 𝐷𝐾𝐿 Ƹ 𝑝𝑒 , 𝑝 ボルツマンマシンの平均場近似 𝑝 𝒙 = 1 𝑍(𝜽) exp ෍ 𝑖 𝜃𝑖 𝑥𝑖 + ෍ 𝑖<𝑗 𝜃𝑖𝑗 𝑥𝑖 𝑥𝑗 𝜂𝑖 = ෍ 𝑥1=0 1 ⋯ ෍ 𝑥𝑛=0 1 𝑥𝑖 𝑝 𝒙 𝑂 2𝑛 重み バイアス 𝒙 ∈ 0,1 𝑛 34
  12. ランク1近似と平均場近似 𝑝𝜃 (𝑖, 𝑗, 𝑘) = exp ෍ 𝑖′=1 𝑖

    ෍ 𝑗′=1 𝑗 ෍ 𝑘′=1 𝑘 𝜃𝑖′𝑗′𝑘′ 𝑂 2𝑛 𝑂 𝐼𝐽𝐾 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 𝐷𝐾𝐿 𝑝, Ƹ 𝑝 平均場方程式 独立分布の積からなる分布の集合 𝜂𝑖11 = ෍ 𝑗′=1 𝐽 ෍ 𝑘′=1 𝐾 𝒫𝑖𝑗′𝑘′ ҧ 𝜂𝑖 = sigmoid 𝜃𝑖 + ෍ 𝑘 𝜃𝑘𝑗 ҧ 𝜂𝑘 計算可能 𝐷𝐾𝐿 Ƹ 𝑝𝑒 , 𝑝 ボルツマンマシンの平均場近似 𝑝 𝒙 = 1 𝑍(𝜽) exp ෍ 𝑖 𝜃𝑖 𝑥𝑖 + ෍ 𝑖<𝑗 𝜃𝑖𝑗 𝑥𝑖 𝑥𝑗 𝜂𝑖 = ෍ 𝑥1=0 1 ⋯ ෍ 𝑥𝑛=0 1 𝑥𝑖 𝑝 𝒙 𝑂 2𝑛 重み バイアス 𝒙 ∈ 0,1 𝑛 テンソルのランク1近似 35 13:00
  13. Chapter 3. Legendre Tucker Rank Reduction github.com/gkazunii/Legendre-tucker-rank-reduction 1.Ghalamkari, K., Sugiyama,

    M. NeurIPS 2020 WS DiffGeo4DL 2.Ghalamkari, K., Sugiyama, M. NeurIPS 2021 3.Ghalamkari, K., Sugiyama, M. Information Geometry Journal (Springer) ★ (前半) テンソルランク1近似 ★ (後半) ビンゴルールによるタッカーランク削減
  14. ランク1条件を緩和して,タッカーランク削減を定式化する 𝜃𝑖𝑗𝑘 = 0 𝜃112 𝜃131 𝜃121 𝜃113 𝜃211 𝜃311

    𝒎番目の軸に注目してテンソルを展開して矩形行列𝜽(𝒎)にする(モード𝒎展開) 𝜃(1) = 𝜃111 𝜃121 𝜃131 𝜃112 0 0 𝜃113 0 0 𝜃211 0 0 0 0 0 0 0 0 𝜃311 0 0 0 0 0 0 0 0 𝜃(2) = 𝜃111 𝜃211 𝜃311 𝜃112 0 0 𝜃311 0 0 𝜃121 0 0 0 0 0 0 0 0 𝜃131 0 0 0 0 0 0 0 0 𝜃(3) = 𝜃111 𝜃211 𝜃311 𝜃121 0 0 𝜃131 0 0 𝜃112 0 0 0 0 0 0 0 0 𝜃113 0 0 0 0 0 0 0 0 ランク 1,1,1 ビンゴ2つ rank 𝒫 = 1 ⟺ 多体の自然パラメータ𝜃が全て0 ランク1条件(𝜽表示) ビンゴ2つ ビンゴ2つ 1行(列)目は,他の行(列)の何倍かを表す 37
  15. ビンゴとランクの関係 テンソル𝒫 ∈ ℝ𝐼1×𝐼2×𝐼3の 𝜃のモード𝑚展開𝜃(𝑚)が𝑏𝑚 個のビンゴを有する ⇒ rank 𝒫 ≤

    𝐼1 − 𝑏1 , 𝐼2 − 𝑏2 , 𝐼3 − 𝑏3 𝜃(1) = 𝜃111 𝜃121 𝜃131 𝜃112 0 0 𝜃113 0 0 𝜃211 0 0 0 0 0 0 0 0 𝜃311 𝜃321 𝜃331 𝜃312 𝜃322 𝜃332 𝜃313 𝜃323 𝜃333 𝜃(2) = 𝜃111 𝜃211 𝜃311 𝜃112 0 𝜃312 𝜃311 0 𝜃313 𝜃121 0 𝜃321 0 0 𝜃322 0 0 𝜃323 𝜃131 0 𝜃331 0 0 𝜃332 0 0 𝜃333 𝜃(3) = 𝜃111 𝜃211 𝜃311 𝜃121 0 𝜃321 𝜃131 0 𝜃331 𝜃112 0 𝜃312 0 0 𝜃322 0 0 𝜃332 𝜃113 0 𝜃313 0 0 𝜃323 0 0 𝜃333 ビンゴ1つ ビンゴルール(𝑑 = 3 の場合) 𝜃123 • • 𝒫 ത 𝒫 入力テンソル 𝐷𝐾𝐿 𝒫, ത 𝒫 𝑚射影 モード1方向の2行目の𝜃が全て0の空間ℬ 1 ビンゴなし ビンゴなし ランク 2,3,3 38
  16. STEP1 : ビンゴの場所を選ぶ. 網掛けの部分はm射影で値が変わらない STEP2 : ビンゴの部分をランク1テンソルで置換する • • 𝒫

    ℬ 1 ℬ 2 ℬ 1 への射影後にℬ 2 へ射影してℬ 1 ∩ ℬ 2 に達する (5,8,3) 𝜃がゼロ 𝜃が任意 44 例:(8,8,3)のテンソルのランクを(5,7,3)以下にする.
  17. Chapter 4. A1GM github.com/gkazunii/A1GM 1.Ghalamkari, K., Sugiyama, M. AISTATS 2022

    2.Ghalamkari, K., Sugiyama, M. Information Geometry Journal (Springer) ★ (前半) 複合行列因子分解(NMMF)の解の公式の導出 ★ (後半) 解の公式に基づく欠損値を含む行列の高速なランク1近似
  18. 52 NMMF, 複合行列分解 (Takeuchi et al., 2013) 52 user artist

    tag user user tag artist user user artist
  19. 55 1体のパラメータと2体のパラメータ 𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔ 𝑿, 𝒀, 𝒁

    が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 55 1体のパラメータ 多体のパラメータ
  20. 56 同時ランク1条件の自然パラメータ表示 56 1体のパラメータ 多体のパラメータ 𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔

    𝑿, 𝒀, 𝒁 が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 全ての多体の𝜃-パラメータが0. 同時ランク1条件(𝜽-表示)
  21. 57 同時ランク1条件の自然パラメータ表示 57 1体のパラメータ 多体のパラメータ 𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔

    𝑿, 𝒀, 𝒁 が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 全ての多体の𝜃-パラメータが0. 同時ランク1条件(𝜽-表示) は,e-平坦で射影先の点は一意.
  22. 58 同時ランク1条件の期待値パラメータ表示 58 1体のパラメータ 多体のパラメータ 𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔

    𝑿, 𝒀, 𝒁 が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 全ての多体の𝜃-パラメータが0. 同時ランク1条件(𝜽-表示) 𝜂𝑖𝑗 = 𝜂𝑖1 𝜂1𝑗 同時ランク1条件(𝜼-表示)
  23. 59 最良ランク1近似公式の導出 59 𝜂𝑖𝑗 = 𝜂𝑖1 𝜂1𝑗 同時ランク1条件(𝜼-表示) 全ての多体の𝜃-パラメータが0. 同時ランク1条件(𝜽-表示)

    𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔ 𝑿, 𝒀, 𝒁 が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 1体のパラメータ 多体のパラメータ 1体の𝜼-パラメータは𝑚-射影の前後で変化しない. Shun-ichi Amari, Information Geometry and Its Applications, 2008, Theorem 11.6
  24. 60 最良ランク1近似公式の導出 メビウス反転公式 射影後の全ての𝜼-パラメータが特定できた. 60 𝜂𝑖𝑗 = 𝜂𝑖1 𝜂1𝑗 同時ランク1条件(𝜼-表示)

    全ての多体の𝜃-パラメータが0. 同時ランク1条件(𝜽-表示) 𝑿, 𝒀, 𝒁 が同時ランク1分解可能. ⇔ 𝑿, 𝒀, 𝒁 が 𝒘 ⊗ 𝒉, 𝒂 ⊗ 𝒉, 𝒘 ⊗ 𝒃 とかける 1体のパラメータ 多体のパラメータ 1体の𝜼-パラメータは𝑚-射影の前後で変化しない. Shun-ichi Amari, Information Geometry and Its Applications, 2008, Theorem 11.6
  25. 62 A1GM: アルゴリズム Step 1 : 行置換と列置換で欠損を右下に集める. Step 2 :

    NMMFの最良ランク1近似公式を用いる. 62 Step 3 : Step1で施した行置換と列置換の逆置換を施す. 欠損を含むNMFの厳密解が求まる?
  26. 63 A1GM: アルゴリズム Step 1 : 行置換と列置換で欠損を右下に集める. Step 2 :

    NMMFの最良ランク1近似公式を用いる. 63 Step 3 : Step1で施した行置換と列置換の逆置換を施す. 欠損を含むNMFの厳密解が求まる?
  27. 70 🙆A1GMが得意なケースと苦手なケース🙅 70 実データでは,欠損が同じ行や列に集中しがち. 例) アンケートフォーム, センサーの断線 🙅 各行・各列にまんべんなく欠損がある →

    欠損値が増える 🙆 欠損が特定の行や列に集中している → 欠損値の増え方が小さい 欠損数3 欠損数9 欠損数3 欠損数4 欠損数5 欠損数25
  28. 71 A1GM: アルゴリズム Step 1 : 欠損を増やす. Step 2 :

    行置換と列置換で欠損を右下に集める. Step 3 : NMMFの最良ランク1近似公式を適用する. 71 Step 4 : Step 2で施した行置換と列置換の逆置換を施す. 欠損を増やさずに済めば厳密解 欠損を増やすと近似解が求まる
  29. 72 実データセットでの実験 □ 勾配法に基づくKL-WNMFとの比較 - 欠損増加率は,欠損が何倍になったかを意味する. - 相対誤差 > 1

    は A1GM の再構成誤差が KL-WNMF よりも大きいことを意味する. - 相対実行時間 < 1 は A1GM が KL-WNMF よりも高速であることを意味する. 5~10倍高速! 72 欠損は増えない 最良解 欠損は増える 解の精度が落ちる 28:00
  30. 74 拡張NMMFと欠損値を含むランク1NMFの厳密解 74 等価 𝚽𝑖𝑗 = ቊ 0 1 If

    𝐗𝑖𝑗 is missing otherwise 拡張NMMFの最良ランク1分解公式
  31. 75 拡張NMMFと欠損値を含むランク1NMFの厳密解 75 If rank(𝚽) ≦2, the matrix can be

    transformed into the form 𝚽𝑖𝑗 = ቊ 0 1 If 𝐗𝑖𝑗 is missing otherwise 置換 等価 拡張NMMFの最良ランク1分解公式
  32. 76 拡張NMMFと欠損値を含むランク1NMFの厳密解 76 If rank(𝚽) ≦2, the matrix can be

    transformed into the form 𝚽𝑖𝑗 = ቊ 0 1 If 𝐗𝑖𝑗 is missing otherwise 置換 rank(𝚽) ≦2 の欠損を含むランク1分解は厳密に解ける. 等価 拡張NMMFの最良ランク1分解公式
  33. 77 拡張NMMFと欠損値を含むランク1NMFの厳密解 77 𝚽𝑖𝑗 = ቊ 0 1 If 𝐗𝑖𝑗

    is missing otherwise 置換 rank(𝚽) ≦2 の欠損を含むランク1分解は厳密に解ける. 等価 拡張NMMFの最良ランク1分解公式 欠損を増やす
  34. 78 拡張NMMFと欠損値を含むランク1NMFの厳密解 78 𝚽𝑖𝑗 = ቊ 0 1 If 𝐗𝑖𝑗

    is missing otherwise 置換 rank(𝚽) ≦2 の欠損を含むランク1分解は厳密に解ける. 等価 拡張NMMFの最良ランク1分解公式 欠損を増やす But, How? (Future Work)
  35. Chapter 5. Many-body Approximation for Tensors 1.Ghalamkari, K., Sugiyama, M.

    ICML2023 (Under Review) ★ (前半) 多体近似の定式化 ★ (後半) 多体近似と従来の低ランク近似の関係性の指摘 30:00
  36. 84 多体のパラメータ 84 テンソル多体近似のアイデア 全ての多体のθパラメータが0 全ての三体,四体のθパラメータが0 ランク1の和(m結合)で 表現力を向上 【低ランク近似】 一体のパラメータ

    二体のパラメータ 三体のパラメータ 四体のパラメータ 𝜃𝑖111 , 𝜃1𝑗11 , 𝜃111𝑘 , 𝜃111𝑙 一体のパラメータ 三体のパラメータ 𝜃𝑖𝑗11 , 𝜃𝑖1𝑘1 , … , 𝜃11𝑘𝑙 二体のパラメータ 𝜃𝑖𝑗𝑘1 , 𝜃𝑖1𝑘𝑙 , 𝜃𝑖𝑗1𝑙 , 𝜃𝑖𝑗𝑘1 四体のパラメータ 𝜃𝑖𝑗𝑘𝑙 (4次元テンソルを3次元テンソル3つで可視化)
  37. 102 巡回二体近似とリング分解 巡回二体近似 テンソルリング分解 Qibin Zhao, et al., 2016 相互作用表示

    テンソル ネットワーク = Ω𝑖𝑗𝑘 = 𝛿𝑖𝑗 𝛿𝑗𝑘 𝛿𝑖𝑘
  38. 103 巡回二体近似とリング分解 巡回二体近似 テンソルリング分解 Qibin Zhao, et al., 2016 相互作用表示

    テンソル ネットワーク = Ω𝑖𝑗𝑘 = 𝛿𝑖𝑗 𝛿𝑗𝑘 𝛿𝑖𝑘
  39. 104 巡回二体近似とリング分解 巡回二体近似 テンソルリング分解 Qibin Zhao, et al., 2016 巡回二体近似は拘束条件付きテンソルリング分解.

    相互作用表示 テンソル ネットワーク = Ω𝑖𝑗𝑘 = 𝛿𝑖𝑗 𝛿𝑗𝑘 𝛿𝑖𝑘 超対角テンソルを挟むと凸問題に帰着される. 帰着
  40. 108 本研究の適用限界 □ 入力テンソルの非負性 □ KL情報量での最適化 □ DAGは学習しない ・情報幾何学(確率分布の幾何学)に基づく定式化のため, 入力データと分解表現に非負性が課される.

    ・テンソル分解の最も一般的なコスト関数はフロベニウスノルム. KL情報量の最適化がフロベニウスノルムをどの程度小さくするかの理論的保証はない. ・入力データの構造に対応するDAGを手動で設計した. 本研究では,入力データの構造が動的に変化する状況は扱えない.
  41. 113 まとめ ▪ 多次元配列を離散分布とみなし,情報幾何学の双対平坦な座標系で次元削減を定式化した. ▪ 解空間の平坦性 → 解の初期値依存性を取り除いた. ▪ 双対平坦な座標系の性質

    → 厳密解に基づく議論 → 学習率や停止問題の問題を取り除いた. ▪ 平均場近似や相互作用など,物理学の諸概念から着想を得たユニークな研究になっている.
  42. 114 まとめ ▪ 多次元配列を離散分布とみなし,情報幾何学の双対平坦な座標系で次元削減を定式化した. ▪ 解空間の平坦性 → 解の初期値依存性を取り除いた. ▪ 双対平坦な座標系の性質

    → 厳密解に基づく議論 → 学習率や停止問題の問題を取り除いた. ▪ 平均場近似や相互作用など,物理学の諸概念から着想を得たユニークな研究になっている. Chapter 3. Legendre Tucker Rank Reduction ・双対平坦な座標系でのテンソルランク1近似の公式と平均場近似の幾何的な関係を指摘. ・勾配法に基づかないタッカーランク近似の高速な実装.
  43. 115 まとめ ▪ 多次元配列を離散分布とみなし,情報幾何学の双対平坦な座標系で次元削減を定式化した. ▪ 解空間の平坦性 → 解の初期値依存性を取り除いた. ▪ 双対平坦な座標系の性質

    → 厳密解に基づく議論 → 学習率や停止問題の問題を取り除いた. ▪ 平均場近似や相互作用など,物理学の諸概念から着想を得たユニークな研究になっている. Chapter 3. Legendre Tucker Rank Reduction ・双対平坦な座標系でのテンソルランク1近似の公式と平均場近似の幾何的な関係を指摘. ・勾配法に基づかないタッカーランク近似の高速な実装. Chapter 4. A1GM ・双対平坦な座標系の性質を用いてランク1複合行列分解の解の公式を閉形式で導出. ・欠損を含む行列分解への応用.欠損を増やすことで,勾配法に基づかない最適化.
  44. 116 まとめ ▪ 多次元配列を離散分布とみなし,情報幾何学の双対平坦な座標系で次元削減を定式化した. ▪ 解空間の平坦性 → 解の初期値依存性を取り除いた. ▪ 双対平坦な座標系の性質

    → 厳密解に基づく議論 → 学習率や停止問題の問題を取り除いた. ▪ 平均場近似や相互作用など,物理学の諸概念から着想を得たユニークな研究になっている. Chapter 3. Legendre Tucker Rank Reduction ・双対平坦な座標系でのテンソルランク1近似の公式と平均場近似の幾何的な関係を指摘. ・勾配法に基づかないタッカーランク近似の高速な実装. Chapter 4. A1GM ・双対平坦な座標系の性質を用いてランク1複合行列分解の解の公式を閉形式で導出. ・欠損を含む行列分解への応用.欠損を増やすことで,勾配法に基づかない最適化. Chapter 5. Many-body Approximation for Tensors ・自然パラメータを用いてモード間の相互作用が制御できることに注目. ・低ランク構造に着目しない,ランクフリーな分解を実現. ・相互作用表示をテンソルネットワークに書き直し,低ランク近似との関係も議論. ・自然勾配法に基づいた高速な凸最適化による分解を実現.
  45. 122 0の扱い 𝜃11 𝜃21 𝜃12 𝜃22 𝜂11 𝜂21 𝜂12 𝜂22

    𝒫22 = exp 𝜃11 + 𝜃12 + 𝜃21 + 𝜃22 𝒫11 = exp 𝜃11 𝒫12 = exp 𝜃11 + 𝜃12 𝒫21 = exp 𝜃11 + 𝜃21 𝒫22 = 𝜂22 𝒫11 = 𝜂11 − 𝜂21 − 𝜂12 + 𝜂22 𝒫12 = 𝜂12 − 𝜂22 𝒫21 = 𝜂21 − 𝜂22 数値計算では𝜂𝑖𝑗 = 0にして0を扱う. 𝜃表示だとexpの性質から0を扱えない.