𝑘=20, 2.33% storage 𝑘=5, 0.57% storage Image from Steven L. Brunton, J. Nathan Kutz, “Data-Driven Science and Engineering: Machine Learning, Dynamical Systems, and Control”
(2000+1500)×100 トレードオフ関係の中で適切なランクを自分で決めなければならない(試行錯誤が必要) 典型的なハイパーパラメータチューニング問題 𝑘=100, 11.67% storage 𝑘=20, 2.33% storage 𝑘=5, 0.57% storage Image from Steven L. Brunton, J. Nathan Kutz, “Data-Driven Science and Engineering: Machine Learning, Dynamical Systems, and Control”
in feature spaces." Advances in neural information processing systems 11 (1998). ▪ ノイズの乗ったデータからノイズを除去する [Denoising] … 画像に含むノイズを除去したい. 28 28 … 28×28=784
"Learning the parts of objects by non-negative matrix factorization." Nature 401.6755 (1999): 788-791. 非負行列因子分解による分解表現 基底が,目や口,鼻など顔のパーツになっている. 特異値分解(PCA)による分解表現 (正値を黒,負値を赤で描画) 基底が顔っぽくなっている. 顔の足し算で顔を再構成している. 94
"Learning the parts of objects by non-negative matrix factorization." Nature 401.6755 (1999): 788-791. 非負行列因子分解による分解表現 基底が,目や口,鼻など顔のパーツになっている. 特異値分解(PCA)による分解表現 (正値を黒,負値を赤で描画) 基底が顔っぽくなっている. 顔の足し算で顔を再構成している. 95
実際はもっと沢山の欠損値を考える. [4] Zhang, Sheng, et al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. 103
Sheng, et al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. :ハイパーパラメータ ランク 行列の集合 104
実際はもっと沢山の欠損値を考える. [4] Zhang, Sheng, et al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. :ハイパーパラメータ ランク 行列の集合 105
※ 簡単のために欠損数は1にした. 実際はもっと沢山の欠損値を考える. をNMFしてランク 行列 を得る. [4] Zhang, Sheng, et al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. :ハイパーパラメータ ランク 行列の集合 106
E step ※ 簡単のために欠損数は1にした. 実際はもっと沢山の欠損値を考える. をNMFしてランク 行列 を得る. 観測値を上書きして を得る :観測された値の添字 [4] Zhang, Sheng, et al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. :ハイパーパラメータ ランク 行列の集合
using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. 行列低ランク補完 EM-WNMF[4] :欠損値 欠損値 を適当に初期化して を得る. M step E step ※ 簡単のために欠損数は1にした. 実際はもっと沢山の欠損値を考える. をNMFしてランク 行列 を得る. 観測値を上書きして を得る 繰り返す 各点が行列に対応する空間 :観測された値の添字 :ハイパーパラメータ ランク 行列の集合
al. "Learning from incomplete ratings using non-negative matrix factorization." Proceedings of the 2006 SIAM international conference on data mining. Society for Industrial and Applied Mathematics, 2006. :ハイパーパラメータ ランク 行列の集合 データが低ランク構造を有する仮定から欠損値を推定する.
EEG Data = [M.Mørup, Data Mining and Knowledge Discovery 2011] [A.Cichocki, et al. Nonnegative Matrix and Tensor Factorizations 2009] [A.Cichocki, et al. Nonnegative Matrix and Tensor Factorizations 2009] 動画 時系列データ・信号 [A.Cichocki, et al. Nonnegative Matrix and Tensor Factorizations 2009] [Kosmas Dimitropoulos, et al. Transactions on circuits and systems for video technology 2018]
? [Nickel, Maximilian, Volker Tresp, and Hans-Peter Kriegel. “A three-way model for collective learning on multi-relational data.” ICML2011] 例:RESCAL Model によるグラフのリンク推定 テンソルで表現 [T. Bezdan, N. Bačanin Džakula, International Scientific Conference on Information Technology and Data Related Research, 2019] 深層学習 例:テンソル分解によるニューラルネットワークの軽量化 [Y. Liu et al., Tensor Computation for data analysis, 2022]
E-Step M-Step M-Step is MBA for 2D-1th order tensor The closed-form for the MBA in the M-step Jensen's inequality Sparse O(N) O(R2) Sparse N: 入力テンソル の非ゼロ要素数 168 + const.
E-Step M-Step M-Step is MBA for 2Dth order tensor The closed-form for the MBA in the M-step Jensen's inequality Sparse Sparse O(N) O(RD) より複雑な低ランク構造での近似でもMステップは閉形式で解が求まるだろうか? 173 多くの複雑な低ランク構造の M-step の更新も 局所的なCP, Tucker, Train 分解の更新で実現する.