Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Neural Network Diffusion

frkake
March 05, 2024

Neural Network Diffusion

frkake

March 05, 2024
Tweet

More Decks by frkake

Other Decks in Research

Transcript

  1. 前提知識 拡散モデル 拡散過程(Forward Process) 生成過程(Reverse Process) 分散𝛽𝑡 をもつガウスノイズ𝒩をを加える (平均は無視します) ガウスノイズの平均と分散𝜇𝜃

    , Σ𝜃 を学習 損失 平均𝜇𝜃 , 分散Σ𝜃 をもつガウスノイズ𝒩を引いていく … T 0 … 𝑡 = 𝑞 𝑥𝑡 𝑥𝑡−1 𝑝𝜃 𝑥𝑡−1 𝑥𝑡
  2. STEP 1: Parameter Autoencoder オリジナルのStable Diffusionのように潜在空間を学習 Stable Diffusion = 画像

    の潜在空間 p-diff = パラメータ の潜在空間 入力を再構成する普通のAutoencoder データ 学習 モデルパラメータのサブセットを使う ➢ ゼロから学習して、最後のエポックを保存 ➢ 学習済みモデルのサブセットをファインチューン 𝑆 = 𝑠1 , … , 𝑠𝑘 , … , 𝑠𝐾 各𝑆 を平坦化して1dベクトル𝑉𝐾×𝐷 = 𝑣1 , … , 𝑣𝑘 , … , 𝑣𝐾 に このを𝑉入出力としてオートエンコーダを学習 サブセットパラメータの大きさ ➢ 入力側の𝑉と潜在空間𝑍にはランダムノイズでデータ拡張 𝜉𝑉 𝜉𝑍 𝑍 𝑉 𝑣𝑘 ≔ 𝑘番目のモデルのパラメータ K個のモデルがある場合 [Rombach+, “High-Resolution Image Synthesis with Latent Diffusion Models”, CVPR, 2022]
  3. 実験設定 データセット - MNIST - CIFAR-10/100 - ImageNet-1K - STL-10

    - Flowers - Pets - F-101 アーキテクチャ - ResNet-18/50 - ViT-Tiny/Base - ConvNeXt-T/B 4-layer 1D CNN Autoencoderで学習 パラメータデータセット作成 - ResNet-18/50: スクラッチ学習 - ViT-Tiny/Base: ファインチューニング - ConvNext-T/B: ファインチューニング それぞれ200モデル保存 推論時 x 100 train setでのベストモデルを選択 Best Model val setで検証 originals ensemble p-diff x 100 最後の2層のBNレイヤだけ
  4. p-diffが記憶している可能性を調査 1. オリジナルモデルのパラメータを記憶しているだけでは? 同じパラメータが生成されているかも。多様性ある? 2. ノイズの付加やオリジナルモデルのファインチューニングで 違いはあるか? 各モデルの出力結果を類似度を測る 指標=間違った結果のIoU (最近傍)

    p-diffは多様な パラを生成 普通にSGDで 学習すると 似た感じになる 最近傍 +noise finetune original models p-diff model (b) の補足図 ファインチューニングしてp-diffのパラに行き着くか検証 オリジナルモデルを 超えるのは難しい &類似度高い t-SNEで潜在ベクトルの分布を可視化 潜在空間でもp-diffは オリジナルと異なる