Slide 11
Slide 11 text
11
Training for ControlNet
元のネットワーク(Stable Diffusion)のパラメータはlockされ、少数のuser conditioning dataから
学習していく。
23% more GPU memory, 34% more time in each training
iteration (as tested on a single Nvidia A 100 PCIE40G)
Small-Scale Training
DefaultでControlNetを接続している”SD Middle Block”と”SD Decoder Block 1,2,3,4”の
うち、 ”SD Decoder Block 1,2,3,4”の接続を外す。
RTX 2070TI laptop GPUで実⾏でき、 1.6倍速く学習可能
Large-Scale Training
8台以上のNvidia A100 80Gと100万以上の学習データが利⽤可能なら、Overfittingの
リスクは低いので、
最初に5万ステップ以上でControlNetを学習しその後Stable Diffusionのすべての重み
のlockを外し、全モデルを通してのjointly trainingを⾏う。
Improved Training