Slide 14
Slide 14 text
Curriculum through Distillation
● Progressive Neural Networks [Rusu et al., 2016] では, 学習したスキルを異なるタ
スク間で効率的に転移することを目的とする.
1. 最初のタスクについて, 活性化層をℎ
𝑖
(1), 𝑖 = 1, … , 𝐿とした𝐿層のNNを学習する.
2. 異なるタスクについて, 活性化層ℎ
𝑖
(𝑘), 𝑖 = 1, … , 𝐿を以下の式で定義した𝐿層のNNを学習する. この時,
ℎ(𝑗)のパラメータについては固定する.
● sim2real transferへ応用することで、
少ない現実データで学習を行える.
[Rusu et al., 2017]