Slide 1

Slide 1 text

https://arxiv.org/abs/1908.00821 桂 尚輝 (Katsura Naoki) #7【画像処理 & 機械学習】論文LT会 2019.09.13

Slide 2

Slide 2 text

どんなもの?
 先行研究と比べてどこがすごい? 
 技術や手法のキモはどこ? 
 どうやって有効かを検証した? 
 議論はある?
 入力画像(RGB)から車線を検出する. 
 蒸留に追加データやラベルを必要とせず,先行研究である message passing機能を有するSCNNは順伝播に全体の 35%の時間を占めるのに対し,提案手法の推論時間はベー スモデルと同程度で精度の向上を達成.
 ベーシックな蒸留は,教師モデルを用いて新たなモデルを 学習させるが,提案手法のSelf Attention Distillation(SAD) は,自分自身の深いレイヤーにおけるアテンションマップを 浅いレイヤーの蒸留ラベルに使用. したがって, 教師モデ ル等から得られる追加ラベルが必要なく, モデル自体も大 きくならない.
 Lane Detectionにおける3つのベンチマーク(TuSimple, BDD100K, CULane)で実験を行い,先行研究との比較や SADに関するablation studyを行い有効性を検証.
 SADを導入することで各レイヤーのアテンションマップが 良くなった. 細部にこだわるタスクにおいても有効かもしれ ない.


Slide 3

Slide 3 text

背景&先行研究
 (1) 車線が画像に対してスパースであるので学習が難しい問題. 
 
 (2) また,前に走ってる車によってレーンが見えない,実際のレーンが曖昧に引かれている(視覚情報が弱い),路 面状況が悪いといった時にうまく予測できない問題もある. 
 
 (3) 先行研究でSoTAなSCNNはmessage passing(MP)によって精度向上を達成したがMP部分に推論時間の 35%が占められていて計算コストが高い. 
 
 (4) アプローチ方法としては,セグメンテーションとして解く,セグメンテーションしたのちに点をサンプリングして 多項式に変形,多項式のパラメータを予測する方法があるっぽい (?). 
 この論文はsemantic segmentationで解く 


Slide 4

Slide 4 text

Self Attention Distillation 一つレイヤーの深いアテンションマップを蒸 留に用いる教師ラベルとして使用する. 
 蒸留に対する損失関数は, 
 L2 Loss

Slide 5

Slide 5 text

Self Attention Distillation 次ココ!


Slide 6

Slide 6 text

AT-GEN Bilinear Upsample Spatial Softmax p=2で実験したもの が一番よかったらし い
 C × H × W H × W H’ × W’ H’ × W’

Slide 7

Slide 7 text

Result (Attention map)

Slide 8

Slide 8 text

Result (vs Previous work)

Slide 9

Slide 9 text

Result (vs Deep supervision)

Slide 10

Slide 10 text

Message Passing (MP) https://arxiv.org/abs/1712.06080 MRF/CRF SCNN 近くのピクセル情報を関連づける 


Slide 11

Slide 11 text

Message Passing (MP) https://arxiv.org/abs/1712.06080 CNNは、細く連続な物体や大きな物体のsemantic情報 に弱いらしく、SCNNでそれを改善できたそう