Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Learning Lightweight Lane Detection CNNs by Sel...

catla
September 13, 2019

Learning Lightweight Lane Detection CNNs by Self Attention Distillation(ICCV2019)の紹介

catla

September 13, 2019
Tweet

More Decks by catla

Other Decks in Research

Transcript

  1. どんなもの?
 先行研究と比べてどこがすごい? 
 技術や手法のキモはどこ? 
 どうやって有効かを検証した? 
 議論はある?
 入力画像(RGB)から車線を検出する. 


    蒸留に追加データやラベルを必要とせず,先行研究である message passing機能を有するSCNNは順伝播に全体の 35%の時間を占めるのに対し,提案手法の推論時間はベー スモデルと同程度で精度の向上を達成.
 ベーシックな蒸留は,教師モデルを用いて新たなモデルを 学習させるが,提案手法のSelf Attention Distillation(SAD) は,自分自身の深いレイヤーにおけるアテンションマップを 浅いレイヤーの蒸留ラベルに使用. したがって, 教師モデ ル等から得られる追加ラベルが必要なく, モデル自体も大 きくならない.
 Lane Detectionにおける3つのベンチマーク(TuSimple, BDD100K, CULane)で実験を行い,先行研究との比較や SADに関するablation studyを行い有効性を検証.
 SADを導入することで各レイヤーのアテンションマップが 良くなった. 細部にこだわるタスクにおいても有効かもしれ ない.

  2. 背景&先行研究
 (1) 車線が画像に対してスパースであるので学習が難しい問題. 
 
 (2) また,前に走ってる車によってレーンが見えない,実際のレーンが曖昧に引かれている(視覚情報が弱い),路 面状況が悪いといった時にうまく予測できない問題もある. 
 


    (3) 先行研究でSoTAなSCNNはmessage passing(MP)によって精度向上を達成したがMP部分に推論時間の 35%が占められていて計算コストが高い. 
 
 (4) アプローチ方法としては,セグメンテーションとして解く,セグメンテーションしたのちに点をサンプリングして 多項式に変形,多項式のパラメータを予測する方法があるっぽい (?). 
 この論文はsemantic segmentationで解く