Slide 17
Slide 17 text
既存研究の流れ
E2VID:Henri Rebecq, René Ranftl, Vladlen Koltun, Davide Scaramuzza;201906
イベントストリームからの強度画像の再構成を、手作業で作られたプライアに頼ることなく、データから直接学習するこ
とを提案する。本研究では、イベントストリームから映像を再構成するための新しいリカレントネットワークを提案し、大
量の模擬イベントデータを用いて学習を行う。学習の際には、再構成が自然な画像統計に従うように、知覚的な損失
を使用することを提案する。さらに、この手法を拡張して、カラーのイベントストリームからカラー画像を合成することが
できます。
ECNN:Timo Stoffregen, Cedric Scheerlinck, Davide Scaramuzza, Tom Drummond, Nick Barnes, Lindsay Kleeman, Robert
Mahony;202003
我々は、イベントベースのCNNの学習データを改善する戦略を提示し、我々の方法で再学習された既存の最先端
(SOTA)のビデオ再構成ネットワークの性能を20-40%向上させ、オプティックフローネットワークでは最大15%向上させ
ることに成功しました。
CF:Cedric Scheerlinck,Nick Barnes,Robert Mahony;2018.11
イベントカメラは、広いダイナミックレンジの局所的な時間的コントラストを、非同期にデータドリブンで測定し、極めて
高い時間分解能を実現します。従来のカメラでは、低周波の基準となる強度情報を取得していました。これら2つのセ
ンサーモダリティは、相補的な情報を提供します。我々は、画像フレームとイベントを連続的に融合し、単一の高時間
分解能、高ダイナミックレンジの画像状態にする計算効率の高い非同期フィルタを提案する。従来の画像フレームが
ない場合、このフィルタはイベントのみを対象として実行することができる。
2018 2019 2020 2021
Filter based
CNN based
CF
E2VID ECNN
AKF