2019年12月19日に大分大学で開かれたPRMU研究会における発表資料になります。
ճΞϧΰϦζϜίϯςετҐ ղ๏ஜେֶ ใֶ܈ ใՊֶྨ ஜେֶώϡʔϚϯίϯϐϡςʔγϣϯݚڀࣨ ॴଐOBPLJLBUTVSB!IDPNQDTUTVLVCBBDKQܡ ঘً13.6ݚڀձ!େେֶ
View Slide
ίϯςετ֓ཁίϯςετͷظؒɿ d ʢϲ݄ʣ՝༰ɿ ( + 48& + 3!%!% '(")accuracy*+$#+ 119,997&#+ 16,3871+ 388,146
લॲཧ
લॲཧ標準正規分布の確率密度関数を[-1, 1]の区間で等間隔でサンプリングしたベクトル。二値化画像を横に合計を取ったベクトルを見ると、文字部分は山状になっている。
Ϟσϧͷશମ૾
݁Ռ手元で評価(Cross validation)した時の認識率は、ResNet < OctConv ResNet < DenseNet < Inception-v4 < SE-ResNeXtとなった。モデル 認識率OctConv ResNet50(事前学習無し) 89.59%SE-ResNeXt101(事前学習有り) 90.23%アンサンブル(SE-ResNeXt, DenseNet, Inception-v4)90.63%順位 最終結果のスコア1位 90.63%2位89.35%3位88.95%
Random CropやRandom Shiftといった基本的なAugmentationに加え、分割位置に対してロバストになるように前処理によって得られた分割位置を学習時にランダムで上下に少しずれるような処理を行なった。また、学習率のスケジューリングをWarmupとRestart有りCosine Annealingにすることで収束速度と精度が共に向上した。
࣮ݧઃఆ࠷ऴతʹɺϞσϧͷΞϯαϯϒϧʢՃॏฏۉʣͨ͠ͷ͕࠷ߴਫ਼ͱͳͬͨɻϞσϧɺಛྔநग़Λߦ͏CBDLCPOF͕ҟͳΔ͚ͩͰ͋Γɺ͜ΕΒશͯ*NBHF/FUͰࣄલֶश͞Ε͍ͯΔɻ˔ CBDLCPOFɿ 4&3FT/F9U %FOTF/FU *ODFQUJPOW˔ ଛࣦؔɿ $SPTT&OUSPQZ-PTT˔ όοναΠζɿ ˔ ࠷దԽؔɿ NPNFOUVN4(%ʢNPNFOUVN XFJHIUEFDBZʣ˔ εέδϡʔϥɿ 4(%3ʢMSɿd FQPDIDZDMFʣ˔ ೖྗղ૾ɿY˔ FQPDIɿ ˔ (16ɿ 5FTMBW (# (59 (#˔ ͦͷଞɿ.JYFE1SFDJTJPOͰֶश
·ͱΊ● モデルは、特徴量抽出器としてImageNet等で成果を出しているCNNアーキテクチャ、クラス分類器としては、隣接した画像の特徴を考慮するためにGRUを使用したネットワークを結合した構成。● 前処理では、大津の二値化をしようして、良さそうな分割位置を推定。● 分割位置に対してモデルがロバストに学習できるように学習時にランダムで位置を変化させる。● 学習率をSGDRで変化させると大幅に精度と収束速度が上昇。● 最も精度が高くなったモデルは、SE-ResNeXt, DenseNet, Inception-v4をアンサンブルさせたモデル。コードは公開しております。 https://github.com/katsura-jp/alcon23