Upgrade to Pro — share decks privately, control downloads, hide ads and more …

衛星画像の5倍超解像度化コンペ 6位アプローチ

tak-s
April 16, 2023

衛星画像の5倍超解像度化コンペ 6位アプローチ

cf. @Solafune(https://solafune.com/) コンテストの参加以外を目的とした利用及び商用利用は禁止されています。商用利用・その他当コンテスト以外で利用したい場合はお問い合わせください。(https://solafune.com/)

tak-s

April 16, 2023
Tweet

Other Decks in Science

Transcript

  1. 解法 • 以下の5つをアンサンブル 1. 事前学習HAT_SRx4をFinetuningし、INTER_CUBICで5倍になるようresize。 2. HATを5倍で学習できるよう調整しスクラッチ学習。推論時は、EDSR(“Enhanced Deep Residual Networks

    for Single Image Super-Resolution”)で用いられた「self-ensemble」を実施。 3. self-ensemble手法を使ってAugmentしたデータセットを使って、HAT 5倍モデルをスクラッチ学 習。推論時もself-ensemble 4. cutblur(EDSR) 。5倍で学習。 5. HAT構造をGPUメモリに載るギリギリのサイズに大きくし、Augmentしたデータセットで学習。 • アンサンブルは各ピクセルを平均 for n in filenames: imgs = [] for d in target_dir: img_path = osp.join(d,n) imgs.append(cv2.imread(img_path)) avg_img = np.sum(imgs, axis=0)/len(target_dir) avg_img = avg_img.astype(int) cv2.imwrite(osp.join(output_dir, n), avg_img)
  2. 試したこと モデルアンサンブル対象 Publicスコア 手法 0.69733 ESRGANx4 pretrain、resize(学習なし) 0.71648 Real-ESRNetx4 pretrain、resize

    (学習なし) 0.65519 Real-ESRGANx4 pretrain、resize (学習なし) 0.68031 Real-ESRGANx4 finetune、resize 0.76446 Real-ESRNetx4 finetune、resize 0.75677 HATx4 pretrain、resize(学習なし) 0.75992 HAT-Lx4 pretrain、resize(学習なし) 〇 0.76812 HATx4 finetune 0.76713 HATx5 〇 0.76939 HATx5, self-ensemble 〇 0.76733 cutblur(EDSR), self-ensemble 〇 0.76935 HATx5 with data augmentation, self-ensemble 〇 0.76966 HAT-L x5 with data augmentation, self-ensemble (論文のLargeモデルまではGPUメモリの都合上大きくで きず、少しだけLarge) 0.770530074658852 最終Privateスコア:0.776418107664789(#6) モデルアンサンブル
  3. 所感 • 超解像技術に触れることができたのは良い経験となった。 • いろいろな手法を試したものの、「4倍のPretrainモデル予測をresizeし ただけ(学習なし)」のスコア0.75677から、0.014程度しか改善できな かったのが消化不良な感じ。 • 推論した結果を見るとのっぺりした画像ばかり出力され、それでも SSIM値は高かったりする。一方、水面や砂漠っぽいところなど構造物

    が少ない地形では、のっぺり推論ではスコアが出ず、そういった画像だ けを取り出して専用モデルを作成してみたが、あまり効果は出ず、難易 度が高かった。 • 提供データをTrain/ValにSplitして検証したが、一度分割したデータ セットを終始使っていたため、バリエーションを考えたりCVをきちんと 行うと上位に入れたかもしれない。 低SSIM画像 検証データでのSSIMヒストグラム