Slide 11
Slide 11 text
DATE
11/xx
その他メモ:あとで読んでね
• このコンペをやるにあたって参考にした過去のコンペ
– [Kaggle]キャッサバコンペ振り返り (zenn.dev)
– #11 [初心者歓迎! / 画像編] atmaCup (guruguru.science)
• その他得られた知見
– モデルに応じて最適化手法が異なるぜ。(Transfomer系:SGD、CNN:Adam)
– ひたすら実験を行えるような環境構築が重要。そこそこ実装できた。
– データが少ない時は、CVやLBの結果に左右されず、性能が出るハズ、、、と思う学習をさせるべし。←スライドでは触れなかったけど超重要知見
• 今回45位からshake upして14位になったのは、少量の学習・テストデータに過学習させない学習方法を取ったから。
• やってみたけど、うまく行かなかったこと
– 間違えやすいラベルをまとめて、2段階で推論(2クラス分類→9クラス分類みたいな感じで多段DNN)
– アンサンブルは精度が低下した。おそらくデータの偏りに耐えられなかった。(CVは性能向上したが、LBダメ)
– Augmentation(mixup, cutout,Randam grid shuffle)。むずいわパラメータ探索。。。
• Albumentationsのaugmentationをひたすら動かす - Qiita
– テストデータの推論結果を利用した半教師あり学習:CVは性能あがったがLBダメダメ。ワンモデルの精度が低いのでダメなのかも。
• やらなかったこと
– ラベルノイズ対策:ラベルノイズは含まれてないと思うので未実施
– スタッキング:Ave.Ensemble失敗したし、挑戦してもダメそうだったのでやらなかった。そもそもワンモデルの精度低いし・・・
– AutoAug、RandAug:着手する時間無し。。。