他のチームの解法総括 - 事前確率の調整 13 モデルの出力値を修正することでスコアアップを目指せた 1st place 9th place クラス3を1.5倍というと聞こえは悪いがSmoothingの一種といえばわからなくもない? 4th place Public LBをProbingしてテストに含まれるデータの分布を把握し、出力値 のスケーリングを行った テストのラベル分布が全く違うような気がしたのでクラス3とクラス18の出 力値は定数倍して確率をあげたらスコアが上がった 左のような変換をしてモデルの出力値に定数 倍をすると大きくスコアが伸びた
他のチームの解法総括 - Validation 1st place 色々試したけどCVとLBは相関し なかった。Public LBを頼りに考え るしかなかった 2nd place CVとLBは相関しなかった。 Checkpointingをせず最終エポック の重みを使った 上位の多くがTrust Public LBをしていた 3rd place 手作業でラベルづけしたデータ セットを使ったらCVとLBがちゃん と連動した 4th place コンペの最終盤までLocal CVは安 定せず、ほぼPublic LBに頼ってい た 8th place Public LBを信頼した
11th place sample-wise ROC-AUCを使った。 Public LBとの相関は弱かったが サブせずに手法の良さを測るの には役立った 14