Upgrade to Pro — share decks privately, control downloads, hide ads and more …

atma cup #17 振り返り会

ktr
October 17, 2024
230

atma cup #17 振り返り会

ktr

October 17, 2024
Tweet

Transcript

  1. • kaggleで開催していたNLP系のコンペ 
 ◦ チャットボットアリーナ(LLMの出力を人手でジャッジするプラットフォーム)で、より好まれたLLMの出力の予測を行う
 • タスク
 ◦ 二つのモデルの出力に対して、winner model

    A/model B/引き分け の3値の分類問題
 ◦ Kaggle x NLPで単純な分類問題 だとDeBERTa一強だったが、このコンペではLLMしかワークしなかったので、割と 珍しいコンペだった
 • ちょうど、atma No17開催の数週間前に終了 
 ◦ タスク内容がNLPの分類問題で今回のコンペとほとんど同じ!
 ◦ ふりかえりのpipelineをほぼそのまま使えた!
 
 LMSYSの振り返りをしてたから
  2. • ほとんどはClassificationHeadで問題を解くソリューション 
 • LM Head を使った解法はpublic notebook[1]で存在しており、議論[2]もされていた 
 •

    性能的にはほとんど変わらない(or ClassificationHeadのほうがいい)との投稿 
 • 振り返り(Late Sub)で比較実験 
 ◦ サンプル数が少ない(16K)とLM Headで解いたほうが明らかに性能が良かった 
 ◦ コンペデータを全部使う(30K以上)と大体同じ性能くらいになった 
 • この他にもLoRA、QLoRA、vllmを使った推論効率化など参考になるnotebook、ディスカッションが多いの でLLMのfinetuning周りが気になる方は覗いてみるのがオススメです 
 
 [1]:[Training] Llama3-8b 4-bit QLoRA SFT 
 [2]:Prediction Using Generation Header 
 LMSYSで試して実感があった解法をそのまま使う