Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文紹介 Rethinking Classifier Re-Training in Long-...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Plot Hong
November 30, 2025
Technology
1
110
論文紹介 Rethinking Classifier Re-Training in Long-Tailed Recognition: Label Over-Smooth Can Balance
Long-Tailed Recognition/Classificationにおける分類器再学習の役割を見直し、新たな評価指標とクラス不均衡問題に対処する新たな方法を提案する論文を紹介する
Plot Hong
November 30, 2025
Tweet
Share
Other Decks in Technology
See All in Technology
Vivre en Bitcoin : le tutoriel que votre banquier ne veut pas que vous voyiez
rlifchitz
0
360
Agentic Coding 実践ワークショップ
watany
39
27k
Data Intelligence on Lakehouse Paradigm
scotthsieh825
0
200
AWS Network Firewall Proxyで脱Squid運用⁈
nnydtmg
1
160
VRTと真面目に向き合う
hiragram
1
480
ReproでのicebergのStreaming Writeの検証と実運用にむけた取り組み
joker1007
0
430
Regional_NAT_Gatewayについて_basicとの違い_試した内容スケールアウト_インについて_IPv6_dual_networkでの使い分けなど.pdf
cloudevcode
1
130
GitHub Copilot CLI 現状確認会議
torumakabe
12
4.5k
Kaggleコンペティション「MABe Challenge - Social Action Recognition in Mice」振り返り
yu4u
1
750
Claude in Chromeで始める自律的フロントエンド開発
diggymo
1
270
Amazon Bedrock AgentCore EvaluationsでAIエージェントを評価してみよう!
yuu551
0
160
BPaaSオペレーション・kubell社内 n8n活用による効率化検証事例紹介
kentarofujii
0
290
Featured
See All Featured
Connecting the Dots Between Site Speed, User Experience & Your Business [WebExpo 2025]
tammyeverts
11
800
Agile that works and the tools we love
rasmusluckow
331
21k
Believing is Seeing
oripsolob
1
38
Navigating the moral maze — ethical principles for Al-driven product design
skipperchong
2
230
The Impact of AI in SEO - AI Overviews June 2024 Edition
aleyda
5
710
jQuery: Nuts, Bolts and Bling
dougneiner
65
8.4k
The AI Search Optimization Roadmap by Aleyda Solis
aleyda
1
5.2k
We Analyzed 250 Million AI Search Results: Here's What I Found
joshbly
1
560
Measuring & Analyzing Core Web Vitals
bluesmoon
9
740
The Language of Interfaces
destraynor
162
26k
Chasing Engaging Ingredients in Design
codingconduct
0
100
What does AI have to do with Human Rights?
axbom
PRO
0
1.9k
Transcript
AI Community 2025.10.16 洪 嘉源 GOドライブ株式会社 論文紹介 Rethinking Classifier Re-Training
in Long-Tailed Recognition: Label Over-Smooth Can Balance
2 論文紹介 Rethinking Classifier Re-Training in Long-Tailed Recognition: Label Over-Smooth
Can Balance [1] ▪ 2025 ICLR ▪ Long-Tailed Recognition/Classificationにおける分類器再学習 (Classifier Re-Training)の役割を見直し、新たな評価指標とクラス 不均衡問題に対処する新たな方法Label Over-Smooth(LOS)を提案 する。
3 背景 ▪ 現実のデータセットは Long-Tailed分布を持ちやすい head classes: 少数のクラス、データ数が多い、学習しやすい tail classes:
多数のクラス、データ数が少ない、学習しずらい ▪ 通常の分類モデルは多数クラスに偏り、少数クラスの精度が著しく低下 head classes tail classes cat vulpes lagopus
4 背景 Decoupling Representation and Classifier for Long-Tailed Recognition, ICLR
2020 [2] ▪ 近年注目されているDecoupled Training(二段階学習)の解法 ▪ 分類パーフォマンス = 表現クオリティー + 分類器クオリティー - long-tailed分布のデータを通常の学習なら分類器クオリティーが低い - 直接rebalancingの手法を全モデルに適用すると表現クオリティーが下がる
5 背景 Decoupling Representation and Classifier for Long-Tailed Recognition, ICLR
2020 [2] ▪ 二段階学習(Decoupled Training)とは 1. 特徴表現(Feature Extractor): - 1回目の学習でlong-tailed dataをそのまま学習する - 多数クラスの支配を受けやすいが、一般的な特徴表現を獲得することに集中 - ResNet, ViT などの CNN/Transformer の主幹部 2. 分類器(Classifier): - 2回目の学習で凍結した特徴に対して分類器の重みだけを再調整 - 少数クラスにもバランスを取れるように設計
6 ▪ Classifier Retraining (cRT) - 特徴抽出部を固定し分類器だけをre-sampling(class-balanced) で再学習 ▪ 𝜏-Norm
- 直接にweightを修正する: ෦ 𝑤𝑖 = 1 𝑤𝑖 𝜏 ∗ 𝑤𝑖 − 𝜏 ∈ (0, 1)はcross validationで決める ▪ Learnable Weight Scaling (LWS) - 学習でweightのscaleを調整: ෦ 𝑤𝑖 = 𝑓𝑖 ∗ 𝑤𝑖 - 特徴抽出部と分類器を固定して 𝑓𝑖 はre-sampling (class-balanced)で学習 ▪ Nearest Class Mean classifier (NCM) - 各クラスの平均特徴を計算し、最近傍探索で分類 分類器性能向上手法 -
7 研究の目的 ▪ 分類器再学習の手法を統一的な特徴表現のもとで再評価 ▪ 新しい評価指標を2つ提案: - Logits Magnitude(LoMa):正解クラスと非正解クラスのlogitの差 -
Regularized Standard Deviation(RSD):logitsの標準偏差をLoMaで正規化 ▪ 提案手法Label Over-Smooth(LOS)を導入
8 既存手法の再評価 ▪ 従来研究の課題: 多くの先行研究は、分類器再学習の際にも特徴抽出 器を同時に更新していた → 分類器の変更だけではなく、特徴の表現自体も変わる → 分類器の性能の純粋な評価ができていない
▪ 分類器だけを固定条件下で公平に比較したい - すべての手法で同一の特徴抽出器(Backbone)を使用 - 特徴表現の質に左右されないため、分類器自体の効果を定量的に・直接的に比較可能
9 評価指標 ▪ 従来の指標: - Overall Accuracy - Many/Medium/Few-shot Accuracy
- Confusion Matrix これらは予測結果に基づく指標、分類器の内部状態は見えない、詳細の原因分析しづら い ▪ 分類器の各クラスに対応する重みベクトルのノルム [2] → この論文では、理論的に重みノルムは本質的な指標ではないことを証明した → Cross-Entropy損失では、モデルの重みWとバイアスbが最適化されますが、実はこ の重みWの全てのベクトルに任意のベクトルδを足し合わせても、バイアスbを適切に 調整すれば、モデルの最終的な予測確率は全く変わらない。
10 新しい評価指標 ▪ Logits Magnitude (LoMa) クラスiにおける、「クラスiに属するサンプルの平均logit」と「クラスiに属さないサ ンプルの平均logit」の差分 ▪ 分類スコアの極端な偏りを可視化
11 新しい評価指標 ▪ Regularized Standard Deviation (RSD) logitの標準偏差を、そのクラスの識別しやすさ(LoMa)で正規化した値 ▪ 分布の広がりをLoMaで正規化して比較可能に
12 新しい評価指標 ▪ モデルの性能が高いほど、クラス間のLoMaが小さくかつバランスよ く保つことになる傾向がある ▪ LoMaの絶対値を意図的に小さくすれば、ノイズの影響を抑制し、性 能をさらに向上させられる
13 提案手法 ▪ Label Over-Smoothing (LOS) アイデア:従来のone-hot label(正解クラスのみ1、他は0)を、極端に平滑化した soft labelに置き換えて学習する
14 提案手法 ▪ LOSは、損失関数を通じてモデルのlogit出力を間接的に制御する - 効果①: 過信の抑制 正解ラベルのターゲット値が1より小さくなるため、モデルは正解クラスのlogitを無限 に大きくしようとしなくなる。これにより、多数派クラスへの過信が抑制される。 -
効果②: LoMaの低減とバランシング 結果として、全クラスのlogitの絶対値が小さくなり、クラス間のLoMaがより均一にな る。 これにより、少数派クラスの学習が安定し、識別性能が向上する。
15 実験 ▪ データセット CIFAR100-LT: 100クラス。不均衡率(IR)を10, 50, 100に設定 ImageNet-LT: 1000クラス。大規模で現実的なデータセット
iNaturalist2018: 8142クラス。非常に大規模かつ不均衡な生物種分類データセット ▪ バックボーンモデル: ResNet-34 (CIFAR), ResNeXt-50 (ImageNet), ResNet-50 (iNaturalist)
16 実験
17 実験 ▪ プラグインとして使用しても効果あり
18 実験 ▪ Smooth Factor (δ) の影響 図:横軸にSmooth Factor(δ)、縦軸に精度。不均衡率(IR)が高いほど、δを大きくする効果が高いことがわかる。 ▪
分析結果: - δが1に近づくほど(より強く平滑化するほど)、全体の精度が向上する - この結果は、本手法が単なる過学習抑制ではなく、積極的にlogitを制御するという 新しいメカニズムで機能していることを強く裏付けている
19 まとめ ▪ 公正な再評価: 統一された基盤の上で既存の再学習手法を評価し、新 たなベンチマークを提示した。 ▪ 新指標の提案: モデル性能と強く相関するLogits Magnitude
(LoMa) を提案し、その有効性を示した。 ▪ 新手法の開発: LoMaの分析に基づき、シンプルで強力なLabel Over- Smoothing (LOS)を開発し、全ベンチマークでSOTAを達成した。ク ラス分布などの事前知識を必要とせず、プラグインとしても機能する 汎用性がある。
20 [1] Siyu Sun, Han Lu, Jiangtong Li, Yichen Xie,
Tianjiao Li, Xiaokang Yang, Liqing Zhang, Junchi Yan. Rethinking Classifier Re-Training in Long-Tailed Recognition: Label Over-Smooth Can Balance. In ICLR, 2025. [2] Bingyi Kang, Saining Xie, Marcus Rohrbach, Zhicheng Yan, Albert Gordo, Jiashi Feng, Yannis Kalantidis. Decoupling Representation and Classifier for Long-Tailed Recognition. In ICLR, 2020. Reference