$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
深層学習は奔流に身をまかせ / Get Drowned in the Flood for De...
Search
Henry Cui
February 17, 2023
Technology
0
270
深層学習は奔流に身をまかせ / Get Drowned in the Flood for Deep Learning
Henry Cui
February 17, 2023
Tweet
Share
More Decks by Henry Cui
See All by Henry Cui
プロダクション言語モデルの情報を盗む攻撃 / Stealing Part of a Production Language Model
zchenry
1
220
Direct Preference Optimization
zchenry
0
410
Diffusion Model with Perceptual Loss
zchenry
0
460
レンズの下のLLM / LLM under the Lens
zchenry
0
200
Go with the Prompt Flow
zchenry
0
180
Mojo Dojo
zchenry
0
230
ことのはの力で画像の異常検知 / Anomaly Detection by Language
zchenry
0
620
驚愕の事実!LangChainが抱える問題 / Problems of LangChain
zchenry
0
280
MLOps初心者がMLflowを触る / MLflow Brief Introduction
zchenry
0
160
Other Decks in Technology
See All in Technology
ハッカソンから社内プロダクトへ AIエージェント「ko☆shi」開発で学んだ4つの重要要素
sonoda_mj
5
840
AIエージェント開発と活用を加速するワークフロー自動生成への挑戦
shibuiwilliam
4
490
Bedrock AgentCore Memoryの新機能 (Episode) を試してみた / try Bedrock AgentCore Memory Episodic functionarity
hoshi7_n
1
920
アプリにAIを正しく組み込むための アーキテクチャ── 国産LLMの現実と実践
kohju
0
120
マイクロサービスへの5年間 ぶっちゃけ何をしてどうなったか
joker1007
17
7k
[デモです] NotebookLM で作ったスライドの例
kongmingstrap
0
170
2025年 開発生産「可能」性向上報告 サイロ解消からチームが能動性を獲得するまで/ 20251216 Naoki Takahashi
shift_evolve
PRO
2
210
プロンプトやエージェントを自動的に作る方法
shibuiwilliam
15
14k
20251218_AIを活用した開発生産性向上の全社的な取り組みの進め方について / How to proceed with company-wide initiatives to improve development productivity using AI
yayoi_dd
0
230
AI駆動開発における設計思想 認知負荷を下げるフロントエンドアーキテクチャ/ 20251211 Teppei Hanai
shift_evolve
PRO
2
440
mairuでつくるクレデンシャルレス開発環境 / Credential-less development environment using Mailru
mirakui
5
560
Kiro を用いたペアプロのススメ
taikis
2
880
Featured
See All Featured
Mozcon NYC 2025: Stop Losing SEO Traffic
samtorres
0
75
Beyond borders and beyond the search box: How to win the global "messy middle" with AI-driven SEO
davidcarrasco
0
22
The State of eCommerce SEO: How to Win in Today's Products SERPs - #SEOweek
aleyda
2
9.1k
Why You Should Never Use an ORM
jnunemaker
PRO
61
9.6k
[RailsConf 2023] Rails as a piece of cake
palkan
58
6.2k
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
64
Navigating the Design Leadership Dip - Product Design Week Design Leaders+ Conference 2024
apolaine
0
110
4 Signs Your Business is Dying
shpigford
186
22k
What's in a price? How to price your products and services
michaelherold
246
13k
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
231
22k
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Transcript
深層学習は奔流に身をまかせ 機械学習の社会実装勉強会第20回 Henry 2023/2/18
モチベーション ▪ ペインポイント • 深層モデルの学習で望ましい効果を素早く得るのは難しい • 実データのラベルにノイズが多い • その問題点の一つに、過適合が挙げられる ▪
過適合を解消するための様々な正則化手法がある • weight decay や learning rate scheduler • Pytorchで簡単に使える ▪ 今日は最近の研究から、実用性が高い新しい正則化手法を 紹介する • 特に実装が楽 • まだあまり知られていない 2
紹介する論文 ▪ Do We Need Zero Training Loss After Achieving
Zero Training Error?, Ishida et al., ICML 2020 • Floodingという新しい正則化手法を導入 ▪ iFlood: A Stable and Effective Regularizer, Xie et al., ICLR 2022 • Floodingの計算式を少しだけ改良 3
Ishida et al., ICML 2020 ▪ モチベーション • 学習データでの損失を0まで学習を行ったほうが良いと言われる •
しかし、これは本当に必要なのか • 正則化手法は、学習データでの損失を過度に最小化しないための間 接的な手法と見なせる ▪ 直接学習損失の最小化を制限する手法:Flooding • 実装も簡単 • 学習損失は0じゃなくても、学習精度が100%の可能性もある 4
Ishida et al., ICML 2020 ▪ 提案法は以下の性質をすべて満たす初めての正則化手法 • 学習損失を直接制限する •
特定の問題ドメインに依存しない • 特定のタスクに依存しない • 特定のモデルに依存しない ▪ 提案法の仮設もシンプルで、「0の学習損失が有害」のみ ▪ 検証損失の二重降下に関する初めて研究 5
Ishida et al., ICML 2020 ▪ 人工データで有意な性能向上 6
Ishida et al., ICML 2020 ▪ 実データでも有意な性能向上 ▪ その他、Floodingによる勾配値の変化や解の平坦性なども調 査
7
Xie et al., ICLR 2022 ▪ Floodingにデータインスタンスの勾配が乖離する問題 • バッチで平均を取るので、同じバッチにある他のデータインスタンスの 損失に依存する
▪ 提案手法:絶対値をバッチで取るではなく、各データインスタン スレベルで取るので、indivisual Flood (iFlood)と呼ぶ ▪ 各手法のインスタンスの損失のヒストグラム 8
Xie et al., ICLR 2022 ▪ 確かに性能向上につながる ▪ その他も、勾配のノルムやノイズ耐性などを検証 9
まとめ ▪ 実用性高い正則化手法のFloodingとその改良版のiFlood ▪ 実装がシンプルで試しやすい 10