Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Reinforcement Fine-tuning 基礎〜実践まで
Search
Morita
December 11, 2025
Technology
0
300
Reinforcement Fine-tuning 基礎〜実践まで
AWS re:Invent ふりかえり勉強会 クラスメソッド re:Growth 2025 福岡
https://classmethod.connpass.com/event/372977/
Morita
December 11, 2025
Tweet
Share
More Decks by Morita
See All by Morita
FSx for Lustreを使ったAIモデル開発の始め方
ch6noota
0
120
Dify で AWS を使い倒す!
ch6noota
1
980
DeepSeek for Amazon Bedrock
ch6noota
0
88
5分で学ぶ! 宣言型ポリシーの基礎からベストプラクティスまで
ch6noota
1
610
新機能 Bedrock Model Distillation 基礎〜実践まで #regrowth_fuk
ch6noota
0
700
AWS を使った生成AIの活用
ch6noota
0
870
AWS初めての方必見!初学者でも入りやすいAWSサービス3選 #devio2022
ch6noota
0
1.4k
Security Hub のマルチアカウント 管理・運用をサーバレスでやってみる
ch6noota
0
3.9k
NITKハッカソン クラウド入門
ch6noota
0
1k
Other Decks in Technology
See All in Technology
製造業ドメインにおける LLMプロダクト構築: 複雑な文脈へのアプローチ
caddi_eng
1
460
トップマネジメントとコンピテンシーから考えるエンジニアリングマネジメント
zigorou
4
550
越境する組織づくり ─ 多様性を前提にしたチームビルディングとリードの実践知
kido_engineer
2
110
白金鉱業Meetup_Vol.22_Orbital Senseを支える衛星画像のマルチモーダルエンベディングと地理空間のあいまい検索技術
brainpadpr
2
220
Databricksアシスタントが自分で考えて動く時代に! エージェントモード体験もくもく会
taka_aki
0
330
Introduction to Bill One Development Engineer
sansan33
PRO
0
380
EMからVPoEを経てCTOへ:マネジメントキャリアパスにおける葛藤と成長
kakehashi
PRO
7
900
オンプレとGoogle Cloudを安全に繋ぐための、セキュア通信の勘所
waiwai2111
3
1.1k
Exadata Database Service on Dedicated Infrastructure(ExaDB-D) UI スクリーン・キャプチャ集
oracle4engineer
PRO
7
7.1k
どこで打鍵するのが良い? IaCの実行基盤選定について
nrinetcom
PRO
2
170
Lookerの最新バージョンv26.2がやばい話
waiwai2111
1
160
プロジェクトマネジメントをチームに宿す -ゼロからはじめるチームプロジェクトマネジメントは活動1年未満のチームの教科書です- / 20260304 Shigeki Morizane
shift_evolve
PRO
1
120
Featured
See All Featured
Groundhog Day: Seeking Process in Gaming for Health
codingconduct
0
110
Making Projects Easy
brettharned
120
6.6k
Building a Modern Day E-commerce SEO Strategy
aleyda
45
8.8k
Put a Button on it: Removing Barriers to Going Fast.
kastner
60
4.2k
From Legacy to Launchpad: Building Startup-Ready Communities
dugsong
0
170
Heart Work Chapter 1 - Part 1
lfama
PRO
5
35k
AI: The stuff that nobody shows you
jnunemaker
PRO
3
350
Building Adaptive Systems
keathley
44
2.9k
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
199
73k
Noah Learner - AI + Me: how we built a GSC Bulk Export data pipeline
techseoconnect
PRO
0
130
Let's Do A Bunch of Simple Stuff to Make Websites Faster
chriscoyier
508
140k
For a Future-Friendly Web
brad_frost
183
10k
Transcript
2025/12/11 クラウド事業本部 コンサルティング部 森⽥⼒ Reinforcement Fine-tuning 基礎〜実践まで
⾃⼰紹介 • 所属 ◦ クラウド事業本部 コンサルティング部 • 好きなサービス ◦ Amazon
Bedrock ◦ AWS Lambda • re:Invent ◦ 2回⽬の参加 ◦ PCディスプレイ破損した😇
AWS re:Invent 2025 - Dr. Swami Sivasubramanian
Reinforcement Fine-tuning in Amazon Bedrock Reinforcement Fine-tuningの特徴として • ベースモデルと⽐較して、平均66%の精度向上を実現 •
深い機械学習(ML)の専⾨知識や、⼤規模なラベル付きデータセットは不要 • エンドツーエンドで⾃動化されたファインチューニング • 品質を維持しながら、より⼩さく、⾼速で、費⽤対効果の⾼いモデルを実現
Reinforcement?
Reinforcement Learning Reinforcement … Reinforcement Learning(強化学習) 強化学習は、端的に⾔うと「最適な⾏動や戦略を学習する⼿法」 ⾝近な例:ゲームをする場合
ゲームに対しての攻略⽅法がわからない ユーザが取れる⾏動: • 攻撃する • 移動する など → 様々な⾏動を試して、試⾏錯誤を⾏う Reinforcement
Learning
⾏動の結果がわかる 結果: • 勝つ • 負ける など この結果と⾏動を紐づけて考える 例:攻撃すると勝つ、移動すると負ける Reinforcement
Learning
Reinforcement Learning ゲームの場合でも • 様々な状態,⾏動, 結果があるため、⼈間では全てを把握することは難しい 強化学習では • 「様々な状態,⾏動, 結果」を表現することで最適な⾏動を選択できるようなる
• 結果も数値で表現するため、 ◦ 良い結果の場合、プラス ◦ 悪い結果の場合、マイナス ◦ このように与える数値のことを報酬と呼びます
Reinforcement Fine-tuningについて
Reinforcement Fine-tuning Reinforcement Fine-tuning (RFT) 「強化学習」の仕組みを LLM の学習(Fine-tuning)に適⽤ 先ほどのゲームの例では「クリアやスコア」が報酬 RFTにおいては「⼈間の評価」や「特定の基準」が報酬
具体的には、モデルが⽣成した回答に対して、 「この回答は良い(報酬を与える)」「この回答は良くない(罰則を与える)」 というフィードバックを与える → 「より⾼い評価が得られる回答の作り⽅」を学習させることが可能
Reinforcement Fine-tuning
Bedrock Reinforcement Fine-tuningについて
Bedrock Reinforcement Fine-tuning 以下を設定するだけで Reinforcement Fine-tuning を実⾏可能 • ソースモデル •
⼊⼒データ • 報酬関数
ソースモデル 現在は、「Nova 2 Lite」のみの対応 https://dev.classmethod.jp/articles/amazon-nova-2-lite-release-aws-reinvent/
⼊⼒データ • OpenAI chat completions format(JSONL) • モデル呼び出しログ
報酬関数 AI フィードバック • AI(LLM)を⽤いて評価する⽅法 • AIにどのようなケースでどのような報酬を与えるかをプロンプトとして与えるこ とで、回答をより柔軟に評価することが可能となる
報酬関数 AI フィードバック • 選択できるAI(LLM) ◦ Nova Premier ◦ gpt-oss-120b
• プロンプトのサンプルの提供あり ◦ Instruction following (Judge model training) ◦ Summarization (Multi-turn dialogs) ◦ Reasoning evaluation (CoT for specialized domains) ◦ RAG faithfulness (Context-grounded Q&A)
報酬関数 検証可能な報酬 • 報酬関数を事前にルールベースで定義 • コード⽣成や数学的推論では、以下のように明確な正解が存在する ◦ エラーなく実⾏できるか ◦ 計算結果が合っているか
• このようなケースでは、AIモデルを⽤いるよりルールベースで与えたほうが、 より正確で効率的な学習が可能になります。
報酬関数 検証可能な報酬 • AWS Lambdaで設定可能 • Lambdaのサンプル提供あり ◦ Format &
constraints checker ◦ Math reasoning
結論: 「⼊⼒データ」だけ準備すればOK
Bedrock Reinforcement Fine-tuningのジョブ実⾏ • ジョブの時間単位 • (おそらく)関連リソースの料⾦も発⽣する ◦ 報酬関数(LLM, AWS
Lambda) モデル推論 • カスタムモデルオンデマンド ◦ 利⽤したトークンベースの課⾦ ◦ ホスティング費⽤は発⽣しない 料⾦
まとめ • 従来まで構成が難しい Reinforcement Fine-tuning が Bedrockで実現可能に • ⼩規模モデルで精度が満⾜できていなかったケースでも採⽤できる可能性あり •
作成したモデルも従量課⾦で利⽤できるため、スモールに開始できる
None