Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AutoGluon Tabularモデル入門

AutoGluon Tabularモデル入門

AutoGluon Tabularモデル入門

### 自動機械学習で表形式データをマスターする
#### 初心者向け解説と主要モデルの徹底解剖

Avatar for MIKIO KUBO

MIKIO KUBO

July 09, 2025
Tweet

More Decks by MIKIO KUBO

Other Decks in Programming

Transcript

  1. 1. AutoGluon TabularPredictor の概要 AutoGluon とは? Amazonが開発したオープンソースの自動機械学習(AutoML)ライブラリ。 最小限のコードで、多様なタスクに対し高い性能を発揮。 TabularPredictor とは?

    AutoGluonの主要コンポーネント。 表形式データ(行と列からなるデータ)の予測に特化。 分類問題(例:顧客の解約予測)と回帰問題(例:不動産価格予測)の両方に対応。 2
  2. TabularPredictor の基本的な使い方 たった数行のコードで、複雑な機械学習パイプラインを実行できます。 1. ライブラリのインポートとデータの準備 from autogluon.tabular import TabularDataset, TabularPredictor

    train_data = TabularDataset('https://autogluon.s3.amazonaws.com/datasets/Inc/train.csv') test_data = TabularDataset('https://autogluon.s3.amazonaws.com/datasets/Inc/test.csv') 2. 学習の実行 predictor = TabularPredictor(label='class').fit(train_data) 3. 予測の実行 predictions = predictor.predict(test_data) 4. 性能評価とリーダーボードの表示 predictor.evaluate(test_data) predictor.leaderboard(test_data) 5
  3. モデルキー アルゴリズム名 概要 (TabularPredictor における役割) GBM LightGBM 高速・高効率な勾配ブースティングツリー。高い精度を発揮。 CAT CatBoost

    カテゴリ特徴量の扱いに特化した勾配ブースティングツリー。 XGB XGBoost 高性能でスケーラブルな勾配ブースティングツリー。Kaggleで実 績。 RF Random Forest 複数の決定木を組み合わせたアンサンブル。堅牢で安定した性能。 XT Extra Trees RFに似るが、よりランダム性を高め高速化。 NN_TORCH PyTorch NN 表形式データ向けのディープラーニングモデル。複雑なパターンを 学習。 LR Linear Model 線形回帰/ロジスティック回帰。シンプルで解釈しやすい。 KNN K-Nearest Neighbors 近いデータ点に基づいて予測。シンプルで直感的。 AG_AUTOMM AutoMM 表、テキスト、画像など複数データタイプを統合するマルチモーダ ルモデル。 6
  4. 勾配ブースティングモデル比較 特徴/ モデル LightGBM (GBM) CatBoost (CAT) XGBoost (XGB) 成長戦略

    リーフワイズ (高速) 対称ツリー レベルワイズ カテゴリ特徴量 要エンコーディング ネイティブ処理 要エンコーディング 速度 最も高速 高速 高速 メモリ使用量 低い 高い傾向 中程度 強み 速度と効率 カテゴリデータ処理 精度と柔軟性 AutoGluon はこれらの多様な強みを組み合わせることで、単一モデルの弱点を補い、最高の性能を目指しま す。 10
  5. 【ツリーアンサンブル】Random Forest (RF) & Extra Trees (XT) コンセプト: 多数の決定木を構築し、その予測を統合(多数決/平均)。 Random

    Forest (RF) : 学習: データの一部(ブートストラップサンプル)と特徴量の一部を使って木を構築。 特徴: 過学習に強く、堅牢。 Extra Trees (XT) : 学習: データ全体を使用し、分割点を ランダムに選択。 特徴: RFよりもさらにランダム性が高く、 学習が高速。 これらは、勾配ブースティングとは異なるアプローチで、アンサンブルの多様性を高める重要なモデルで す。 11
  6. 【シンプルモデル】Linear Model (LR) & K-Nearest Neighbors (KNN) Linear Model (LR)

    : コンセプト: データ間に 線形(直線的)な関係を仮定して予測。 強み: シンプルで解釈しやすい。「なぜ」その予測になったか説明が容易。 弱み: 複雑な非線形パターンは捉えられない。 K-Nearest Neighbors (KNN) : コンセプト: 「似たもの同士は近くにいる」。新しいデータに最も近いK個のデータで予測。 強み: 直感的で実装が容易。 弱み: 大規模データや高次元データでは計算コストが非常に高い。 12
  7. アンサンブル手法の概要 バギング (Bagging) 手法: データを少しずつ変えながら同じモデルを複数学習させ、予測を平均化。 効果: モデルの安定性を高め、 過学習を抑制する。 スタッキング (Stacking)

    手法: あるモデル群の予測を、さらに別の**「メタモデル」**の入力として利用する。 効果: モデルの「間違い方」を学習し、予測精度をさらに向上させる。 重み付きアンサンブル (Weighted Ensemble) 手法: 性能の良いモデルの予測に大きな「重み」を付けて線形結合。 効果: 各モデルの強みを最大限に引き出す最適な組み合わせを発見。 AutoGluon は、デフォルトでこれらの手法を駆使した加重アンサンブルモデルを最終的な勝者として選択し ます。 15
  8. 4. まとめと次のステップ AutoGluon Tabular の利点: 完全自動化: データ前処理からアンサンブルまで、複雑なプロセスを自動実行。 高精度: 多様なSOTAモデルと高度なアンサンブル手法で最高性能を追求。 使いやすさ:

    最小限のコードで誰でも強力なモデルを構築可能。 透明性: leaderboard や feature_importance でモデルの内部を理解できる。 学習のヒント: 公式ドキュメントで詳細なチュートリアルを試す。 fit() の presets 引数で学習時間と精度のトレードオフを体験する。 leaderboard() でモデルの性能を比較し、AutoGluonの動きを理解する。 feature_importance() でデータへの洞察を深める。 AutoGluon は、機械学習の民主化を推進しつつ、専門家がより効率的に作業するための強力なツールです。 16
  9. II. AutoGluon における評価指標の基本 問題タイプとデフォルト指標 AutoGluonは、データから問題タイプを 自動で推論し、適切なデフォルト評価指標を選択します。 問題タイプ (Problem Type) デフォルト評価指標

    (Default Eval Metric) 二値分類 (Binary) Accuracy (正解率) 多クラス分類 (Multiclass) Accuracy (正解率) 回帰 (Regression) Root Mean Squared Error (RMSE) 分位数 (Quantile) Pinball Loss (ピンボール損失) 19
  10. 原則:「値が大きいほど良い」 AutoGluonの評価指標には、一つだけ重要なルールがあります。 すべてのメトリクスは「値が大きいほど良い」形式で報告される。 誤差メトリクス (RMSE, MAE など) の場合: 本来は値が 小さいほど良い。

    AutoGluonでは内部で -1 を乗算して報告。 結果は負の値となり、**0に近い(絶対値が小さい)**ほど良い予測。 例: モデルA: RMSE = -10.5 モデルB: RMSE = -20.0 -10.5 > -20.0 なので、AutoGluonは モデルAを優れた予測と判断する。 この統一ルールにより、ユーザーは常に「数値が高いものを選ぶ」だけで最適なモデルを選択できる。 20
  11. Accuracy ( 正解率) & Balanced Accuracy Accuracy ( 正解率) 定義:

    全予測のうち、正しく予測できた割合。 強み: 最も直感的で理解しやすい。 弱み: 不均衡データに弱い。 例: 99%が「陰性」のデータでは、常に「陰性」と予測するだけで99%の正解率が出てしまい、 モデルの真の性能を測れない。 Balanced Accuracy ( バランス正解率) 定義: 各クラスの再現率(Recall: TP rate)の平均。 強み: 不均衡データに強い。少数派クラスの性能も公平に評価できる。 22
  12. F1 Score & ROC AUC F1 Score (F1 スコア) 定義:

    適合率(Precision) と再現率(Recall)の調和平均。両者のバランスを取る指 標。 強み: 不均衡データに強く、誤検出と見逃しの両方を考慮したい場合に有効。 平均化: 多クラス分類では、 macro (全クラス平等)、 weighted (サンプル数で重み付け)などの平均 化方法がある。 ROC AUC 定義: ROC曲線(閾値を1=>0のときの真陽性率 TP rate vs 偽陽性率 FP rate)の下の面積。 強み: 閾値に依存しないモデルの分離性能を評価できる。モデル間の公平な比較に優れる。 23
  13. Precision ( 適合率) & Recall ( 再現率) 適合率と再現率はトレードオフの関係にあります。 Precision (

    適合率) 定義: 「陽性」と予測したうち、本当に陽性だった割合。 重視: 誤検出を避けたい場合。(例:スパムメール判定) Recall ( 再現率) 定義: 実際の「陽性」のうち、正しく陽性と予測できた割合。 重視: 見逃しを避けたい場合。(例:病気の診断) ビジネス要件に応じて、どちらを優先するかが重要です。 24
  14. RMSE vs MAE RMSE (Root Mean Squared Error - 二乗平均平方根誤差)

    定義: 誤差の 二乗の平均の平方根。 特徴: 大きな誤差を強く罰する。外れ値に敏感。 単位: 元のデータと同じ単位で解釈しやすい。 MAE (Mean Absolute Error - 平均絶対誤差) 定義: 誤差の 絶対値の平均。 特徴: 全ての誤差を均等に扱う。 外れ値に強い(頑健)。 大きなミスが致命的ならRMSE 、外れ値の影響を抑えたいならMAE が適しています。 26
  15. MAPE & SMAPE :パーセンテージ誤差 MAPE (Mean Absolute Percentage Error) 定義:

    誤差をパーセンテージで評価。 強み: スケールが異なるデータ間の比較が容易。 弱み: ゼロ値問題: 実際の値が0だと計算不能。 バイアス: 過大予測に大きなペナルティ。 SMAPE (Symmetric Mean Absolute Percentage Error) 定義: MAPEの欠点を改善。 特徴: ゼロ値問題を緩和し、過大/過小予測のペナルティがより対称的。 27
  16. R-squared & スケールフリー指標 R-squared ( 決定係数) 定義: モデルがデータの変動を どれだけ説明できているかを示す(0~1)。 解釈:

    1に近いほど、モデルがデータによく適合している。 スケールフリー指標 ( RMSSE , MASE ) 定義: 誤差を ナイーブ予測の誤差で割り算(スケール)する。 解釈: 値 < 1 なら、モデルは単純なベースラインより優れている。 強み: スケールが異なるデータセット間で公平な比較が可能。 28
  17. Pinball Loss ( ピンボール損失) コンセプト: 分位数予測の精度を評価するための主要な指標。 定義: 予測が実際の値よりも低いか高いかで、 非対称なペナルティを課す。 これにより、特定の分位数(例:90%の確率で需要がこの値を下回る)を予測するようにモデルを

    誘導する。 用途: 在庫管理における 品切れ/ 過剰在庫リスクの評価。 需要予測における 不確実性の定量化。 AutoGluon が分位数予測とピンボール損失をサポートすることは、ビジネス上のリスク管理まで見据えてい ることを示しています。 30
  18. VI. まとめと推奨事項 指標選択のポイント 適切な指標選択は、ビジネス目標とデータ特性の理解から始まります。 1. ビジネス目標を明確に 何を避けたいか? 誤検出(→Precision)、見逃し(→Recall)、大きな誤差(→RMSE)、在庫切 れ(→Pinball Loss)?

    ビジネス上のコストが最も高いエラーは何かを考える。 2. データ特性を考慮 不均衡データか? → Accuracy は避け、 Balanced Accuracy , F1 , ROC AUC を検討。 外れ値は多いか? → RMSE より MAE を検討。 ゼロ値はあるか? → MAPE は避け、 SMAPE , WAPE を検討。 スケールは異なるか? → MASE , RMSSE などのスケールフリー指標を検討。 eval_metric を明示的に指定し、AutoGluon をあなたのビジネス目標に沿って最適化させましょう。 31