Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Cloud WorkflowsによるMLワークフロー

8ba32afb4b7d6967cb38b2dadf1ddd80?s=47 Daigo HIROOKA
September 17, 2021

Cloud WorkflowsによるMLワークフロー

2021/09/17 第11回 MLOps勉強会の資料です。

8ba32afb4b7d6967cb38b2dadf1ddd80?s=128

Daigo HIROOKA

September 17, 2021
Tweet

Transcript

  1. Cloud Workflowsによる お手軽MLワークフロー 株式会社ブレインパッド 廣岡大吾 2021/09/17 第11回 MLOps勉強会

  2. 自己紹介 • 廣岡大吾 ◦ Twitter:dhirooka (@daigo_hirooka) • 機械学習エンジニア@ BrainPad ◦

    関心:Deep LearningとMLOps • その他 ◦ GoProがタンスで眠っています ◦ 白金鉱業.FM (@shirokane_fm) Podcastで配信中 2
  3. MLOpsと自動化 • MLOps=DevOps for ML • DevOpsの4つの柱 ◦ Culture ◦

    Automation←今回の対象 ◦ Measurement ◦ Sharing • 自動化を進めることで、開発サイクルの効率化、ヒューマンエラーの抑制に繋がる • 今回はワークフローの構築による ML処理の自動化を紹介 ◦ 処理のワークフロー化自体は様々なユースケースに対応できる 3
  4. MLOpsのためのチーム構成(理想) MLOpsを実現するには様々なスキルセットが必要 • データサイエンティスト • データエンジニア • DevOpsエンジニア • ビジネスエキスパート

    • etc... 4 Introducing MLOps [Book]
  5. 小さくはじめるMLOps 5 • 少人数のチームで多くのスキルをカバーするのは大変 ◦ 特にDS主体のチームだとインフラスキルが薄くなりがち • 目標:ツールの学習コスト・インフラの運用負荷を抑えた自動化 ◦ 既知のツールとクラウドサービスの利用を念頭に置く

    ◦ 今回:Python, Docker, YAML on GCP ◦ 他ベンダーに切り替えるのも容易 • 小さくはじめて、大きく育てる ◦ 高度なサービスの利用やリッチな機能追加は後で良い
  6. 機械学習のワークフロー化 • 前処理や学習、デプロイなどの工程を分割し、フローとして定義する ◦ 処理に応じたリソース割り当て(メモリ、 GPU有無など)が可能になる ◦ 各処理を疎結合にすることでデバッグが容易になる ◦ ワークフロー定義そのものをコードとして管理できる(

    Infrastructure as Code) 6
  7. どのワークフローツールを使うか? • OSS:MLflow, Kubeflow Pipelines, Airflow, luigi etc… ◦ 一長一短(実験管理できたり、

    UIがリッチだったり) • 小さくはじめる上で何を重視するか? ◦ 学習コストの低さ ◦ クラウド上でのサーバーレス動作によるインフラ管理コストの抑制 7
  8. どのワークフローツールを使うか? • GCPの場合 • シンプルさとサーバーレス動作という点から Cloud Workflowsを検討 8 サービス名 概要

    特長 留意点 Cloud Composer Airflowの マネージドサービス OSSベースであり 先人の知恵や資料が豊富 Not サーバーレス (GKE上で実行) Vertex Pipelines Kubeflow Pipelines or TFXの マネージドサービス OSSベース サーバーレス ML周りの機能やUIがリッチ 資料が少なく 学習コストが高い Cloud Workflows HTTPベースのAPIに対する ワークフローサービス サーバーレス YAMLでフローを定義でき 学習コストが少ない 機能としては簡素 OSSベースでないので ベンダ依存が発生
  9. Cloud Workflows • GCPを含めてHTTPベースのAPIを 連結する汎用ワークフローサービス • YAMLでフローを定義 • サーバーレスで動作 •

    条件分岐や再試行も可能 9 https://cloud.google.com/workflows?hl=ja
  10. Cloud WorkflowsによるMLワークフロー • HTTP経由のコンテナ実行を連結してワークフローを構築 ◦ コンテナ実行基盤:Vertex AIカスタムトレーニング • 実装サンプル ◦

    WorkflowsとVertex AIカスタムジョブによるお手軽 MLワークフロー ◦ ML処理:前処理と学習を別々に Dockerアプリとして実装 ◦ コンテナ実行@Vertex AIをWorkflowsでオーケストレート ◦ 他のサービスとも容易に連携、拡張可能 10
  11. Vertex AIのカスタムトレーニング • Vertex AI:GCPの統合MLプラットフォーム ◦ Vertex AI • Vertex

    AIカスタムトレーニング ◦ サーバーレスなDockerアプリケーション実行基盤 ◦ MLモデルの学習以外にも(たぶん)任意の処理が実行可能 ◦ 柔軟なインフラ要件:メモリ、 GPUなどの計算リソースを柔軟に指定できる ◦ サーバーレス:課金は処理が発生するタイミングだけで済む 11
  12. Vertex AIのカスタムトレーニング • gcloud、Python、RESTなどからジョブを投入可能 ◦ ↓はgcloud経由の場合 12 Dockerfile 実行時コンフィグ マシンタイプや実行イメージ、

    実行時引数などを指定できる
  13. Vertex AIのカスタムトレーニング • Preview機能:Cloud Storage FUSEによるマウント ◦ GCSのバケットをVertex AIジョブにマウントしてアクセスできる ◦

    ファイル読み書きにおけるローカル・クラウドの違いを意識しなくて済む ◦ Training code requirements | Vertex AI(現在は英語版のみ記載あり) 13
  14. Cloud WorkflowsによるMLワークフロー • Vertex AIにおけるコンテナ実行を Workflowsでつなげる 14 簡易的なフローの可視化も可能

  15. Cloud WorkflowsによるMLワークフロー 1. Vertex AIのカスタムジョブは POSTリクエスト経由で投下 2. リクエストボディに実行環境を指定 3. サービスアカウントに基づいた

    認証済みリクエストも可能 4. レスポンスは変数として ワークフロー内で利用可能 15 ❶ ❷ ❸ ❹
  16. Cloud WorkflowsによるMLワークフロー 1. Vertex AIジョブの状態確認は 待機+ループ処理で実装 2. ジョブが成功したら次の処理へ 16 ❷

  17. Cloud WorkflowsによるMLワークフロー • YAML形式で直感的にワークフローを構成できた ◦ もちろん他のGoogle Cloud APIsと組み合わせることも可能 ◦ すべての

    Workflows のコードサンプル | ワークフロー • できないこと ◦ 並列実行(独立な前処理 A・Bの同時実行など) ◦ ML特有の実験管理などは別途実装が必要 17
  18. まとめ • シンプルな技術要素からでも十分に MLワークフローを構築できる ◦ ML処理はコンテナアプリとして実装 ◦ コンテナ実行を連結してワークフローを構築 • 小さくはじめて、大きく育てる

    ◦ ツールの学習コストの低さ、サーバーレスによるインフラコストの抑制を重視 ◦ 高度なサービスやリッチな機能追加は後回し • 要件が少ない段階ではベンダー間の違いは軽微 ◦ 今回はGCPのVertex AIとWorkflowsを利用したが、他クラウドでも似たような機能はある ◦ AWSならSageMakerとStep Functionsとか ◦ 細かい要件で悩むより、まずやってみることが重要 18