Upgrade to Pro — share decks privately, control downloads, hide ads and more …

hacomonoデータ基盤の進化

Avatar for yaji/srv yaji/srv
November 05, 2025
110

 hacomonoデータ基盤の進化

ウェルネス向けSaaSにおける1,000万人規模のイベントデータ基盤の現実と理想。

Avatar for yaji/srv

yaji/srv

November 05, 2025
Tweet

Transcript

  1. 3

  2. 4

  3. 5

  4. BigQuery 基盤のアーキテクチャ Google Cloud AWS tenant1 AWS tenant2 定期実⾏ データ抽出

    定期実⾏ データ抽出 データ転送 データ転送 RDS MySQ cron Rake Task RDS MySQ cron Rake Task BigQuery 10
  5. Google Cloud AWS tenant1 AWS tenant2 定期実⾏ データ抽出 定期実⾏ データ抽出

    データ転送 データ転送 RDS MySQ cron Rake Task RDS MySQ cron Rake Task BigQuery BigQuery 基盤のアーキテクチャ アプリケーション上で動くバッチプログラム cron による日次でのバッチ実行 Rake Task でデータ抽出 各テナントから直接BigQuery へデータ転送 11
  6. スケーラビリティの限界 1. 転送時間の肥大化 大きなテナントでは5 時間以上かかる 2. API レート制限の問題 テナント数増加に伴いテーブル数も増大しRate Limit

    に抵触 3. モニタリング不能 数千箇所で分散実行されるRake Task 4. データ品質の低下 Rate Limit 抵触やリソース不足によりバッチエラーが発生しデータが欠落 5. 業務への影響 データ品質の低下により各所の業務に影響が出始めた 15
  7. 新BigQuery 基盤のアーキテクチャ Google Cloud AWS DataLake Services Account B Account

    A Start rds:StartExportTask rds:StartExportTask Export to Export to Athena UNLOAD データ転送 RDS MySQ Aurora Cluster EventBridge Daily Schedule S3 Bucket Glue Catalog Step Functions BigQuery 19
  8. 新BigQuery 基盤のアーキテクチャ 日次バッチ処理 ... Snapshot Export を実行 データ統合 ... 複数のAWS

    アカウントから1 箇所のS3 Bucket へ統合 PII 対応 ... 個人情報を排除してBigQuery へ転送 規模 ... 3,000 以上の論理データベース データ保持期間 ... 7 日間分のスナップショットを保持 セキュリティ ... S3 Bucket Policy を活用したクロスアカウントアクセスの実現 21
  9. 肥大化する要求 ️ リアルタイム分析 ️ プロダクト機能からのデータ利用 ️ 新規パイプラインの迅速な追加 ️ 利用規約との整合性 ️

    各国法律への準拠 ️ 高レベルの監査要件 ️ コストパフォーマンス ️ AI からの利活用 28
  10. AI x データ AWS Bedrock を中心としたAI 基盤からのデータ利用 hacomono Insight へのAI

    機能追加 レコメンドエンジンの実現 日本のウェルネスの可視化 43
  11. Ver 0.1 2020~2022 Ver 1.0 2023~2025 Ver 2.0 2026~ まとめ

    Ver 0.1 ノリと勢いだけでは限界を迎えた Ver 1.0 プロダクト利用に向けて課題が見えてきた Ver 2.0 toC/toB ハイブリッドアーキテクチャへの 挑戦 44