Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
Search
Sponsored
·
Ship Features Fearlessly
Turn features on and off without deploys. Used by thousands of Ruby developers.
→
harry
April 07, 2026
Technology
100
0
Share
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
AI駆動開発 x Snowflake - Snowflake Night #3
https://snowflakejapan.connpass.com/event/385891/
harry
April 07, 2026
More Decks by harry
See All by harry
組織全員で向き合うAI Readyなデータ利活用
gappy50
6
3.4k
Snowflake Intelligenceにはこうやって立ち向かう!クラシルが考えるAI Readyなデータ基盤と活用のためのDataOps
gappy50
2
2.2k
データエンジニアがクラシルでやりたいことの現在地
gappy50
3
1.1k
dbtを中心にして組織のアジリティとガバナンスのトレードオンを考えてみた
gappy50
3
640
マルチプロダクト、マルチデータ基盤での Looker活用事例 〜BQじゃなくてもLookerはいいぞ〜
gappy50
0
270
クラシルのデータ活用の現在とプロダクトファーストから考えるデータエンジニアのキャリア
gappy50
1
890
プロダクトへ貢献するためのデータ基盤活用事例
gappy50
3
500
1日3億回の行動データを価値に繋げるデータパイプライン構築 〜クラシルにおけるSnowflakeでのニアリアルタイム分析の実現〜
gappy50
1
4.5k
Other Decks in Technology
See All in Technology
Babylon.js Japan Activities (2026/4)
limes2018
0
130
契約書からの情報抽出を行うLLMのスループットを、バッチ処理を用いて最大40%改善した話
sansantech
PRO
3
340
会社紹介資料 / Sansan Company Profile
sansan33
PRO
16
410k
Podcast配信で広がったアウトプットの輪~70人と音声発信してきた7年間~/outputconf_01
fortegp05
0
180
開発チームとQAエンジニアの新しい協業モデル -年末調整開発チームで実践する【QAリード施策】-
kaomi_wombat
0
290
Oracle AI Database@Azure:サービス概要のご紹介
oracle4engineer
PRO
5
1.3k
QA組織のAI戦略とAIテスト設計システムAITASの実践
sansantech
PRO
1
300
AIエージェント勉強会第3回 エージェンティックAIの時代がやってきた
ymiya55
0
200
CREがSLOを握ると 何が変わるのか
nekomaho
0
360
Bref でサービスを運用している話
sgash708
0
220
「できない」のアウトプット 同人誌『精神を壊してからの』シリーズ出版を 通して得られたこと
comi190327
3
520
PostgreSQL 18のNOT ENFORCEDな制約とDEFERRABLEの関係
yahonda
1
190
Featured
See All Featured
sira's awesome portfolio website redesign presentation
elsirapls
0
200
Lightning talk: Run Django tests with GitHub Actions
sabderemane
0
160
4 Signs Your Business is Dying
shpigford
187
22k
How to make the Groovebox
asonas
2
2.1k
Everyday Curiosity
cassininazir
0
180
Scaling GitHub
holman
464
140k
Redefining SEO in the New Era of Traffic Generation
szymonslowik
1
260
How To Speak Unicorn (iThemes Webinar)
marktimemedia
1
420
Introduction to Domain-Driven Design and Collaborative software design
baasie
1
700
Building an army of robots
kneath
306
46k
Gemini Prompt Engineering: Practical Techniques for Tangible AI Outcomes
mfonobong
2
340
Building Applications with DynamoDB
mza
96
7k
Transcript
Cortex Codeで データの仕事を 全部Agenticにやりきろう! harry(@gappy50) / クラシル株式会社
自己紹介 harry (@gappy50) クラシル株式会社 データエンジニア 担当業務 ・ クラシルのデータ基盤新規構築 ・ 現在は全社データ基盤の構築・運用
技術スタック ・ Snowflake / dbt / Lightdash Snowflake Data Superhero ・ 2022-2026(5年連続)
None
None
本日の話: ブログ2本の紹介 + Cortex Code 今日はこの内容を紹介しつつ、同じことがCortex Codeでもできるという話をします https://zenn.dev/dely_jp/articles/claude-code-agent-team-design https://zenn.dev/dely_jp/articles/snowflake-managed-mcp-claude-code-agentic-dataops
ブログで書いたこと
前提: クラシルのデータにはTierがある dbtで管理しているデータモデルに品質の段階(Tier)をつけて運用している Tier 用途 AI利用 期限 Tier 1-2 経営KPI・監査
永続 Tier 3 部門意思決定 永続 Tier 4 アドホック分析 90日で自動削除 Tier 5 個人のSQL試行 30日で自動削除 Tier3以上がAIエージェントで分析可能
データライフサイクル アジリティと品質を両立してAI Readyなデータ利活用を組織の文 化にしていく
ブログ1本目: Agent Teamsで Tier昇格を自動化
1本目の課題: Tier昇格が回らない Tier4(adhocモデル)をTier3(AI利用可能)に上げるには以下が必要 1. ディメンショナルモデルへの設計変更 2. SQL/YAMLの実装 3. 移行前後の数値が一致するかの検証 4.
メタデータ(カラムの意味や計算ロジック)の整備 これを手動でやると最大2日。2〜3人のデータエンジニアで7ドメインを回しているので、順 番待ちが発生する
Tier3昇格の3要件 Tier4 -> Tier3に昇格するための品質要件 1. generic testが定義されていること ・ not_null /
unique / accepted_values 等 ・ CIでデータの整合性を自動検証 2. 全カラムにdescriptionが整備されていること ・ カラムの意味・計算ロジックをYAMLに記述 ・ Semantic View生成の入力にもなる 3. 他のadhocモデルへの参照がないこと ・ adhoc間の依存を断ち切り、SSoT(Single Source of Truth)を確立
Tier3昇格フロー(前半)Phase 0〜2
Tier3昇格フロー(後半)Phase 3〜7
1本目の解決: Agent Teamsで分業 4つの役割に分けたエージェントを定義した エージェント やること 権限 data-architect 設計だけ。コードは書かない read-only
dbt-data-modeler 設計に基づいてSQL/YAMLを実装 write migration-tester MCP経由でSnowflakeに接続し数値検証 read-only data-engineer インフラ・パイプライン 全権限 write権限を持つのは実装担当の1体だけ
Claude Code Agent Teamsとは 複数のエージェントに異なる役割・権限・モデルを割り当ててチームとして動かす仕組み なぜ使うか ・ 単一エージェントでは権限の分離ができない(全操作が同一権限で実行される) ・ タスクが複雑になるほどコンテキストが膨らみ、精度が下がる
・ モデルのコスト差が大きい(Opus/Sonnet)ため、全タスクに高コストモデルを使うの は非効率 できること ・ エージェントごとにread-only/writeなど権限を制御 ・ Opus/Sonnetなどモデルを役割に応じて使い分け ・ .claude/agents/ にMarkdownで定義するだけで構成可能 Cortex Codeでもの複数エージェントオーケストレーションがリ リース
ブログ2本目: MCP Serverで Agentic DataOpsを回す
2本目の位置づけ: 1本目の「その先」 1本目はTier昇格(データモデルの品質を上げる作業)の自動化だった 2本目は、品質を上げたデータモデルを使って分析やマネジメントまで含めた一連のサイク ルをAIエージェントで回す話 Snowflake Managed MCP Serverを使って、Claude CodeからSnowflakeに直接接続する
2本目の内容: 開発・分析・マネジメントを横断 フェーズ やること 開発 dbtモデルにdimension/metrics定義を記述 → CI → Semantic
View SQL自動 生成 → MCP Serverに同期 分析 MCP Server経由でCortex Analystに接続し自然言語分析 マネジメ ント MCP Server経由でTier昇格・期限管理・品質チェック dbtのYAMLにメタデータを書いてPRをマージするだけで、Cortex Analyst経由で分析可能 になる
ここまでのまとめ Claude Codeベースでやっていること ・ Agent Teams: 役割分離したエージェントでTier昇格を自動化 ・ MCP Server:
Snowflakeに接続して開発・分析・マネジメントを横断 ・ Semantic View: dbtのメタデータからAI分析可能な定義を自動生成 ・ Skills: エージェントの振る舞いを定義ファイルで管理 MCPやSemantic ViewはSnowflake側の機能なので、エージェント側のツールは入れ替え可 能
同じことが Cortex Code CLIでもできる
Cortex Codeとは Snowflakeが提供するコーディングエージェント 2つの使い方 ・ Snowsight版: SnowflakeのUIからブラウザで利用 ・ CLI版: ローカルシェルで実行。dbt/Airflowをネイティブサポート
クラシルでのCortex Codeの使い分け Cortex Code in Snowsight ・ データエンジニアやPdMがNotebooksで利用しており、かなり威力を発揮できている ・ Snowflake内で完結する作業はCortex
Codeの方が手軽 Claude Code ・ データ分析でグロースに向き合うところでは、メンバーのスキルセット的にClaude Codeに一極集中させた方がいい状態 ・ Snowflake以外のコンテキスト(GitHub、ドキュメント等)もAIに食わせたいケースが 多い
Claude Codeでやったこと -> Cortex Codeでの対 応 機能 Claude Code Cortex
Code エージェントチーム Agent Teams Agent Teams(GA) データ検証 MCP Server経由 ネイティブSQL 自然言語分析 Cortex Analyst via MCP Cortex Analyst直結 スキル定義 .claude/skills/ SKILL.md(同一形式) アクセス制御 OAuth設定が必要 RBAC自動適用 SKILL.mdはClaude CodeとCortex Codeで同一フォーマット(AGENTS.mdも対応) 。スキ ルの相互移植が可能
Cortex Codeの方がシンプルな部分 ・ セットアップ: OAuth/MCP Server構築が不要。ログインすれば使える ・ アクセス制御: SnowflakeのRBACがそのまま効く ・
非エンジニア展開: Snowsight版ならブラウザだけで利用可能 クラシルではデータエンジニア以外も含めてClaude Codeを標準にしている。 Snowflake以外のコンテキストもAIに食わせたいため。 ただしデータの重心を全てSnowflakeに寄せられるなら、Cortex Codeの方がシンプルだし コスト面でも有利な可能性がある
デモ: Tier3昇格の流れ
Step 1: Cortex Codeでpromote-to-tier3を実行
Step 2: ギャップ分析(Phase 1) 参照先の確認、テスト・メタデータの不足分を自動で洗い出す
Step 3: ギャップ分析レポート
Step 4: SSoTチェック + ユーザー承認 同一ビジネスイベントの重複モデルがないかを検証。PASSしたモデルにssot_verifiedタグ を付与。ユーザーが承認して次のPhaseへ
Step 4.5: CIから新旧の数値検証(Phase 6.5) PR作成後、CIでmigration-testerが自動実行し新旧モデルの数値を比較検証
Step 5: Tier3 Promotion完了
Skillsの自己改善ループ
AIに一発で正解を出させるのは難しい どのデータをどう使うのか、品質の判断基準は何か、これらは組織ごとに異なる 自分たちのルールや判断軸をSkillsとして言語化し、AIの振る舞いを制御する「ハーネスエ ンジニアリング」ができると、正解に近づきやすくなる 自分たちのルール -> SKILL.mdに言語化 -> AIがルールに従って実行 ->
結果を確認、ルールを修正 -> SKILL.mdを更新 -> (繰り返し)
クラシルではSkillsの自己改善を実践している 作業完了後にエージェントが振り返りを実行し、改善点をSKILL.mdに書き戻す ・ promote-to-tier3スキルは実際に複数回の改善を経て今の形になった ・ 数値検証に必要なCIの監視ルール、dbtのタグ配置ルール等が振り返りから追加された ・ エージェントが完璧である必要はない。改善が回る仕組みがあればいい Cortex Codeでも同じSKILL.mdフォーマットなので、この改善ループはそのまま適用できる
まとめ
今日話したこと Claude Codeでやったこと ・ Agent TeamsでTier昇格を自動化(手動2日 -> 1-2時間) ・ MCP
Server経由で開発・分析・マネジメントを横断 ・ Semantic Viewの自動パイプライン Cortex Codeでも同じことができる ・ Agent Teams、SKILL.md互換、ネイティブSQL実行 ・ セットアップはCortex Codeの方がシンプル ・ Snowflake中心の組織ならCortex Codeから始めるのもあり
Skillsを活用するとさらに良くなる ・ Cortex Codeにはデータガバナンスやデータエンジニアリング等の組み込みSkillsが用 意されている。まずはそれを使うところから始められる ・ その上で、自分たちの組織のルールや判断軸をSKILL.mdとして言語化すると、AIの出 力が安定する ・ Skillsの自己改善ループも回せると、使うほど精度が上がっていく
Thank you! harry (@gappy50) / クラシル株式会社