Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
Search
harry
April 07, 2026
Technology
470
0
Share
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
AI駆動開発 x Snowflake - Snowflake Night #3
https://snowflakejapan.connpass.com/event/385891/
harry
April 07, 2026
More Decks by harry
See All by harry
組織全員で向き合うAI Readyなデータ利活用
gappy50
6
3.5k
Snowflake Intelligenceにはこうやって立ち向かう!クラシルが考えるAI Readyなデータ基盤と活用のためのDataOps
gappy50
2
2.2k
データエンジニアがクラシルでやりたいことの現在地
gappy50
3
1.2k
dbtを中心にして組織のアジリティとガバナンスのトレードオンを考えてみた
gappy50
3
640
マルチプロダクト、マルチデータ基盤での Looker活用事例 〜BQじゃなくてもLookerはいいぞ〜
gappy50
0
280
クラシルのデータ活用の現在とプロダクトファーストから考えるデータエンジニアのキャリア
gappy50
1
900
プロダクトへ貢献するためのデータ基盤活用事例
gappy50
3
500
1日3億回の行動データを価値に繋げるデータパイプライン構築 〜クラシルにおけるSnowflakeでのニアリアルタイム分析の実現〜
gappy50
1
4.5k
Other Decks in Technology
See All in Technology
20260428_Product Management Summit_tadokoroyoshiro
tadokoro_yoshiro
0
220
Rebirth of Software Craftsmanship in the AI Era
lemiorhan
PRO
4
2.1k
AIはハッカーを減らすのか、増やすのか?──現役ホワイトハッカーから見るAI時代のリアル【MEGU-Meet】
cscengineer
0
160
LLM時代の検索アーキテクチャと技術的意思決定
shibuiwilliam
3
1.2k
ワールドカフェI /チューターを改良する / World Café I and Improving the Tutors
ks91
PRO
0
320
インターネットの技術 / Internet technology
ks91
PRO
0
210
AzureのIaC管理からログ調査まで、随所に役立つSkillsとCustom-Instructions / Boosting IaC and Log Analysis with Skills
aeonpeople
0
240
マルチプロダクトの信頼性を効率良く保っていくために
kworkdev
PRO
0
160
Azure Static Web Apps の自動ビルドがタイムアウトしやすくなった状況に対応した件/global-azure2026
thara0402
0
410
2026年、知っておくべき最新 サーバレスTips10選/serverless-10-tips
slsops
13
5.2k
最近の技術系の話題で気になったもの色々(IoT系以外も) / IoTLT 花見予定会(たぶんBBQ) @都立潮風公園バーベキュー広場
you
PRO
1
240
Do Vibe Coding ao LLM em Produção para Busca Agêntica - TDC 2026 - Summit IA - São Paulo
jpbonson
3
120
Featured
See All Featured
Winning Ecommerce Organic Search in an AI Era - #searchnstuff2025
aleyda
1
2k
How to build an LLM SEO readiness audit: a practical framework
nmsamuel
1
720
We Are The Robots
honzajavorek
0
220
Fireside Chat
paigeccino
42
3.9k
What does AI have to do with Human Rights?
axbom
PRO
1
2.1k
Lessons Learnt from Crawling 1000+ Websites
charlesmeaden
PRO
1
1.2k
The Illustrated Children's Guide to Kubernetes
chrisshort
51
52k
The Web Performance Landscape in 2024 [PerfNow 2024]
tammyeverts
12
1.1k
Rails Girls Zürich Keynote
gr2m
96
14k
brightonSEO & MeasureFest 2025 - Christian Goodrich - Winning strategies for Black Friday CRO & PPC
cargoodrich
3
680
Kristin Tynski - Automating Marketing Tasks With AI
techseoconnect
PRO
0
230
Typedesign – Prime Four
hannesfritz
42
3k
Transcript
Cortex Codeで データの仕事を 全部Agenticにやりきろう! harry(@gappy50) / クラシル株式会社
自己紹介 harry (@gappy50) クラシル株式会社 データエンジニア 担当業務 ・ クラシルのデータ基盤新規構築 ・ 現在は全社データ基盤の構築・運用
技術スタック ・ Snowflake / dbt / Lightdash Snowflake Data Superhero ・ 2022-2026(5年連続)
None
None
本日の話: ブログ2本の紹介 + Cortex Code 今日はこの内容を紹介しつつ、同じことがCortex Codeでもできるという話をします https://zenn.dev/dely_jp/articles/claude-code-agent-team-design https://zenn.dev/dely_jp/articles/snowflake-managed-mcp-claude-code-agentic-dataops
ブログで書いたこと
前提: クラシルのデータにはTierがある dbtで管理しているデータモデルに品質の段階(Tier)をつけて運用している Tier 用途 AI利用 期限 Tier 1-2 経営KPI・監査
永続 Tier 3 部門意思決定 永続 Tier 4 アドホック分析 90日で自動削除 Tier 5 個人のSQL試行 30日で自動削除 Tier3以上がAIエージェントで分析可能
データライフサイクル アジリティと品質を両立してAI Readyなデータ利活用を組織の文 化にしていく
ブログ1本目: Agent Teamsで Tier昇格を自動化
1本目の課題: Tier昇格が回らない Tier4(adhocモデル)をTier3(AI利用可能)に上げるには以下が必要 1. ディメンショナルモデルへの設計変更 2. SQL/YAMLの実装 3. 移行前後の数値が一致するかの検証 4.
メタデータ(カラムの意味や計算ロジック)の整備 これを手動でやると最大2日。2〜3人のデータエンジニアで7ドメインを回しているので、順 番待ちが発生する
Tier3昇格の3要件 Tier4 -> Tier3に昇格するための品質要件 1. generic testが定義されていること ・ not_null /
unique / accepted_values 等 ・ CIでデータの整合性を自動検証 2. 全カラムにdescriptionが整備されていること ・ カラムの意味・計算ロジックをYAMLに記述 ・ Semantic View生成の入力にもなる 3. 他のadhocモデルへの参照がないこと ・ adhoc間の依存を断ち切り、SSoT(Single Source of Truth)を確立
Tier3昇格フロー(前半)Phase 0〜2
Tier3昇格フロー(後半)Phase 3〜7
1本目の解決: Agent Teamsで分業 4つの役割に分けたエージェントを定義した エージェント やること 権限 data-architect 設計だけ。コードは書かない read-only
dbt-data-modeler 設計に基づいてSQL/YAMLを実装 write migration-tester MCP経由でSnowflakeに接続し数値検証 read-only data-engineer インフラ・パイプライン 全権限 write権限を持つのは実装担当の1体だけ
Claude Code Agent Teamsとは 複数のエージェントに異なる役割・権限・モデルを割り当ててチームとして動かす仕組み なぜ使うか ・ 単一エージェントでは権限の分離ができない(全操作が同一権限で実行される) ・ タスクが複雑になるほどコンテキストが膨らみ、精度が下がる
・ モデルのコスト差が大きい(Opus/Sonnet)ため、全タスクに高コストモデルを使うの は非効率 できること ・ エージェントごとにread-only/writeなど権限を制御 ・ Opus/Sonnetなどモデルを役割に応じて使い分け ・ .claude/agents/ にMarkdownで定義するだけで構成可能 Cortex Codeでもの複数エージェントオーケストレーションがリ リース
ブログ2本目: MCP Serverで Agentic DataOpsを回す
2本目の位置づけ: 1本目の「その先」 1本目はTier昇格(データモデルの品質を上げる作業)の自動化だった 2本目は、品質を上げたデータモデルを使って分析やマネジメントまで含めた一連のサイク ルをAIエージェントで回す話 Snowflake Managed MCP Serverを使って、Claude CodeからSnowflakeに直接接続する
2本目の内容: 開発・分析・マネジメントを横断 フェーズ やること 開発 dbtモデルにdimension/metrics定義を記述 → CI → Semantic
View SQL自動 生成 → MCP Serverに同期 分析 MCP Server経由でCortex Analystに接続し自然言語分析 マネジメ ント MCP Server経由でTier昇格・期限管理・品質チェック dbtのYAMLにメタデータを書いてPRをマージするだけで、Cortex Analyst経由で分析可能 になる
ここまでのまとめ Claude Codeベースでやっていること ・ Agent Teams: 役割分離したエージェントでTier昇格を自動化 ・ MCP Server:
Snowflakeに接続して開発・分析・マネジメントを横断 ・ Semantic View: dbtのメタデータからAI分析可能な定義を自動生成 ・ Skills: エージェントの振る舞いを定義ファイルで管理 MCPやSemantic ViewはSnowflake側の機能なので、エージェント側のツールは入れ替え可 能
同じことが Cortex Code CLIでもできる
Cortex Codeとは Snowflakeが提供するコーディングエージェント 2つの使い方 ・ Snowsight版: SnowflakeのUIからブラウザで利用 ・ CLI版: ローカルシェルで実行。dbt/Airflowをネイティブサポート
クラシルでのCortex Codeの使い分け Cortex Code in Snowsight ・ データエンジニアやPdMがNotebooksで利用しており、かなり威力を発揮できている ・ Snowflake内で完結する作業はCortex
Codeの方が手軽 Claude Code ・ データ分析でグロースに向き合うところでは、メンバーのスキルセット的にClaude Codeに一極集中させた方がいい状態 ・ Snowflake以外のコンテキスト(GitHub、ドキュメント等)もAIに食わせたいケースが 多い
Claude Codeでやったこと -> Cortex Codeでの対 応 機能 Claude Code Cortex
Code エージェントチーム Agent Teams Agent Teams(GA) データ検証 MCP Server経由 ネイティブSQL 自然言語分析 Cortex Analyst via MCP Cortex Analyst直結 スキル定義 .claude/skills/ SKILL.md(同一形式) アクセス制御 OAuth設定が必要 RBAC自動適用 SKILL.mdはClaude CodeとCortex Codeで同一フォーマット(AGENTS.mdも対応) 。スキ ルの相互移植が可能
Cortex Codeの方がシンプルな部分 ・ セットアップ: OAuth/MCP Server構築が不要。ログインすれば使える ・ アクセス制御: SnowflakeのRBACがそのまま効く ・
非エンジニア展開: Snowsight版ならブラウザだけで利用可能 クラシルではデータエンジニア以外も含めてClaude Codeを標準にしている。 Snowflake以外のコンテキストもAIに食わせたいため。 ただしデータの重心を全てSnowflakeに寄せられるなら、Cortex Codeの方がシンプルだし コスト面でも有利な可能性がある
デモ: Tier3昇格の流れ
Step 1: Cortex Codeでpromote-to-tier3を実行
Step 2: ギャップ分析(Phase 1) 参照先の確認、テスト・メタデータの不足分を自動で洗い出す
Step 3: ギャップ分析レポート
Step 4: SSoTチェック + ユーザー承認 同一ビジネスイベントの重複モデルがないかを検証。PASSしたモデルにssot_verifiedタグ を付与。ユーザーが承認して次のPhaseへ
Step 4.5: CIから新旧の数値検証(Phase 6.5) PR作成後、CIでmigration-testerが自動実行し新旧モデルの数値を比較検証
Step 5: Tier3 Promotion完了
Skillsの自己改善ループ
AIに一発で正解を出させるのは難しい どのデータをどう使うのか、品質の判断基準は何か、これらは組織ごとに異なる 自分たちのルールや判断軸をSkillsとして言語化し、AIの振る舞いを制御する「ハーネスエ ンジニアリング」ができると、正解に近づきやすくなる 自分たちのルール -> SKILL.mdに言語化 -> AIがルールに従って実行 ->
結果を確認、ルールを修正 -> SKILL.mdを更新 -> (繰り返し)
クラシルではSkillsの自己改善を実践している 作業完了後にエージェントが振り返りを実行し、改善点をSKILL.mdに書き戻す ・ promote-to-tier3スキルは実際に複数回の改善を経て今の形になった ・ 数値検証に必要なCIの監視ルール、dbtのタグ配置ルール等が振り返りから追加された ・ エージェントが完璧である必要はない。改善が回る仕組みがあればいい Cortex Codeでも同じSKILL.mdフォーマットなので、この改善ループはそのまま適用できる
まとめ
今日話したこと Claude Codeでやったこと ・ Agent TeamsでTier昇格を自動化(手動2日 -> 1-2時間) ・ MCP
Server経由で開発・分析・マネジメントを横断 ・ Semantic Viewの自動パイプライン Cortex Codeでも同じことができる ・ Agent Teams、SKILL.md互換、ネイティブSQL実行 ・ セットアップはCortex Codeの方がシンプル ・ Snowflake中心の組織ならCortex Codeから始めるのもあり
Skillsを活用するとさらに良くなる ・ Cortex Codeにはデータガバナンスやデータエンジニアリング等の組み込みSkillsが用 意されている。まずはそれを使うところから始められる ・ その上で、自分たちの組織のルールや判断軸をSKILL.mdとして言語化すると、AIの出 力が安定する ・ Skillsの自己改善ループも回せると、使うほど精度が上がっていく
Thank you! harry (@gappy50) / クラシル株式会社