Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
Search
harry
April 07, 2026
Technology
100
0
Share
Cortex Codeでデータの仕事を全部Agenticにやりきろう!
AI駆動開発 x Snowflake - Snowflake Night #3
https://snowflakejapan.connpass.com/event/385891/
harry
April 07, 2026
More Decks by harry
See All by harry
組織全員で向き合うAI Readyなデータ利活用
gappy50
6
3.4k
Snowflake Intelligenceにはこうやって立ち向かう!クラシルが考えるAI Readyなデータ基盤と活用のためのDataOps
gappy50
2
2.2k
データエンジニアがクラシルでやりたいことの現在地
gappy50
3
1.1k
dbtを中心にして組織のアジリティとガバナンスのトレードオンを考えてみた
gappy50
3
640
マルチプロダクト、マルチデータ基盤での Looker活用事例 〜BQじゃなくてもLookerはいいぞ〜
gappy50
0
270
クラシルのデータ活用の現在とプロダクトファーストから考えるデータエンジニアのキャリア
gappy50
1
890
プロダクトへ貢献するためのデータ基盤活用事例
gappy50
3
500
1日3億回の行動データを価値に繋げるデータパイプライン構築 〜クラシルにおけるSnowflakeでのニアリアルタイム分析の実現〜
gappy50
1
4.5k
Other Decks in Technology
See All in Technology
AWS DevOps Agent or Kiro の使いどころを考える_20260402
masakiokuda
0
140
Bill One 開発エンジニア 紹介資料
sansan33
PRO
5
18k
Kubernetesの「隠れメモリ消費」によるNode共倒れと、Request適正化という処方箋
g0xu
0
170
OCI技術資料 : 証明書サービス概要
ocise
1
7.2k
Podcast配信で広がったアウトプットの輪~70人と音声発信してきた7年間~/outputconf_01
fortegp05
0
180
20260326_AIDD事例紹介_ULSC.pdf
findy_eventslides
0
330
LLMに何を任せ、何を任せないか
cap120
11
6.9k
Zephyr(RTOS)でARMとRISC-Vのコア間通信をしてみた
iotengineer22
0
120
VSCode中心だった自分がターミナル沼に入門した話
sanogemaru
0
890
タスク管理も1on1も、もう「管理」じゃない - KiroとBedrock AgentCoreで変わった“判断の仕事”
yusukeshimizu
0
160
The essence of decision-making lies in primary data
kaminashi
0
220
スケーリングを封じられたEC2を救いたい
senseofunity129
0
130
Featured
See All Featured
Into the Great Unknown - MozCon
thekraken
40
2.3k
Public Speaking Without Barfing On Your Shoes - THAT 2023
reverentgeek
1
350
Amusing Abliteration
ianozsvald
1
150
Skip the Path - Find Your Career Trail
mkilby
1
93
A Soul's Torment
seathinner
5
2.6k
It's Worth the Effort
3n
188
29k
Money Talks: Using Revenue to Get Sh*t Done
nikkihalliwell
0
200
Faster Mobile Websites
deanohume
310
31k
Mozcon NYC 2025: Stop Losing SEO Traffic
samtorres
0
190
Build your cross-platform service in a week with App Engine
jlugia
234
18k
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
300
Large-scale JavaScript Application Architecture
addyosmani
515
110k
Transcript
Cortex Codeで データの仕事を 全部Agenticにやりきろう! harry(@gappy50) / クラシル株式会社
自己紹介 harry (@gappy50) クラシル株式会社 データエンジニア 担当業務 ・ クラシルのデータ基盤新規構築 ・ 現在は全社データ基盤の構築・運用
技術スタック ・ Snowflake / dbt / Lightdash Snowflake Data Superhero ・ 2022-2026(5年連続)
None
None
本日の話: ブログ2本の紹介 + Cortex Code 今日はこの内容を紹介しつつ、同じことがCortex Codeでもできるという話をします https://zenn.dev/dely_jp/articles/claude-code-agent-team-design https://zenn.dev/dely_jp/articles/snowflake-managed-mcp-claude-code-agentic-dataops
ブログで書いたこと
前提: クラシルのデータにはTierがある dbtで管理しているデータモデルに品質の段階(Tier)をつけて運用している Tier 用途 AI利用 期限 Tier 1-2 経営KPI・監査
永続 Tier 3 部門意思決定 永続 Tier 4 アドホック分析 90日で自動削除 Tier 5 個人のSQL試行 30日で自動削除 Tier3以上がAIエージェントで分析可能
データライフサイクル アジリティと品質を両立してAI Readyなデータ利活用を組織の文 化にしていく
ブログ1本目: Agent Teamsで Tier昇格を自動化
1本目の課題: Tier昇格が回らない Tier4(adhocモデル)をTier3(AI利用可能)に上げるには以下が必要 1. ディメンショナルモデルへの設計変更 2. SQL/YAMLの実装 3. 移行前後の数値が一致するかの検証 4.
メタデータ(カラムの意味や計算ロジック)の整備 これを手動でやると最大2日。2〜3人のデータエンジニアで7ドメインを回しているので、順 番待ちが発生する
Tier3昇格の3要件 Tier4 -> Tier3に昇格するための品質要件 1. generic testが定義されていること ・ not_null /
unique / accepted_values 等 ・ CIでデータの整合性を自動検証 2. 全カラムにdescriptionが整備されていること ・ カラムの意味・計算ロジックをYAMLに記述 ・ Semantic View生成の入力にもなる 3. 他のadhocモデルへの参照がないこと ・ adhoc間の依存を断ち切り、SSoT(Single Source of Truth)を確立
Tier3昇格フロー(前半)Phase 0〜2
Tier3昇格フロー(後半)Phase 3〜7
1本目の解決: Agent Teamsで分業 4つの役割に分けたエージェントを定義した エージェント やること 権限 data-architect 設計だけ。コードは書かない read-only
dbt-data-modeler 設計に基づいてSQL/YAMLを実装 write migration-tester MCP経由でSnowflakeに接続し数値検証 read-only data-engineer インフラ・パイプライン 全権限 write権限を持つのは実装担当の1体だけ
Claude Code Agent Teamsとは 複数のエージェントに異なる役割・権限・モデルを割り当ててチームとして動かす仕組み なぜ使うか ・ 単一エージェントでは権限の分離ができない(全操作が同一権限で実行される) ・ タスクが複雑になるほどコンテキストが膨らみ、精度が下がる
・ モデルのコスト差が大きい(Opus/Sonnet)ため、全タスクに高コストモデルを使うの は非効率 できること ・ エージェントごとにread-only/writeなど権限を制御 ・ Opus/Sonnetなどモデルを役割に応じて使い分け ・ .claude/agents/ にMarkdownで定義するだけで構成可能 Cortex Codeでもの複数エージェントオーケストレーションがリ リース
ブログ2本目: MCP Serverで Agentic DataOpsを回す
2本目の位置づけ: 1本目の「その先」 1本目はTier昇格(データモデルの品質を上げる作業)の自動化だった 2本目は、品質を上げたデータモデルを使って分析やマネジメントまで含めた一連のサイク ルをAIエージェントで回す話 Snowflake Managed MCP Serverを使って、Claude CodeからSnowflakeに直接接続する
2本目の内容: 開発・分析・マネジメントを横断 フェーズ やること 開発 dbtモデルにdimension/metrics定義を記述 → CI → Semantic
View SQL自動 生成 → MCP Serverに同期 分析 MCP Server経由でCortex Analystに接続し自然言語分析 マネジメ ント MCP Server経由でTier昇格・期限管理・品質チェック dbtのYAMLにメタデータを書いてPRをマージするだけで、Cortex Analyst経由で分析可能 になる
ここまでのまとめ Claude Codeベースでやっていること ・ Agent Teams: 役割分離したエージェントでTier昇格を自動化 ・ MCP Server:
Snowflakeに接続して開発・分析・マネジメントを横断 ・ Semantic View: dbtのメタデータからAI分析可能な定義を自動生成 ・ Skills: エージェントの振る舞いを定義ファイルで管理 MCPやSemantic ViewはSnowflake側の機能なので、エージェント側のツールは入れ替え可 能
同じことが Cortex Code CLIでもできる
Cortex Codeとは Snowflakeが提供するコーディングエージェント 2つの使い方 ・ Snowsight版: SnowflakeのUIからブラウザで利用 ・ CLI版: ローカルシェルで実行。dbt/Airflowをネイティブサポート
クラシルでのCortex Codeの使い分け Cortex Code in Snowsight ・ データエンジニアやPdMがNotebooksで利用しており、かなり威力を発揮できている ・ Snowflake内で完結する作業はCortex
Codeの方が手軽 Claude Code ・ データ分析でグロースに向き合うところでは、メンバーのスキルセット的にClaude Codeに一極集中させた方がいい状態 ・ Snowflake以外のコンテキスト(GitHub、ドキュメント等)もAIに食わせたいケースが 多い
Claude Codeでやったこと -> Cortex Codeでの対 応 機能 Claude Code Cortex
Code エージェントチーム Agent Teams Agent Teams(GA) データ検証 MCP Server経由 ネイティブSQL 自然言語分析 Cortex Analyst via MCP Cortex Analyst直結 スキル定義 .claude/skills/ SKILL.md(同一形式) アクセス制御 OAuth設定が必要 RBAC自動適用 SKILL.mdはClaude CodeとCortex Codeで同一フォーマット(AGENTS.mdも対応) 。スキ ルの相互移植が可能
Cortex Codeの方がシンプルな部分 ・ セットアップ: OAuth/MCP Server構築が不要。ログインすれば使える ・ アクセス制御: SnowflakeのRBACがそのまま効く ・
非エンジニア展開: Snowsight版ならブラウザだけで利用可能 クラシルではデータエンジニア以外も含めてClaude Codeを標準にしている。 Snowflake以外のコンテキストもAIに食わせたいため。 ただしデータの重心を全てSnowflakeに寄せられるなら、Cortex Codeの方がシンプルだし コスト面でも有利な可能性がある
デモ: Tier3昇格の流れ
Step 1: Cortex Codeでpromote-to-tier3を実行
Step 2: ギャップ分析(Phase 1) 参照先の確認、テスト・メタデータの不足分を自動で洗い出す
Step 3: ギャップ分析レポート
Step 4: SSoTチェック + ユーザー承認 同一ビジネスイベントの重複モデルがないかを検証。PASSしたモデルにssot_verifiedタグ を付与。ユーザーが承認して次のPhaseへ
Step 4.5: CIから新旧の数値検証(Phase 6.5) PR作成後、CIでmigration-testerが自動実行し新旧モデルの数値を比較検証
Step 5: Tier3 Promotion完了
Skillsの自己改善ループ
AIに一発で正解を出させるのは難しい どのデータをどう使うのか、品質の判断基準は何か、これらは組織ごとに異なる 自分たちのルールや判断軸をSkillsとして言語化し、AIの振る舞いを制御する「ハーネスエ ンジニアリング」ができると、正解に近づきやすくなる 自分たちのルール -> SKILL.mdに言語化 -> AIがルールに従って実行 ->
結果を確認、ルールを修正 -> SKILL.mdを更新 -> (繰り返し)
クラシルではSkillsの自己改善を実践している 作業完了後にエージェントが振り返りを実行し、改善点をSKILL.mdに書き戻す ・ promote-to-tier3スキルは実際に複数回の改善を経て今の形になった ・ 数値検証に必要なCIの監視ルール、dbtのタグ配置ルール等が振り返りから追加された ・ エージェントが完璧である必要はない。改善が回る仕組みがあればいい Cortex Codeでも同じSKILL.mdフォーマットなので、この改善ループはそのまま適用できる
まとめ
今日話したこと Claude Codeでやったこと ・ Agent TeamsでTier昇格を自動化(手動2日 -> 1-2時間) ・ MCP
Server経由で開発・分析・マネジメントを横断 ・ Semantic Viewの自動パイプライン Cortex Codeでも同じことができる ・ Agent Teams、SKILL.md互換、ネイティブSQL実行 ・ セットアップはCortex Codeの方がシンプル ・ Snowflake中心の組織ならCortex Codeから始めるのもあり
Skillsを活用するとさらに良くなる ・ Cortex Codeにはデータガバナンスやデータエンジニアリング等の組み込みSkillsが用 意されている。まずはそれを使うところから始められる ・ その上で、自分たちの組織のルールや判断軸をSKILL.mdとして言語化すると、AIの出 力が安定する ・ Skillsの自己改善ループも回せると、使うほど精度が上がっていく
Thank you! harry (@gappy50) / クラシル株式会社