Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
独自アクセスログ基盤の構築
Search
Sponsored
·
SiteGround - Reliable hosting with speed, security, and support you can count on.
→
Recruit
PRO
February 27, 2026
Technology
0
17
独自アクセスログ基盤の構築
2026/2/27に、RECRUIT TECH CONFERENCE 2026で発表した山本の資料になります。
Recruit
PRO
February 27, 2026
Tweet
Share
More Decks by Recruit
See All by Recruit
まなび領域における生成AI活用事例
recruitengineers
PRO
1
28
AI時代にエンジニアはどう成長すれば良いのか?
recruitengineers
PRO
0
27
AIを用いたカスタマーサポートの業務プロセス・組織変革の実現
recruitengineers
PRO
0
18
問い合わせ自動化の技術的挑戦
recruitengineers
PRO
1
29
「Air ビジネスツールズ」のクライアントサポートにおける生成 AI 活用
recruitengineers
PRO
0
14
AI活用のためのアナリティクスエンジニアリング
recruitengineers
PRO
0
21
SaaS事業のデータマネジメント事例
recruitengineers
PRO
0
22
Kaggleで鍛えたスキルの実務での活かし方 競技とプロダクト開発のリアル
recruitengineers
PRO
1
26
LLM のプロダクト導入における開発の裏側と技術的挑戦
recruitengineers
PRO
0
24
Other Decks in Technology
See All in Technology
研究開発部メンバーの働き⽅ / Sansan R&D Profile
sansan33
PRO
4
22k
三菱UFJ銀行におけるエンタープライズAI駆動開発のリアル / Enterprise AI_Driven Development at MUFG Bank: The Real Story
muit
10
19k
Oracle Base Database Service 技術詳細
oracle4engineer
PRO
15
94k
バニラVisaギフトカードを棄てるのは結構大変
meow_noisy
0
140
サンタコンペ2025完全攻略 ~お前らの焼きなましは遅すぎる~
terryu16
1
470
Introduction to Sansan Meishi Maker Development Engineer
sansan33
PRO
0
350
「データとの対話」の現在地と未来
kobakou
0
640
1 年間の育休から時短勤務で復帰した私が、 AI を駆使して立ち上がりを早めた話
lycorptech_jp
PRO
0
170
社内でAWS BuilderCards体験会を立ち上げ、得られた気づき / 20260225 Masaki Okuda
shift_evolve
PRO
1
130
NW構成図の自動描画は何が難しいのか?/netdevnight3
corestate55
2
460
Interop Tokyo 2025 ShowNet Team Memberで学んだSRv6を基礎から丁寧に
miyukichi_ospf
0
200
Kubernetes環境周りの責任範囲をいい機会なので考える / Taking the Opportunity to Clarify Kubernetes Responsibilities
kohbis
1
110
Featured
See All Featured
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.3k
What’s in a name? Adding method to the madness
productmarketing
PRO
24
3.9k
Become a Pro
speakerdeck
PRO
31
5.8k
How to Align SEO within the Product Triangle To Get Buy-In & Support - #RIMC
aleyda
1
1.4k
技術選定の審美眼(2025年版) / Understanding the Spiral of Technologies 2025 edition
twada
PRO
117
110k
Money Talks: Using Revenue to Get Sh*t Done
nikkihalliwell
0
170
Building a A Zero-Code AI SEO Workflow
portentint
PRO
0
350
A Soul's Torment
seathinner
5
2.4k
How to train your dragon (web standard)
notwaldorf
97
6.5k
Winning Ecommerce Organic Search in an AI Era - #searchnstuff2025
aleyda
1
1.9k
We Are The Robots
honzajavorek
0
180
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
12
1.4k
Transcript
RECRUIT TECH CONFERENCE 2026 マッチング技術の進化 独自アクセスログ基盤の構築 インディードリクルートテクノロジーズ 山本 航平
山本 航平 ホラー映画鑑賞 経歴 / Career 2019年にリクルートテクノロジーズ(現リクルート)に キャリア入社。 人材領域のデータ基盤の開発運用を担当しています。 趣味
/ Hobbies (株)インディードリクルートテクノロジーズ HRプロダクト データ データソリューションユニット データエンジニアリング部
今日の内容をざっくり3行で 人材領域で利用しているアクセス解析ツールを、 独自のログ収集基盤にリプレースし、 コスト / 保守性 / データ鮮度の3つが GOOD な状態にしました
Agenda 1. 背景と課題 2. 解決 3. 結果
Agenda 1. 背景と課題 2. 解決 3. 結果
背景と課題 人材領域で生じていたアクセスログの3つの課題 ① ログ設計の管理が横断的にできていない ② データウェアハウスで分析可能になるまでのリードタイムが長い ③ アクセス解析と機械学習でログを二重取得しており効率が悪い
背景と課題 ① ログ設計の管理が横断的にできていない • 施策ごと(ABテストや、画面改修等)にadhocにログ設計と追加をしているため、プロダ クト横断でのログ設計思想がない • 施策担当者やプロダクトごとに設計がブレてしまい、データマートでの利用の都度仕様の キャッチアップと検算から入らなければならない
背景と課題 ② データウェアハウスで分析可能になるまでのリードタイムが長い • アクセス解析ツール上ではニアリアルタイムにデータ更新されるが、データウェアハウスに ある他データと組み合わせないとできない分析が多数ある • そのためアクセス解析ツールに付帯しているExport機能を使ってデータをデータウェアハ ウス(BigQuery)に連携して分析利用している •
このExport機能にサービスレベルがなく、だいたい2~3時間後にデータが入ってくるだろ うという経験則での運用になっていた(かつ遅い)
背景と課題 ③ アクセス解析と機械学習でログを二重取得しており効率が悪い • 前ページに記載した制約(2~3hの遅延)があるため、機械学習施策でのニアリアルタイム なデータ活用に対してデータ鮮度が要求を満たさない • 機械学習用の別データパイプラインを構築することになり、結果、アクセスログを二重取得 している状態になっていた
Agenda 1. 背景と課題 2. 解決 3. 結果
解決 基盤刷新とセットでログ設計運用の見直しをする • 課題を同時に解決するため、ログ収集基盤の刷新を決定 • 既存サービスを継続利用することも考えたが、課題③の解決や、インフラコストを大幅に削 減できる見立て(現行の10~20%程度まで下がる)があったため、独自基盤を作る方向と なった • アクセス解析ツールが入っているサービス側のリアーキテクチャが同時期に実行されていた
ため、そことタイミングを合わせることで導入をスムーズにした
構成のBefore / After
構成のBefore / After ログの二重管理 2 ~ 3時間の遅延 (SLA なし)
構成のBefore / After ログの二重管理 2 ~ 3時間の遅延 (SLA なし) 1秒未満
一本化 施策リリース後、即時に分析が可能になり、検知や対応が高速に。 機械学習モデルの特徴量として利用可能なデータの種類が増加。
アーキテクチャ • インフラは AWS • ログを直接受け取るのは ALB + ECS Fargate。API
は Rust で実装 • メッセージングシステムは Kafka、共通の加工処理を Flink、DWHへの連携は BigQuery Connector。全て Confluent Cloud 上で実行 • Online Feature Store (DynamoDB)への連携は Databricks or Custom Connector
アーキテクチャ • DNS、ALB は共通で API Key を元にサービスごとの API へリクエストをルー ティング
• Topic や Flink のクエリは サービスごと • BigQuery Connector は複 数 Topic をサポートしてい る、かつ、スケーラブルで あるため共用
変更プロセスのBefore / After 各案件で自由に 実装まで決定 基本はそのまま 実装される
変更プロセスのBefore / After 各案件で自由に 実装まで決定 基本はそのまま 実装される 担当者は 分析要求を出す 共通の担当者が
分析要求から実装 を決定
Agenda 1. 背景と課題 2. 解決 3. 結果
結果 ① ログ設計の管理が横断的にできていない ② データウェアハウスで分析可能になるまでのリードタイムが長い ③ アクセス解析と機械学習でログを二重取得しており効率が悪い 🟢 基盤刷新に合わせてフローを刷新し集約された管理を確立 🟢
一本化して二重取得を撤廃。コスト面も既存の10~20%程度まで圧縮 🟢 2~3h → 数秒まで短縮