Upgrade to Pro — share decks privately, control downloads, hide ads and more …

生成AI活用の実践解説 (速報版)

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for Asei Sugiyama Asei Sugiyama
September 18, 2025
1.7k

生成AI活用の実践解説 (速報版)

産総研主催の 6th Grand Canvas 登壇時の資料です https://www.digiarc.aist.go.jp/event/6th_grand_canvas/

Avatar for Asei Sugiyama

Asei Sugiyama

September 18, 2025
Tweet

Transcript

  1. 自己紹介 杉山 阿聖 (@K_Ryuichirou) Software Engineer @ Citadel AI Google

    Developer Expert @ Cloud AI MLSE GenAIOps WG 機械学習図鑑 共著 事例でわかる MLOps 共著
  2. 背景 AI ネイティブカンパニー Agent の流行 評価に基づく LLMOps 市場調査: NEDO AI

    セーフティ強化に関する研究開発プロジェクト LLMOps の取り組み
  3. AI Agent がビジネスに Algomatic: アポドリ、リクルタAI などエージェントを利用したサー ビスを次々展開 LayerX: バクラクシリーズに加え、 生成AIプラットフォーム

    Ai Workforce を展開 複数 AI エージェント同時立ち上げで「打席数」を重視——DMM が用意した20億円でスター トアップスタジオ展開する Algomatic #取材会 - BRIDGE(ブリッジ) https://thebridge.jp/2025/06/algomatic-launches-startup-studio-with-¥2-billion- investment-from-dmm LayerX、総額150億円の資金を調達。エンジニアを中心とした人材採用強化やさらなる事業 拡大へ https://aismiley.co.jp/ai_news/layerx-ai-saas-fintech/
  4. Demo hell デモまでは行き着くもの の、本番化が著しく困難 品質を評価し、担保する ことが極めて困難 Escaping AI Demo Hell:

    Why Eval-Driven Development Is Your Path To Production https://www.forbes.com/councils/forbestechcouncil/2025/04/04/escaping- ai-demo-hell-why-eval-driven-development-is-your-path-to-production/
  5. 評価に基づく LLMOps 最近の潮流 不確実性の高い分野に対 する開発のノウハウ集 MLOps というよりは「高 速 DevOps」 How

    to Solve the #1 Blocker for Getting AI Agents in Production | LangChain Interrupt https://interrupt.langchain.com/videos/building-reliable-agents- agent-evaluations
  6. Criteria Drift Who Validates the Validators? Aligning LLM-Assisted Evaluation of

    LLM Outputs with Human Preferences LLM の出力に対する評価基準 が、評価を進めるにつれてユ ーザー自身によって変化また は洗練されていく [2404.12272] Who Validates the Validators? Aligning LLM-Assisted Evaluation of LLM Outputs with Human Preferences https://arxiv.org/abs/2404.12272
  7. 発想の逆転: 高速プロトタイ ピング 専門家も自分の行ってい ること・やりたいことを 明確にできない 評価を繰り返すことで専 門家の知識を明文化する 手戻りを恐れるのではな くイテレーションを回す

    AIエージェントの地上戦 〜開発計画と運用実践 / 2025/04/08 Findy ランチ セッション #19 https://speakerdeck.com/smiyawaki0820/08-findy-w-and- bmitoatupu-number-19
  8. ハッカソン: デジタル庁 ハッカソンは専門家を巻 き込むために有効 ハッカソンにより「5時間 という短い開発時間の中 で、38個のプロトタイプ」 ハッカソンの成果物を OSS として公開

    第三弾: 「法令」×「デジタル」ハッカソンを開催しました|デジタル庁 https://www.digital.go.jp/news/9fb5ef8e-c631-4974-96d9-0b145304c553 法令 Deep Research ツール Lawsy を OSS として公開しました|Tatsuya Shirakawa https://note.com/tatsuyashirakawa/n/nbda706503902
  9. AI セーフティとは 定義自体の議論が進行中 AI 事業者ガイドラインで は「安全性」を定義 AISI UK の Research

    Agenda では 6 種類のリス クを定義 Research Agenda https://www.aisi.gov.uk/research-agenda
  10. 実践 AI セーフティ リスクマネジメントの手法を応用 1. ユースケースを列挙 2. ユースケースごとにリスクを分析 3. ユースケースごとに対応

    (回避・低減・移転・受容) を決定 4. 安全だと判断できるユースケースに限ってサービスを提供 5. サービスの利用状況をモニタリング
  11. 事例: PharmaX (YOJO) LINE でユーザーが OTC 薬 を購入できるオンライン 薬局 問い合わせをルールと

    LLM で分類 ワークフローで安全に対 応できるユースケースのみ を対応 AIエージェントの継続的改善のためオブザーバビリティ https://speakerdeck.com/pharma_x_tech/aiezientonoji-sok-de-gai-shan- notameobuzababiritei
  12. 独自のデータを定義し評価 データを育てる 「自分の業務」というベ ンチマークはない 生成 AI に対するユニット テストのように扱う 専門家によるレビュー結 果を評価データに追加す

    る AIエージェントの継続的改善のためオブザーバビリティ https://speakerdeck.com/pharma_x_tech/aiezientonoji-sok-de-gai-shan- notameobuzababiritei
  13. AI ガバナンス リスク管理 + 提供価値の最大化 アジャイルガバナンス: 組織として 学習し続けることを求める リスクマネジメントに関するISO 標準

    (ISO 31000:2018) でもアジャ イルの考え方を取り入れている AI事業者ガイドライン(METI/経済産業省) https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
  14. リクルートAI活用指針 1. ユーザーの機会拡大や社会の発展 に繋がるAIの活用 2. 公平性・公正性の追求 3. プライバシー保護とセキュリティ 強化 4.

    アカウンタビリティの向上 5. ステークホルダーや有識者との対 話 リクルートAI活用指針 | 株式会社リクルート https://www.recruit.co.jp/privacy/ai_policy/
  15. インテージグループAI利活用指針 1. 安全性の重視・セキュリティの強 化 2. 公平性の確保 3. プライバシー保護・コンプライア ンス順守 4.

    透明性の追求 5. 品質の追求 インテージグループAI利活用指針 | 企業情報 | インテージホールディングス https://www.intageholdings.co.jp/company/ai_policy/
  16. セガでの AI ガバナンス CEDEC 2025 講演資料よ り引用 (pp.11-12) もはや AI

    を使うのが当た り前で気がついたら誰も が使っているという前提 「AIを使わないことはあ りえない」 安心安全に生成AIを使おう!社内で運用中の生成AIのガバナンスをご紹介 https://cedil.cesa.or.jp/cedil_sessions/view/3147
  17. 1. 統合的なAI相談窓口 CEDEC 2025 講演資料よ り引用 (pp.17, p.19) AI ガバナンス担当チーム

    は、組織の中でもっとも 活用事例に詳しいチーム どんな問い合わせにも答 えることで信頼を勝ち取 る 安心安全に生成AIを使おう!社内で運用中の生成AIのガバナンスをご紹介 https://cedil.cesa.or.jp/cedil_sessions/view/3147
  18. 2. AI 活用支援 AI ガバナンス担当の持つ 専門知識は、組織内の別 チームは持っていない チームトポロジーの「イ ネイブリングチーム」 短期間の密なコラボレー

    ションで組織内のチーム が AI 活用できるよう支援 マシュー・スケルトン, マニュエル・パイス 著 原田 騎郎, 永瀬 美穂, 吉羽  龍太郎 訳「チームトポロジー」日本能率協会マネジメントセンター 2021年
  19. PFN のガバナンス体制 AI リスクを評価する「リスク 評価委員会」 プロジェクトにおける AI 活用 を推進できるよう「AIガバナ ンス推進チーム」が支援

    AIベンダーにおけるAIセキュリティ・ガバナンスへの取組 - Speaker Deck https://speakerdeck.com/pfn/20250717-awt-2025-tokyo-pfn-ai-governance
  20. Spec Driven Development AWS が開発した Kiro で導 入された開発手法 プロンプトからまずは要 件を記述

    要件に基づきコード生成 (Plan first, then build.) GitHub からも Spec Kit が 発表された Kiro: The AI IDE for prototype to production https://kiro.dev/ github/spec-kit: 💫 Toolkit to help you get started with Spec-Driven Development https://github.com/github/spec-kit
  21. ウォーターフォール Winston W. Royce による開発 プロセスの整理 オリジナルは反復とフィード バックを含む SDD という新たな名前でその

    ように再定義できるか Managing the development of large software systems: concepts and techniques | Proceedings of the 9th international conference on Software Engineering https://dl.acm.org/doi/10.5555/41765.41801