Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥

生成AIでテスト設計はどこまでできる? 「テスト粒度」を操るテーラリング術

Avatar for ks ks
December 07, 2025

生成AIでテスト設計はどこまでできる? 「テスト粒度」を操るテーラリング術

#ソフトウェアテスト自動化カンファレンス2025 #STAC2025

Avatar for ks

ks

December 07, 2025
Tweet

Other Decks in Technology

Transcript

  1. 自己紹介 • 草場翔太 / Shota Kusaba • QAエンジニア ◦ 担当プロダクトの品質計画作成、テスト実施、自動テスト作成

    ◦ 全社横断したQAでの生成AI活用 • 2025年5月入社 • 前職はSIerで金融系のSE+パッケージ開発 • Claude Codeがメイン
  2. 裁量の大きな多数のチーム エムスリー 経営会議 ・ Unit1 MR君 ・ Unit3 新領域 ・

    Unit4 サイトプロモ ・ Unit5 コンシューマ 各チームエンジニアは平均6名程度 採用チーム 取締役 CPO/CAIO 山崎 聡 マネジメントチーム GM、HRBP、技術顧問と共に活動 事業チーム(9) 横断チーム(10) ・ Unit6 キャリア ・ Unit7 BIR ・ Unit9 治験 ・デジカル ・デジスマ ・ SRE ・ 基盤 ・ マルチデバイス ・ AI機械学習 ・ グループ会社支援 ・ セキュリティ ・ QA ・ グローバル支援 ・ プロダクト支援 ・ データ基盤 5 ゼネラルマネジャー VPoE 河合 俊典 ゼネラルマネジャー CTO 大垣 慶介
  3. 7

  4. QAチームの立ち位置 プロダクトA PdM エンジニア QA デザイナー プロダクトB PdM エンジニア QA

    デザイナー • 各プロダクトチームに QAが所属 • テストは内容によって エンジニアとQAの どちらで行うか 振り分け「全員QA」 • +横串のQAチームで 全社課題に取り組む QA チーム
  5. 全員QAのプロセス エンジニア QA • 各エンジニアが 担当バックログを開発 • 全員QA:開発内容で テスト担当を振り分け ◦

    シンプル・軽ければ    エンジニアで実施 ◦ 複雑・重ければ     QAで実施 週1回 リリース 開発 テスト QA 開発内容を確認 テストケース検討 担当を振り分け
  6. QAが振り分け時に苦労していたこと • 開発内容を確認 ◦ テストベースの収集が大変 ▪ Confluence・Figma・Github、変更要件・注意点・過去の不具合 ◦ 開発内容の理解が大変 •

    テストケース検討 ◦ 都度、収集したテストベースとQAの観点資料を組み合わせて検討 QA 時間がかかる作業 複数の依頼が同時に来ると頭の切り替えも大変だった
  7. ラフに使い始めたら…使いこなすのが大変だった • 大量のテストケースを提案してくる ◦ 同値分割できているとは言い難いケースを提案 • 省いても良さそうな観点も省略せずに全て提案してくる ◦ 大量データでの検証や高セキュリティの検証など、実施コストとのバランスを考慮して計画 的に実施するテストを、毎回含めてくる

    • 存在しない機能に対してのテストを提案してくる ◦ 一般的にありそうな機能を挙げて、テスト対象に含めてしまう • システム特有のエッジケースや注意点の考慮が甘い 参考にはなるが、そのまま使いにくい箇所が多く、 QAエンジニアの手直しが大量に必要な叩き台レベル
  8. • 生成されたテストケースが実際の開発フローに合わない ◦ テストケースが多すぎる ◦ 荒すぎる • 実際に使えるようにQAの手直しが必要 ◦ QAでの作業不要にしないと、開発者に使ってもらいにくい

    ◦ QA自身で使う場合でも、手直しが大変で使われない • (使わないと)AI活用のノウハウが貯まらない 素のAIだけでは、まだ現実的には活用しにくい
  9. チームの利用場面に合った内容で出し分けたい エンジニア QA QA 開発内容を確認 テストケース作成 担当を振り分け チームの利用場面に合わせた内容で出せば 手直し無く・すぐに使えて・また使いたくなる •

    シンプル・軽いテスト • 実施が必要なテストだけを箇条書きしてあ ると使いやすい • テスト対象機能の解説は不要 • 複雑・重いテスト • テスト対象分析のプロセスも明記して妥当 性を確認したい • テスト対象機能の解説も欲しい
  10. • 利用者、利用タイミングに応じた使い分け ◦ テーラリング 服のサイズやデザインを個人の体に合わせて調整すること ◦ PMBOKにおけるテーラリング ▪ プロジェクトの状況や環境に合わせて、PMBOKの管理方法・プロ セス・ツール・成果物などを調整・最適化すること。

    ▪ 画一的な方法を適用するのではなく、プロジェクトの特性に合わせ て柔軟にカスタマイズすること ◦ 今回の文脈では、重厚長大に網羅したテストケースを使うのではなく、 状況に適したケースや資料構成になるように調整すること ”テーラリング”とは?
  11. • 機能要件、ユーザーストーリー:Figma • 画面デザイン:Figma • 設計方針:Confluence • 実装、テストコード:Github • 過去に発生した不具合:Confluence

    • 既存のテスト環境やデータ:AWS • エッジケース 普段の設計では意識しきれない特殊なシステムの使い方やデータ の状態:Confluence • 既存のテスト成果物(テスト対象分析、テストケース、テスト観点一覧、ガイド ワード):Confluence 必要なテストベース
  12. • これらのテストケースはAIで積極的に自動作成 ◦ 正常系、準正常系(想定される異常状態のケース) • 正常系と準正常系は機能要件やデザイン設計に詳細に定義できていること が多く、AIからアクセス可能であれば抜け漏れなく抽出できる • フローチャートやシーケンス図を活用して、状態やパスの網羅 •

    事前作成した観点一覧やガイドワードを組み合わさせる • システム特有の観点:「前回利用時の問診データがある場合の表示は…」 • - ガイドワード:「短い間隔(連続)で…、長い間隔で…」 ◎:機能適合性の正常系、準正常系
  13. • 長い状態遷移 ◦ 0件時 → 1件 → 複数件 → 削除して1件…

    ◦ 複数のステータスを経由する複雑なフロー • 逸脱行動を含むシナリオ ◦ パスの途中で戻る、離脱して復旧 ◦ 意図的にエラー状態を作り出してから回復 • 探索的テストをやることでケースに気づくこともあり、今後も一定残る • AI実行が複雑でも安定して高速に動作するようになればいずれは… QAによる実施が残っている領域 - 探索的テスト
  14. • そもそもMCP経由で情報収集すること自体が速度のネック ◦ AIが直接利用可能なローカルドキュメントやRAGの利用を検討 • 自動化△→◎に変えていきたい ◦ ペルソナ・ユーザーストーリーからデザインやフローの使用性評価 ケースに派生させるなど •

    システムテストを自動化したいが、PlaywrightMCPでの実行が遅い ◦ 速度改善して、AI自動テストの割合を上げたい • 人手が前提のテスト配分ではなく、AIによるテストが前提のテスト配分に 根本的に変えていきたい 今後の課題
  15. • 生成AIによるテスト設計を活用するには、チームの開発プロセスに合う  テスト種類・ケース数・所要時間に調整する ◦ ここが不十分だと毎回QAの手直しが必要で ◦ 仕事完了までの所要時間が延びてしまい ◦ QAの負荷も減らない •

    設計のインプットに必要な資料化は、利用時の結果を確かめながら進める • 試しに1つの領域を資料化して、利用し続けられる所要時間や内容かを  確認する等 トライしていただくうえでのTips