Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIの標準化や法規制に関する動向 (2023年版)

AIの標準化や法規制に関する動向 (2023年版)

第1回 Data-Centric AI勉強会 で発表した際の資料です。
https://dcai-jp.connpass.com/event/282385/

現状の動向についてより詳しく述べたブログ記事はこちらです https://blog.citadel.co.jp/overview-of-ai-standardization-2023-2e8ef5a19f82

Asei Sugiyama

June 01, 2023
Tweet

More Decks by Asei Sugiyama

Other Decks in Technology

Transcript

  1. 自己紹介 杉山 阿聖 (@K_Ryuichirou) Software Engineer @ Citadel AI Advisor

    @ Money Forward Google Cloud Innovators Champion @ Cloud AI/ML MLSE 機械学習オペレーション WG 機械学習図鑑 共著
  2. COMPAS (1/2) 再犯予測システム 2016 年に報道機関 Propublica が COMPAS の 判断結果に人種差別がある

    と報道 高リスク判定が黒人に偏っ て算出されることが判明し た Fairness-Aware Machine Learning and Data Mining p.20
  3. COMPAS (2/2) 調査者と製作者の意見が対立 調査者: 偽陽性と偽陰性に基づくと差 別的 製作者: 同一スコアの人は人種によら ず再犯確率は同じ 数理的にはこの

    2 つを同時に満たせ ないことが知られている Fairness の定義について議論に アルゴリズムの判断はいつ差別になるのか : COMPAS 事例を参照して
  4. Equalized Odds 偽陽性/偽陰性 に着目 : 人種 : 破産予測 : 完済/破産

    偽陽性/偽陰性 の確率は人種 間で等しくあ るべき Fairness-Aware Machine Learning and Data Mining p.47
  5. Sufficiency precision に着 目 : 人種 : 破産予測 : 完済/破産

    正しく予測で きた確率は人 種間で等しく あるべき Fairness-Aware Machine Learning and Data Mining p.49
  6. 1. 社会的なルールや原則 (2018〜) AI の開発者に何かを強いるものでは ありませんが、実践的なドキュメン トの基礎となる OECD Principles on

    AI 人間中心のAI社会原則 Google’s AI Principles 人間中心のAI社会原則 https://www8.cao.go.jp/cstp/aigensoku.pdf
  7. 2. 国が定めるフレームワークや社会的 なガイドライン (2020〜) 公的な機関によるフレームワークの 初期バージョン 米国: NIST AI RMF

    EU: Regulatory Framework 日本: 経済産業省 AI原則実践のための ガバナンス・ガイドライン Ver. 1.1 経済産業省 AI原則実践のためのガバナンス・ガイドライン Ver. 1.1 https://www.meti.go.jp/press/2021/01/20220125001/20220124003.html
  8. 3. 技術的なガイドラインと標準化 (2021〜) 国際的な団体が実世界への適用例に 基づいて推奨事項や要求事項をまと めて公表 QA4AI (AI プロダクト品質保証コン ソーシアム)

    機械学習品質マネジメントガイドラ イン (AIST) ISO/IEC 規格, IEEE 規格 機械学習品質マネジメントガイドライン https://www.digiarc.aist.go.jp/publication/aiqm/guideline-rev2.html
  9. 4. 標準や法制度との協調と発展 (これから) 政府と産業界による実用的で普遍的なルールの明文化 NIST AI リスクマネジメントフレームワーク: v1.0 の公表 EU

    AI Act: 最終版の公表と施行 ISO, IEEE, etc: 十分な議論を経た上での規格のリリースと CEN (European Committee for Standardisation) や CENELEC (European Committee for Electrotechnical Standardisation) との協調
  10. EU AI ACT EU の AI ACT による機械学習の 「標準」の策定 今までのボトムアップだけでは

    なくなり、トップダウンな動き 比較的抽象的な要求事項が述べ られている The Artificial Intelligence Acthttps://artificialintelligenceact.eu/
  11. リスクベースアプローチ (1/2) ユースケースをリスクに応 じて4段階に分類 最上段は人権侵害や犯罪に 相当 (禁止) HR への応用や医療機器はハ イリスクに相当

    A European Strategy for Artificial Intelligence https://www.ceps.eu/wp- content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli- 23.4.21.pdf
  12. リスクベースアプローチ (2/2) ハイリスクとみなされる例 や要求事項を列挙 データの品質 ドキュメント 透明性や情報提供 ロバスト性や正確さ セキュリティ A

    European Strategy for Artificial Intelligence https://www.ceps.eu/wp- content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli- 23.4.21.pdf
  13. 日本の動向 規制に関しては EU と比較して慎重 (だった) AI を用いた特定の技術自体を義務的規制の対象とすべきではない。義務 的な規制が必要な場合でも、意図しない領域にまで規制が及ばないよう に、AIの応用分野や用途について慎重に範囲を定めるべきである。なぜ なら、技術の具体的な使われ方等(利用分野、利用目的、利用規模、利

    用場面、影響を及ぼす対象が不特定か否か、事前周知が可能か否か、オ プトアウト可能か否か等)によって、社会に与える利益や損害の可能性 は異なるからである。 経済産業省 我が国のAIガバナンスの在り方 ver1.1 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/2021070901_report.html
  14. ISO 標準 AI Act の文章群と比較して具体的 ISO/IEC TR 24027 (Bias in

    AI systems) ISO/IEC TR 4213 (Assessment of machine learning classification performance) ISO/IEC TR 24029–1 (Assessment of the robustness of neural networks)
  15. ISO IEC TR 24027 1. Scope 2. Normative References 3.

    Terms and definitions 4. Abbreviations 5. Overview of bias and fairness 6. Sources of unwanted bias in AI systems 7. Assessment of bias and fairness in AI systems 8. Treatment of unwanted bias throughout an AI system life cycle
  16. 1. Scope & 2. Normative References 略 3. Terms and

    definitions 機械学習関連の用語の整理 Bias について簡単に分類されている 自動化バイアス、認知バイアス、サンプルバイアス、データバイアス 4. Abbreviations 略
  17. 5. Overview of bias and fairness Bias と Fairness についての短い説明

    AI システムに含まれる Bias について、履歴書のレビューシステムを例 に説明 職歴のない期間がある人を職歴の長い人よりも低く位置づけるアル ゴリズムにはバイアスがあるといえる Fairness は人や組織に影響を与える場合に生じうるとしている Fairness の複雑さを、奨学金の貸与可否判断システムを例に説明 多様性の確保のためにはさまざまな人に貸与したい 研究室には優秀である見込みがある人を呼び込みたい
  18. 6. Sources of unwanted bias in AI systems 不都合なバイアスが生じるメカニズムについて例示 それぞれのバイアスについてかなり詳細に記述

    認知バイアス: 10 種に分類し説明 データバイアス: 10 種に分類し説明 エンジニアリングで導入されるバイアス: 6 種に分類し説明 モデルバイアス: 7 種に分類し説明
  19. 7. Assessment of bias and fairness in AI systems Bias

    や Fairness を検知するための計測方法について記述 Confusion matrix Equalized odds Equality of opportunity Demographic parity Predictive equality それ以外の計測方法についてもリファレンスを提供
  20. 8. Treatment of unwanted bias throughout an AI system life

    cycle AI システムのライフサイクルのそれぞれのフェーズにおいて、考慮すべ き内容を記述 組織的なものもあれば (ステークホルダーの特定や役割の定義、それぞ れのフェーズでの関わり方など) かなり詳細で技術的なものもある (LASSO に代表される正則化手法など) 要件定義フェーズと、テストフェーズでの実施事項についての記述が多 い デプロイ後のモニタリングについての記述は他に比べて薄い