Upgrade to Pro — share decks privately, control downloads, hide ads and more …

OECDレポート要約版(人工知能による統治~政府中核機能における現状と今後の展望~)

Avatar for Hirokazu Suzuki Hirokazu Suzuki
September 28, 2025
28

 OECDレポート要約版(人工知能による統治~政府中核機能における現状と今後の展望~)

Avatar for Hirokazu Suzuki

Hirokazu Suzuki

September 28, 2025
Tweet

Transcript

  1. 2 本資料は、OECDが2025年9月18日に公表したレポート『Governing with Artificial Intelligence: The State of Play and

    Way Forward in Core Government Functions』について、私、鈴木が個人的に分析し、まとめたものです。 日本国政府や地方自治体においても有益な示唆があると考え、独自の視点から作成いたしました。 本資料では、OECDレポートのエグゼクティブ・サマリーおよび第1章から第4章までの概要を、当日のプレゼン テーションに合わせて抜粋・要約し、さらに第5章の個別事例を整理しています。 この内容は私個人の見解であり、私が所属する組織の公式な見解ではありません。また、OECDの正式な許可を得 て作成したものではなく、翻訳や内容の正確性についてOECDが保証するものではないことをご理解ください。 本レポートは以下のリンクからアクセスできます。 https://www.oecd.org/en/publications/governing-with-artificial-intelligence_795de142-en.html この資料が皆様のご参考になれば幸いです。 ▪ はじめに
  2. ◼ 政府機能におけるAI活用の分布 • OECDは、200のユースケースにわたる政府の11の主要機能におけるAIについて詳細な調査を実施。AIの活用事 例は公共サービス、司法、市民参加の分野で最も多い一方、政策評価、税務管理、公務員制度改革での利用は 比較的少ない。用途の多様性や規制上の制約、実装の課題の違いによるものである。 ◼ AIの活用パターンと技術的特徴 • AIの活用は内部業務や公共サービスの提供でより広まっており、古典的なルールベースのアプローチや確立さ

    れた機械学習技術に依存することが多い。ケースの大部分は自動化・効率化・個別化されたプロセスやサービ スの促進を目的としており、意思決定と予測の改善、説明責任と異常検知の強化が続く。 ◼ 政府におけるAI活用のリスク • 偏ったアルゴリズムは悪い結果を招く可能性があり、AIの誤用は人権を侵害する可能性。AIの透明性、説明可能 性、国民の理解が不十分だと説明責任が失われ、国民の反発を招く。AIへの過度な依存はデジタルデバイドを 拡大させ、政府に対する市民の信頼を損なう可能性。 ◼ AI実装の課題 • AIアプリケーションのスケールアップが難しく、政府のAIイニシアティブはパイロット段階に留まることが多い。 スキルのギャップや質の高いデータの入手・共有の困難さが課題。AI戦略は一般的になりつつあるものの、具 体的な指針がないことが実践への転換を阻害。 ◼ 信頼できるAI導入の要件 • 政府がAIのメリットを享受し、リスクを軽減するには、信頼できる導入を促進する要因(ガバナンス、データ、 デジタルインフラ、スキル)、AIの活用を導くガードレール(規則や方針、透明性・説明責任の仕組み)、 ユーザー中心のエンゲージメント手法を整備する必要。 ▪ エグゼクティブ・サマリー 3
  3. 第1章:人工知能がデジタル政府の実現を加速させる仕組み ◼ OECDが政府のAI活用事例を調査したところ、実証実験やパイロット段階にある初期の取り組みが多いことが判明。これは次 のことを示している:①実験段階から本格的導入への移行に課題がある可能性、②モニタリングと情報共有の強化が必要であ ること、③導入と規模拡大を促すための政策的措置が必要となる可能性。 ◼ すべての政府機能に共通する導入の課題は次の通り:①スキルの不足、②質の高いデータの入手または共有の難しさ、③特定 の政策分野におけるAI活用のための、実践的な枠組みや指針の欠如、④リスクを避ける傾向、⑤投資対効果(ROI)や成果を 証明することの難しさ。 ◼

    政府の機能によっては、次のような多様な課題に直面、特定の機能でより顕著に見られる:①柔軟性に欠ける、時代遅れの法 制度、②AI導入と規模拡大にかかるコストが高かったり、不透明だったりすること、③時代遅れのレガシーITシステム。 第2章:政府の機能におけるAI利用の動向と初期の教訓 ◼ OECDは11の政府機能にわたる200の事例を分析。その結果、AIはほとんどの政府にとって優先事項であるものの、取組は体 系的ではないことが判明。全体的な動向は以下の通り。 • AIは政府の機能全体にわたって均等に普及しているわけではない。 • AIは国民向けの公共サービス活動と内部業務に最も多く使用されている。 • 政府は様々な潜在的利益を追求するためにAIを使用している。 • 一部の政府機能はAIのガバナンスと導入に関してより成熟している。 • 政府の機能ごとに異なる背景とニーズがある。 ◼ OECDは、分析した200の事例のすべてが、信頼できる方法で設計・使用されない場合、1つ以上の種類のリスク(運用的、倫 理的、国民の反発、または排除)をもたらす可能性があることを発見。これらのリスクは、事例や政府の機能によって異なる。 従って、各事例や分野における主要なリスク要因を認識することが重要。政府はいくつかのAIリスクに警戒しているが、中に はあまり注目されていないものもある。 4 ▪ 第1章・第2章のキーメッセージ
  4. 第3章:政府におけるAIの戦略的活用を妨げる導入の課題 ◼ AIは産業、経済、政府、社会を再構築する可能性。しかし、政府分野での進展はまだ限られているのが現状。 ◼ AIは政府の生産性、応答性、説明責任という3つの主要な分野で貢献可能。また、政策サイクルの各段階において、AIは相互補 完的な多くの利点をもたらす:①単調で反復的な作業の自動化、②分析や創造的な作業における生産性の向上、③市民個々の ニーズに合わせたサービスの提供、④公務員制度を強化するためのアプローチの個別化、⑤意思決定能力の向上と現状把握の 深化、⑥将来予測の精度向上、⑦情報管理とアクセスの改善、⑧不適切な取引の検出と汚職リスクの評価、⑨非政府組織の政 府理解、関与、説明責任の促進、⑩「公共財としてのAI」を通じて、外部の関係者のための機会創出。 ◼

    これらの利点は排他的なものではなく、次の4つの広い分野に分類できる:①プロセスの自動化、効率化、個別化、②意思決 定、現状把握、予測の改善、③説明責任の向上と異常検知、④外部関係者のための機会創出。 ◼ 政府はAIの利用に特有のリスクを管理する必要がある。具体的には、①倫理的リスク、②運用的リスク、③排除リスク、④国 民からの反発リスク、⑤行動を起こさないリスク。 第4章:信頼できるAIを解き放つための推進要因、安全策、そして関与 ◼ ガバナンスと政策的な取組は、政府がAIの可能性を最大限に引き出し、多様なリスクや導入の課題に対処するのに役立つ。政 府はシステム的なアプローチを取り、将来の変化を予測すべき。提案されるべき措置は、推進要因を強化し、安全策(ガード レール)を確立し、関係者と関与するべきである。 • 推進要因とは、主要なガバナンスの仕組みやプロセスの確立、AI基盤となるデータの役割の理解、デジタルインフラの構 築、スキルや人材の育成、目的を持った投資、公共調達の効果的な活用、パートナーシップを通じたAIの可能性の拡大等。 • 安全策には、拘束力のあるものとないもの両方の政策手段、透明性を確保するプロセス、説明責任の仕組みが含まれる。 • 関係者との関与は、市民集会、公務員との連携、AI開発における利用者参加、そして国境を越えた協力といった形で実現。 ◼ これら措置を合わせると、「政府における信頼できるAIのためのフレームワーク」が形成。政府がOECDのAI原則に沿って行 動するのに役立つと思われる。今後のOECDの活動では、フレームワークの各要素について深く掘り下げていく予定。 5 ▪ 第3章・第4章のキーメッセージ
  5. 6 ▪ 11の政府機能にわたる200のユースケース カテゴリー 機能 政府政策機能 税務管理 公共財政管理 規制設計・提供 主要な政府プロセス

    公務員制度改革 公共調達 汚職対策・公共の構成性促進 政策評価 市民参加・オープンガバメント 政府サービス・司法機能 公共サービス設計・提供 法執行と災害リスク管理 司法行政と司法アクセス
  6. 8 ▪ 政府におけるAIの利点とリスク 外部ステークホルダーのための機会創出 市民と関係者のエンパワーメント 自動化、効率化、個別化されたプロセスとサービス 単調で反復的な作業の自動化、分析や創造的な作業で の生産性の向上、市民個々のニーズに合わせたサービ スの提供 より良い意思決定、状況把握、予測

    将来予測の精度向上、意思決定能力の向上と現状把握 の深化、情報管理とアクセスの改善 説明責任の向上と異常検知 非政府組織の政府理解・関与・説責任の促進、不適切 な取引の検出と健全性リスクの評価 倫理的リスク 不適切または偏ったデータ、AIの悪用 透明性や説明性の欠如 運用的リスク 自動化バイアス、すなわちAIへの過度な依存、 仕事の質の低下、サイバーセキュリティ、 プライバシーとデータガバナンス間の緊張関係 排除リスク デジタルデバイド、労働力の代替 国民からの反発リスク 選択的な受け入れ、理解不足、 スキャンダルによる信頼の低下 行動を起こさないリスク 機会の逸失、官民間の能力格差の拡大 利点 リスク
  7. フランスにおける未申告の不動産開発の検知 • 未申告の建設や開発を検知するプロセスを改善するために、フランス税務行政(DGFiP)は、「Foncier Innovant」(革新的土地)プロジェクトの一環として、国立地理森林情報研究所(IGN)が撮影した航空写真に 基づく人工知能とデータ強化を使用。 • このアルゴリズムにより、IGNの公開航空画像から建物やスイミングプールの輪郭を抽出することが可能であり、 これらの画像はウェブサイトgeoportail.gouv.frで閲覧できる。 • 次に、コンピュータープロセスが、DGFiPへの所有者の申告から、画像で検知された要素が適切に課税されてい

    るか(特に固定資産税について)を検証する。その後、DGFiPの職員が、物件の所有者に通知や最終的な課税を 行う前に、検知された各異常を体系的に検証。 12 ◼ コンプライアンスの向上と脱税・詐欺の検知 • AIは税務管理が保有するデータ内の隠されたパターンや、取引、資産、納税者間の新しいつながりを発見する ことでコンプライアンス向上と脱税・詐欺検知に活用されている。手書き文書のテキストやソーシャルメディ アの公開投稿といった非構造化データセットを分析し、税務逃れや不遵守を示す活動の分析に深みを加えてい る。地図や衛星画像を分析するパターン検知能力により、未申告の物件改築や新建物、課税対象資産を特定す ることが可能。 • ギリシャの独立公共歳入庁は、コンプライアンス問題の検知、複雑な手続きの自動化、監査官のリアルタイム 対応支援により脱税と戦うためAIを活用。また、ギリシャは課税義務のため申告されていないスイミングプー ルを地理的に特定するAIモデルも開発している。 ▪ 税務管理におけるAI
  8. ブラジルにおける意思決定の改善 • ブラジルでは、行政裁判所の税務控訴における決定を待っている査定税額が約1,400億ドルあった。控訴裁定に は約6年かかる。AI訴訟プロジェクトの下、ブラジルは、同様のファイルのグループを同じ担当官に割り当てる 際に、教師あり機械学習を採用し、ファイル管理と意思決定の速度を向上させた。2,000の手動でラベル付けさ れたファイルのサンプルで実施された最初の試験では、教師ありアルゴリズムが80%以上の感度(sensitivity) と特異性(specificity)を達成できることが示された。 • また、ファイルを完全に/部分的に完成させるためにクラスタリングアルゴリズムも採用。さらに、担当官の分 析を支援し、テキストブロックの再利用という目標を助けるために、ウェブベースのレポート支援ツールが開発

    中。このツールのリソースには、示唆されたファイルのグループや段落の提示、およびクラスタリングプロセス にとって重要であることが判明した文のハイライトが含まれる。担当官はファイルや段落にラベルを付けること ができ、そのラベルは将来の提案を改善するために使用される。 13 ◼ 行政上の意思決定プロセスの支援 • 行政プロセスをより効率的にするため、同様のケース・タスクの分類と割当を支援する内部プロセス自動化に AIを導入。AIは自動化を通じて解決できる単純で標準化されたケースと、税務専門官の専門知識と判断が最も必 要とされる税務紛争のような複雑なケースを区別するために使用されている。この応用により人的および技術 的資源のより効率的な利用が可能となっている。 • ブラジルでは行政裁判所の税務控訴における約1,400億ドルの査定税額が決定を待ち、控訴裁定に約6年を要し ていた状況において、AI訴訟プロジェクトの下で教師あり機械学習を採用し、ファイル管理と意思決定の速度 向上を実現。 ▪ 税務管理におけるAI
  9. オーストリアにおける予測分析によるコンプライアンスチェックの改善 • 2014年以来、オーストリアの税務管理では、連邦財務省内の専門部門である予測分析コンピテンスセンター (PACC)を通じて、機械学習アルゴリズムを適用。リスク管理の近代化を任務とするPACCは、税金の徴収、 監査、詐欺検知を改善するために働いている。4つの主題領域(予測分析、高度な分析、税務分析、および関税 分析)に組織されたPACCは、税制度全体にわたる幅広い課題に取り組んでいる。 • 2023年、PACCのリスクモデルは、所得税、法人税、付加価値税、および関税取引にわたる約650万件のケース を分析。この分析は、従業員の税務査定における虚偽申告の事例を検知し、不正行為を特定し、約1億8,500万 ユーロの追加税収をもたらした。約2,750万件のケースもコンプライアンスのために調査され、375,000件のケー

    スが、尤もらしくないリスクプロファイルのため、さらなるレビューのためにフラグ付けされた。 • 意思決定ツリー、回帰モデル、テキストマイニングを含む高度な技術は、遡及的およびリアルタイムの監査の両 方を支援しており、進行中のプロジェクトは、例えば生成モデルを含む分析能力の拡大を目指している。 14 ◼ リスク評価プロセスの強化 • AIは納税者の履歴申告から取引記録、デジタル支払情報まで大量のデータを処理し、洗練されたリスクモデル を構築してリスクスコアを可能にしている。機械学習アルゴリズムを適用したリスク分析システムにより、不 遵守を迅速に特定しリソースを集中させることが可能となっている。予測能力の向上により、潜在的な問題を より迅速に特定、エスカレートを防ぎ、納税者の正しい申告支援を実現。 • オーストリアの税務行政は2014年以来、連邦財務省内の予測分析コンピテンスセンターを通じて機械学習アル ゴリズムを適用し、税金の徴収、監査、詐欺検知の改善に取り組んでいる。ギリシャの燃料市場では、独立公 共歳入庁が100以上の異なるリスク分析基準を構成する分析システムを開発。 ▪ 税務管理におけるAI
  10. シンガポールにおける納税者サービスの強化 • シンガポール内国歳入庁(IRAS)は2021年に個人所得税、法人税、物品サービス税、固定資産税、印紙税、源 泉徴収税、雇用者税に関する一般的問い合わせの効率的処理を目的としたチャットボットを、シンガポール政府 の仮想知的チャットアシスタント(VICA)プラットフォーム上で構築した。チャットボットはカルーセルやイ ンフォグラフィックなどのインタラクティブ要素を備えた人間味のあるユーザー体験を通じてユーザーエンゲー ジメントを強化している。2023年には大規模言語モデルエンジンの統合により、納税者の問い合わせ意図を理解 する能力が大幅に向上。 • 問い合わせ対応に加えて認証されたサービスへのアクセスを可能にし、納税者は未払い税金残高確認、支払い計

    画閲覧、支払い状況確認、支払い計画のキャンセル・再開、セルフサービス支払い端末やモバイルチャネルを通 じた税金支払いが可能。これらのボット取引は従来のデジタルサービスチャネルと比較して納税者に1回の取引 あたり約10分の時間節約をもたらし、2024会計年度には約70,000件の取引関連問い合わせを処理し、推定 11,666時間の納税者時間節約を実現した。 15 ◼ 納税者サービスの改善 • コールセンターや税務署訪問といった労働集約的サービス提供の効率化のため、単純な問い合わせ処理でAI ベースの仮想アシスタント技術を導入。基本的アシスタントはルールベース技術で納税者を関連情報に案内し、 支払いやステータス確認を支援する。最近では大規模言語モデルを活用したより高度なAI技術により、納税者 とのやり取りを強化・個別化している。 • シンガポール内国歳入庁はエンドユーザー自動化、データ、AIツールでシームレスで個別化された納税者サー ビスを提供。ギリシャ独立公共歳入庁は所得税申告書提出中の質問対応でLLM駆動型デジタルアシスタントを 開発。 ▪ 税務管理におけるAI
  11. オーストラリアの確定申告におけるエラー防止 • オーストラリア税務局(ATO)は確定申告の正確性と効率性向上のため、リアルタイム分析、事前入力フォーム、 異常検知システムを含む高度技術を採用している。雇用主、銀行、政府機関、その他第三者から取得したデータ による個人確定申告書の自動事前入力サービスでは、給与、銀行利息、配当、民間健康保険詳細などの多岐にわ たる情報が含まれ、納税者は提出前に事前入力データの確認・承認が義務付けられている。このシステムは管理 負担の大幅軽減に加え、手動入力エラーの最小化による正確性の飛躍的向上を実現している。 • 提出プロセス中のリアルタイム警告システムでは、機械学習モデルによって異常とフラグ付けされた納税者の報 告数字に対し「利息収入を報告していません。稼いだ利息がすべて報告されているか確認してください」などの

    具体的な再確認メッセージを自動生成する。2023-24年度には個人納税者に対して636,000件以上の警告を発行 し、約7,890万豪ドルという大規模な歳入保護に貢献した。この成果は、AIによる異常検知技術の実効性と税務 コンプライアンス向上への直接的な寄与を実証している。 16 ◼ 納税者の申告支援 • AIが申告書の広範な事前入力を容易にし、アルゴリズムやその他ツールが税務行政の広範なデータセットを精 査して正しい部分にデータを配置している。申告書の正確性向上、申告プロセス簡素化、納税者の申告時間短 縮を実現している。納税者の申告書完了時には、パターン検知技術により異常やエラーを発見し、納税者に申 告書の再確認を促すシステムが機能している。第三者データの自動統合により手動入力エラーを最小化し、リ アルタイム警告システムで潜在的な申告漏れや計算ミスを即座に検出する技術が導入されている。 • オーストラリア税務局は雇用主、銀行、政府機関、その他第三者から取得したデータで個人確定申告書の自動 事前入力サービスを提供し、給与、銀行利息、配当、民間健康保険詳細などの情報を含む。 ▪ 税務管理におけるAI
  12. オランダの児童手当スキャンダル(Toeslagenaffaire) • Toeslagenaffaireは、オランダにおける児童手当のスキャンダル。2005年~2019年に、オランダ税関行政庁は、 欠陥のあるデータと偏ったアルゴリズムの使用により、約26,000世帯を育児手当を不正に請求したとして告発。 これらの家族の多くは、署名欠落等の行政上のエラーによりフラグ付けされ、二重国籍や移民背景を持つ家族が 不釣り合いに標的にされた。こうした家族は数万ユーロの手当を返済することを余儀なくされ、深刻な経済的困 窮に陥り、家や仕事、結婚生活を失った者もいた。極端なケースでは、子供たちが家族から引き離された。この スキャンダルは、政府の崩壊につながった。Toeslagenaffaireの後、オランダ内務・王国関係省は人権とアルゴ リズム影響評価を開発、2022年にオランダ下院は、アルゴリズムが人々に関する評価や決定を行うために使用さ れる場合はこの影響評価の実施を義務付ける動議を承認した。

    17 ◼ リスクと課題の管理 • 関連リスクはAIシステムにおける不適切または偏ったデータ、透明性と説明可能性の欠如である。税務管理は、 データ保護とプライバシーの確保、納税者の権利の確保、信頼の維持という要因のため、AIの統合にとって特 に厳しい環境となる。AIシステムが不適切または偏ったデータに依存する場合、不正確なリスク評価につなが り、一部の個人が不適切な管理措置の対象となる可能性。 • 多くのMLシステムにおけるAIのブラックボックス性質は、納税者が税務決定がどのように行われたかを理解す る権利に影響を与え、決定に異議を唱える権利を制限する可能性がある。 • 実装の課題はスキルギャップ、AI導入と拡大の高コスト、柔軟性がなく時代遅れの法令・規制環境である。税 務管理では、こうした技術を開発できる熟練した従業員をめぐる激しい競争が報告されている。技術の展開に は多大な投資コストが伴い、投資の収益が不確実であるため、予算確保が困難な場合がある。AIは既存の法的 枠組みを混乱させる可能性があり、これらの枠組みの調整が必要である。 ▪ 税務管理におけるAI
  13. 18 ◼ 未開拓の可能性と今後の道筋 • 世界中の税務管理は、既にAIの可能性を活用し始めており、業務の効率を改善するために幅広い活動を展開し ている。AIは税務管理の既存の業務モデルを最適化するだけでなく、変革する可能性も持っている。OECDの 「税務行政3.0」フレームワークは、デジタル技術がシームレスな、イベントベースの税エコシステムを作成す るビジョンを提示し、税金の徴収と報告を納税者の自然なシステムに直接組み込むことを可能にする。 • AIの変革的な可能性を完全に実現するためには、税務管理はシステム的なアプローチを採用すべきである。AIは

    単一のツールではなく、規制の枠組み、組織構造、既存の技術インフラ、人間の専門知識を含む、より広範な 税エコシステムに組み込まれた統合コンポーネントとして使用されるべきである。「コードとしてのルール (Rule as Code)」アプローチを適用することで、税務行政は税法と規制を機械が読み取れる形式で符号化し、 AIシステムがルールをより高い正確性と一貫性で解釈し適用できるようにすることができる。 • 納税者の信頼は、うまく機能する税務行政の不可欠な部分であるため、税務行政は展開されるAIが信頼でき、 透明で、説明責任を伴う方法で展開されることを確実にすべきである。OECD税務行政フォーラムは現在、税務 行政がAIシステムを展開するのを支援するためのフレームワークを試行している。このフレームワークは、信 頼できるAIのためのOECD原則に基づいて構築されており、AIライフサイクルの各段階における重要な考慮事項 を概説している。税務行政フォーラムは、この作業からの知見を2026年に公表する予定である。 ▪ 税務管理におけるAI
  14. スウェーデンにおける説明可能なAIによるGDP予測 • スウェーデン国立財政管理局(ESV)は説明可能な機械学習を活用したGDP予測アプリケーションを開発し、経 済予測における正確性と透明性の両方を実現。このモデルはスウェーデンのパンデミック前の公式予測を大幅に 凌駕する性能を示し、従来のAIベース予測の主要な制約である不透明性の問題に対し、変数の影響を経時的に可 視化することで根本的に対処している。 • 政策立案者、研究者、国民が信頼できる予測を生成しつつ解釈可能性を維持することを可能にし、エビデンスに 基づいた意思決定を強力に支援している。このイニシアチブは説明責任と信頼を確保しながら、AIがマクロ経済 予測にどのように統合できるかを実証している。説明可能AI技術により、予測結果の根拠となる要因を明確に示

    すことで、従来のブラックボックス型AI予測の根本的な課題を解決し、政府機関における透明性の高いAI活用モ デルを提示している。特に変数の影響度可視化機能により、経済指標の変動要因を定量的に把握することが可能 となり、政策効果の事前評価や経済情勢の詳細分析に大きく貢献している。 20 ◼ 予測の改善 • AIは予測の正確性と適時性を向上させることで従来の財政・経済予測手法の課題に対処できる。AIシステムは従 来の経済予測モデルを上回る性能を示しており、リアルタイムに近い変化を特定して潜在的な近未来を外挿す るナウキャスティング技術の開発機会としても注目される。ナウキャスティングは通常遅延後に決定・改訂さ れるGDPやインフレなどの経済指標について、最近の過去と現在を考慮して極めて近い未来の状態を予測する 手法である。 • 非構造化データを使用する場合でも、従来の時系列モデルより正確で予測された予測を提供するためのAIシス テム導入を、ニュージーランド、フランス、ペルーなど各国の中央銀行が模索している。 ▪ 公共財政管理におけるAI
  15. 韓国における公共財政管理のためのAI • 2022年、韓国はリアルタイムの経済・財政・財務データを分析し、公共財政におけるリスク評価と意思決定を最 適化する高度な財政管理情報システム「dBrain+」を開発・導入。主要モジュールである韓国財政情報システム (KFIS)と韓国リスク評価・ホライゾンスキャニング(KORAHS)は、AI駆動型分析を使用して財政リスクを 検知し、データに基づいた政策決定を支援。予算編成や資金管理から債務監督やパフォーマンス評価まで、すべ ての国家財政業務を一元化することで、dBrain+は中央政府と地方政府全体で効率性、透明性、予測能力を向上 させている。 • dBrain+の主要な強みは国税庁、公共調達庁、韓国銀行を含む46機関からの63システムとの統合で、契約、税金

    徴収、資金移動に関するシームレスな協調を可能にしている。このデータのリアルタイムAI分析は予算執行を改 善し、財政報告を加速し、リスクの特定を支援し、財政政策と公共支出に関するより良い意思決定を可能に。 21 ◼ 支出決定の円滑化 • 公共財政管理における意思決定を円滑にするため、AIはビッグデータ、データ分析ツール、データ可視化と いった技術的進歩によって支えられている。AIは複数ソースからの膨大な情報を分析し、特定の財政カテゴ リーや受益者を掘り下げて傾向やパターンに基づく支出有効性を評価し、複雑な情報を効果的に伝達する機能 を提供。 • 支出決定においてAIは過去の予算執行データを分析して過少支出・過剰支出のパターンを特定し、人口動態変 化などの主要パラメーターに基づいて将来の支出ニーズを予測し、支出データを成果指標と結びつけることで プログラム有効性を評価できる。非構造化データを活用する機械学習技術は従来使用されなかったデータセッ トを組み合わせる機会を提供している。 ▪ 公共財政管理におけるAI
  16. フランスにおける予算監視へのAI活用 • フランスの税務庁(DGFiP)は、財政難に直面している自治体を特定し、財政支援を行うことを目的としたAI警 告システムを数年前から導入。 • 当初は過去のデータで自治体をスコアリングしていたが、最近ではより早期に財政難を検知する予測AIシステム を開発。このシステムは、4年間のデータで訓練され、5年目の結果を予測する。また、教師なしクラスタリング 技術を用いて、事前に定義された結果の例なしに、類似した財政的特徴を持つ自治体を分類する。 • 2022年に行われた2,500の自治体に対する実験では、約40%が財政難にあると特定。そのうち約17%は従来のア

    ルゴリズムでは検知されていなかった自治体。さらに、約35%が一時的な財政問題を抱えていると特定された。 これは、このシステムが永続的な問題と一時的な問題を区別する能力があることを示している。 22 ◼ 予算計画と監視の支援 • AIは正確な支出の基準値を策定、新しい政策のコストを計算することで、予算計画とモニタリングのプロセス を支援。オーストラリアの退役軍人省は、政策決定が将来的に財政へ与える影響をシミュレートする予測シス テムとツールを開発。各受益者ごとの年間財政支出や平均余命をコスト計算、予算見積もり、政策評価に活用。 • AIのもう一つの有望な応用分野は、大規模なデータセットを分析することを通じて、財政リスクを特定、モニ タリングし、軽減すること。政府の財政リスクは、持続不可能な支出や投資水準等、様々な原因で発生するた め、予防措置を講じるには早期の特定が不可欠。インドネシアは、非構造化された財務データやパフォーマン スデータを処理し、準国家政府の財政状況をリアルタイムで分析する「AI Financial Advisor(AIFA)」システ ムを導入。 ▪ 公共財政管理におけるAI
  17. ブラジルにおけるAI主導の財政透明性 • ブラジル国庫(STN)は地方政府の支出を国際的なCOFOG(政府機能別分類)基準に従って分類することで財 政透明性を高めるためにAIを使用。畳み込み・再帰型ニューラルネットワークを持つ機械学習モデルの採用によ り、分類時間が人間の作業時間1,000時間からわずか8時間に劇的に短縮され、97%以上の高精度を達成。 • このブレークスルーは2024年に「一般政府の機能別支出報告書」の公表につながり、ブラジルの財政統計におけ る画期的な出来事となった。この成功に基づき、STNは気候関連支出の分類を含む新しい分野にAI応用を拡大し、 米州開発銀行(IDB)と協力して気候変動の財政的影響を評価する能力を強化している。 23

    ◼ 管理、報告、監督活動の自動化 • 公共財政管理及び報告活動は重要ではあるが、時には反復的であり、自動化に特に適しているタスクを伴う。 自然言語処理のようなAI技術は、デジタル画像を分析して文書からベンダー情報を抽出し、請求書などの文書 を特定・分類、請求書とベンダー情報の比較や支払い要求に関する内部統制における傾向やパターンを特定す るために使用可能。報告の強化に加えて、不適切な支払いや身元盗用などのエラーや詐欺を特定するための標 的型検証の開発は多くの政府にとって主要な目標となっており、特にCOVID-19パンデミック後に支払いシステ ムの脆弱性が露呈したことで重要性が増している。 • フランス税務庁は通常の内部統制プロセスの一環として、管理すべき支払い要求の選択を自動化し、作業量と 実行される管理の質を最適化するAIベースのツールを開発。フィンランド政府財務・人事共有サービスセン ターはサプライヤー情報管理、会計データ均衡、財務取引処理などでRPAソリューションを開発・展開し、複 雑な意思決定やデータ処理が必要な場合にAIを統合。デンマーク事業庁はパンデミック中に企業からの援助申 請に対するAIベースの管理システムを開発。 ▪ 公共財政管理におけるAI
  18. 24 ◼ ステークホルダーやユーザーとの連携の円滑化 • 自然言語処理と言語モデルを搭載したチャットボットは、政府が直接サービスを提供するためにますます採用 されている。 • 公共財政管理に関連して、アラブ首長国連邦は単純な財政報告の質問にも答えられる政府サービス向けの統一 されたAIチャットボット「U-Ask」を開発。 •

    メキシコでは、政府がインテリジェント・サポート・プラットフォームの一環としてAI仮想アシスタンスツー ルを導入し、ユーザーを政府のプログラムや支援へと導くように設計している。このツールは個人、ビジネス、 地方政府向けの給付、資格、申請プロセスに関する情報を提供し、単純なキーワード検索または個別化された アンケートを利用して情報をユーザーのプロフィールに合わせて調整している。 ▪ 公共財政管理におけるAI
  19. Robodebt制度:不適切な支払いの徴収に関する課題 • 2016年に導入されたオーストラリアのRobodebt制度は、福祉給付の過払金を特定し、回収するために設計され た自動化された債務回収プログラム。Centrelink(社会保障庁)に報告された隔週の収入データと、オーストラ リア税務局からの平均年間収入データを比較するデータマッチングアルゴリズムで手動プロセスを置き換えた。 • この「収入平均化」手法は実際の収入の変動を無視し、しばしば虚偽の債務を生成。証明の負担を逆転させ、受 給者に債務に異議を唱えるために過去の給与記録を提供するよう要求した。運用期間中、この制度は47万件の 誤った債務通知を発行し、総額7億7,500万ユーロに達し、広範な苦痛と財政的困窮を引き起こした。 •

    この計算は2019年に違法と宣言され、2022年には王立委員会が設置された。Robodebtは、十分な人間の監督や 厳格なテストなしに複雑な社会システムを自動化することのリスクを例証し、多額の法的和解金と、公共政策に おけるアルゴリズムの利用に関するより厳格な規制を求める声につながった。 25 ◼ リスクと課題の管理 • 関連リスクは、透明性・説明可能性の欠如、不適切・偏ったデータ。AIベースのシステムのブラックボックス な性質は、正確性の面で前進する一方、財政の透明性の面では後退を招く。この透明性の欠如は、政府がモデ ルの意思決定プロセスを検証することを困難にし、説明責任と規制順守に支障をきたす。AIは財務データに埋 め込まれた不平等のパターンを増幅させ、偏ったアルゴリズムが公的資金、社会的給付、政府プログラムへの アクセスに影響を与える可能性がある。 • 実装の課題は、問題とAIソリューションのマッチング、時代遅れの法的環境とレガシー技術システム、質の高 いデータの不足、スキルギャップ。財務省はAI導入の前提条件として、プロセスマッピングによる非効率領域 の特定を重視すべき。多くのOECD加盟国は断片化され、時代遅れで高度なAI機能統合に必要なインフラを欠く レガシー技術に縛られている。データの断片化とデータ共有の制限がAIプロジェクトの開始を妨げている。 ▪ 公共財政管理におけるAI
  20. 26 ◼ 未開拓の可能性と今後の道筋 • 現在、財務省はAIに対して慎重なアプローチを採用しており、規範的なAIよりもタスクの自動化と予測的な応用 を優先。予測AIが結果の予測に焦点を当てる一方で、規範的なAIは望ましい目標を達成するための行動方針を提 案する。しかし、規範的なAIの体系的な応用は公共財政管理システム内の役割と責任に深い影響を与える可能 性がある。 • 財政上の決定において、人間の判断からシステムベースの結果への移行は、説明責任のリスクベースの再評価

    と役割・責任の割当を必要とする。これはAIが公共財政管理の制度とプロセスをどのように変えるか、外部の 監督機関を含む財政ステークホルダーの機能をどのように再構築するかを考慮する必要。 • 自動化された公共財政管理の決定における透明性を確保するため、政府のAIシステムとその基礎となるデータ の利用に関する透明性と説明可能性を確保するフレームワークが必要。最高監査機関と独立財政機関はAIを活 用した財政プロセスを効果的に監督・監査するため、職員のためのデータサイエンスやAIトレーニングの開発 を含む方法論の適応が必要になる。 • 財務省のAIへの取り組みは協調的なアプローチを必要とし、他の政府プロジェクトからの教訓を統合すべきで ある。多くの財務管理機関はAIから大規模な生産性向上が得られる可能性を特定しているが、実現可能性とコ ストに関する公的研究はまれであり、結果と影響に関する評価は依然として逸話的。 • 財務省は野心を段階的かつ安全に拡大するため、AI技術の導入に対して順序付けられたアプローチを採用でき る。フィンランド政府の財務・人事共有サービスセンター(Palkeet)はRPAの小さな利用から始め、現在ML によるハイパーオートメーションへと移行している。高度なデジタル化の旅を小さく始めることは、より洗練 されたAI技術に対する公務員の受容性を高めるのにも役立つ。 ▪ 公共財政管理におけるAI - 未開拓の可能性と今後の道筋
  21. 英国における立法草稿作成と応答のためのAI利用 • 英国の人工知能インキュベーター(i.AI)は立法草稿作成と政策策定を強化するため、2つのAI活用システム、 LexとParlexを開発。Lexは英国法の検索、説明、調査のための高度なAIツールを提供することで、立法草稿作成 プロセスの改善を目指している。主要な機能には、ユーザーが文脈的に関連する立法資料を効率的に発見するこ とを可能にする意味検索機能や、政府法案の説明ノートを生成し手作業を減らし法的言語の精度を高めるAI支援 起草ツールが含まれる。このシステムは英国特有の法的用語を深く理解するよう設計されており、法的専門用語 のニュアンスを正確に捉えることができる。 • Parlexは提案された政策に対する議会の反応を予測することで政策立案者を支援するよう設計。過去の議会記録

    を分析することで、Parlexは議員が新しい政策にどのように反応する可能性があるかについてのインサイトを提 供し、当局が効果的な政策実施戦略を開発することを可能にする。このツールは政策立案者が正式な提案が行わ れる前に政治的情勢を理解し、政策に対する課題や支持を予測するのに役立つ。 28 ◼ 規制および関連文書の起草 • 自然言語処理を使用するAIシステムは、規制ガバナンスの書面部分を効率化し改善するための重要な機会を提 供。政府はこのようなシステムを使用してテンプレートや既存の規制から草稿を生成し、基準が満たされてい ることを確保しつつ時間と資源を節約することができる。AIはまた新しい草稿を既存の法律と相互参照するた めに使用され、対立を特定し人為的ミスを減らすことで、より整合性があり一貫性があり、アクセスしやすい 規制につながる。 • 米国カリフォルニア州の州議会は2023年にAIを使用して決議案を起草した同国初の例となった。コスタリカは AIを規制するためにChatGPTが法律を起草。 ▪ 規制設計と実施におけるAI
  22. ドイツにおける規制遵守コストを測定するためのAI開発 • ドイツの連邦統計局のより良い規制のためのサービスセンターは、規制影響を支援するために遵守コストを推定 する機械学習システムを開発。このシステムでは、政府ウェブサイトから法律条文を自動収集し、新しい法律案 の中で企業や市民にコストが発生する部分をAIが特定。さらに、法律の文言から企業にとって費用が増加するか 減少するかをAIが予測し、コスト増加の可能性が低い場合は同局がAIを使用して遵守コストを算出するが、高い 場合は正確性確保のため人間が手動で推定を行う。このプロセスにより同局は高労力を要する推定に焦点を当て、 他プロジェクトのための資源を解放できる。 • しかし、収集データの構造、ドイツ法的テキストの理解可能性、データ品質、システム使用変数の説明可能性、

    データソース間マッチングに関連する課題は依然として存在。 29 ◼ 規制評価の俊敏性の向上 • 事前の規制影響評価(RIA)と事後の評価は健全な規制ガバナンスの基本的要素。規制当局はAIを使用してこれ らを強化し、評価の速度と正確性を改善しつつ活動負担を最小限に抑えることができる。これにより規制のよ り頻繁な評価が可能になり、急速に変化する環境で、関連性と有効性を維持する適応的で将来対応可能な規制 の作成に役立つ。AIの潜在的な新規制や政策の負担推定支援により、企業の規制変更対応能力と遵守可能性に 影響を与え、規制措置の成功に影響を及ぼす。また、異なるガバナンスアプローチとその関連費用便益トレー ドオフを比較する規制当局にとって重要な考慮事項でもある。 • ダブリン大学は地域プロフィールとセクター情報に基づく政策手段効果シミュレーションツール「スマートエ コノミーのためのイノベーション政策シミュレーション」を開発。NPOであるPolicyEngineはデジタル対応の 法律を使用して政策変更をモデル化し、政府や市民への影響を分析するツールを提供し、ChatGPT統合により 分析結果の説明可能性を向上させている。 ▪ 規制設計と実施におけるAI
  23. 30 ◼ 規制設計におけるステークホルダーエンゲージメントの促進 • 政府は規制ガバナンスのためのステークホルダーエンゲージメント活動をゆっくりと改善しているが、ほとん どのOECD加盟国にはこれらの取り組みを改善する大きな余地がある。AIは政策を設計する際にステークホル ダーと連携するプロセス効率と有効性を改善することができる。高度な分析とインテリジェントなUIを使用す ることで、より包括的な規制設計プロセスに貢献し、政府の対応能力を改善し、政府に対する透明性と信頼を 高めることができる。 •

    多くのAIチャットボットが多くのステークホルダーと同時にやり取りし、政府が規制提案をさらに調整するた めのデータを統合することで、新しいまたは改訂された規制に関する公開協議を円滑にしている。チャット ボットはステークホルダーの問い合わせに即座に答え、協議プロセスを通じて彼らを導き、複雑な法律テキス トを単純化して国民の理解を高めることができる。 ▪ 規制設計と実施におけるAI
  24. 31 ◼ 経済規制当局の機能強化 • 経済規制当局は料金設定、事業認可、苦情処理、紛争仲裁、市場監視、検査・執行活動など、AIが活用できる 幅広い業務を担っている。AIの使用を検討または試験運用している規制当局はまだ少なく、取り組みは初期段 階にある。「限られた資源でより多くの成果を上げる」という圧力に直面する中、規制当局はプロセスをより 効率的かつ効果的にするためにAIへの依存を高めている。 ▪ 規制設計と実施におけるAI

    • AIはすでに検査、市場監視、苦情処理や消費者からの問い合わせへの応答といった消費者向けの領域で使用。 ➢ EUの電子通信規制当局はラジオチャネルのモデリング、違法コンテンツの検知、苦情分類にAIを使用して いる。 ➢ オーストリアのエネルギー規制当局は消費者がエネルギー料金を理解するのを助けるAIアプリケーション と消費者からの問い合わせに答えるチャットボットを開発。 ➢ ペルーの水規制当局は検査報告書の作成にAIを適用し、検査官が記録した変数に基づいて報告書生成を自 動化。報告書は専門家によって検証される。Sunassは地理空間分析と分類アルゴリズムを使用して水セク ターにおける投資ニーズとギャップを計算するツールも開発。 ➢ イスラエルの資本市場庁は保険と貯蓄に関する情報を集約するAIツールを開発し、高度な金融モデル、機 械学習、自然言語処理を統合してリスクや詐欺の疑いのあるケースを早期に特定。 ➢ ブラジルの国家陸上交通庁は道路情報システムで事故、料金所、交通センサーなどのデータを組み合わせ、 リアルタイムデータで毎秒15,000件のエントリーを記録してAIツールと人間インターフェースを組み合わ せている。ANTTおよび他の公共アクターによるデータ駆動型の規制意思決定を支援。
  25. トレント自治県における農業補助金のリスク基準 • トレント自治県農業支払庁は手動草刈りや農薬使用制限など農地管理関連の農業補助金を農家申請書の土地面積 に比例して支払う。限られた監督資源下で高精度検査サイト選択のため、ML技術を適用してリスク基準を検証。 最高リスク農業補助金申請を予測するアルゴリズムにより既存パラメータの改訂が可能となり、高リスク要求の ターゲティングと不遵守状況特定において著しい効果性向上を実現。 32 ◼ リスク基準の検証の精緻化 •

    効果的な規制実施にはリスクの正確な理解が不可欠で、公的機関はリスク基準に基づいた検査・執行活動を実 施する必要。ML技術はリスク評価の正確性を計算し、パラメータを精緻化することで、主要なリスク予測因子 の特定とリスクベースターゲティングの有効性を著しく改善する。ただし、MLアルゴリズムは新しいデータを 学習して性能が変化するため定期的な更新が必要であり、規制当局はAIアプリケーション使用時に正確性確保 と偏見回避のための適切な判断を行う必要がある。 • デンマーク安全技術庁は民間IT企業と協力してSAFE AIツールを開発し、16のヨーロッパ諸国で危険製品のイン ターネットスクレイピングを自動化した。イタリアのトレント自治県農業支払庁はOECDと協力してML技術を 適用し、農業補助金申請のリスクパラメータ分析と改訂を実施した。 ▪ 規制設計と実施におけるAI デンマークのSAFE AIツール • 2021年に開発されたSAFEツールは、製品安全に関する欧州緊急警報システムのSafety Gateと市場監視情報通信 システムからの情報を使用し、画像・テキスト認識でウェブ上の危険・欠陥製品を検索する。ユーザーフィード バックによる継続的な訓練で知見の正確性を改善し、当局への非準拠製品販売警告に活用される。
  26. ラツィオ州顧客苦情によるリスク基準強化 • 市民が公式チャネルを利用しない場合、SNSや他のウェブサイトを通じてフィードバックを提供する可能性が高 い。200万件のトリップアドバイザーレストランレビューを収集、5,000件のコメントサンプルを選択。各レ ビューを衛生問題・食中毒の有無に基づいて手動で分類し、LSTMベースのMLアルゴリズムを訓練。LSTMアル ゴリズムはウェブサイト上の新しいレビューを解析・分類し、否定的レビュー(衛生問題を含む)を特定する。 33 ◼ 検査のターゲティングを改善するためのリスクモデリングの強化 •

    規制当局はAIによりリスクモデリングを改善し、検査対象を的確に絞り込むことで、公共財に脅威をもたらす 活動に資源を集中投入することができる。リスク基準の確立と評価により民間事業者のリスクレベルを測定し 執行活動を重点化することで、公共財の保護、資源の効率的利用、ビジネスとの信頼関係構築が実現される。 AIを活用したリスクモデリングはソーシャルメディアデータを通じて強化でき、従来の当局・検査官依存とは 異なり、リスクにさらされた市民に直接アプローチすることが可能になる。 • イタリアのトスカーナ州は欧州補助金の申請書類の審査にリスクベース手法を適用、予測的MLシステムを構築。 ラツィオ州ではソーシャルメディア上の苦情をCMS情報源としてテストするイニシアチブを実施。 ▪ 規制設計と実施におけるAI トスカーナ州とOECDが補助金申請のリスク基準を開発 • トスカーナ州は地域経済活動、特にイノベーション奨励のための欧州補助金に対する申請書類の審査にリスク ベース手法を適用。OECDの支援により、公共資金申請を行う中小企業の特徴と潜在的リスクとの関係を分析し、 予測的MLシステムを構築した。申請の種類に応じて複数システムを使用し、補助金・資金申請の審査を効率 化・高度化・迅速化した。データセットの蓄積に伴うシステム更新により将来の申請分類の基盤として機能し、 数年間の運用により悪質な不正の再発防止や事業所の申請品質向上による行動変容を明らかにできる。
  27. イスラエル適正管理証明書承認とコンプライアンス • 23,000以上の非営利団体にとって毎年必要不可欠な適正管理証明書は、寄付者の税額控除や公共事業・調達機会 の資格要件として機能している。新しいAIベース自動化システムは適切な管理基準への準拠状況を判定し、汚職 や不適切な管理の疑いがある兆候を検出するため、高度な光学文字認識(OCR)および物体検知の技術的課題を 克服した。 • 監督者は問題のあるケースに集中できるようになり、平均処理時間は45日から1時間に大幅短縮され、新たなレ ベルの行政サービスを実現している。このプロジェクトはイスラエル国立デジタル庁との協力により実施され、 イノベーション・科学・技術省のAI導入公募で選出された9つの受賞イニシアチブの一つであった。

    34 ◼ 不遵守の識別の改善 • より効果的なコンプライアンス監視と不遵守状況の特定には、正確なデータ基盤が不可欠である。検査官が疑 わしいデータの増加に直面した場合、MLソリューションは信頼性の低いデータを特定し、不遵守を発見するの に役立つ。革新的なツールはデータ提出の効率化、異常検知、コンプライアンスパターン分析を実現し、規制 当局の監督効率を向上させる。 • イスラエル法務省慈善信託登録局は2024年、適正管理証明書発行のためのコア規制承認システムにAIベース自 動プロセスを導入した。 ▪ 規制設計と実施におけるAI
  28. 35 ◼ リスクと課題の管理 • 関連リスクは、不適切・偏ったデータ、透明性と説明可能性の欠如。AIシステムが不適切・偏ったデータに依 存する場合、一部の個人またはグループにとって不正確または有害な結果につながる可能性。公共財政管理に 関しては、一部の個人やグループが不適切な執行措置の対象となるなど、有害な規制結果につながる可能性が ある。 • 高度なAIシステムは、しばしばブラックボックス内で決定を下し、その決定にどのように至ったかをシステム

    オペレーターでさえ理解しないことが多い。この限定された説明可能性のリスクは、透明で説明責任のある規 制上の意思決定を確保するために、AIシステムとその出力を人間が監督・評価することを必要とする。このリ スクは、説明責任を促進し、ルール作りを改善するためにAIを使用する政府の能力に対する信頼を構築するこ とを困難にする可能性がある。 • 実装の課題は、柔軟性のない/時代遅れの法的および規制環境、質の高いデータの不足とそれを共有する能力、 スキルギャップ。AIは適応的な規制ガバナンスに多くの機会を提供するが、規制設計の頻繁な変更は、ビジネ スと国民の両方を混乱させる可能性がある。継続的なデータ分析に基づく調整は、不安定な規制環境につなが り、ビジネスが長期的な戦略を計画することを困難にする可能性がある。 • 政策立案者や規制当局は、データアクセス、収集、処理において課題に直面し、AIシステムが信頼できる分析 と有効な推奨を行う範囲を制限する。多くの場合、データ共有は、プロトコルの欠如や互換性のないシステム によって妨げられている。規制ガバナンスにおけるAIは依然として人間の介入を必要とするため、専門知識の 欠如は、質の悪い結果やAIの誤用につながる可能性がある。規制当局は、デジタルスキルの高コストと希少性 のため、テクノロジー企業の専門知識に匹敵するのに苦労している。 ▪ 規制設計と実施におけるAI
  29. 36 ◼ 未開拓の可能性と今後の道筋 • 規制ガバナンスにおけるAIは商用アプリケーションと比較してまだ初期段階にある。AIの潜在的応用範囲は現在 過小投資されており、規制設計でもっと活用できる。チャットボットはステークホルダーフィードバック収集 や法律分析に再利用でき、既存規制の継続的監視も可能である。将来シナリオ予測によりプロアクティブな規 制対応が実現する。 • 規制提供では適切なデータ収集権限での規制当局強化、AIスキル・知識強化、堅固なデータガバナンス確保が

    重要である。 • 規制当局はデータ駆動型市場規制のため、プライバシー原則を堅持しつつデータ収集・処理・公開の法的権限 が必要である。ML技術とビッグデータ分析活用のため、データサイエンティストとサイバーリスク専門家雇用 によるAI専門知識強化が必要である。 ◼ 国際協力とデータ戦略 • 国際デジタル規制協力ネットワーク(INDRC)のような職員の知識・経験共有のための国際交流フォーラム開 発が可能である。2024年OECD経済規制当局ネットワーク(NER)調査では、55%がデータ戦略開発中、29%が 運用中であり、データとAI効果的利用を支援する堅固なガバナンスとデータ戦略の必要性を示している。 ▪ 規制設計と実施におけるAI
  30. 38 ◼ 採用プロセスの改善 • AIは採用プロセス全体を支援し、より迅速かつ効率的にする。職務記述書作成、評価方法論設計、背景書類確 認、問い合わせ応答などの反復的タスクを自動化し、申請書レビューやスクリーニングを効率化する。チャッ トボットは筆記試験実施・採点も可能である。 • シンガポールでは10の政府機関がAI採用サービスを導入し、予備スクリーニングプロセスにおける反復的タス クを自動化した。英国歳入関税庁はOutmatchプラットフォームを使用してジュニア職の採用プロセスをエンド

    ツーエンドで自動化している。カナダ国防省は上級レベルにおける目に見える少数派の代表性を高める外部向 けEX-01パイロット採用キャンペーンを実施した。スウェーデンのウップランズ=ブロ市政府は調整されたAI面 接ロボットを開発し、年齢・性別・服装・外見データを除外したブラインド面接を実施。 ▪ 公務員制度改革におけるAI カナダ国防省の少数派代表性向上 • 2020年9月開始のEX-01パイロットキャンペーンで上級レベルの目に見える少数派代表性を向上。包括性・革新 的方法・技術を取り入れ、偏見のない評価ツール導入、体系的障壁特定を目的とした。プライバシー・品質保証 の安全策実施により客観的で公正な評価を実現した。 英国におけるAIを活用した採用自動化 • 英国歳入関税庁は、ジュニア職の採用プロセスでOutmatchというAIプラットフォームを使用し、候補者の回答 を自動分析・採点。また、最適な候補者を惹きつけるため、職務記述書の評価・改善や採用キャンペーン支援に AIツールを活用。内閣府はJob Advert Optimiserを開発し、過去の成功事例から職務記述書を最適化する仕組み を構築。さらに、候補者の選別、面接スケジューリング、他職種とのマッチングなど採用プロセス全体へのAI適 用も検討。これらの取り組みにより、大量の候補者に対応しつつ質の高い採用を実現している。
  31. 39 ◼ 学習と能力開発の円滑化 • 生成AIを活用した学習コンテンツ作成と個別化された推奨システムにより、公務員の能力開発を効率化する取 り組みが世界各国で展開。参照文書に基づく学習モジュール生成、ナレッジグラフによる情報整理・検索、 ユーザー履歴分析による個別推奨機能などの技術手法が実装されている。大量データの処理と分類、閉鎖型シ ステムでの情報統合、プログラム的チェック機能が主要な技術要素となっている。 • オーストラリア公共サービス委員会は2023年にIBMと協力し、文書投入型の学習コース生成システムを6週間の

    パイロット運用で検証。スペイン国立公共行政研究所はデジタルプラットフォームでのAI組み込みによりナ レッジグラフを構築し、大量資源の検索・共有機能を提供。韓国人事管理省は140万件のコンテンツを持つ学習 プラットフォームで、ユーザー役割・履歴分析による個別推奨機能を導入している。 ▪ 公務員制度改革におけるAI オーストラリアにおける学習コンテンツの生成 • オーストラリア公共サービス委員会(APSC)は指導者向けデジタルスキル学習コース作成のため、記事・書 籍・講演原稿等を閉鎖型システムに入力してコース概要・目的・モジュール・コンテンツ・クイズを自動生成す るパイロットを実施した。 • システム出力の60-70%が使用可能で、91%のユーザーが価値を認めた。草稿作成の高速化、閉鎖型システムに よる情報出所の明確化、差別的表現チェック機能の内蔵が利点として確認された。 • 一方で、既存コンテンツの統合は可能だが新規コンテンツ創出は困難、専門家レビューの必要性継続、閉鎖型シ ステムの高コスト性が課題として特定された。パイロット後はオンプレミス閉鎖型AIシステムの価値を認識し、 更なる調査をServices Australiaに委託している。
  32. 40 ◼ 影響の証拠 • 政府での人事管理におけるAIアプリケーションは初期段階にあり、影響の経験的証拠を提供するには時期尚早。 初期実験では大量データ処理の時間・労力削減、候補者プール拡大、人為的エラー減少の潜在能力が示されて いるが、厳密な科学的評価に基づく実証的証拠は著しく不足している。多くの導入が理論的潜在能力や逸話的 成功談に基づいており、政府組織の特定ニーズに合わせた経験的証拠に基づく協調的評価努力が必要とされて いる。 •

    現在の評価は主に理論的潜在能力と逸話的成功事例に依存しており、堅固な科学的評価手法による実証研究が 不足している。AI採用ツールは人為的エラー削減に寄与する可能性がある一方、採用担当者の自律性制限や管 理者のチーム構築能力への制約といった負の影響への懸念も存在する。伝統的システムとの比較基準となる ベースラインの不足、客観的パフォーマンス尺度の欠如が評価を困難にしており、AI駆動型決定の実際の長期 的影響を伝統的システムや人間による決定と比較して適切に測定できるまでには長期間を要する。人事システ ム生産性に対するAIの影響定量化は、標準的で比較可能な尺度やベンチマークが極めて少ないため非常に困難 であり、OECDが加盟国と協力して将来のAI改善を追跡するための標準指標確立に取り組んでいる。 ▪ 公務員制度改革におけるAI
  33. 41 ◼ リスクと課題の管理 • 関連リスクは、自動化バイアス、AIシステムにおける不適切または偏ったデータ、監視とプライバシーの懸念 につながるAIの誤用、透明性と説明可能性の欠如。公務員制度改革の領域では、人間が最終決定の責任を持つ 場合でも、自動化された意思決定支援ツールの結果を再検討することを好まない「自動化バイアス」というリ スクがある。AIシステム自体の偏見を回避、検知、対処することが課題で、組織の履歴データは人間による過 去の決定に基づいており、AIシステムがこれらの見通しをアルゴリズムに硬化させる重大なリスクがある。 •

    公務員のデータとプライバシーの権利は、功績や公正性が採用を導く公共サービスの文脈において特別な注意 を必要とする。アルゴリズム管理ツールの使用は大幅に増加しており、仕事の強化、ストレスの増加、公正性 の認識された減少を含む負の影響について懸念が提起されている。AIシステムが複雑になるにつれて理解や説 明が困難になり、説明責任が減少し、従業員のキャリア開発能力が妨げられる。 • 実装の課題は、質の高いデータの不足と共有能力の欠如、説明可能性、スキルギャップ。公務員制度改革にAI を導入するには質の高いデータが不可欠だが、OECD加盟国では関連分野で大量のデータが不足し、組織間で体 系的に標準化されていない。記述データは年齢、性別、学歴に限定され、パフォーマンスを客観的かつ一貫し て評価することは困難である。 • 公務員制度の管理システムにAIを導入するには、適切なスキルと心構えを持った人事専門家が必要である。人 事のリーダーは、AIを適用する潜在能力を理解し、市場のツールを賢く購入するスキルを持たなければならな い。公共行政には必要なAIスキルが豊富にある一方で、人事部門では不足していることが多い。 ▪ 公務員制度改革におけるAI
  34. 42 ◼ 未開拓の可能性と今後の道筋 • 政府組織は従業員に関する大量データを分析してパフォーマンスと従業員体験を改善できる潜在能力を持つが、 AIは人事管理分野で過小利用されている。時系列データを使用した予測分析により離職リスク予測、スキル・ 人員不足予測、労働力計画支援が可能となる。複雑なモデリングとシナリオ構築、パターン特定による予防的 改善策、多様性・包摂性支援機能が主要技術要素である。 • 現在と未来のための強化された分析では、人事担当者と管理者が労働力動向を調査し、雇用主としての政府の

    魅力、リスキリング・アップスキリングニーズ、学習・能力開発機会に関する重要洞察を提供する能力がある。 予測分析により職務在職期間・チームエンゲージメントレベルに基づく離職リスク予測、過度な離職率要因・ パターン特定による予防的改善策実施が可能である。スキル・人員不足予測、特定役割のトップパフォーマー 予測、多様性・包摂性支援も実現できるが、政府労働力での具体的事例は極めて初期段階にある。 • 今後の道筋として、AIツールは指導者に公共サービスと必要な人事活動に対する戦略的ビジョン開発の新機会 を提供する。労働力再構築とスキル増強、人事プロセス迅速化、将来スキルギャップから採用有効性まで幅広 い問題への洞察生成が可能である。透明性向上と従業員への説明・異議申立て能力付与、人事専門家・従業員 の設計・実装・評価への参加、AI時代のための人事専門家スキルアップ・リスキリング、資格のある人間によ る結果解釈・最終決定が重要な実装原則となる。 ▪ 公務員制度改革におけるAI
  35. 44 ◼ 運用タスクの合理化 • AIは支出分類と報告標準化を通じて公共調達の透明性と効率性を向上。機械学習による共通調達語彙(CPV) コードの自動予測、RPAやLLMを活用したエンドツーエンドワークフローの自動化、法的・規制的枠組み管理 の合理化により、調達プロセスの迅速化とエラー削減を実現。 • ウクライナの電子調達システムProZorroが製品・サービスの適切なCPVコード予測に機械学習を導入、チリの ChileCompraが新技術導入による調達変革を推進、ルーマニア国立公共調達庁が新法律スクリーニング改善と

    リアルタイム文書取得・OCR変換システムを開発している。 ▪ 公共調達におけるAI ウクライナのProZorro電子調達システム • 2014年に市民社会組織、専門家協会、政府の協力により開発されたProZorroは、汚職リスクと不公正競争への 対策として構築されたオープンソース調達システム。AIと高度な分析技術を活用して効率性、透明性、説明責任 を強化し、10年間の発展を経てビジネスインテリジェンス(BI)ツールを統合したデータ駆動型エコシステムへ と進化している。 • BI ProZorroとProBI分析モジュールにより調達データのリアルタイム監視と深層分析を実現。公開BIモジュール は全調達段階をカバーする49のダッシュボードを提供し、価格動向、医療調達、バイヤーパフォーマンス、リス ク指標を評価可能である。ProBIモジュールは上級ユーザー向けカスタマイズ分析機能を提供している。 • 年間30,000人以上が利用し、2023年には210億ユーロ相当の取引をカバーしている。80以上の調達研究が規制改 善に貢献し、2021年以降の政策変更により2億5,000万ユーロの節約を実現。AI駆動型リスク評価により監督機関 の不正検知を支援し、政府、市民社会、民間セクターの共同ガバナンスモデルで継続的イノベーションを促進し ている。
  36. 45 ◼ 調達者とサプライヤーの関係および公務員の能力の強化 • AIチャットボットによるリアルタイムコミュニケーションとサポート提供により、調達プロセスの合理化と応 答時間短縮を実現。オープンソースアルゴリズムを活用した質問解釈・情報取得、24時間365日対応による即座 の回答提供、フォーム自動入力や個別化ダッシュボード作成を通じて、調達専門家とサプライヤー双方の満足 度向上と協力強化を図っている。 • 米国エルパソ市議会購買・戦略的調達部門がウェブページに「Ask

    Laura」チャットボットを統合し、潜在的サ プライヤーの質問解釈と情報取得をオープンソースアルゴリズムで実現。ノースカロライナ州情報技術省が州 機関職員のIT調達支援用AIチャットボットを導入し、調達フォームアクセス、例外要求提出、タイムライン理解 等の問い合わせに24時間対応している。 ▪ 公共調達におけるAI チリがChileCompraで公共調達を進化させる • 2000年設立のチリ中央購買機関ChileCompraは、電子プラットフォーム「Mercado Público」を運営し公共調達 を変革している。フレームワーク協定により複数サプライヤーが標準化条件で製品提供可能とし、ChileCompra Expressで事前承認サプライヤーからの直接購入を実現。2014年時点で850以上の公共機関が利用し、年間81万 件・18億米ドル相当の購入注文を処理、2010~2015年でサプライヤー数が約180%増加し、中小企業に機会を創 出。 • 運用課題として少数サプライヤーへの収益集中や限定的競争に直面したため、製品カテゴリー標準化と競争メカ ニズム導入によりフレームワーク協定を再設計し、最大28%の価格削減を達成。近年はアドルフォ・イバニェス 大学とBID Labとの協力による倫理的アルゴリズムイニシアチブの一環として、AI・データサイエンスプロジェ クト用標準化入札テンプレートを導入し、透明性、プライバシー、非差別、説明可能性要件を含めている。公共 契約監視機関はLLM等のAIツールで調達データ不正分析とコンプライアンス監視改善を実施。
  37. 46 ◼ リスク管理、監督、および説明責任の改善 • 自動化されたコンプライアンスチェックや詐欺検知アルゴリズム、異常検知メカニズムにより、確立された調 達プロトコルからの不正や逸脱を特定し説明責任を強化している。機械学習によるエラーと詐欺の自動特定、 ランダムフォレスト等のアルゴリズムを用いたテキストマイニングによる汚職行為検出、経済的・政治的要因 と汚職事件データを組み合わせた早期警報システムによる予測的リスク管理を実現。 • 公開調達入札データを用いたAIアルゴリズムが81~95%の精度で談合を検知し、自動更新機能により継続的監

    視を実現。ハンガリーでは119,000件の政府入札分析でテキストベースの汚職戦略を特定、システム正確性を 77%から82%に向上させた。スペインでは経済成長や政党政権維持期間等の要因から各州の汚職リスクを予測す る早期警報システムを開発。ブラジル連邦会計検査院がAIツール「Alice」で詐欺可能性検知とリアルタイムリ スク管理を実施し、ポルトガル会計検査院がOECDと協力し不正リスク特定用MLシステムを開発している。 ▪ 公共調達におけるAI ブラジルにおけるAIを活用した調達監督 • 連邦会計検査院が詐欺、非効率性、エラー対策として入札・契約・公示分析用AIシステム「Alice」を開発。人工 知能とRPAで連邦機関全体の調達活動を継続監視し、リアルタイムでリスクと不正を特定。Aliceは複雑なブラジ ル調達データに特化して調整された自然言語処理アルゴリズムを核とし、約40類型にわたるリスク指標を事前定 義して入札文書、契約書、公示文書を自動解析している。 • 2023年に約191,000件の調達を分析、41.5億ユーロ相当の契約を含む203件の監査を実行。2019~2022年間で合 計約15億ユーロ相当の入札停止・キャンセルを実現、監査プロセス平均時間を400日から8日に短縮。RPAによ り複数の政府データベースから継続的にデータを収集・統合、機械学習アルゴリズムが異常な価格設定、不適切 な業者選定、手続き違反などのリスクを即座に検出。リアルタイム監視により疑わしい取引を自動的にフラグ付 けし、優先度に基づいて監査対象を選別することで、人的資源を最も重要な案件に集中投入できる仕組みを構築。
  38. ◼ リスクと課題の管理 • 関連リスクは、不適切/偏ったデータ、透明性と説明可能性の欠如。不適切/偏った訓練データを持つAIシス テムは入札評価において特定の入札者を優遇、不公正な調達決定につながる可能性。AIシステムは多くの入札 を数秒から数分で決定できるため、偏見がある場合、危害の速度・規模も人間を上回る。契約当局はシステム がどのように機能し、どのようなデータで訓練されたかについて十分な情報を得るべきである。 • 実装の課題は、柔軟性のない法的および規制環境、質の高いデータの不足とそれを共有する能力、スキル ギャップ、リスク回避、データおよびベンダーロックイン。多くの法域では、AI利用に関する規制や公式なガ

    イダンスが不足し、法的曖昧さや異議申し立てにつながっている。政府機関は統一された基準なしに様々なAI システムを実装し、互換性のないシステムや断片化されたデータが生じている。デジタルスキルのギャップと AI理解の不足は、調達プロセスにおけるAI展開のハードルである。調達管理者はAIに懐疑的であり、リスク回避 がデジタル準備態勢の重要性を浮き彫りに。 ▪ 公共調達におけるAI 米国における責任あるAI調達と展開のためのGovAI連合 • 2023年にサンノゼ市により設立されたGovAI連合は、政府におけるAIの責任ある倫理的利用促進を専念とする多 機関イニシアチブである。米国全体の地方、州、連邦機関を含むまでに拡大し、機関間協力、知識共有、AIガバ ナンスベストプラクティスのプラットフォームとして機能。 • メンバーは公的機関がAIガバナンスプログラム始動に使用できる公共調達テンプレートと知識共有ツールを作成。 2025年2月にPavilionと提携してAI契約ハブを立ち上げ、契約テンプレート、協力協定、ベストプラクティスの 共有リポジトリを提供し調達を合理化している。022年に連邦AI関連契約が33億米ドルに達する中、公的機関が 公共価値を堅持しながら効率的にAIソリューションを調達するツールを確保。 48
  39. 49 ◼ 未開拓の可能性と今後の道筋 • 公共調達におけるAIに関する専門研究は少なく、成熟度は低い状況である。成功的導入の潜在能力として自動 化されたサプライヤー評価、製品不足や最適価格確保のための予測システム、経済的・地政学的影響検知、調 達ニーズと入札者を自動マッチングするスマート入札プラットフォームが挙げられる。 • LLMは詐欺・汚職リスクスクリーニングのための大量データ分析支援、要件・仕様設定、入札評価と公正価格 設定確保、サプライヤー選定最適化、規制遵守確保に活用可能。過去の調達活動情報提供や市場における関連

    製品サービスの動的特定により購入仕様決定を支援し、NLP手法によるサプライヤー情報統合で調達意思決定 を改善可能。 • 民間セクターではウォルマートが交渉チャットボットPactum AI、AutogenAIが入札書作成迅速化ツール、 Sievoが支出データ分析・需要予測・サプライヤー選定最適化プラットフォーム、DocuSignがNLP活用契約管 理ツールを開発。 • 成功的実装には情報に基づく行動・決定、リスク軽減、スキル・能力改善、データ収集・結果監視強化が必要 である。OECD公共調達勧告とOECD AI原則が信頼できるAI実装の指針となり、効果的実装と主要ステークホル ダーのコミットメント、ユーザー中心アプローチ、堅固なデータガバナンスとインフラが成功の鍵である。 • ガバナンス仕組みと説明責任構造確保、能力開発・研修・知識共有への投資、公共・民間・学術界・市民社会 との協力、AIシステムの継続的評価と反復が重要である。 ▪ 公共調達におけるAI
  40. 51 ◼ 不正行為の検知 • AIの最も初期で深い応用の一つは不正行為検知であり、伝統的分析手法をデータ駆動型アプローチに変えてい る。AIアルゴリズムは統計的手法を適用して確立された規範から逸脱する外れ値、パターン、取引、行動を特 定し、人間の調査を必要とする事案を発見することに優れている。従来のサンプルベース分析から人口全体 データ分析への転換により、資金の誤配分や誤報告、その他の不正を特定可能である。ネットワーク分析によ り公務員、請負業者、サプライヤー間の相互作用を調査し、利益相反や汚職活動を検知している。 •

    OECDがスペイン国家総監察庁と協力し、高度な分析とMLを採用した潜在的汚職・詐欺リスク検知の概念実証 を実施。欧州会計検査院がEUロビー活動監査でMLアルゴリズムを使用し、欧州委員会透明性登録簿の外れ値を 特定している。ブラジルの「Alice」ツールが購買・調達プロセス分析でリスク領域を発見し、英国労働年金省 が請求パターン特定にAIを使用している。 ▪ 汚職対策と公共の公正性の促進におけるAI 英国の給付金詐欺対策 • 英国労働年金省(DWP)が2021年以降、AIシステムで不正なユニバーサル・クレジット請求パターンを特定。 2022~2025年に7,000万ポンドを投資し、2030年までに16億ポンドの節約を見込んでいる。報告収入の矛盾、 異常な請求頻度に基づきリスク評価し、高リスク請求にフラグを立て支払いを一時停止している。公正性確保の ため導入前に分析を実施し、ケースワーカーが完全な意思決定権を保持している。 ヨーロッパのDATACROSツール • EU内部セキュリティ基金資金によりカトリック大学Transcrimeが調整するプロジェクトDATACROSは、企業所 有権構造の異常検知用AI搭載ツールを開発した。法執行・汚職対策機関向け制限エリアと公開エリアで構成され、 ヨーロッパ44カ国の7,000万社以上をAIアルゴリズムで分析し、違法活動を示すパターンを特定している。2021 年テストで制裁対象企業の83%、制裁対象所有者を持つ企業の88%を正しく特定。
  41. 52 ◼ 知識管理と統合の改善 • テキストベースの文書を読み、処理し、意味を抽出することに多くの時間を費やす監査・監督機関にとって、 AIは知識管理とテキスト分析を支援。自然言語処理の固有表現認識により、個人名、場所、日付、組織といっ たテキストや非構造化データの不可欠な情報を手動では不可能な速度と規模で検知・分類可能。機械翻訳によ り迅速なテキスト情報アクセスが容易になり、監査と調査の有効性を高めている。生成AIの急速な発展により 効率性が改善されている。LLMは膨大な量のテキスト情報を高い精度で読み、解釈し、要約し、分類すること を可能にし、人間が費やす時間のごく一部で完了できる。

    • フィンランド、フランス、ギリシャ、リトアニア、英国、EU機関の監査・監督機関が文書草稿作成、スプレッ ドシート分析、テキスト要約、汚職報告処理、判例・法理分析、性能監査発見支援にLLMを使用。オランダ会 計検査院が市民やステークホルダーが公開報告書を閲覧し公共監査業務に関する質問への回答を見つける生成 AIシステムを試験運用。欧州会計検査院が他の3つのSAI(オランダ、ドイツ、スウェーデン)との共同プロ ジェクトで既存の国内監査報告書を解析し、翻訳を自動化してファクトシートと要約を作成している。 ▪ 汚職対策と公共の公正性の促進におけるAI ブラジル、ChatTCUを通じて生成AIで監査プロセスを強化 • ブラジル連邦会計裁判所が2023年2月にAI搭載アシスタントChatTCUを立ち上げ、監査・監督活動で生成AIの使 用を開拓した。TCUの内部システムと統合され、監査官にケース要約、規制ガイダンス、管理サポートへのリア ルタイムアクセスを提供している。2023年12月現在1,400人以上のユーザーを持つ。GPT-4 32kで動作し、監査 官が情報を迅速に取得・統合し手動作業を減らしつつ正確性とセキュリティを維持することで効率性を高めてい る。Microsoft Azureでホストされデータ保護を確保している。2024年10月にホンジュラスの最高監査機関と協 定を締結し、ChatTCUのソースコードの最初の国際受領者となった。33のブラジル機関も特定ニーズに合わせ てChatTCUを適応させており、拡張性と適応性を示している。
  42. 53 ◼ 予防的および予測的分析、予測、先見性 • 予測AIシステムは潜在的な汚職や詐欺のリスク、その他の問題を予測し、さらなる人間の調査のための優先順 位付けを可能にしている。多くの監査・監督機関は事前行動の権限を欠いているが、リスクの上昇を早期に特 定することでより効果的な軽減が可能である。汚職や詐欺に関連するリスクが顕在化する前にその増加を予測 することで、これらのリスクを軽減できる。 • 研究者たちがAIとデータサイエンスによる汚職予測の可能性を示している。ブラジル研究では予算データを予

    測因子として使用するAIシステムがランダム監査と比較して同じ監査率でほぼ2倍の汚職自治体を検知できるこ とを実証。イタリアの研究では警察のアーカイブを使用しAIアルゴリズムでホワイトカラー犯罪を予測し、汚 職対策政策のターゲティング支援を示した。スペインでは経済的・政治的要因に基づく公共汚職の早期警報シ ステムとして機能するAIシステムを開発。コロンビアでは「VigIA」がロスサリオ大学により開発され、ボゴタ 市長室からの契約を分析し汚職リスクが高いものにフラグを立てている。リトアニア特別捜査局が汚職防止担 当官の立法分析支援用AIベースツールを開発している。 ▪ 汚職対策と公共の公正性の促進におけるAI リトアニアにおける法律草案の分析を通じた汚職防止 • リトアニア共和国の主要汚職対策機関である特別捜査局が、汚職防止担当官による制定法律と法律草案の評価支 援ツールを開発・テストしている。汚職リスクデータとリスク評価方法論で特別に訓練されたLLMを使用し、抜 け穴、不十分または脆弱な手続きと措置といった潜在的法的汚職リスク要因を特定。 • 担当官が大量の法律を迅速かつ効率的に分析し、法律の潜在的欠点や脆弱性を特定することを支援している。 STTは立法的安全策を強化し、法律草案採択時にその実施の可能な結果が注意深く考慮されることを確保しよう としている。
  43. 54 ◼ リスクと課題の管理 • 関連リスクは、不適切/偏ったデータによるAIシステムのエラー、透明性と説明可能性の欠如、AIの誤用または 疑わしい利用。汚職は定義上隠されているため客観的指標の特定が困難で、過去のデータに依存することでエ ラーを永続させる可能性がある。偏った洞察により新しい汚職ダイナミクスの発見能力が制限され、不公正な ターゲティングや監督実践につながり公正性の取り組みの信頼性を損なう可能性がある。 • 多くの高度なAIシステムの不透明な性質により、国民がAI生成結果をブラックボックスアルゴリズムと認識する

    場合、AIの利用に抵抗や不信感を抱く可能性が高い。監査専門職では監査証拠としての使用が争点となり、国 際監査基準(ISAs)との合理性、信頼性、遵守に関する疑問を提起している。個人データに関する責任、倫理、 データ保護の重大な懸念があり、不適切なデータ統合や機密情報公開による深刻な倫理的・法的課題が存在す る。 • 実装の課題は、スキルギャップ、質の高いデータの不足とそれを共有する能力、包括的なガイダンスと実践的 フレームワークの不足、リスク回避、AI導入と拡大の高コスト。関連スキルと経験の不足がAI導入の最大の課題 の一つで、技術的スキル、変更管理、データガバナンス、リーダーシップスキルが含まれる。監査・監督機関 はしばしばデータの自律性を欠き、外部で生成されたデータに依存し、政府ルールや覚書(MoUs)に依存して データを取得している。一貫性のない質の低いデータがAIツールの開発と有効性を深刻に妨げ、データの相互 運用性も障壁となっている。 • 監査・監督機関はしばしばリスク回避的で、政府ガイドラインは注意喚起的アドバイスに焦点を当て具体的で 実行可能なステップを提供していない。AIツールの実装と維持にかかるコストは、限られた予算と技術的専門 知識を持つ機関にとって重大な課題である。 ▪ 汚職対策と公共の公正性の促進におけるAI
  44. 55 ◼ 未開拓の可能性と今後の道筋 • 将来的には適応学習システムが新しいデータに基づいて予測を継続的に洗練させ、リスク評価を動的に更新す る重要な役割を果たすだろう。AIの非数値データのパターン分析・認識能力も汚職対策における改善の源とな る可能性。センサーおよび画像技術と組み合わせることで、汚職関連活動の大規模パターン監視・分析の新し い機会を創出している。エージェントベースモデリング(ABM)が汚職と影響力の進化をシミュレートし、政 策・法律・戦略の影響を実装前にテストできる可能性がある。AI駆動型ネットワーク分析により、ロビイスト、 政治家、企業間の関係をマッピングし、影響力のパターンや利益相反を明らかにできる。

    • 信頼できる導入のため、生成AIを低リスクの領域から始め、IT要件を検討し、内部データまたはオープンデータ で価値を実証することが重要である。AI駆動型の決定が正確で適切に解釈・文書化されることを確保するため、 堅固な透明性と説明責任の仕組みを確立すべきである。機密性の高い決定に対する究極の権限は人間のオペ レーターに残され、決定の推論が理解可能で、救済・異議申し立ての仕組みが整い、AIプロセスが説明可能で あることを確保すべきである。 • 知識交換も成功的実装に不可欠である。機関はベストプラクティス、戦略、学んだ教訓を共有できるプラット フォームに参加・作成すべきである。OECD技術・分析共同体やTech Connect for Integrityイニシアチブが官民 実務家を集めて課題を議論し革新的ソリューションを探求している。 • 政府はAI技術実装のための詳細で実行可能なガイダンスとフレームワークを提供すべきである。データの偏見 特定・軽減方法、説明可能なAI技術利用方法、透明性組み込み方法に関する助言を含む。統一された相互運用 可能なデータ基盤がAIの効果的利用に不可欠で、データベースとシステムがシームレスに通信・統合できるこ とを確保するためデータ運用を合理化する必要がある。 ▪ 汚職対策と公共の公正性の促進におけるAI
  45. 57 ◼ 評価の設計と実施の支援 • AIは事前評価・事後評価を問わず、政策評価者が膨大な量の資料を処理するのを支援できる。既存の証拠を統 合する高度な構造化手法から、以前の評価の分かりやすい要約を提供する基本的機能まで含まれる。 • 証拠統合は事前評価または事後評価の策定に情報を提供するために特に有用。同じテーマを調査する異なる研 究からの結果を組み合わせて主題の包括的理解を得ることを含む。証拠統合分野では、テキストマイニングや その他のAIツールが文献検索、全文スクリーニング、データ抽出、分析に10年以上前から適用されており、よ

    り効果的なものにしている。研究者は特にシステマティックレビューにおいて、証拠統合の異なる段階を支援 できる様々なツールを整理している。タイトルと要約をスクリーニングする「Rayyan」や特定のリスクを評価 する「Robot Reviewer」等がある。証拠統合におけるAIの責任ある利用(RAISE)を確保するためのガイダン スと推奨が策定されている。証拠統合でAIを使用する利点は、膨大な量の文献にアクセスし従来手法より情報 をより迅速に処理する能力にある。 • 証拠統合を実施する平均時間は15ヶ月だが、AIの使用はいくつかのステップを劇的に短縮できる。30件の無作 為化比較試験(RCT)論文の偏ったデータ評価のリスクは、LLMを使用して平均53秒で正確に行うことができ る。これは人間にとっては桁違いに多くの時間がかかる。 • 最近の研究では、無作為化試験のためのツール(RoB 2)を使用してシステマティックレビューの各研究に約28 分かかると推定されている。世界銀行の評価者は、テキストマイニングとAIを使用して特定のプログラム決定 を行うために使用する証拠基盤のサイズを2倍にすることができた。 ▪ 政策評価におけるAI
  46. 58 ◼ 分析の支援 • AIは、評価者にとって文書報告書やインタビューのような大量のデータや長文テキストを処理してパターンを 特定するのを支援可能。NLPを活用したテキストマイニングにより、AIは評価者が結論を理解し、詳細な評価 を提供するのを助けることができる。 • プログラム評価のための定量的テキスト分析は有望で、AIは古典的ツールと比較して多数の文書をより迅速に 分析できる。プログラム理論再構築のための自由形式質問への回答分析は時間がかかるが、トピックモデルの

    ような新技術により容易になる。 • 世界銀行は教師なし機械学習を使用して64カ国の392のプロジェクト報告書を分析し、プロジェクトの成功と失 敗に影響する要因を特定した。AIテキスト分析は、関連文書の主要概念をマッピングするトピックモデリング により、既存政策プログラムや報告書の基礎テーマを特定するのに役立つ。 • AIは政策評価における因果推論を強化する可能性も秘めている。確率モデルに依存する準実験的設計を支援し、 欠落データの一部を生成し、様々な影響シナリオをシミュレートする。これは高コストな無作為化比較試験を 必要とせず、はるかに強力な評価を可能にする。 ▪ 政策評価におけるAI ノルウェー、警察監査にテキストマイニングとMLを使用 • ノルウェー会計検査院が2018年に監査にデータサイエンスを統合するイノベーションラボを設立し、データサイ エンティストが監査官を支援。2021年、サイバー犯罪と戦うノルウェー警察の取り組みに関する性能監査を実施 し、データサイエンティストと監査官が協力してMLとテキストマイニング技術を使用。様々な種類の犯罪にわ たる334,544件の事件からテキストを抽出し、犯罪事件をサイバー犯罪または非サイバー犯罪として分類するこ とで、警察の理解と処理能力を評価した。ノルウェー警察が以前に保有していたデータは信頼性が低く洞察を欠 いていたため、この分析が特に重要な意味を持った。
  47. 59 ◼ 管理とコミュニケーションの支援 • 評価管理者は管理プロセス、草稿作成、翻訳、検索ツールといった支援活動を容易にする様々なAIベースツー ルから利益を得ることができる。monday.comやAsanaのようなプロジェクト管理ツールのAI機能は、以前の評 価に基づいて最適な人員配置とスケジューリングを推奨し、資源が最も必要とされる場所に割り当てられるこ とを確実にしている。両プラットフォームはワークフローの自動化、予測タスク、AIアシスタントによる支援 を提供している。生成AIは職務範囲記述書や管理タスクの執筆を容易にできる。 •

    LLMを使用するツールは評価結果のコミュニケーションを改善するのに役立つ。長い報告書を意思決定者や国 民と共有できる短い成果物に迅速に要約。欧州委員会は異なる言語で作成された文書から要約や政策ブリーフ を作成できるLLM駆動型ツールを開発。 • AIツールはデジタル評価リポジトリと知識管理ツールを開発するのに役立つ。いくつかのOECD加盟国は実施さ れた評価を簡単に見つけられる評価リポジトリや政府全体の評価の取り組みを記述・調整するプラットフォー ムを開発。ノルウェーのKudosプラットフォームが一例である。LLMは作業の大部分を自動化し、大量の報告 書にわたってより正確な検索を可能にする。フランスでは財務総監察庁(IGF)がFragmentsと呼ばれる内部の RAGツールを開発、2006年以降のIGFおよびフランス会計検査院による報告書を収集して正確な検索を可能に。 ▪ 政策評価におけるAI 公共行政を支援する欧州委員会のeSummaryツール • 欧州委員会のeSummaryツール欧州委員会の翻訳総局が政策評価を含む政策分析を支援できるAIベースサービス を開発した。eSummaryは提出されたテキストの概要を素早く実行し、短縮版を返すAIベースサービスである。 文書のどこに重点があるかを選択し、関連する統合を提供するAIアルゴリズムを使用している。別のAIベース翻 訳ツール(eTranslation)に接続され、すべてのEU言語でテキストを作成することを可能にしている。
  48. 61 ◼ リスクと課題の管理 • 関連リスクは、AIシステムにおける不適切/偏ったデータ、自動化バイアス、透明性と説明可能性の欠如。評 価プロセス中のAI利用は、AIパイプライン内の複数の地点で生じる可能性のあるエラーを強化する可能性がある。 最初のリスクは偏ったまたは不完全なデータでアルゴリズムを訓練することから生じ、誤った予測を生成した り既存の見通しを強化または悪化させるシステムを生み出す可能性。潜在的に肯定的または有害な介入を維持 または中止することへの影響を考えると、この分野におけるリスクは重大である。 •

    多くの人々はAIシステムとその決定が中立で公平であると認識し、不正確さの可能性にもかかわらず精査せず に結果を受け入れる傾向がある。人間のオペレーターが自動化に過度に依存するこの傾向は「自動化バイア ス」として知られている。過度の自動化は人間の判断の役割を減らし、複雑な社会的・経済的仮定を過度に単 純化する可能性がある。特定のAIツールの透明性の欠如は、政策立案者がAI駆動型の洞察を理解し正当化するタ スクをさらに複雑にする可能性がある。 • 実装の課題は、質の高いデータの不足とそれを共有する能力、スキルギャップ。不十分なデータガバナンスは 評価者にとって長年の課題であり、証拠と評価を生成するために必要なデータを政府が生成する能力を制限し てきた。OECD公共政策評価勧告の遵守にもかかわらず、この問題は依然として存在している。 • AIの実装にはデジタルスキルと数値スキルが必要である。すべての評価者がAIが政策評価をどのように支援でき るかを理解していることを確保することが重要である。証拠は政策評価者が一般的なレベルで新しい発展に適 応するのが遅かったことを示している。評価者向けのビッグデータ分析とAIに関する能力開発研修はしばしば 限定されており、政府内の評価は限られた内部分析能力と技術的スキルに苦しんでいる。 ▪ 政策評価におけるAI
  49. 62 ◼ 未開拓の可能性と今後の道筋 • 政策評価の分野では、AIは政府アナリストがより広範な証拠を使用しそれをより迅速に処理することを可能に。 政策評価におけるAI利用は限定されたままであるが、将来的に重大な影響を与える可能性のある領域が存在。 • 第一に、評価設計を支援するため、チャットボットは評価者が特定分野での知識を構築し、創造的思考を支援 するツールとして使用できる。ChatGPTのDeep Researchは証拠レビューと統合のプロセスを大部分自動化し

    ようと試みており、思考の連鎖(CoT)推論を使用して複雑な研究質問をより小さく理解可能なサブ質問に分解 し、詳細な報告書を作成することを可能にする。 • 第二に、分析的観点から、AIがより広範なデータを使用し準実験的手法を通じて影響を評価することで、より 野心的な事前評価と事後評価を実施する可能性がある。AI駆動型の行動予測は大量の履歴データを分析してパ ターンを特定し、決定を予測できる。MLツールは対照群が欠けている場合の反事実的予測に使用でき、英国の CPS(炭素税)のコストと排出量の影響を分析する炭素価格設定評価の場合に活用できる。長期的に見ると、 AIは評価をより迅速で低コストにすることで、評価証拠がほぼリアルタイムで政策を形成・調整・再設計する ために利用可能な動的公共政策サイクルへとシフトする可能性がある。オーストラリアでは迅速な評価が緊急 の意思決定に情報を提供するために効率的に使用されており、AIはこれらの評価をより堅固で一般的なものに する重要な役割を果たすことができる。 • AIが評価を効果的に支援するためには、政府は公務員のスキルと強力なデータインフラの開発に投資する必要 がある。デンマーク統計局が承認されたアナリスト、大学、研究機関のためにマイクロレベルデータベースの 研究目的での利用を容易にし、オランダがデータ・アジェンダ・ガバメントを立ち上げて情報に基づいた政策 立案のためのデータ管理を改善している。AIは証拠統合に潜在能力を持っており、英国やオーストラリアが支 援する戦略的イニシアチブに続いて、国境を越えた証拠生成に関する協力により、国際レベルでのより迅速で 信頼性のある統合が可能になる。 ▪ 政策評価におけるAI
  50. 64 ◼ 透明性と情報アクセスの改善 • AIの膨大な情報分類・フィルタリング・要約能力により、情報開示への障壁を低下させ政府の透明性向上を促 進している。米国政府が情報自由法(FOIA)の下での情報開示のために機密文書をレビューするAI搭載ツール をテストし、AI活用ツールを直接国民に提供して特注でアクセス可能な公共情報へのアクセスを実現している。 自然言語処理によるユーザー問い合わせ対応、自動書き起こし・要約機能、多言語対応により市民が複雑な政 府プロセスを理解し、より広範な連携と精査の機会を創出している。 •

    米国コロンビア特別区が同市のオープンデータに基づいてユーザーの問い合わせに答え地図を生成するプラッ トフォーム「DC Compass」のベータ版を公開。ギリシャでは「opencouncil.gr」プラットフォームが地方議会 の会議を自動的に書き起こし要約・ソーシャルメディアコンテンツ・個別化された近隣アップデートを生成し、 国立文書センターが「DidaktorikaAI」プラットフォームで5万以上の出版物を集めたAI搭載オンライン図書館を 運営。イスラエルでは「Kol Zchut」プラットフォームが住民の権利に関する包括的リポジトリにAIチャット ボットを統合し、ヘブライ語・アラビア語・ロシア語での問い合わせを可能にしている。英国がgov.ukウェブ サイトをアクセシビリティ改善のためのAI技術と完全互換性を持つよう構築。 ▪ 市民参加とオープンガバメントにおけるAI 欧州議会アーカイブへのアクセスを民主化 • 欧州議会アーカイブのArchibotプラットフォームは、1952年以降の10万以上文書へのアクセス変革事例である。 LLMとRAG技術を統合し、市民・研究者・政策立案者が歴史的出来事や制度発展について自然言語で問い合わせ 可能としている。RAG手法により関連文書を特定し、抽出情報を理解しやすい応答に統合する。主にフランス語 コンテンツながら55言語の自動翻訳をサポートし、文書検索・分析時間を約80%削減している。立法・政策情報 への迅速アクセス、包括的報告書・分析出力作成支援により、教育者・研究者・政策立案者向けリソースとして 機能している。
  51. 65 ◼ 参加型プロセスの効果的・包括的なものにする • AIが公開議論や対話の実施・円滑化を通じて参加の広さと深さのトレードオフを解決。多数参加者からの多形 式貢献から意味抽出、有害コンテンツ検知によるモデレーション支援、リアルタイム事実確認、ライブファシ リテーション支援を実現。NLP、クラスタリング、センチメント分析、自動翻訳、拡張現実・VR技術を活用し、 大規模多言語オンライン熟議、定性的入力の自動分析、視覚的シミュレーション生成機能を提供。 • 実施機関・事例:米国マサチューセッツ州のMAPLE(AI生成要約による法律草案理解支援)、スペインDecide

    Madrid(市民提案集約・策定のNLPシステム)、英国人工知能インキュベーターのi.AI Consultation Analyser (公共協議意見分析、8000万ポンドコスト削減見込み)、英国ケンブリッジ市議会のGo Vocal活用(市民意見 自動クラスター化・優先順位付け、手動処理時間50%節約)、フランス経済社会環境評議会のPanoramic(人生 の終わり政策熟議プロセス結果アクセス支援)、ドイツハンブルク市のCityScope(難民収容場所161箇所意思 決定ステークホルダー関与)、フィンランドヘルシンキ市のUrbanistAI(参加型都市計画生成AI活用)。 ▪ 市民参加とオープンガバメントにおけるAI フィンランド、参加型都市計画に生成AIを使用 • ヘルシンキ市が参加型都市計画強化で活用。AI可視化ツールと共同設計機能統合、2023年サマーストリートイニ シアチブでコミュニティワークショップ実施。参加者アイデアのAI生成通りデザイン変換、提案リアルタイム可 視化による市民意見と設計決定ギャップ解消。タリン・プリシュティナ・ベルリンでの導入拡大。 フランスのGrand Débat Nationalにおける参加の改善 • 2019年全国協議でデジタルイノベーション活用。雇用・課税・民主的改革の市民意見収集、NLP・クラスタリン グアルゴリズムによる数百万提出物体系分析。繰り返しテーマ特定・多様視点統合によるコンセンサスポイン ト・新傾向浮き彫り、生市民意見のアクセス可能洞察変換実現。
  52. 66 ◼ 効果的で調整された公共コミュニケーションの支援 • AI分析ソフトウェアがオンライン議論・オーディエンス認識・態度の監視分析を通じて公共コミュニケーター を支援している。政府の異なる人口セグメントへの情報提供における質・量・アクセス性・関連性を改善し、 ブレーンストーミング支援・メディア計画自動化・コンテンツ一貫性確保によりコミュニケーター効率性を向 上させている。NLP、音声テキスト変換、生成AI、チャットボット技術を活用し、草稿テキスト生成・計画策 定・戦略アイデア創出・多形式コンテンツ作成・個別化通知配信機能を実装している。 •

    実施機関・事例: 英国政府コミュニケーションサービスのGCS Assist、オランダ下院のSpeech2Write、ブラジ ル下院のUlysses AI Suite(法律・演説・データ・研究文書分類支援、立法テキスト作成・類似法案検索機能)、 スペインマドリード市のClara(Decide Madrid参加型プラットフォーム組込みAI仮想アシスタント)、コロン ビアボゴタ市のChatico(手続き・サービス体験改善・市民参加支援、ウェブサイト・WhatsApp対応) ▪ 市民参加とオープンガバメントにおけるAI オランダSpeech2Write事例 • 下院議会報告室が音声テキスト変換・書面報告書翻訳・人間最終化用ほぼ完成報告書作成実現。2000時間以上議 事録音声・テキストファイル学習ゼロ開発議会言語モデル基盤。 英国GCS Assist事例 • 政府コミュニケーターの効率性・有効性改善設計AI搭載対話ツール。専門ガイドライン・コミュニケーションフ レームワーク・独自オーディエンス洞察統合、AI生成出力の政府基準適合確保。定型業務合理化・創造性向上・ 戦略的作業時間増加により経験豊富・経験少ない専門家両方支援。2023年後半内閣府初期プロトタイプ試験運用、 2024年3月アルファ評価でアンバー評価、段階的展開進行中。
  53. 68 ◼ リスクと課題の管理 • 関連リスクは、AIシステムにおける不適切・偏ったデータ、AIへの過度依存、透明性・説明可能性欠如、政府AI 利用への国民理解不足による反発、監視・プライバシー懸念につながるAI誤用・疑わしい利用、社会的排除・ デジタルデバイド悪化。不適切・偏ったデータ依存は一部個人・グループに不正確・有害結果をもたらし、AI 活用参加プロセスでの市民意見の不正確考慮につながる可能性がある。熟議プロセス効率性改善でのAIツール 過度依存は、参加者知識・相互理解・共感向上という熟議の基本的側面を見過ごすリスクがある。複雑システ ムでの透明性・説明可能性欠如はAIツール信頼を低下させ、民主的空間使用時に参加プロセス・結果への信頼

    に影響する。一部政府はアルゴリズム登録簿を立ち上げ、アルゴリズムの目的・設計・データ入力・意思決定 プロセス・潜在的偏見等の詳細技術情報を開示している。監視目的・コンテンツ検閲・不適切予測的ポリシン グでのAIシステム使用は平和的集会・表現自由等市民的自由の自由行使を脅かし、政府AI導入への市民不信感を 醸成するリスクがある。多言語代表性不足により英語・スペイン語・北京語以外の言語で提出された意見が同 等処理されず、新たな民主的不均衡を生み出す可能性がある。 • 実施機関・事例: アイスランド政府のOpenAI提携アイスランド語LLM GPT-4訓練、フィンランドトルク大 学・SiloAI社提携Poroシステム群(全ヨーロッパ公用語多言語オープンソースLLM) • 実装の課題は スキルギャップとAI導入・拡大の高コスト。参加型・熟議プロセス責任者公務員・市民参加実務 家によるAIツール導入には適切スキルが必要で、AIツール関連利用特定・目的適合AIソリューション選択購入開 発・参加型熟議プロセス文脈でのAIツール利用・出力質評価にわたるスキルセットを要求する。内部開発・公 共調達を通じたAIツール導入使用はパイロットイニシアチブ・テスト・反復的調整を含む柔軟アプローチが必 要で、多大コストと高リスク許容度を伴う。参加型プロセスがしばしば地方政府により組織実施されるため、 AIツールコスト・拡大関連課題は市民参加にとって特に関連性が高い。 ▪ 市民参加とオープンガバメントにおけるAI
  54. 69 ◼ 未開拓の可能性と今後の道筋 • 市民参加・エンパワーメントにおけるAI利用の新しさから個別事例研究を超えた影響証拠・一般的教訓評価は 困難である。効率性改善・コスト削減・参加範囲拡大の可能性を示し、最終的に市民・CSOの意見表明・政策 立案各段階でのフィードバック提供障壁を軽減している。市民意見処理・タスク自動化・情報コミュニケー ション資料作成支援・24時間年中無休仮想アシスタンス提供により関連プロセス設計実施コストを大幅削減で きる。オープンソースツール利用可能性拡大と相まって、小規模都市・発展途上地域等の資源限定文脈での市 民参加機会を可能にする。デジタル技術は非同期参加・地理的障壁負担大幅軽減・広範囲協力を実現し、AIは

    言語の壁軽減によりより高レベル市民参加を可能にする。仮想アシスタント・チャットボットは複雑情報ナビ ゲーション支援により参加型熟議プロセスアクセス性をさらに改善し、調整・円滑化・意味理解AIツールは熟 議プロセス規模課題対処に不可欠となる可能性がある。 • 初期取り組みは透明性・応答性の長期的概念につながり、デジタル技術は個人の「知る権利」関与・複雑業務 結果への意見表明に長期影響を与えてきた。AI技術もサービス設計・提供・透明性強化の新手法を提供し、個 人が現運用システムを時代遅れ・使いにくいと感じ始め、情報アクセス強化技術統合について意見表明する可 能性がある。これは透明性・アクセス性改善目的の制度改革加速に役立ち、AI技術導入だけでなく制度的能力 への国民認識・期待変化能力によっても推進される。 • 今後政府は市民貢献分析能力拡大・大規模熟議実現・参加障壁軽減により既存市民参加プロセス強化のAI潜在 能力を探求すべきである。市民政府間相互作用技術的仲介増加・公共議論信頼への影響等の市民参加AI使用関 連課題を慎重考慮すべきである。市民参加AIツール導入展開は透明性・説明責任を基本原則とする明確戦略に 従うべきで、市民・市民社会は民主的原則整合性確保・プロセス信頼受容性向上のためそうした戦略精緻化に 積極関与すべきである。 ▪ 市民参加とオープンガバメントにおけるAI
  55. 71 ◼ タスクの自動化と最適化 • 公共サービスの定型的なタスクである情報の記録、準備、分類、ファイリング、正確性検証は自動化の可能性 が高い。AIは官僚的なタスクを合理化し、公務員が人間の判断、創造性、裁量、意思決定を必要とする業務に 集中することを可能にする。ブラジルでは略奪的で反復的な法的請求を検知・却下するためにRPAソリュー ションを採用し、スペインではRPA技術が非拠出型障害年金および退職年金の効率的な分配を確保している。 • データ品質が確保されていれば、反復的で裁量が低いタスクにおけるAI自動化は比較的容易である。より高い

    裁量が関わる場合は困難になるが、新しい選択肢の発見、異常とリスクの検知、サービスのより良い計画に使 用されている。しかし、システムが信頼できることを確保するための潜在的課題の考慮が必要である。 ▪ 公共サービス設計と実施におけるAI スウェーデン公共雇用サービスの「準備とマッチング」 • 2021年に国全体で展開されたBÄRシステムは、10年間で収集された110万のプロフィールからなる履歴データで 訓練されたMLシステムである。求職者の6ヶ月以内の就職可能性に基づいて行動推奨を提供し、年齢、性別、教 育、居住地、以前の雇用活動を考慮要因とする。ケースワーカーは自動化された推奨事項に従うよう指示されて おり、否定的推奨の覆しには特別なワーキンググループへの連絡が必要である。 ウィーンのデジタル建築許可レビュー(オーストリア) • BRISE-Viennaプロジェクトは、建築許可レビューに包括的なデジタルワークフローを導入した。AIベースの検 証ルーチンが、プランナーから提出されたデジタル3Dビルディングインフォメーションモデルを、規制要件を 内包する自治体のデジタル参照モデルと自動比較する。確立された基準からの逸脱を迅速に特定し、即座に フィードバックを提供することで、従来長かったレビュー期間を大幅に短縮している。
  56. 72 ◼ 高度な洞察のための新しい情報源の提供 • AIはデータの質と有用性、ならびに人間と機械によるデータ処理・分析能力を最大化することに役立つ。人間 には検知できない可能性のあるパターンを認識するAIアプリケーションは、見過ごされてきた問題を迅速に特 定することができる。様々な構造化および非構造化ソース(画像、テキスト、メタデータ)からのデータを処 理でき、情報管理をはるかに容易にする。フィンランドのタンペレ市では交通カメラからデータを収集し、市 中心部の訪問者流れを予測する予測アルゴリズムに供給している。 •

    これらの新しい高度な洞察は、しばしば様々なソースと技術からの情報の組み合わせから生じる。ポルトガル では土地被覆監視システムがAIを使用してステークホルダーのニーズと衛星技術を統合し、オープンな地図を 作成している。サウジアラビアのデータ・人工知能庁(SDAIA)は、データ駆動型の都市計画とリアルタイム の意思決定を支援するためにSmart Cを開発し、交通シミュレーション、環境監視、AIベースの視覚的汚染検知 といったツールを可能にしている。 ▪ 公共サービス設計と実施におけるAI フィンランドのTampere Pulseによる訪問者流動予測 • Tampere Pulseは、タンペレ市中心部の訪問者流動を予測するAI駆動型の予測分析サービスである。機械視覚を 備えた交通カメラ、気象条件、イベントスケジュールを含む市のIoTプラットフォームからのデータを使用し、 直感的な地図ベースのインターフェースを通じて1ヶ月間の訪問者流動予測を提供する。正確な訪問者流動カテ ゴリーで79.33%、正確または隣接するカテゴリーで最大3週間先まで97.55%の予測精度を実現している。ビジネ スは労働力計画、在庫管理、営業時間を最適化でき、市の住民や訪問者の移動計画支援、維持管理およびセキュ リティチームの資源配分支援も行っている。
  57. 73 ◼ 常にアクセス可能な情報とサービスの提供 • 仮想アシスタントとチャットボットは、公共サービスにおける最も一般的なAI利用の一つである。これらの ツールは公共サービス利用者が24時間いつでも情報に迅速にアクセスできるようにする。基本的な情報検索 ベースのアルゴリズムから、LLMのような生成AIシステムを使用するより高度なものまで多岐にわたる。後者 は台本化された会話から逸脱し、ユーザーの特定のニーズに合わせて情報と推奨事項を調整できる。 • 米国では国土安全保障省のEmmaチャットボットが移民サービス情報を提供し、シンガポールではGov.sgが公

    共サービスの苦情提出を可能にしている。ブラジルではレシフェ市が「Conecta Recife」プラットフォームで 700以上の公共サービスを自動提供している。市民との直接的なやり取りを超えて、AIチャットボットは公共行 政内でもスタッフ支援に使用されている。 ▪ 公共サービス設計と実施におけるAI 情報アクセスを合理化するチャットボット • ポルトガルのチャットボット行政近代化庁(AMA)は2023年5月、「モバイル・デジタル・キー(MDK)」に関する市民の質 問支援のため、リアルなアバターを備えたチャットボットを立ち上げた。Azure OpenAIのGPT-3.5 turboモデルに基づき、ポ ルトガル語のテキストと音声の両方を認識・再現できる。2023年5月から12月まで23,780件の会話を処理し、MDKのアクティ ベーションを10%増加させた。2025年1月、ChatGPTによって駆動される本格的な仮想アシスタントに拡大し、2,300以上の公 共サービス情報を12の言語で提供している。 • フランスのAlbert省庁間デジタル局(DINUM)が開発した主権的な生成AI「Albert」を2024年4月に導入した。オープンソー スモデルで訓練され、政府職員が規制を検索し、要約を作成し、市民に正確な情報を提供するのを支援している。Meta (Llama)とMistralからのオープンソースモデルに基づき、APIは再利用可能な生成AIモデルを提供している。 • ギリシャのmAigovgov.grポータル上のAI搭載アシスタントで、テキストまたは音声で自然なギリシャ語での質問に答え、 1,300以上のデジタルサービスと3,200以上の行政手続きをナビゲートするのを支援している。2023年12月にパイロットモード で立ち上げられ、その後25の言語をサポートするように拡大され、160万件以上の問い合わせに回答している。
  58. 74 ◼ サービスの個別化と調整の改善 • 公共サービス提供のためのAI利用は、トップダウン型実装からユーザーのニーズに基づいた設計と提供へのア プローチへの移行を可能にする。サービスのカスタマイズを可能にすることで、AIは各市民との相互作用の関 連性と応答性を高め、サービスをよりアクセスしやすくし、公共のエンゲージメントを大幅に高める。 • 生成AIシステムは、市民のためにサービスをさらに個別化することができる。ユーザープロフィールを構築し、 市民を特定のユーザーグループにマイクロ分類する能力を持つAIは、脆弱で不利な立場にある人々を含む、

    ユーザーとユーザーグループの複雑なニーズに合わせて情報とサービス自体を調整することができる。これは 資格のある個人が利用可能な社会プログラムや給付金について知っていることを確保し、場合によっては先制 的に提供することも可能である。 ▪ 公共サービス設計と実施におけるAI 社会保障制度がAIをどのように取り入れているか • フランスのAI支援による個別化された公共サービス提供:省庁間公共変革局が革新的なAI搭載プラットフォーム「Services Publics+」を立ち上げた。4500万人の市民と250万人の公務員が関与し、3つの主要なAIコンポーネントを組み込んでいる。ア クセシビリティ改善のための音声からテキストへの機能、回答の草稿作成における公務員のための自動化された支援、および ユーザーフィードバックのリアルタイム分析である。公務員はAI生成回答を修正または拒否する能力を持ち、EUのAI法原則に 沿って透明性を確保している。平均応答時間は19日から3日に短縮され、公務員の78%がAIの提案を有用だと感じ、AI支援の回 答に対する市民の満足度は68%に達した。 • 社会保障制度におけるAI活用:OECD加盟国における社会プログラムでのAIの最も一般的な利用は、自動化された顧客サポー ト、内部プロセスの自動化、給付金請求における詐欺検知である。AIは社会保障においてサービス利用者の特定と登録、ユー ザーサポートの強化、給付金とサービス提供の効率性改善の重要な約束を提供している。高リスクの受益者を特定し積極的に 働きかけること、または自動的に登録して社会保障のカバレッジを改善することが最もやりがいのある潜在的使用例である。
  59. 75 ◼ 将来の公共サービスニーズの予測 • AIは将来のサービスニーズを予測し、対応能力を準備・調整するための予測分析を実施する上で、幅広い潜在 的な利用を持っている。AI予測システムは交通の最適化、道路事故の減少、公共交通システムにおける燃料効 率の向上といった具体的なサービス品質の改善を実証している。 • プロアクティブなサービス提供という新たなトレンドでは、AIは現在の公共サービスの文脈を超えて人々の ニーズを予測し、迅速に対応するのを助ける。これは市民デジタルツイン(CDT)システムを伴う可能性があ

    り、個人の状況に関するデータを収集し、人生の出来事に対するサービス応答を構造化する。シンガポールで は「人生の瞬間」アプリケーションがAIアルゴリズムを使用してユーザー情報を分析し、個別化された通知を 送信している。 ▪ 公共サービス設計と実施におけるAI 都市におけるAIツール活用 • 交通最適化 ロサンゼルスは交通事件を検知・対応するためにAIを使用し、交通カメラ、センサー、ソーシャルメディアからの データを分析してリアルタイムでアラートを提供している。シドニーは交通の流れを最適化し、無人運転バスをテストしてい る。ベルギーの道路交通庁はAIで滑りやすい道路状況を予測し、凍結防止のための資源を割り当てている。 • 公共サービス情報提供 ブエノスアイレスはチャットボットBotiを作成し、COVID-19ワクチン接種の公式チャネルから自転車 共有や社会的ケアに関する情報提供に発展させた。横須賀市は高齢市民の精神的健康強化のため、対話型生成AIを使用した認 知症予防サービスを開発している。 • スマートシティ開発 ギリシャのEllinikon Projectは旧アテネ国際空港をスマート地区に変革し、IoT、AI分析、5G接続を都市構 造に織り込んでいる。アムステルダム、ヘルシンキ、ミュンヘンは都市計画改善のためにデジタルツインを使用している。上 海は生成AI搭載のデジタルツインとIoTで都市インフラを管理し、交通渋滞緩和、エネルギー使用最適化を実現している。 • ブルームバーグ慈善財団の2023年調査では、世界の100都市のうち2%のみが生成AIを積極的に実装し、69%は技術を探求して いるが、まだ能力と政策を開発していない。
  60. 76 ◼ 影響の証拠 • 影響の証拠英国の公共サービスの潜在的な自動化に関する最近の研究では、アラン・チューリング研究所がAI がサービス関連取引の84%を自動化するのに役立ち、毎年約1,200人年分の労働を節約できる可能性があること を発見した。公共サービスの設計と提供に関する官僚主義の削減と規制の改善は、時間、労力、資源の節約、 または政府からの応答時間の加速の観点から、ユーザーに大きな利益をもたらす可能性がある。 • その約束は大きいものの、AIがこれらの利益をもたらした、またはもたらすだろうという経験的な証拠はこれ

    までのところほとんどない。公共サービスにおけるAIの導入に関する現在の知識は、実装された実践からの初 期の証拠を統合する事例研究に基づいている。現在は事例が急速に増殖している。 • 公共サービスにおける最新のAIイノベーションの影響に関する証拠のほとんどは、個々のプロジェクトとケー スに基づいており、多くの場合自己申告である。文献におけるケースレビューは、AIの利益に関する一般的な 肯定的な兆候を示している。しかし、AIプロジェクトが潜在的な負の影響を事前に開示することはあまり一般 的ではない。これは、アプリケーションがまだ比較的新しく、問題がまだ現れている最中であり、評価がしば しば実施されないため、当然のことである。 • AIが公共サービスを再構築し続けるにつれ、これらの技術が効率的であるだけでなく、市民のエンゲージメン トと意思決定に影響を与える上で効果的であることを確保するためには、行動介入の厳密なテストが不可欠。 一部の政府チームは、AI駆動型ソリューションをすでにプロトタイプ化し、迅速にテストしている。しかし、 RCT、差の差分分析、およびA/Bテストのような、より構造化された評価方法が、どのAIアプリケーションが、 誰のために、どの文脈で最もよく機能するかを決定するのに役立つ。これらの実験的アプローチをAI実装の一 部にするために学者と提携することは、AIの現実世界での影響に関するより強力な経験的証拠を提供すること ができ、公共サービスが仮定ではなく行動洞察に基づいて設計・適応されることを確実にしている。 ▪ 公共サービス設計と実施におけるAI
  61. 77 ◼ 未開拓の可能性と今後の道筋 • 追加のサービス領域でAIを使用する大きな潜在能力がある。医療分野では、AIは調整された予防的介入を可能に し、OECD加盟国で97%が未開拓のままである膨大な医療データ資産から価値を引き出すことができる。AIの進 歩は、2030年までに350万人に達すると予測されている医療労働力の不足を緩和する可能性がある。 • 公共サービスのデザインと提供におけるAIの利用は、まだ実験段階にある。初期の実践の評価は、公務員と一 緒にとられる段階的なアプローチの方が成功する可能性が高いことを示唆している。

    • 新たなアプローチはルール・アズ・コード(RaC)である。これは政府のルールを機械が消費可能な形式で符 号化し、より正確で透明なAIアプリケーションのための基盤を提供する。 • 市民によるAIベースの公共サービスの受容に関して、AIシステムの知覚された有用性、信頼などの要因がAIの使 用意欲に影響を与える。AIアプリケーションに対する信頼は、完全に新しいサービスではなく、既存のサービ スに統合されている場合の方が高い。 • 政府はユーザーのニーズをよりよく理解し、考慮する必要がある。行動科学の利用は、スラッジを減らし、ア クセス性を改善し、サービスがユーザー中心で市民に信頼されることを確保する。複雑さ、決定疲れ、慣性と いった認知障壁に対処することで、政府はより単純で直感的なサービスを設計できる。AIツールは、スラッジ 監査を必要とするサービスを特定し、介入の有効性を評価し、サービス設計を改善することができる。 • 公共サービスにAIが導入される速度と厳格な評価が実施される範囲との間にはギャップがある。公共部門のAI能 力構築における国際協力が極めて重要であり、グローバル・パートナーシップ・オン・AI(GPAI)のような多 国間イニシアチブは重要な役割を果たすことができる。 ▪ 公共サービス設計と実施におけるAI
  62. 79 ◼ 犯罪容疑者と行方不明者の特定 • AIを活用した顔認識技術は、監視映像、ソーシャルメディア、およびその他のソースからのリアルタイムまた は記録された画像を、画像データベースのストックと照合する能力を高めている。これは犯罪容疑者、関心の ある人物、および行方不明者の特定を支援するために使用される可能性がある。多くの国で閉回路テレビ (CCTV)映像と顔認識技術が組み合わされ、主要なスポーツ会場に出入りする観客のリアルタイムチェックを 可能にし、許可されていない人がエリアに入ることを試みるのを抑止する効果も示されている。 •

    米国では、連邦捜査局(FBI)が運営する次世代身元特定システムが、名前照合、指紋照合、顔認識、虹彩認識、 および潜在的な指紋照合を含む、より正確な生体認証能力を提供するためにAIを活用したシステムを実装した。 このシステムは潜在的な一致のランク付けされたリストを生成し、その後、生体認証アナリストによって正確 性を確保するために手動でレビューされる。このプロセスは他の識別子が劣化しているか欠落しているケース での捜査を支援し、手がかりを提供する上で有効であることが証明されている。 • 生体認証による身元特定の他に、AIアルゴリズムは、アナリストが膨大な量のデータをふるいにかけて、特定 の人物の関与の可能性が高いまたは低いことを示すパターンや異常を特定したり、そうでなければ見過ごされ ていたであろう犯罪活動を発見したりするのを助ける。これには、すでに発生した違法行為の証拠のために、 ソーシャルメディアの投稿、金融取引、および信号諜報を分析することが含まれる。 • 顔認識技術の使用は、多くの法域でプライバシーの侵害に関する懸念を引き起こしており、そのような分析に 基づく介入に制限を設けるための堅固な法的・政策的枠組みの必要性がある。 ▪ 法執行と災害リスク管理におけるAI
  63. ◼ 犯罪行動の予測とリスク要因の特定 • 個人の心理的プロフィール、行動、および過去の行動を分析することで、AIシステムは潜在的な将来の犯罪行 動や犯罪を予測することが可能。予測を導き出すための情報源には、SNS、オンライン取引、公的記録、既存 の法執行文書、およびCCTV映像等が含まれる。このような応用は既知の犯罪者を監視したり、テロ攻撃や他の 暴力犯罪を計画している可能性のある以前は知られていなかった個人を特定したりするために使用されてきた。 • 米国税関・国境警備局(CBP)は、乗客の通過における潜在的なリスクを特定するために旅客セキュリティ評 価モデルを展開し、追加の精査を必要とする可能性のある通過をCBP職員が迅速に認識するのを支援している。

    CBPは車両の国境通過履歴における潜在的に不審なパターンを特定するためにMLシステムを使用し、数千キロ グラムの違法薬物の240件の押収につながった。日本では、AI万引き検知ソフトウェアが防犯カメラ映像上の潜 在的に不審なボディランゲージを検知し、スマートフォンアプリケーションを通じて当局に警告している。ド イツはイスラム主義テロリズムのリスク評価(RADAR-iTE)を2017年に国全体で導入。 ▪ 法執行と災害リスク管理におけるAI ドイツのイスラム主義テロリズムのリスク評価ツール • イスラム主義テロリズムのリスク評価(RADAR-iTE)は、ドイツ警察が2017年に国全体で導入した標準化されたアルゴリズ ムによるリスク評価ツール。法執行機関にすでに知られている個人によって犯される、政治的動機のある深刻な暴力的宗教的 動機によるテロ行為のリスクを評価するために、特に国家保護(Staatsschutz)の文脈での使用のために設計されている。 • 個人のリスク要因と保護要因が評価され、2層のリスクカテゴリー(中程度・高)に割当てる標準化されたケース準備プロセ スを伴う。これにより個人の優先順位付けが可能になり、警察の資源の効果的な配分が支援。この評価はイデオロギーや宗教 性といった属性ではなく、観察可能な行動や、警察官がすでに利用可能であるか、法的に取得できる情報に依存。 • このツールは標準化された質問と回答カテゴリーを持つリスク評価フォームを使用するが、自動化されておらず、特徴の評価 には常に訓練された専門家による専門的な評価が必要である。高リスクと評価された個人は、その後、共同テロ対策センター (GTAZ)のリスク管理ワーキンググループ内で、連邦刑事庁(BKA)によって管理されるケース会議で議論される。 80
  64. ◼ 犯罪活動のリスクがある時間と場所の予測 • 予測的ポリシングアルゴリズムは、歴史的な犯罪データを分析して、いつ、どこで犯罪が発生する可能性が高 いかを予測するのに役立つ。これらのアルゴリズムは時間帯、気象条件、社会経済的データといった様々な要 因を考慮に入れ、一部の警察署は特定されたホットスポットでパトロールを集中させるためにこれらの分析を 使用している。機関がパトロールルートを決定し、資源をより戦略的に配備するのを助けている。 • 一部の予測的ポリシングシステムは、法執行および緊急管理の両方の文脈で、予測と推奨を動的に調整するた めにリアルタイムデータを使用している。いくつかの国は、CCTV監視、ライブ事件報告、およびセンサーデー

    タを使用して、リアルタイムで予測を洗練させている。韓国では、インターネット振興院(KISA)と警察庁 (NPA)が協力して、潜在的なストーカー被害者が危険を認識し、回避するのを助けることを目的とした技術 を開発した。 • このシステムは、ストーカー犯罪の前兆を検知し、潜在的な被害者に警告を発し、警察に警報を出し、危害が 加えられる前に加害者を逮捕することを目標としている。このアプリケーションは監視カメラからの情報をリ アルタイムで分析するためにAI技術を使用しており、これにより事前にストーカー犯罪の兆候を特定し、被害 者に通知し、それによっていかなる危害も防止することが可能になっている。 ▪ 法執行と災害リスク管理におけるAI 81
  65. ◼ 災害リスクの特定と予測の強化 • AIは、セクター全体で国がリスクを特定・予測する方法を変革している。MLアルゴリズムは、自然災害から公 衆衛生上の脅威まで、幅広い重要なリスクの早期警告信号を検知するために、膨大なデータセットに適用。地 球観測、接続されたデバイス、およびAIツールは、山火事リスクの予測を改善するためにも使用され、地球観 測画像は山火事の可能性を左右する燃料負荷を確かめるために植生成長に関する定期的な情報を提供。 • カナダのアルバータ州は、山火事と戦うための資源を割り当て、資産を事前に配置する決定を支援するために AIを使用。グアテマラでは、地球観測とストリートレベル画像に適用されたAI分析技術が、地震発生時に崩壊し

    やすい建物を特定するために使用されている。ブラジルは、送電線を検査し、山火事を回避するためにAIと衛 星画像処理を使用する地理空間送電管理システム(GGTシステム)を作成した。米国では、ハリケーン・フ ローレンスに先立って、技術者をどこに事前に配置するかを決定するためにAI技術を使用した。 ▪ 法執行と災害リスク管理におけるAI カナダの山火事リスク予測 • アルバータ州の革新的なシステムは、州の半分以上を占める保護された森林全体で、翌日に山火事が発生する可能性を予測す る。10年分の火災、天気、および生態学的データで訓練されたAIシステムは、日々の天気予報や長期休暇中の人間の活動の増 加といった要因を組み込んでいる。このシステムは山火事を予測する上で50%の成功率を持ち、火災が発生する可能性が高い ことを示す場合には80%の精度を持っている。このツールは人間の意思決定を置き換えるのではなく、スタッフを支援し、官 民セクター間の協力を通じて開発され、新しい山火事データが統合されるにつれて毎年改善され続けている。 ブラジルのGGTシステム • 山火事はブラジルでの停電の主な原因の一つ。ブラジル電気規制庁は、AIと衛星画像処理を使用して山火事に対する送電線の 維持管理を予防的に検査するGGTシステムを作成。AIを使用して衛星画像を処理し、火災の影響を受けるすべての送電線のス パンを特定、植生量の変動を自動的に検知。システムは送電会社によって現場で行われた植生抑制活動を検知し、監視報告書 を自動的に生成。2017年の立ち上げから2022年まで、監視されている送電線における山火事によるシャットダウンは89%減少。 82
  66. ◼ リスク評価と予測モデリングの改善 • 高度なAIシステムは、多様で複雑なデータセットを統合することで、より正確なリスク評価を可能にしている。 AI駆動の予測モデリングは、様々なリスクシナリオをシミュレートし、意思決定者が潜在的な影響を評価し、 軽減戦略を計画することを可能にする。異なる変数の間の相関関係と因果関係を特定することで、将来のリス クの可能性と深刻さについてのよりニュアンスのある洞察を提供する。 • 欧州中期天気予報センターは人工知能予報システムを使用し、熱帯低気圧の追跡で主要な物理ベースのモデル よりも最大20%高い正確性を提供している。韓国では、都市部がAIベースの選択的監視システムを展開し、既存

    のCCTVインフラと高度なディープラーニングアルゴリズムを使用している。シンガポールは世界初の国のデジ タルツインであるVirtual Singaporeを開発し、データ駆動型の都市計画を支援している。 ▪ 法執行と災害リスク管理におけるAI 韓国のAI活用CCTV監視システム • 既存のCCTVインフラと高度なディープラーニングアルゴリズムを使用して、事故、火災、異常な歩行者行動を自動的に検 知・分類している。関連する映像に優先順位を付けることで手動監視への依存を減らし、リアルタイムの事件検知と迅速な対 応を可能にする。主要な能力には物体追跡のためのマルチキーワード軌道分析、高速ビデオ検索、インテリジェントなイベン ト認識が含まれ、プライバシー確保のため機密情報を匿名化し、暗号化を通じてビデオのエクスポートを制限している。 シンガポールのVirtual Singapore • シンガポール土地庁が主導し、高度な3Dモデリングとリアルタイムデータ統合を使用して都市国家の詳細なデジタルレプリカ を作成する。レーザースキャン技術が地上構造、地下の公共施設、環境条件、人口の移動をマッピングしている。政策立案者 や研究者にシナリオをテストし、リスクを予測し、サービスを最適化するための対話型プラットフォームを提供し、緊急事態 や災害管理において当局が極端な気象事象への対応を計画し、危機協調を最適化するのを助けている。 83
  67. 84 ◼ リスクコミュニケーションの強化 • AIツールは、意思決定者と国民がリスク情報をどのように伝えられ、理解するかを強化している。複雑なデー タを視覚的な形式とアクセス可能な言語に翻訳することで、AIはリスク評価をより理解しやすいものにし、対 話型ダッシュボード、チャットボット、仮想アシスタントが異なるオーディエンスに合わせた情報を提供して いる。AIはまた、個人の位置、脆弱性、好みに基づいてターゲットを絞ったメッセージを配信することで、リ スクコミュニケーションを個別化することができる。 •

    AIを活用したセンチメント分析ツールは、リスクに対する国民の認識を測定し、当局がそれに応じてコミュニ ケーション戦略を調整することを可能にする。リアルタイムのリスクコミュニケーションプラットフォームは、 進化する状況に関する更新情報と保護措置に関するガイダンスを提供することで、危機管理を改善し、この動 的な情報の流れは国民の信頼を高め、よりプロアクティブなリスク軽減行動を促している。 ▪ 法執行と災害リスク管理におけるAI 米国のハザード軽減計画アシスタント • 連邦緊急事態管理庁が「回復力のあるコミュニティのための計画アシスタント(PARC)」と呼ばれる生成AIソ リューションの使用を模索。この新システムは、過小評価されているコミュニティを含む地方政府のためのハ ザード軽減計画プロセスに効率性を生み出す。 • ハザード軽減計画はコミュニティの回復力構築の基本的なステップであるが、作成に時間がかかり、資源が不足 しているコミュニティにとっては困難。PARCは、公的に利用可能で、よく研究された情報源から草案の計画要 素を生成し、州・地方・部族・準州政府がリスクと軽減戦略を特定する計画を作成する方法を理解するのを支援。 • これにより、より多くのコミュニティが資金提供のための助成金申請を提出できるようになり、彼らをより回復 力のあるものにし、災害リスクを減らすことにつながる可能性がある。
  68. 85 ◼ 災害と危機対応の改善 • AIは、衛星画像、センサーデータ、およびソーシャルメディアの更新情報をリアルタイムで処理することで、 災害時の状況認識を改善している。この情報は、緊急サービスが影響を受けた地域をマッピングし、資源配分 に優先順位を付け、対応努力を調整するのに役立つ。AIを活用した意思決定支援システムは、最適な避難経路 を推奨し、リスクのある重要なインフラを特定し、危険の広がりを予測することができる。ライブデータ フィードを分析することで、AIツールは道路閉鎖、停電、交通の混乱に関する更新情報を提供し、当局とコ ミュニティが変化する状況に適応するのに役立つ。

    • インドネシアでは、ジャカルタの住民がインドネシア災害マッピング財団(PetaBencana.id)のチャットボッ トBencana Botによって促され、ソーシャルメディアを使用して洪水の更新情報を共有している。このチャッ トボットは、ユーザーに洪水の詳細を報告するよう促し、その後、リアルタイムで地図にマッピングされ、オ ンラインで無料でアクセス可能になる。市内で大規模な洪水が発生した後、このプラットフォームは12時間以 内に活動が2000%急増し、住民が危険な地域を避け、情報に基づいた安全決定を下すのを助けている。 • 対応機関は、地球観測画像に適用される変更検知アルゴリズムを使用し、影響を受けた地理的地域や個々の建 物やインフラへの損傷を迅速に特定することができる。これらのツールは災害後の被害評価を加速し、復旧作 業の優先順位付けを支援している。 ▪ 法執行と災害リスク管理におけるAI
  69. ◼ 災害後のニーズ評価と復旧・再建の強化 • AIは、衛星画像、ソーシャルメディア、および行政記録からのデータを統合して、より迅速で包括的な損傷お よびニーズ評価を作成することで、災害後のニーズ評価を強化している。これらのシステムは損傷したインフ ラを自動的に特定し、避難した個人の数を評価し、復旧コストを見積もることができ、この自動化により評価 プロセスを加速させ、復旧努力をより早く開始することを可能にする。AIを活用した意思決定支援システムは、 最も緊急なニーズを特定し、資源配分を最適化することで、当局が復旧プロジェクトに優先順位を付けるのを 助ける。 •

    AIは復旧プロジェクトの進捗を追跡し、遅延や不正を特定することで、透明で説明責任のある再建を支援する。 この監督は資源が効率的に使用され、脆弱なコミュニティがタイムリーな支援を受けることを確実にしている。 米国連邦緊急事態管理庁(FEMA)は、2022年のハリケーン・イアンの後に地理空間損傷評価(GDA)モデル を展開し、影響を受けた100万以上の構造物全体で構造的損傷レベルを特定・分類した。 ▪ 法執行と災害リスク管理におけるAI 米国のAIによるハリケーン後の復旧加速 • 2022年にフロリダ州を襲ったハリケーン・イアンの後、FEMAは地理空間損傷評価(GDA)モデルとして知られ るAIツールを展開。伝統的に災害後の損傷評価は手動での検査に依存し数週間かかり、犠牲者への財政的援助の 提供を遅らせていた。GDAモデルは航空画像、衛星データ、MLを使用して影響を受けた地域全体の構造的損傷 を迅速に評価し、災害対応努力の速度と正確性を大幅に改善した。風速、建物の特性、ハリケーンの経路への近 さといった追加データを統合することで、損傷の深刻さについてより包括的な理解を提供した。 • 人間のレビューを必要とする構造物の数を100万以上からわずか77,000に減らし、評価時間を数週間から数日に 短縮した。ハリケーン・イアンの上陸から72時間以内に、FEMAは影響を受けた地域全体の損傷の範囲について の洞察を得て、より迅速な資源配分と復旧計画を可能にした。 86
  70. 87 ◼ リスクと課題の管理 • 関連リスクは監視とプライバシーの懸念につながるAIの誤用または疑わしい利用、AIシステムにおける不適切ま たは偏ったデータ、透明性と説明可能性の欠如、不公正または侵襲的であると認識された場合の公共の信頼へ の影響、AIへの過度の依存。AIシステムが不適切または偏ったデータに依存する場合、一部の個人またはグルー プにとって不正確または有害な結果につながり、違法な差別を引き起こす可能性がある。予測的ポリシングに 必要な広範なデータ収集は、個人のプライバシーとデータ保護の権利の意図しない侵害のリスクを伴う。 •

    遠隔生体認証(顔認識)は、固有の技術的偏見(人種的または民族的起源による差別)を持つ可能性があるた め特に論争の的となっている。多くの予測AIシステムは独自の所有物であり、「ブラックボックス」モデルに 依存しているため、なぜ運用上の決定がなされたのかを理解することを困難にし、法執行への信頼を損なう可 能性がある。法執行機関がAIに過度に依存し、コミュニティエンゲージメントや伝統的な捜査方法を怠るリス クもある。 • 実装の課題はAI導入と拡大の高コスト、および結果と投資収益率の実証、スキルギャップ、柔軟性のない、ま たは時代遅れの法的および規制環境。警察活動にAI技術を実装するには多大な投資が必要で、ほとんどの警察 署は小さな地方機関であり、最も高価なAIツールは地方の予測的ポリシングプログラムの財政能力を超える可 能性がある。法執行官はAIツールを効果的に使用し、理解するために適切な研修を必要とするが、適切な研修 プログラムはしばしば整っていない。 • 現在の法律は警察活動におけるAIによって提起されるユニークな課題に適切に対処していない可能性があり、 政策立案者は法執行におけるAIの利用を規制するための法的枠組みを開発・更新する必要がある。予測的ポリ シング技術の開発と展開のための業界標準とベストプラクティスを確立することは、一貫性と品質を確保する ために不可欠である。 ▪ 法執行と災害リスク管理におけるAI
  71. 88 ◼ 未開拓の可能性と今後の道筋 • AIツールは、公共の安全と応答性を改善することで、法執行機関と緊急管理機関の能力を強化するための機会 を増やし続けている。基礎となる技術が進歩し、職員の訓練がより普及するにつれて、重要なリスクのガバナ ンスにおける役割を持つより広範な公共機関全体でのこれらのツールの利用は増加し続けると予想される。 • 関連する文脈でのAIツールの利益に関する逸話は増殖しているが、無責任な利用に関する物語も同様に増えて いる。これらの文脈でのAI利用の測定可能な利益と欠点の両方に関する証拠基盤を強化するためには、継続的

    な経験的研究が必要である。AI導入の倫理的、法的、社会的な含意は、これらの技術が信頼でき、個人の権利 と自由を尊重する方法で展開されることを確保するために、慎重な検討とプロアクティブな措置を要求する。 • 政策立案者は、AI導入に関する懸念が対処されることを確保するために、コミュニティと連携して信頼を築く べきである。警察活動と災害リスク管理におけるAIが、その目標、利益、限界を含めて、どのように機能する かについての明確なコミュニケーションは、公共の信頼を維持するために不可欠である。 • 政府と法執行機関は、犯罪を減らすための予測的ポリシングにおけるAIの限界についての理解を強化すべきで ある。アルゴリズムは将来の出来事のリスクを予測するのに役立つが、出来事自体を予測するわけではない。 AIはパターンの検索を単純化するのに役立つが、過去の出来事から外挿するものであり、基礎データの正確性 と同じくらいしか正確ではない。人間は予測的ポリシングプロセスにおける最も重要な要素である。 • 法執行におけるAIの利用は、技術にとって最も困難な応用領域の一つである。偏ったアルゴリズムは、無実の 個人の誤った逮捕と投獄につながる偽陽性や、違法な活動を見過ごすことにつながる偽陰性をもたらす可能性 がある。このような行動は、AIツールの展開に対する公共の支持を、受け入れられた安全策の条件内で獲得す ることを目的とした協議メカニズムを開発する必要性を強化している。 ▪ 法執行と災害リスク管理におけるAI
  72. 90 ◼ 内部業務の効率化 • 司法システムにおける生産性と応答性に対するAIの影響は変革的となりうる。高度なAIアルゴリズムは、新たに 提出されるケースを分析し、複雑性や緊急性に基づいて分類し、適切な部門や裁判官に割り当てることができ る。これにより、管理上のボトルネックが大幅に削減され、資源のより効率的な利用が確保され、司法の提供 における有効性が高まる。NLPと生成AIは事件管理と司法文書の処理の改善も支援し、反復的なタスクを自動 化し、メタデータの抽出を改善することで、司法システム職員の日々のワークフローを合理化している。 •

    フランスの破毀院は過去の事例からの訓練に基づいて新規の控訴や申立てを分類し、適切な部門に割り当てる AIシステムを開発している。ブラジルでは、最高裁判所でAIシステムVICTORが控訴審査を自動化し、労働司法 高等評議会が生成AIツール「Chat-JT」を導入している。。スロベニアとスペインでは自動書き起こしが法廷手 続きへのアクセスを改善し、コロンビアのPretorIAシステムは憲法裁判所がtutelaケースを管理するのを支援。 ▪ 司法行政と司法アクセスにおけるAI スペインにおける文書管理の強化 • 大統領府・司法・議会関係省は司法文書の効率的な管理・処理を支援するため、NLPと生成AIの独自ツール群を開発。これら は、法務専門家が裁判所関連のテキストを分類、分析、要約、匿名化するのを支援、データ保護基準への準拠を確保している。 • 文書分類機能では、管轄区域、登録タイプ、文書カテゴリーごとに自動分類でき、司法システム各部門での情報検索と体系化 が改善。分析機能では、固有表現、主要な日付、金銭的価値、エンティティ間の関係を抽出・可視化し、意味的類似性検知に より一貫性のない名前のバリエーションを調和させる。要約機能は判決や命令などの法的文書タイプに合わせて調整され、抽 出型から生成型まで4つのモードを提供し、「法律用語を平易な言葉に」変換するアクセシビリティ向上オプションも含む。 • このツール群は司法職員用の安全なオンラインポータル、市民用の司法フォルダ、他のデジタル司法製品との統合の3つの チャネルで利用可能である。統合事例として、司法機関と法務専門家、法執行機関、病院などを結ぶスペインの電子情報交換 プラットフォームLexNETがある。LexNETでは、NLPが文書をスキャンして固有表現を特定・抽出し、手動記入が必要だった フォームフィールドを自動入力することで、処理時間を数分から数秒へと大幅に短縮。
  73. ◼ 内部業務の効率化(続き) • より洗練された生成AIシステムは、コンテンツを作成し、情報分析を実行するのを助けている。LLM駆動型 ツールが司法業務の効率化に貢献し、文書要約、報告書の第一草稿作成、司法上の先例を持つ新規ケースの特 定、保護措置の決定支援などを行う。 • ブラジル最高裁判所のMARIAは文書要約と報告書作成を支援、反復的なタスクの自動化により裁判所書記官の 時間をより複雑な活動のために解放。アルゼンチンのブエノスアイレス自治市公共検察庁はPrometeaシステム からChatGPTに移行し。ペルーのリマ・ノルテ高等裁判所のAmauta

    Proシステムは、家庭内暴力のケースで保 護措置の決定支援を行い、決議案作成時間を3時間から40秒に短縮。 ▪ 司法行政と司法アクセスにおけるAI ペルーのAmauta Proシステム • リマ・ノルテ高等裁判所が開発したAmauta Proシステムは、家庭内暴力のケースで保護措置の決定のために 様々なタスクを実行する。機械が読み取れるファイルをテキストに変換し分類、同じ当事者を含む進行中の手続 きを検索、警察の報告書から重要な情報を抽出、抽出・分析されたデータに基づく決議案の作成を行う。決議案 作成時間を3時間から40秒に短縮し、パイロット段階で800件以上の判決案が生成された。 アルゼンチンのPrometeaとChatGPT • ブエノスアイレス自治市の公共検察庁とブエノスアイレス大学が2017年に開発したPrometeaは、以前の判決に 基づいて事件の解決策を予測し、事件ファイルを組み立てるAI搭載システムである。2017年から2020年の間に 658件の事件の解決において重要な役割を果たし、予測において90%の精度を達成し、生産性を約300%増加させ た。拡張性に関する懸念から、2024年に開発者たちはChatGPTに移行し、現在は給与要求に関連する公的雇用 ケースの判決を予測するために使用され、判決文作成時間を1時間から約10分に短縮している。 91
  74. 92 ◼ 内部業務の効率化(続き) • AIアルゴリズムは、裁判所文書や記録からの個人情報(名前、住所など)を含むデータを識別し、分類するよ うに訓練できる。これは機密情報を保護し、プライバシーを維持するために使用でき、司法事件を扱う上で重 要な側面である。NLP技術と固有表現認識を活用し、自動匿名化ツールが法的文書から個人を特定できる情報 を削除し、GDPR準拠やオープンデータイニシアチブに対応する。 • スペイン、クロアチア、オーストリア、フランス、ギリシャの各国が法的文書の匿名化にAIを活用している。

    スペインは3つのモードを持つ匿名化ツールを提供し、クロアチアはANONシステムで判決の匿名化と公開を自 動化している。オーストリアは複数のAIアプローチを組み合わせ、フランスはオープンデータ公開のためのAI匿 名化エンジンを運用し、ギリシャは文書の翻訳、要約、匿名化を統合している。 ▪ 司法行政と司法アクセスにおけるAI 裁判所の判決のAIによる匿名化 • スペインの大統領府・司法・議会関係省は、個人名、法的エンティティ、住所、身分証明書、電子メールアドレス、ソーシャ ルメディアのプロフィールなどを対象とした匿名化ツールを開発した。ユーザーは自動、イニシャルベース、完全にカスタマ イズ可能の3つのモードから選択でき、匿名化したい情報の種類を指定できる。 • クロアチアは電子事件管理システムeSpisと統合されたANONツールにより、第一審判決を自動匿名化し、「クロアチア共和国 裁判所の決定検索エンジン」への公開用索引付けを提案する。高等審裁判所では認可された職員による最終検証を行う。 • オーストリアの連邦法務省は、登録データと正規表現を使用する検索ベース手法、固有表現認識NLP、フィードバック基盤の カスタムMLアルゴリズムを統合したハイブリッドアプローチを採用している。 • フランスの破毀院は判決内の個人データを自動特定・保護し、オープンデータとして公共公開するためのAI匿名化エンジンを 法的情報の透明性向上の重要構成要素として位置づけている。 • ギリシャの法務省は匿名化に加えて、市民と弁護士への指示提供を行うAIアシスタントも導入している。
  75. ◼ 司法サービスの提供の改善 • OECD加盟国では、チャットボットや仮想アシスタントを通じて法的・司法サービスの提供とアクセスを支援す るためにAIが導入されている。これらのAIシステムは、アクセスしやすい言語で予備的な法的助言を提供し、緊 急性や関連性に基づいてケースを分類し、法的プロセスを通じてユーザーを導くことができる。特に被害者支 援サービスにおいて、個別化されたサポートの提供が重要な応用分野となっている。 • ポルトガルの法務省は国民に司法関連情報への容易なアクセスを提供するAI搭載チャットボット「司法実用ガ イド(GPJ)」を実装している。ギリシャ、ブルガリア、ルーマニアで実施されたi-ACCESS

    My Rightsプロ ジェクトは、虐待や犯罪の被害者である子供たちに年齢に適した法的情報を提供している。 ▪ 司法行政と司法アクセスにおけるAI ポルトガルのAI搭載チャットボット「司法実用ガイド(GPJ)」 • 法務省が実装したGPJは、デジタル司法プラットフォームからの情報に基づいて回答を提供し、ユーザーフレン ドリーで平易な言葉の応答により複雑な法制度と一般市民の間の情報ギャップを埋める役割を果たしている。シ ステムは様々な質問の定式化にアクセスしやすい方法で応答するよう訓練され、人々と司法システム間の相互作 用を迅速化し、より効率的に必要な情報を見つけることを可能にしている。 i-ACCESSチャットボットによる子供被害者支援 • 13~18歳の虐待・犯罪被害者を対象としたi-ACCESSチャットボットは、法的プロセスにおける権利の説明、関 連する支援ネットワークや当局への案内、一般的な法的情報と利用可能な支援サービスのガイダンス提供を行っ ている。開発において各国での共同設計セッションや子供諮問委員会を通じた子供の参加に重点を置き、司法シ ステムで実際に経験を持つ子供たちがチャットボットの設計と機能に直接貢献することで、真にユーザーのニー ズに応答可能なツールの実現を図っている。 93
  76. ◼ よりプロアクティブな司法システムのための予測を可能にする • AIは予測分析により司法システムのプロアクティブ性を高めることができる。予測的ポリシングとリスク評価 ツールが主要な応用分野で、保釈、量刑、仮釈放に関する決定を支援し、被害化のパターンを特定して潜在的 な問題がエスカレートする前に予測・対処することを可能に。 • スペインのVioGénは2007年導入以来670,000件以上のケースを処理し、家庭内暴力の被害者保護を強化してい る。米国のCOMPASは被告の再犯可能性を評価するリスク評価ツールとして複数の法域で使用されているが、 精度や透明性に関する課題も抱えている。

    ▪ 司法行政と司法アクセスにおけるAI スペインの家庭内暴力リスク評価システム(VioGén) • VioGénは被害者が虐待を報告した時、または警察が家庭内事件に介入した時に始まる構造化されたリスク評価プロセスを通じ て運用される。警察官は加害者の履歴、以前の暴力の深刻さ、被害者の脆弱性といった要因を評価する詳細なアンケートを完 了し、アルゴリズムが低、中、高、または非常に高のリスクレベルを割り当てる。リスクレベルに基づいて「特に重要」と見 なされるケースは検察官や裁判官のためにフラグが立てられ、定期的なフォローアップ評価がリスク分類を調整する。司法、 国家、地方の警察全体での協調的な対応を促進している一方で、アルゴリズムの「ブラックボックス」性質、正確な公式の非 公開、95%のケースでVioGénのリスク分類に修正なしに従っているという現状が透明性と説明責任について疑問を提起。 米国のCOMPASシステム • COMPASは犯罪歴、薬物乱用、社会的つながり、個人の人口統計といった要因をカバーする包括的なアンケートからのデータ を分析し、独自のアルゴリズムを通じて処理して個人を低、中、高リスクの再犯者として分類する。法務専門家が各犯罪者の 評価されたリスクに合わせて介入と監督のレベルを調整するのを助け、処理時間や法域全体での標準化において効率性の向上 をもたらした。しかし、68%という正確性のレベルと限定されたアルゴリズムの透明性が倫理的な疑問に貢献し、一部の法域 は公共安全評価(PSA)のようなより透明な代替案を模索している。 94
  77. 95 ◼ 司法パフォーマンスの監視と説明責任の強化 • AIは司法部門における外部および内部の監督を通じて、司法システムのパフォーマンス監視と説明責任の強化 に焦点を当てている。AIシステムは裁判所のパフォーマンスに関する洞察を提供し、意思決定における潜在的 な矛盾を特定し、政策評価を支援することができる。ML、NLP、光学文字認識(OCR)技術を統合し、刑事事 件ファイルのレビューと管理を合理化する取り組みが行われている。 • ブラジル最高裁判所(STF)はRAFA

    2030プロジェクトを実施し、MLとディープラーニングを使用してデータ を分類し、SDGsアジェンダの実施を評価している。イスラエルの法務省は公設弁護人事務所内での監督を支援 するためのAI駆動型イニシアチブを実装し、弁護の質の向上と監督メカニズムの強化を図っている。 ▪ 司法行政と司法アクセスにおけるAI ブラジル最高裁判所のRAFA • 2030プロジェクトSTFが実施するRAFA 2030は、MLとディープラーニングを使用してデータを目録化し、STF の全体会議の議題にあるプロセス、プロセスの起源、クラス、完了または進行中のプロセス、および持続可能な 開発目標(SDGs)2030によって分類している。 • 内部のパフォーマンス評価を支援するだけでなく、最高裁判所の決定の文脈でSDGsアジェンダの実施を評価す るための標準化されたフレームワークを提供することで外部の監督も促進している。SDGsによるケースの自動 分類は、裁判所の決定が2030年アジェンダとどのように一致するかについての明確な概要を提供し、STFのパ フォーマンスを他の国際的な高等裁判所と比較することを可能にしている。 • システムはすでに3,315件の裁判所のケースの分類を支援しており、透明性を高め、司法活動をより広範な社会 的目標と一致させる潜在能力を示している。
  78. 96 ◼ 影響の証拠 • 先駆的なイニシアチブは法的情報をよりアクセスしやすくし、多くの人々が司法システムに完全に連携するこ とを長らく妨げてきた障壁を打ち破った。AIの最も重要な影響の一つは様々な法的プロセスを加速させる能力 であり、文書のレビューと分類に必要な時間を削減することで、より多くの事件をより少ない時間で処理する ことを可能にする。しかし、政府は多くの事例について結果と影響を広範囲に収集または文書化しておらず、 既存の証拠は断片化されたままである。 •

    フランスの破毀院の控訴の事前指示のためのAIソリューションは、2020年の補足ブリーフで87%が良好な事前 指示であったことを示している。ペルーのAmauta Pro AIシステムは、保護措置のための決議案を作成するのに 必要な時間を3時間から40秒に短縮し、暴力の被害者に対する司法システム全体の応答性を根本的に強化してい る。しかし、司法システム全体でAIアプリケーションへの関心が高まっているにもかかわらず、国々はその影 響に関するデータを収集・分析するための体系的な仕組みを確立していない。 • これらのツールが人間中心の司法の提供を改善したり、意思決定の正確性を高めたりするかどうかについての 経験的データはほとんどない。構造化された監視がなければ、政府はその利益や意図しない結果に関する明確 な証拠なしにAIソリューションを展開するリスクがあり、情報に基づいた政策決定を行う能力を制限している。 司法システムは歴史的に、データの収集と効果的な利用に課題に直面し、紙ベースのプロセスに大きく依存し てきたことが、この証拠のギャップの背景にある。 ▪ 司法行政と司法アクセスにおけるAI
  79. 97 ◼ リスクと課題の管理関連リスク • 関連リスクはAIシステムにおける不適切または偏ったデータ、透明性と説明可能性の欠如、不正確性、虚偽、 および信頼性の欠如、AIへの過度の依存と政府によるAI利用への反発である。 • VioGénやCOMPASのようなAIシステムはしばしばブラックボックスとして機能し、その基礎となる方法論、要 因の重み付け、潜在的な偏見が公共の精査から隠されている。アルゴリズムの透明性の欠如は、被告が決定に 影響を与えるリスクスコアを理解したり異議を唱えたりするのを妨げ、適正手続きと司法決定における公正性

    に関する懸念を提起する。UNESCOの司法関係者への調査では、回答者の27%がAIチャットボットの出力品質 に懸念を表明し、不正確性、虚偽、信頼性の欠如といった問題を強調した。 • スペインは司法におけるAIの責任ある倫理的な利用のための枠組みを確立し、ギリシャの法務省の常設科学委 員会は司法システムへのAI導入の影響を調査することを目的としたガイドラインを作成している。 ▪ 司法行政と司法アクセスにおけるAI スペインの司法行政におけるAI利用に関する国家政策 • 2024年6月、スペインの電子司法行政技術委員会(CTEAJE)は司法行政における人工知能利用に関する国家政策を承認した。 この政策は司法設定内でのAIの責任ある、合法的、倫理的な利用のための基礎的な枠組みを確立し、技術革新と司法の公正性 との間のバランスをとることを目指している。 • 事件の最初の提出から最終的な解決まで、司法データを扱うあらゆるAIシステムに適用され、司法の独立性に影響を与える可 能性のあるシステムと純粋に行政目的を意図したシステムとの間に明確な線を引いている。許容される利用として内部文書の 要約や機密性のない行政タスクの自動化を概説する一方で、人間の監督なしでの自動化された意思決定や保護されたデータに 基づいた拘束力のある法的コンテンツの生成を明示的に禁止している。監督責任は明確に定義され、AIツールが司法機能に影 響を与える場合はCGPJがアルゴリズム監査を実施し、非司法的文脈ではCTEAJEまたは関連行政当局が監督を担当する。
  80. 98 ◼ リスクと課題の管理関連リスク(続き) • 実装の課題は質の高いデータの不足とそれを共有する能力、スキルギャップ、AI利用に関する実行可能なフ レームワークとガイダンスの欠如。 • 歴史的に司法システムは主に紙ベースであり、健全なデータガバナンスの実装は限定的であった。OECDの OURdata指数によると、司法に関連するデータは弱いパフォーマンスに含まれ、データは容易にアクセスでき ない形式で保持されるか(PDF、紙のファイル)、機関間で一貫性なく記録される。

    • 運用上の適合性は、既存のプロセスとワークフローにAIをシームレスに統合することに焦点を当て、法律専門 家がAIツールを効果的に使用するための訓練を提供することが含まれる。EUのAI法は法執行と司法行政におけ るAIシステムを高リスクとして分類している。英国とコロンビアは、司法行政におけるAIの信頼できる使用につ いての実行可能なガイダンスを導入。 ▪ 司法行政と司法アクセスにおけるAI コロンビアのAI指令 • 2024年12月、司法高等評議会が協定PCSJA24-12243を発行し、司法部門内でのAIの責任ある使用のためのガイドラインを確 立した。包括的な研修プログラム、イニシアチブの実装、ガイドライン開発の3つの構成要素を概説している。2023年1月にカ ルタヘナの裁判官がChatGPTを使用した判決を下したことに対応して発行され、協定以来、裁判所職員の調査、研修プログラ ム、大学や国際機関とのパートナーシップが実施されている。 英国のAI司法ガイダンス • 英国AI司法ガイダンスは裁判所と法廷におけるAIの使用について司法職務担当者に方向性を提供し、関連するリスクとそれら を管理するための措置を概説している。機密性、説明責任、偏見、セキュリティといった主要な考慮事項を含み、AIツールを 使用するための原則を定めている。テキストの要約や管理活動のようなAIが支援できるタスクを特定しつつ、法律調査や分析 といった領域では注意を促している。複数の法域にわたる司法グループによって開発され、将来のイニシアチブには司法界に よって提出された質問に対処するためのFAQ文書の公開が含まれる。
  81. 99 ◼ 未開拓の可能性と今後の道筋 • AIの高度なアルゴリズムとML技術は、司法プロセスがより一貫性があり、透明で、人間の偏見から自由である ことを確保するのを助け、裁判所が効率性と資源を監視するのを助けることができる。AIは矛盾や潜在的な偏 見にフラグを立てることで、リアルタイムで説明責任を改善し、異常なパターンを監視してステークホルダー に警告することができる。システムは特定の人口統計学的グループが不釣り合いに標的にされているか、より 厳しい判決を受けている場合にこれらの不一致を迅速に特定し、対処することができる。 •

    AIシステムは司法の自律性を確保するために、チェックアンドバランスに関する既存のガバナンスメカニズム (行政上の独立性および自律的な司法審査)を伴うべきである。信頼は司法システムにおいて最も重要な側面 であり、決定は個人の生活と社会の信頼に深く影響を与える可能性がある。アルゴリズムの透明性は、倫理的 な理由だけでなく、適正手続きの法的要件を満たすためにも不可欠である。 • AIシステムが既存の社会的格差と司法のギャップを永続または増幅させる可能性は慎重に対処されるべきであ る。司法におけるAIの変革的な可能性は、デジタル変革を促進し、人権を保護する人間中心のアプローチを必 要とする。効果的なガバナンスは、AIアプリケーションを公正性、公平性、手続きの公正性の原則と一致させ るために、政策立案者、法務専門家、技術者の間の協力を伴う。 • 司法システムにおけるAIの信頼できる公平な利用を確保するために、堅固なガバナンスフレームワークと継続 的な監視メカニズムを確立することが重要である。OECD AI原則、政府における信頼できるAIのためのOECDフ レームワーク、AI事件に関するOECD共通報告フレームワークが良い出発点として役立つ。これらは包摂的な成 長、持続可能な開発、人間中心の価値観と公正性の重要性を強調し、AIシステムが透明であり、その決定が影 響を受ける人々によって理解可能であることを求めている。 ▪ 司法行政と司法アクセスにおけるAI