Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AutoPrivacy AI CleanRoom Introduction

Acompany
April 17, 2025
5

AutoPrivacy AI CleanRoom Introduction

AutoPrivacy AI CleanRoomは、秘密計算を用いた生成AIの利用環境を簡単に構築することができる開発基盤です。 秘密計算を活用することで、機密データを秘匿化し、安全に生成AIを利用することができます。

製品に関するお問い合わせはこちら
https://service.acompany.tech/contact

Acompany

April 17, 2025
Tweet

Transcript

  1. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 3 汎用的LLMの限界とプライベートLLMの必要性 汎用的な生成AI(汎用LLM)だけでは、自社業務への適合が弱く、業務改善に限界 自社業務の効率化や価値向上のためには、自社データを活用した生成AIが必要 ⇒ 自社に適したプライベートLLMが必要 STEP

    1 汎用LLMの単体利用や 機密性が低いデータを用いた LLMの利用 STEP 2 機密性が高いデータを用いた LLMの利用 STEP 3 他社など業界横断的に広くデータ を用いたLLMの利用 ✓ 機密性が高いデータを用いたり、業界に特化したLLMを 用いることで、更なる業務改善、顧客への直接的な付加 価値などが創出でき、競争優位性を構築できる 現状 LLM: Large Language Model (大規模言語モデル)、生成AIの一種 今後
  2. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 4 プライベートLLMのメリット 自社や他社の機密情報を用いることで、自社事業に適合した活用が可能 機密情報を利用 開示・漏洩を防ぐ必要がある 高いセキュリティレベルの データをLLMに用いる

    個人情報を利用 プライバシーや営業秘密である 顧客データなど、自社保有の 個人データをLLMに用いる 他社情報を利用 自社ではカバーできない、他社 のデータを、自社データと組み 合わせてLLMに用いる 自社の文脈に合った業務改善や さらなる付加価値向上を実現 顧客の状況に合ったレコメンド など、顧客満足度向上を実現 自社単体データでは創出できな い、新たな付加価値を創出
  3. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 5 プライベートLLMで考慮すべきリスク 機密情報や個人データの活用にはリスクが伴うため、セキュリティ施策をセッ トで考える必要がある 機密情報 漏洩リスク ✓

    機密情報や個人データを新しい用途で頻度高く利用するた め、情報漏洩を起こすリスクが高まる ✓ 閲覧してはいけないデータをLLMが勝手に利用することで、 社内秘が内部で漏洩するリスクが高まる LLMモデル 漏洩リスク ✓ 自社特化LLMモデル自体が誤って漏洩することで、学習した 機密情報や個人データが間接的に漏洩するリスクが発生 ✓ 外部からの攻撃によって、自社特化LLMモデルが外部から盗 まれるリスクが発生
  4. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 6 生成AIを用いて革新的な業務変革を起こすためには 機密情報を生成AIに利用するとともに、それに合わせたAIセキュリティ対策が必要 企業の機密情報を生成AIに利用する 「プライベートLLM」 機密情報を高いレベルで保護する AIセキュリティ

    各企業は生成AIの利用を促進させている が、簡易な文書作成など、機密情報を伴わ ない軽微な領域が中心 今後の生成AI活用を進めるためには、より 企業の業務にとって重要な機密情報を、生 成AIに適用させることが肝要 機密情報を生成AIに適用させるほど、情報 漏洩や知的財産の漏洩など、生成AIへの攻 撃リスクも非常に高くなる サイバーセキュリティや知的財産の保護に 向けた、高度なAIセキュリティ対策が必要 になる 生成AI×秘密計算(機密コンピューティング)を用いた 「AIクリーンルーム」で実現
  5. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 7 AIクリーンルーム(生成AI×秘密計算開発基盤)の概要 開発者が秘密計算を用いたプライベートLLMを簡単に構築できる開発基盤 AIゲートウェイ ホストされたLLM 外部LLM この中の処理は全て暗号化されており、

    誰もデータの中身を把握することができない 生成AI利用者 データ/ 指示 など など AIモデル管理/呼び 出し 不正な学習利用等の 目的外処理の検知※ RAG 企業の固有情報を利用 プログラム実行基盤 Pythonプログラム を実行可能な基盤 AIエージェント開 発等にも利用可能 ※リモートアテステーション機能
  6. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 8 生成AI×秘密計算(AIクリーンルーム)の特徴 ご提供機能 AIゲートウェイ ✓ AIモデルやAIサービスへのアクセスを管理 ✓

    秘密計算技術を利用した、強固なゲートウェイで、外部からの攻撃に強い 入力制御 ✓ 入力データの中から、氏名等の個人に関する情報や危険なワードをチェッ クし、マスキング等を行う RAG ✓ 秘密計算環境上で、機密データを用いたRAG用のデータベースを作成する GPU秘密計算 ✓ AIクリーンルーム上にLLMモデルをホスティングする際は、秘密計算GPU で処理することで高速処理を実現 プログラム 実行基盤 ✓ AIクリーンルームに対して、Pythonプログラムで制御可能 ✓ 企業毎のニーズに合致したプライベートLLMを構築可能
  7. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 9 生成AI×秘密計算(AIクリーンルーム)の利用イメージ 以下のようなケースで、高い効果を発揮 LLM利用企業様向け 機密情報を委託事業者等に開示せず、外部 LLMサービスを利用したい 外部LLM

    機密データ 暗号化 マスキング・変換 • 外部LLMを利用するが、そこに投入するプロンプト等 をマスキング・変換することで外部LLMへの投入リス クを軽減 • また、その処理過程を暗号化することで、委託事業者 にもデータ開示を防ぐことができる 機密情報を利用可能なローカルLLMを、クラ ウドインフラでリーズナブルに構築したい ローカル LLM 機密データ 暗号化 • ローカルLLMを構築する際に、クラウドインフラを用 いることで、オンプレミスよりリーズナブルかつ安全 性を確保した形で実現可能 • プロンプトへの投入から処理結果出力までを全て暗号 化しているため、高い安全性を確保
  8. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 10 生成AI×秘密計算(AIクリーンルーム)の利用イメージ 以下のようなケースで、高い効果を発揮 LLMサービス提供企業様向け 自社AIモデルを利用者に直接開示せずに、 サービスを提供したい •

    自社モデルをサービス提供したいが、利用者側のセ キュリティ等の理由でモデル自体を提供する必要があ る(API経由では難しい) • AIクリーンルームに自社モデルを搭載することで、利 用者が機密データを投下してもらいながら、自社モデ ルも保護することが可能 業界横断的に、機密データの収集・分析・利 用を行いたい 自社モデル (暗号化) 機密データ 機密データ (暗号化) • 業界横断的にデータを収集し、RAGの作成やAIモデル の学習等に利用する • これによって、業界横断でのインサイトを踏まえた LLMサービスを実現する 自社モデル
  9. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 11 生成AI×秘密計算(AIクリーンルーム)の特徴 業界初の、セキュアなプライベートLLM開発基盤 企業内の様々な生成AIアプリケーションを、AIクリーンルーム上で実現可能 秘密計算による 高セキュリティ ✓

    秘密計算環境ではデータやLLMモデルは暗号化された状態で保持 ✓ 仮にデータ漏洩が生じたとしても暗号化されているため安全 コンプライアンス 準拠 ✓ 利用データは委託事業者やクラウド事業者にも閲覧することができないた め、ポリシー準拠が容易に ✓ マスキングやアクセス管理によって個人情報の取り扱いを安全に行うこと が可能 秘密計算GPUによ る高速な処理環境 ✓ 秘密計算に対応したGPUを利用することで、高速処理と高セキュリティを 両立 ✓ 秘密計算GPUの利用を簡単にするツールも備えており利用ハードルが低い
  10. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 12 安全な生成AI利用をガバナンス面からもご支援します AIリスクアセスメントサービスのご紹介 生成AI利用条件 アセスメント 生成AI リスク抽出

    生成AI リスク対策 生成AI利用に関する企業様の背景と課題 • 社内で生成AIの利用に関するケースが急速に増 えている • そこで利用される生成AIやデータの特性に応じ た、リスク分析が求められる • リスク分析には、生成AIに関する技術的理解 や、プライバシーなどは専門知識も求められる 背景 • 寄せられる多くの相談に対応できるキャパシ ティがなく、リスク管理が十分できない • 生成AIやプライバシーに精通した人材確保が難 しい 課題 AIリスクアセスメントサービスの概要 以下のフローで進めることで、的確なリスク分析を実施 Acompanyの強み 技術×法律 に精通 リスク分析 ノウハウ 企画から運 用まで一貫 してご支援 × ×
  11. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 14 AIクリーンルームの適用領域 主に以下の領域での利用を想定 金融 ヘルスケア 製造 防衛

    ✓ 金融・証券・保険等の 領域において、個人の 資産等に関する情報を 保有 ✓ 不正検知などの“守 り”、個人へのサービス 向上のような“攻め”の 使い方が想定される ✓ 医療機関のデータや、 それ以外にもヘルスケ ア関連データなど、個 人の健康に関する情報 が存在 ✓ これらを集積・統合す ることで、創薬や医療 研究、診断支援、健康 アドバイス等の使い方 が想定される ✓ 企業が保有する機密情 報のうち、取引先との 交渉や企業戦略の観点 で重要なデータが存在 ✓ 生産性改善、不正検 知、サプライチェーン 分析などの使い方が想 定される ✓ 国家防衛に関する機密 情報が存在 ✓ 戦略に関する分析や、 同盟国や関連機関との 連携したデータ分析な どの使い方が想定され る センシティブな個人に関する情報 外部流出が致命的になる機密情報
  12. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 15 金融業における生成AI利用の可能性 様々な用途で生成AIの利用シーンが期待されている 分類 項目 概要 顧客対応の高度化

    顧客ニーズの発掘 • AIがより高度なアドバイスを求めている顧客や潜在的な富裕層を識別 し、新商品やサービスの案内を適切に行えるようになる • 顧客データを分析し、顧客のニーズを的確に把握するために、個人情 報や取引履歴を利用 投資判断のサポー ト ファイナンシャルプ ランニング • 個々の顧客の財務状況に基づいたパーソナライズされた金融計画や投 資アドバイスの提供 • 顧客の財務情報へのアクセスが必要 金融商品販売 • 個々の顧客のライフプラン、財務状況などに基づいた最適な金融商品 の紹介 • 顧客のライフプランや財務状況に関する情報が必要 業務効率化 融資審査 • 金融機関が融資審査を行う際に必要となる稟議書を作成 • 顧客の企業情報や過去の事例などをインプットにする
  13. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 16 金融分野における生成AI利用の課題(個人情報保護の観点) 様々な金融機関が、生成AI利用における個人情報保護対策に取り組んでいる が、抜本的な安全措置には至っていない 対策 注意点 AI

    CleanRoomの特徴 個人情報を生成AIサービスに入力 しないよう従業員に注意喚起して いる 注意喚起だけでは限界があり、不 注意や「シャドーIT」による情報 漏洩のリスクがある 個人情報を入れたとしても、処理 全体が暗号化されているため、不 正利用や情報漏洩を防ぐ 個人情報を生成AIサービスに入力 しないよう、自動的な制御を検討 している 個人情報・機密情報のマスキング は、今の技術では精度に限界があ る(100%が担保されるものでは ない) マスキングに加えて、データ処理 全体を暗号化することで、個人情 報・機密情報が外部に漏洩する機 会をゼロにする 入力したデータが再学習に使われ るのを防ぐために、専用区間を設 けて環境を構築している 専用区間を設けるだけでは、クラ ウドプラットフォーマー等の管理 者権限を持つ事業者からの攻撃リ スクは排除されない AI CleanRoomでは、利用者が規 定した動作以外を許容しないため、 再学習に用いるなどの目的外利用 を防ぐことが可能 ※金融庁「AIディスカッションペーパー(第1.0版)」を参考に、Acompanyにて作成
  14. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 17 金融分野における生成AI利用の課題(情報セキュリティの観点) 個人情報保護と類似しているが、情報セキュリティでも安全性・利便性・コス トのバランスで苦慮している 対策 注意点 AI

    CleanRoomの特徴 機密情報や個人情報の入力をシステ ム上で自動的に制限する仕組み(マ スキング等)を検討しているが、完 全にブロックできるわけではなく、 最終的には従業員教育や運用ルール の徹底に頼らざるを得ない マスキングや注意喚起は、実 施することが有益ではあるが、 完全にそれで防げるわけでは ない 個人情報を入れたとしても、処理 全体が暗号化されているため、不 正利用や情報漏洩を防ぐ 大半の金融機関が、機密情報のデー タ利用は不可とするなど、プロンプ トの入力データについて一定の制約 を設けている 機密情報のデータ利用を不可 とする場合、機密情報を用い た業務改善やサービス向上は 実現できない 機密情報を外部に漏洩せず、安全 性を確保しながら、生成AIサービ スを利用することが可能 自社専用環境で生成AIサービスを導入 するなど、入出力情報が管理できる システム環境を構築 オンプレミス環境はイニシャ ル・ランニングコストが高く なる傾向 AI CleanRoomでは、クラウドイ ンフラを利用しながら実現するこ とが可能であり、コスト面でもメ リット ※金融庁「AIディスカッションペーパー(第1.0版)」を参考に、Acompanyにて作成
  15. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 18 参考)金融生成AIサービスに求められるセキュリティ・プライバシー機能 AutoPrivacy AI CleanRoomは機密性が高いデータを取り扱う要件を満たす 分類 リスク項目

    AutoPrivacy AI CleanRoom 外部サービス(GPT、Gemini 等) ローカルLLM(プライベートクラ ウド含む) 機密情報管理 顧客情報、金融取引データ、財務デー タなどの機微な情報を適切に管理し、 漏洩や不正アクセスから保護する ◎ データ処理全体が暗号化されてお り、漏洩や不正アクセスから保護 × APIを経由してデータを送信する △ 委託先の内部犯行や不備などのリ スクは残る 入力データのモニタリングと検知シス テムを導入し、不正利用を防止する ◦ ガードレール機能を有しており、 個別カスタマイズも可能 △ 汎用的な対応は行っているが、業 界特有等の対応には限界 ◦ ガードレール機能を有しており、 個別カスタマイズも可能 アクセス制御を適切に設定し、必要な 情報のみアクセスできるようにする ◎ 秘密計算を用いたAIゲートウェイ 機能を有し、必要最小限のアクセ スが担保される × APIへのアクセス制御を行うこと はできるが、外部サービス内のア クセスは管理不可 △ アクセス管理を行うことは可能で あるが、管理者権限は委託先が有 しており、内部脅威は残る プライバシー保 護 入力データから個人情報や機密情報を 適切に除去または匿名化する ◦ マスキング機能によって対応可能 × × 個人データを本人の同意なくプロンプ ト入力する際には、生成AIサービス提 供事業者が、個人データを機械学習に 利用しないことなどを十分に確認する ◎ 秘密計算の機能によって、技術的 に学習等の不正利用が行われてい ないことを検証・担保することが 可能 × 契約のみ △ 仕様等を決めることは可能である が、管理者権限は委託先が有して おり、内部脅威は残る サイバーセキュ リティ対策 データや生成AIの改ざんを防ぐ ◎ 秘密計算の機能によって、改ざん 防止を技術的に担保する △ 事業者のサービスや対策状況によ る △ 事業者のサービスや対策状況によ る 生成AIの特性を利用した新しい攻撃や 犯罪を想定し、対策を講じる ◎ AIゲートウェイ・秘密計算をベー スに、ゼロトラストの防御システ ムになっている △ 事業者のサービスや対策状況によ る △ 事業者のサービスや対策状況によ る ※一般社団法人金融データ活用推進協議会のFDUA生成AIガイドライン(第1.0版)を参考に、Acompanyにて作成
  16. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 22 個人情報保護法の改正に関する動向 これまで・これからの動き 2024年9月 「3年ごと見直し に係る検討の中 間整理」に対す

    る意見募集 2024年10月 3年ごと見直しに 係る検討の充実 に向けた視点 (案) 2025年2月 個人情報保護法の 制度的課題に対す る考え方(案)に ついて(個人デー タ等の取扱いにお ける本人関与に係 る規律の在り方) 2025年3月 個人情報保護法の 制度的課題に対す る考え方(案)に ついて 2024年度 2025年度 2025年10月頃? 臨時国会における 法案提出 パブリックコメントを受け て、本人の第三者提供の同 意取得を伴わないデータ利 用の可能性について言及 個人情報保護委員会の公式 な見解として、本人の第三 者提供の同意取得に対する 方針を明確化 現時点での全体論点を網羅 した報告書の中で、改めて 本人の第三者提供の同意取 得に対する方針が明記 現時点では、秋の臨時国会 で個人情報保護法の改正法 案が提出される可能性が高 い
  17. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 23 現行の個人情報保護法におけるデータ利活用の課題 法改正によって、一定の規律を条件に、本人からの第三者提供の同意に伴わ ず、個人データを利用できるようになる 突合 分析 事業者A

    事業者B 個人データ 個人データ 分析結果 データ分析事業者 条件① 分析結果が、統計情報やAI モデルなど「個人のプライ バシーと関係ない」情報で あるなら、本人からの第三 者提供の同意は不要 条件② 個人のプライバシーが侵害されていない ことを担保する、一定の規律を設ける
  18. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 24 法改正後に実現できること 予想される動向 データコラボレーションの増加 ✓ すでにデータクリーンルームなど、プライバシーに配慮したマーケティングソリューションが登場しているが、 さらに発展して、様々なデータの連携・統合分析が実施される

    ✓ リテールメディアなど、購買行動に直結するデータをはじめ、個人データを保有する企業を中心に、様々なデー タの取り込みが促進されると予想 ✓ 統計的な利用に限定されるため、ユースケースとしては、事業者間での特定条件を満たすセグメント条件(商品 XXの購買確率が高いセグメントの特定)や、特定のサービス購入確率が高いAIモデルの構築などが想定される 業界特化AI構築の動きが加速 ✓ 様々な企業間でデータの連携・分析がしやすくなるため、業界特化型AI構築の動きも加速するのではないかと思 われる ✓ 例えば、データの機密性が高く専門性も高い、そのため集積・連携が困難な金融・医療・公共などの分野で、業 界特化型のAIモデル構築が可能になる ✓ この際、秘密計算上で直接AIモデルを構築するアプローチと、統合したデータを学習した合成データを生成し、 合成データを用いてAIモデルを構築するアプローチの両方が考えられる
  19. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 25 個人情報保護委員会の公式文書 統計情報等の作成のために、複数の事 業者が持つデータを共有し横断的に解 析することが、本人同意なき個人デー タの第三者提供が可能と明記 「統計情報等」には、AIモデルも含ま

    れる 「統計情報等の作成にのみ利用される ことを担保」するため、現行の個人情 報保護法における安全対策とは別で、 ガバナンスのための規律が設けられる 想定 2025年3月5日発表 個人情報保護法の制度的課題に対する考え方(案)について
  20. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 28 コア技術:秘密計算(Trusted Execution Environment) • TEEとは、ハードウェアレベルで安全な秘匿化したまま処理できる環境のこと •

    ハードウェアの製造段階で秘密鍵が埋め込まれ、設計上は鍵が漏洩しないため、TEE内のデータはそも そもアクセスが困難である上に、仮にアクセスできても秘匿化されているため、グローバルで安全性が 評価され、普及しつつある ハードウエアチップ上の処理環境 専用の処理環境 (Trusted Execution Environment) 秘匿処理装置 秘匿メモリ 埋め込み鍵 (秘密鍵) 入出力データのみ アクセス可能 (処理途中データは アクセス不可能) プログラムの改ざん防止 処理途中のデータの閲覧防止 入出 API 通常の 処理環境 図: TEEの安全な実行環境の概要
  21. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 29 TEE(Trusted Execution Environment)とは 管理者権限を取られたとしても、メモリ内のデータの閲覧は不可 処理回路 (

    CPU ) メモリ 管理者権限を 奪取した攻撃者 管理者権限があると 処理途中のメモリ内のデータを閲覧可能 処理回路 ( CPU ) メモリ 管理者権限を奪取した攻撃者 暗号化されているため 閲覧不可能 安全な領域 (Enclave) 管理者権限をとられても 処理途中のメモリ内のデータは閲覧不可 TEEなしのシステム TEEありのシステム
  22. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 30 グローバルでも秘密計算の活用が広がる 事例:Appleの生成AI技術、Apple Inteligence ✓ 軽量なタスクはデバイス上の言語モデルで処理し、 より大規模なタスクはPrivate

    Cloud Compute(PCC) サーバー上の言語モデルを利用 ✓ PCCのApple SiliconサーバにはSecure Enclaveという TEEが搭載 ✓ PCCに送られた個人データはユーザの要求した操作に のみ使用され、Appleでさえアクセスできない* *第三者が暗号学的に検証可能 TEEによるプライバシー重視の生成AIプラットフォームを発表 https://support.apple.com/ja-jp/guide/security/sec59b0b31ff/web
  23. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 31 グローバルでも秘密計算の活用が広がる 事例:GoogleのConfidential Matching ✓ Google広告データマネージャーから、自社データを接 続する際に、デフォルトでConfidential

    Matchingが適 用される ✓ Confidential MatchingではTEEが採用されており、自社 データが保護された状態で分析が可能 ✓ TEE内でGoogleデータと自社データの重複が識別され て、一致したデータは規定した方法で使用できる カスタマーマッチ用のデータ接続にTEEがデフォルト採用 https://blog.google/products/ads-commerce/google-confidential-matching-data-privacy/ https://www.linkedin.com/pulse/what-googles-confidential-matching-how-foster-without-vallaeys-26uqc/
  24. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 32 TEE(Confidential Computing)の市場 TEEを中心としたConfidential Computing市場は、9年で約50倍へと急拡大 Confidential Computing*市場規模の推移

    $7.2B (約1.08兆円) 2023 $350B (約52.5兆円) 2032年 CAGR(年間平均成長率) 50.5% Fortune business insightsより *Confidential Computing(以下、CC)とは、クラウド 環境やエッジデバイスを含むあらゆる計算環境をデータ を暗号化された状態で処理する技術全般を指す。
  25. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 36 TEE開発プレイヤー TEEを容易に処理するためのミドルウエア部分を取り扱うことができる プレイヤーは世界的に限られており、Acompanyはアジア圏でも希少 Microsoft Azureにおける秘密計算(TEE)のサービス提供者リスト •

    Anjuna(米国) • BeeKeeperAI(米国) • Decentriq(スイス) • Edgeless Systems(ドイツ) • Enclaive System(ドイツ) • Fortanix(米国) • Habu(米国) • Mithril Secutiry(スイス) • Opaque Systems(米国) • SCONE(ドイツ) https://learn.microsoft.com/en-us/azure/confidential-computing/partner-pages/partner-pages-index
  26. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 37 AcompanyのConfidential Computingに関する技術的優位性 IntelSGXの 運用実績 • Intel

    SGXを用いたデータクリーンルームで実用化に成功 • 国内ではおそらく初であり、IntelのSGXチームに確認したところ、世界的にもまだ実 用レベルのケースは希少 幅広い 技術カバー • IntelSGX以外にもConfidential Computingは複数の製品が登場しているが、幅広く対 応している • VM型(AMD-SGV-SNP、IntelTDXなど)、GPUのCC(NVIDIA)に対応 • ビジネスニーズやセキュリティ要件に合わせて、最適な設計・構築が可能 CC開発基盤 • 複数のConfidential Computing製品に対応しながら、開発者がそれらを意識せずに開 発・実装可能なCC開発基盤を開発中(現在、実フィールドで検証中) • 実現することで、開発者が特別な知識を伴わずにCCを利用しながらアプリケーション を構築可能になる 特許 • Confidential Computingに関する特許を複数出願済み • アルゴリズム、アーキテクチャ、データ処理など複数領域
  27. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 39 【参考】Acompanyのロビイング デジタル庁のデータセキュリティWGでConfidential Computingを議論するな ど、関連省庁で重要性や必要性を説明 • デジタル庁・経産省・防衛省らと、TEE関連技術の国内保有の方針を議論中

    (特に、TEEのミドルウエア部分の国内技術保有の重要性を議論中) • デジタル庁にてDFFTや経済安全保障の観点で、国家機密情報の安全管理のセキュリティ技術を議論す る「データセキュリティWG」が発足(Acompany竹之内も委員参画、NEC様も参画) ⇒ 本WGの検討結果を踏まえた、国策(国内技術保有の助成、関連法案作成など)が検討される
  28. STRICTLY CONFIDENTIAL©️Acompany Co.,Ltd. 40 【参考】企画から導入まで一貫した対応 秘密計算などの機密性が高いシステムの導入までには、ビジネス・法務・ITで、 領域を跨いだ企画検討が必須 ビジネス 法務 IT

    サービス利用者のメリット データ提供者の作業的・心理的負担軽減 利用できるデータソース・分析結果の種類 etc. プライバシー規制(個人情報保護法等)含めた リスク分析 弁護士・有識者・規制当局等への確認・裏付け 同意書・規約・社内規定等の法的対応 etc. プライバシー規制への法令遵守のための加工要 件の設計 プライバシー保護技術の特性・制約を踏まえた データ処理設計 その他、安全管理措置を講じたシステム構築 etc.