Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[Human-AI Decision Making勉強会] 説明を部分的に見せることで人に考え...

Avatar for mei28 mei28
November 19, 2025
50

[Human-AI Decision Making勉強会] 説明を部分的に見せることで人に考えさせ、AIへの不適切な依存を減らす

2025/11/19 Human-AI Decision Makingの発表資料
Cognitive Forcing for Better Decision-Making: Reducing Overreliance on AI Systems Through Partial Explanations
CSCW2025

Avatar for mei28

mei28

November 19, 2025
Tweet

More Decks by mei28

Transcript

  1. 本日紹介する論文 3 Cognitive Forcing for Better Decision-Making: Reducing Overreliance on

    AI Systems Through Partial Explanations • 著者:SANDER DE JONG, VILLE PAANANEN, BENJAMIN TAG, NIELS VAN BERKEL • 発表:CSCW 2025 https://dl.acm.org/doi/pdf/10.1145/3710946 ゴール :AIの助言を“ちょうどよく”採用されるようにする 課題 :AIが間違っていても、説明がわかりやすいと、つい鵜呑みする(=過信) アイデア:説明をあえて部分的して、ユーザに自分の頭で考えさせる(=認知強制) 結果 :AIを過信するリスクが減少する
  2. 背景:過信の発生原因 5 • アンカリング効果 • 最初に見たAIの助言に影響を受けた判断をする → 助言のタイミングを変更し ただけで改善される[29] •

    確認コストの高さ • 全部説明されると、人間は簡単に確認するだけで、きちんと確かめない • 過剰な安心感 • 説明内容が妥当そうに見えると、正しそうに感じてしまう • これらに対処するために、認知的強制[18]を用いた方法を検討する
  3. 背景:認知的強制によって、過信を減らしたい 6 • 認知的強制とは、人間自身がより考えるように促す仕組みを指す。 • 回答を振り返る[6,57], 助言を提示せず説明のみを提示[26]など様々な方法で認 知的強制をさせた • 例えば「反対理由を考えさせる」のも、その一つ

    • https://tinyurl.com/jcrurs (別のところで紹介した論文の中で扱っている) • 完全に過信をなくせたわけではないが、過信を減少させる傾向を確認 • 本研究では、「説明を部分的に見せ、ユーザに考えされる」という認知的強制によ る効果を確かめる
  4. 研究1:最短経路問題 8 • 指定された開始ノード、終了ノードを結ぶ経路のなかで、重みが最小となる経路 を見つける(重みを合計を回答) • Baseline : AIの説明が何もない •

    Single edge : 正答経路のうち、ランダムに選択された1つのエッジを強調 • Ends : 正答経路のうち、最初と最後のエッジを強調 • Full : 正答経路をそのまま提示
  5. 研究1:測定項目 10 • パフォーマンス: 実験参加者の回答した値が、正答しているか • AIの依存度: 参加者の回答がAIの助言とどれだけ一致しているか • 課題の難易度:

    自己申告で課題の難易度の5段階リッカートで評価 • 有用性: 自己申告でAIの助言と説明の有用度を5段階リッカートで評価 • 確信度: 自己申告でのAI助言と説明の確信度を5段階リッカートで評価
  6. 研究1、2の結果まとめ 19 • 研究1、2から説明を与えることで、パフォーマンスの向上が確認できた(既存研究 と同様の結果) • 説明が与えられることによって、AIへの依存を高めることが確認できた(既存研 究と同様の結果) • 完全な説明と比較して、部分的な説明を提示した時、AIの助言への依存が減少す

    る傾向を確認 (個人的にはパフォーマンスも低下しているから過信を抑えるとは言えないのでは?) • 説明の粒度は、タスクの難易度にも影響されることも確認 • 難易度“中”のタスクは、難易度“易”、“難”と比較して、パフォーマンスが低下す ることが確認された。
  7. 議論 20 • 部分的説明は、認知強制の既存手法と結果と過信を抑えることで一致 • 提示される説明が一部(間違っていること)がユーザに再考させることを強制 させることができた • ただ一方で、ユーザにとっては、部分的な説明(=不完全な説明)は満足度を下げ る

    • 満足度と過信防止のトレードオフが存在 • 完全な説明と比較して、タスク完了時間が増加するデメリットがある • 同じタスクでも難易度の違いによって、説明の効果が異なる • 説明有効性の一般化をするにあたって、注意しなくてはならない
  8. 紹介した論文 21 Cognitive Forcing for Better Decision-Making: Reducing Overreliance on

    AI Systems Through Partial Explanations • 著者:SANDER DE JONG, VILLE PAANANEN, BENJAMIN TAG, NIELS VAN BERKEL • 発表:CSCW 2025 https://dl.acm.org/doi/pdf/10.1145/3710946 ゴール :AIの助言を“ちょうどよく”採用されるようにする 課題 :AIが間違っていても、説明がわかりやすいと、つい鵜呑みする(=過信) アイデア:説明をあえて部分的して、ユーザに自分の頭で考えさせる(=認知強制) 結果 :AIを過信するリスクが減少する