Upgrade to Pro — share decks privately, control downloads, hide ads and more …

意思決定支援AIのための心理学・認知科学_論文紹介

rinabouk
November 20, 2024
30

 意思決定支援AIのための心理学・認知科学_論文紹介

rinabouk

November 20, 2024
Tweet

Transcript

  1. ナッジを使って意思決定が改善する過程 Callaway, F., Hardy, M., & Griffiths, T. L. (2023).

    Optimal nudging for cognitively bounded agents: A framework for modeling, predicting, and controlling the effects of choice architectures. Psychological Review.
  2. / 86  u背景 u数理モデルの提案 u行動実験と数値モデルの一致を示す u実験1 デフォルト選択肢 u実験2 代替案を示す

    u実験3 情報ハイライト u最適なナッジの構築方法 u実験4 信念更新に最適なナッジの提案 u実験5 探索コストを削減するナッジの提案 u考察・まとめ  論文の概要
  3. / 86   提案モデル オプション"の特徴量#を考える計算操作 現在の信念┛ 報酬関数$!"#$が、計算コストと行動した際の報酬の、両方を記述する (式5, 6)

    $!"#$ %, '$,& , ( = −,$,& for ' ≠⊥ (式5) $!"#$ %, ⊥, ( = $'()"*# (, " ∗ % = ∑ & 1& 2$∗ ( ,& (式6) ┗オプション"の特徴量#を考えるコスト 選択肢の特徴とエージェントの選好を指定する状態 現在の信念%での期待値が最大になるオプション(行動)" 特徴量#の重み 信念%で選んだオプション"の特徴量#の値
  4. / 86   情報ハイライトナッジ 行動実験 5つのバスケットから、得られるポイントが最も高い1つを選ぶ 各バスケットには 賞品A, B,

    Cが いくつかずつ 入っている。 Aが1個、Bが2個、Cが3個入っているバスケット 20×1+ 9×2+ 1×3 = 41ポイント マウスラボ 意思決定に関する有名な実験 実験画面 https://stoplight-highlighting.netlify.app/
  5. / 86   情報ハイライトナッジ 行動実験 1 コスト -3 マウスラボ

    意思決定に関する有名な実験 実験画面 https://stoplight-highlighting.netlify.app/
  6. / 86   情報ハイライトナッジ 行動実験 1 6 コスト -6

    マウスラボ 意思決定に関する有名な実験 実験画面 https://stoplight-highlighting.netlify.app/
  7. / 86   情報ハイライトナッジ 行動実験 1 6 3 コスト

    -9 マウスラボ 意思決定に関する有名な実験 実験画面 https://stoplight-highlighting.netlify.app/
  8. / 86  応用:意思決定支援AI Li, Z., Lu, Z., & Yin,

    M. (2024, March). Decoding AI’s Nudge: A Unified Framework to Predict Human Behavior in AI-assisted Decision Making. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 38, No. 9, pp. 10083-10091). 
  9. / 86  応用:LLMの行動アライメント Cherep, M., Singh, N., & Maes,

    P. Superficial Alignment, Subtle Divergence, and Nudge Sensitivity in LLM Decision-Making. In NeurIPS 2024 Workshop on Behavioral Machine Learning.  人にみせるデフォルトナッジ LLMに与えるデフォルトナッジ デフォルト選択肢を選択する確率 ChatGPT-4o + few shot prompt ▷ ナッジへの反応が最も人間に近い 行動の説明を要求 ▷ ナッジへの反応は人間に近づかず (Appendix A2, A3)
  10. 過度な解釈可能性は理解を妨げる Kaur, H., Conrad, M. R., Rule, D., Lampe, C.,

    & Gilbert, E. (2024). Interpretability Gone Bad: The Role of Bounded Rationality in How Practitioners Understand Machine Learning. Proceedings of the ACM on Human-Computer Interaction, 8(CSCW1), 1-34.
  11. / 86  背景 u機械学習(ML)の実務家やユーザーがMLモデルを正しく理解することが必要 u解釈可能性ツールが開発されてきた uこれらはどこまで有効か? uツール ▷ 情報過多や過度の信頼

    ▷ 正確な判断を妨げる 目的 u解釈可能性ツールがML実務家の判断の正確性や認知的負荷に与える影響の検証 u人間が解釈可能性ツールを十分に使いこなせない理由として、限定合理性を仮定  背景&目的
  12. / 86  ubounded rationality (限定合理性) u人間の認知能力には限界がある usatisficing (満足化) =

    satisfy + suffice u人間は、目的関数が最大化されなくても、ある閾値を達成すれば満足する。  心理学・認知科学の知見 Herbert A Simon. 1955. A behavioral model of rational choice. The quarterly journal of economics 69, 1 (1955), 99–118.
  13. / 86   評価項目 限定合理性を反映 ML/解釈可能性 の文脈から設定 従属変数 5種類

    具体的な取得方法 ▷ 表2 & 補足資料 表2 その他の質問項目 ①正確 or ②もっともらしく正確 or ③視覚的にもっともらしいが不正確 or ④ヒューリスティックに基づきもっともらしいが不正確 or ⑤不正確
  14. / 86  uML実務家 119人 uSNS, Discord, Slack, メーリングリストなどで募集 u報酬

    25ドルのAmazonギフト券 u被験者間実験 u実験参加者 Google Colab で動かす uhttps://drive.google.com/drive/folders/1jJv_KH8GxVGJKGTAXBXp70xWlueZmr2_ uAdult Income データセット uデータの欠損を追加 u冗長な特徴量をそのまま残した u同じ意味を持つ特徴量(カテゴリ値の「Education」、数値の「Education-num」)  その他実験条件
  15. / 86  uモデルへの挙動への理解(メンタルモデル)やユーザビリティ ▷ インタラクティブな説明が最も低い  結果 視覚的説明 インタラクティブな説明

    その特定のUI [対話型ツール]は操作が⾮常に煩雑です。⾊や⽂字、切り替えボタンが⼤量 に表⽰され、ツールから実際に洞察を得るには負担が⼤きすぎるように感じられました。 視覚的説明 インタラクティブな説明
  16. 人間の理解に適した説明 Sumers, T. R., Ho, M. K., Hawkins, R. D.,

    & Griffiths, T. L. (2023). Show or Tell? Exploring when (and why) teaching with language outperforms demonstration. Cognition, 232, 105326.
  17. / 86  意思決定支援AIにおける課題 uどのようなXAIが人間にとって”良い”のか、結論が出ていない。 u因子型?事例型?反実型? u識別・分類タスクを例に  発表者による前提の補足 *Wang,

    X., & Yin, M. (2021, April). Are explanations helpful? a comparative study of the effects of explanations in ai-assisted decision-making. In 26th international conference on intelligent user interfaces (pp. 318-328). *van der Waa, J., Nieuwburg, E., Cremers, A., & Neerincx, M. (2021). Evaluating XAI: A comparison of rule-based and example-based explanations. Artificial Intelligence, 291, 103404. *Chen, V., Liao, Q. V., Wortman Vaughan, J., & Bansal, G. (2023). Understanding the role of human intuition on reliance in human-AI decision-making with explanations. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW2), 1-32.
  18. / 86  背景 u人間にモノを教えるときに、どのように教えるべきか? uデモンストレーション(例)を見せる vs 言語で説明 u教示のモダリティの違いを直接比較した研究がなかった 目的

    uどちらがどのようなときに優れているか明らかにする uデモンストレーション(例)を見せる vs 言語で説明 目次 u実験1 デモンストレーション説明 vs 言語で説明 u実験2 教師が、学習すべき特徴量の一部を知らない場合  背景&目的
  19. / 86   手法 ブール複雑度1 形 ブール複雑度4 色・塗りつぶし ブール複雑度6

    形・色・塗りつぶし https://www.researchgate.net/ publication/304706819_Chunk_ formation_in_immediate_mem ory_and_how_it_relates_to_dat a_compression/figures
  20. / 86  心理学・認知科学 ▷ 意思決定支援AI u抽象的な概念を伝えられる因子型のXAIが良いのではないか uデモンストレーション:事例型のXAI、言語:因子型のXAI uXAIで議論される事例は、本研究より複雑・抽象的 意思決定支援AI

    ▷ 心理学・認知科学 u本研究と反する結果が出たAI・XAIの実例を検討 u信頼など、AI・XAI周りでよく出る概念を絡めた検討 u反実仮想的説明など、AI・XAI周りの対象を検討 「良い説明とは?」心理学分野(かなり基礎的な側面)でも答えが出ていない問い ▷ XAIで議論する意義……?  発表者の所感
  21. / 86   似た時期の同じ雑誌の似た論文 Moskvichev, A., Tikhonov, R., &

    Steyvers, M. (2023). Teaching categories via examples and explanations. Cognition, 238, 105511. 心理学・認知科学の背景 uカテゴリー学習(category learning または categorical learning) u人間が、どのように識別・分類タスクを学習するか uどのような説明がカテゴリー学習に有効か、結論がでていない。 比較したこと 視覚的例示 vs 言語で説明 結果 知覚的に曖昧な対象 ▷ 言語的説明の有効性が著明に低下
  22. / 86  uAI・情報科学研究者 ▷ 査読者も、心理学・認知科学を知らない。 u心理学・認知科学研究者 ▷ AIを研究題材にする義理はない。 u心理学・認知科学

    ⇄ AI・情報科学 循環できるのは世界に数チーム u脳神経科学系・強化学習系を含めても  お気持ち 「ふぅん」と思っていただければありがたいです。 https://store.line.me/stickershop/product/13716526/ja?from=sticker