薛志荣的知识库
  • CHI 2025
  • AI
  • HCI
  • XR
  • 机器人和数字人
  • 访谈
  • 发布会
  • WWDC
翻译
工具
  • 个人感悟
  • 人工智能
  • 人机交互
  • 采访
  • 用户体验
关于我
  • CHI 2025
  • AI
  • HCI
  • XR
  • 机器人和数字人
  • 访谈
  • 发布会
  • WWDC
翻译
工具
  • 个人感悟
  • 人工智能
  • 人机交互
  • 采访
  • 用户体验
关于我
  • 解释、公平与适当依赖:人工智能辅助决策中的影响

    • 论文总结
      • 研究机构
      • 摘要
      • 问题发现
      • 解决方案
      • 结果
    • 举一反三

解释、公平与适当依赖:人工智能辅助决策中的影响

论文总结

研究机构

The University of Texas at Austin, USA University of Bayreuth, Germany

摘要

本研究聚焦于人工智能(AI)辅助决策中,解释、公平性与适当依赖之间的关系。研究者Jakob Schoeffer, Maria De-Arteaga和Niklas Kühl通过一项基于 BIOS 数据集的实验,探索了不同类型的解释如何影响用户对AI推荐的接受度,以及这是否能促进分配公正。结果表明,解释可能会影响人们对AI决策公平性的感知,并且在选择依赖或不依赖AI推荐时有所作用。然而,对于任务相关特征的解释可降低错误率差异,而性别相关的解释则可能导致错误率差异增加。此外,人们的公平感知与他们是否纠正AI的误判有关,但并不一定意味着人们能更准确地区分正确和错误的AI建议。研究者提出,设计解释时应考虑提供对实现目标有帮助的相关提示,以促进分布公正,并指出当前流行的基于特征的解释方法可能不足以提升这一公正性。

问题发现

  • AI辅助决策中的解释是否有助于提高公平性和适当依赖。
  • 不同类型的解释(如关注任务相关或性别相关特征)如何影响用户行为。
  • 用户对AI推荐的依赖程度与其对系统公平性的感知之间的关系。

解决方案

  • 开展一项随机实验,比较了两种类型解释的影响:一种强调任务相关词汇,另一种强调可能与性别相关的词汇。
  • 分析参与者在不同情况下的决策准确性、是否接受或反驳AI建议,以及他们对AI公平性的感知。
  • 通过收集数据和分析,探索解释、公平感知和依赖行为之间的关系。

结果

  • 提供了任务相关解释的条件下,人们的错误率差异较小,而性别相关解释可能导致错误率差异增加。
  • 参与者在看到性别相关解释时更可能纠正AI的误判,但这种纠正行为并不一定减少整体错误或提高决策准确性。
  • 公平感知和依赖行为之间存在负相关,即公平感知越低,参与者越倾向于反驳AI建议,但这并不意味着他们能更好地判断AI建议的正确性。

举一反三

Q1:解释对决策准确性的影响是什么?

A1:根据研究,解释可以增强人们在欺骗检测任务中的决策准确性。然而,在我们的实验中,提供解释并未显著提高参与者的决策准确性。

Q2:公平感知如何与解释和依赖性相关联?

A2:参与者对AI决策过程的公平感知会影响他们是否以及多大程度上依赖AI建议。较高的公平感知与较少的依赖度有关,这表明人们在相信系统更公正时可能更少地遵循AI推荐。

Q3:性别化解释如何影响人们的决定?

A3:性别化解释可能会增加对女性的错误分类,并可能导致参与者更频繁地纠正和违背这些推荐。这可能是因为解释中的性别相关特征引发了关于公平的问题,进而影响了人们的决策行为。


信息来源

  • https://dl.acm.org/doi/fullHtml/10.1145/3613904.3642621

内容由MiX Copilot基于大语言模型生成,有可能存在错误的风险。

MIT Licensed | Copyright © 2024-present 薛志荣的知识库