薛志荣的知识库
  • CHI 2025
  • AI
  • HCI
  • XR
  • 机器人和数字人
  • 访谈
  • 发布会
  • WWDC
翻译
工具
  • 个人感悟
  • 人工智能
  • 人机交互
  • 采访
  • 用户体验
关于我
  • CHI 2025
  • AI
  • HCI
  • XR
  • 机器人和数字人
  • 访谈
  • 发布会
  • WWDC
翻译
工具
  • 个人感悟
  • 人工智能
  • 人机交互
  • 采访
  • 用户体验
关于我
  • 从XAI到用户背景:人工智能背景如何塑造对AI解释的感知

    • 论文总结
      • 研究机构
      • 摘要
      • 问题发现
      • 解决方案
      • 结果
      • 结论
    • 举一反三

从XAI到用户背景:人工智能背景如何塑造对AI解释的感知

论文总结

研究机构

佐治亚理工学院,微软,Illumio,佐治亚理工学院,IBM 研究院

摘要

本研究由Upol Ehsan、Samir Passi、Vera Liao和Larry Chan等人进行,他们来自不同的学术和工业背景。他们通过一项用户研究探讨了人工智能(AI)背景如何影响人们对AI解释的感知。研究发现,AI背景(或缺乏 thereof)对用户的理解、信任以及对AI系统行为的反应有着显著的影响。特别是,具有AI背景的用户倾向于更重视系统的“智能”表达,而非仅仅是结果,而没有AI背景的用户可能更多地基于确认和稳定性来评价AI的行为。研究通过实证数据提出,设计人员在开发XAI(可解释的人工智能)时应考虑到用户的AI背景差异,并建议采用适应不同背景的设计策略,以避免不适当的信任或对系统的误解。

问题发现

作者们观察到,在人工智能解释的接收和理解上,用户之间的个体差异是显著的。具体来说,他们发现:

  1. AI背景:拥有AI课程背景的人与无此背景的人在评价AI系统时表现出不同的偏好。
  2. 对解释的依赖:用户可能基于对系统的信任程度、错误容忍度以及对AI智能的感知来评估解释的价值。
  3. 数字和算法的盲目信任:无论是AI背景还是非AI背景的用户,都倾向于将数字或算法的存在视为AI智能的象征。

解决方案

为了缓解因AI背景差异导致的解释理解问题,研究提出以下建议:

  1. 多元化解释方式:设计既包含功能性解释(如AD机器人)又具有可解释性(如RG机器人)的混合风格解释。
  2. 增加反思元素:通过将数字与语言结合,促使用户进行更深入的理解和思考(例如提供可以“展开”的Q值以解释自然语言)。
  3. 教育改革:针对AI教育,强调伦理和技术的融合,培养未来设计者理解和考虑不同用户背景的能力。

结果

研究结果显示:

  1. 用户评价:AI背景的参与者更倾向于根据系统的“智能”来评价,而非仅仅是行动的结果或确认性反馈。
  2. 信任与理解:非AI背景的用户在寻求稳定性和确认时,对无解释性(NR)机器人的接受度较高,而有解释性的RG机器人则更受青睐。
  3. 数字的信任偏误:尽管存在数字和算法的盲目信任,但通过设计可以引导用户进行更有意识的反思。

结论

研究强调了在开发XAI时考虑用户背景的重要性,并提出了针对性的设计策略。这有助于减少潜在的解释性陷阱(EPs),即无意识地通过添加AI解释而产生的负面后果。

举一反三

Q1:用户对AI背景的理解如何影响他们对AI解释的接受度?

A1:用户的AI背景,如技术水平和教育程度,会影响他们解读AI系统提供的解释。具有AI背景的用户可能更倾向于理解和接纳复杂、技术性的解释,而非AI背景的用户则可能更偏好简单且能确认系统行为的解释。

Q2:不同类型的AI解释(自然语言、数字和行动声明)如何影响用户的感知?

A2:实验结果显示,提供理由(rationale)的AI解释被看作最具说服力,其次是非解释性的行动声明(action-declaring),而仅给出数字的解释则在确认系统性能方面受到非AI背景用户的价值肯定。

Q3:如何设计AI解释以适应不同背景的用户?

A3:为了弥合创造者和消费者之间的差距,可以采用混合式方法。例如,结合功能性的自然语言解释与提供机制理解的数值(如Q值),使用户能根据需要深入了解系统决策的原因。同时,对于非AI背景用户,强调稳定性和可预测性可能是更有效的设计策略。


原文地址:https://dl.acm.org/doi/fullHtml/10.1145/3613904.3642474

内容由MiX Copilot基于大语言模型生成,有可能存在错误的风险。

MIT Licensed | Copyright © 2024-present 薛志荣的知识库