别乱动我的钱包:苹果研究表明用户讨厌 AI 自作聪明

哈哈库 新闻资讯 14

2 月 13 日消息,苹果机器学习研究团队于 2 月 7 日发布论文《绘制计算机操作智能体用户体验设计空间》,聚焦揭示用户对 AI 智能体的真实期望及交互偏好。

研究人员指出,尽管市场在大力投资开发 AI 智能体,但关于界面形态及交互逻辑的探索仍显不足。为此,团队通过分析现有产品并开展实地用户测试,试图厘清这一新兴领域的设计规范。

在研究的第一阶段,援引博文介绍,团队深入剖析了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在内的 9 款主流桌面及移动端 AI 智能体。

研究通过咨询 8 位资深从业者,研究人员构建了一套包含“用户指令”、“活动可解释性”、“用户控制”及“心智模型”四大维度的分类体系。该体系涵盖了从用户如何下达命令,到 AI 如何展示其操作计划、报错及移交控制权的全过程。

研究的第二阶段采用了经典的“绿野仙踪法”(Wizard of Oz)。团队招募了 20 名具有 AI 使用经验的用户,要求其通过聊天界面完成度假租赁或在线购物任务。

为了排除技术故障干扰,准捕捉用户在面对 AI 决策时的真实心理反应与行为模式,苹果采用真人模拟 AI 操作(包括故意犯错或陷入死循环)的方法,用户并不知道屏幕背后的“AI”实则是隔壁房间的研究员。

实验结果表明,用户对“透明度”有着微妙的需求:他们希望了解 AI 的动向,但拒绝微观管理每一个步骤,否则便失去了使用智能体的意义。

这种需求随场景而变:在探索性或不熟悉的任务中,用户渴望看到更多中间步骤与解释;而在高风险场景(如支付、修改账户信息)中,用户要求拥有绝对的确认权。

研究最后强调,信任是人机交互的基石,但它极其脆弱。当 AI 智能体在遇到模糊选项时未做询问便擅自做主(静默假设),或者在未告知的情况下偏离原定计划,用户的信任感会迅速崩塌。

在 AI 遇到不确定情况后,用户并不希望其为了追求“自动化”而随机选择,更倾向于 AI 暂停并寻求澄清,尤其当这些选择可能导致买错商品等实际损失时。

附上参考地址

  • 苹果官网:Mapping the Design Space of User Experience for Computer Use Agents

  • Arxiv:Mapping the Design Space of User Experience for Computer Use Agents

抱歉,评论功能暂时关闭!