
微新创想:苹果机器学习研究团队近日发布了一篇名为《绘制计算机操作智能体用户体验设计空间》的研究论文 深入探讨了用户在与 AI 智能体(Agent)交互时的真实心理和信任边界
研究指出 虽然当前行业都在竞相提升 AI 的操作能力 但往往忽略了用户对“自动化”与“控制权”之间的微妙平衡 为了捕捉最真实的反馈 研究员采用了“绿野仙踪法” 即让真人躲在幕后 冒充 AI 故意犯错或陷入死循环 以此观察用户在不知情情况下的反应
研究的核心发现 反感“静默假设” 用户极其讨厌 AI 在面对模糊选项时擅自做主 比起为了追求所谓的“全自动化”而随机选择 用户更希望 AI 在关键时刻停下来询问 透明度的平衡点 用户希望了解 AI 正在做什么 但拒绝被事无巨细的每一个步骤刷屏
在熟悉任务中 用户看重结果 但在涉及金钱(如支付 修改账户信息)的任务中 用户要求拥有绝对的确认权 信任崩塌迅速 一旦 AI 在未经告知的情况下偏离原定计划 用户建立的信任会瞬间瓦解 尤其在网购 转账等场景下 AI 的一点点“自作聪明”都会让用户感到强烈的不安
苹果研究员强调 未来的 AI 智能体设计不应只追求功能强大 更需要建立完善的“用户控制”和“活动可解释性”机制 避免 AI 成为一个不受控的“黑盒”
