苹果的机器学习团队最近公布一项题为《绘制计算机操作智能体用户体验设计空间》的论文,系统梳理用户在与 AI 智能体(Agent)互动时的真实想法与信任底线。
论文指出,行业正忙于增强 AI 的操作能力,却容易忽略“自动化”和“用户掌控”之间的微妙平衡。为获取贴近真实的反馈,研究者采用了“绿野仙踪法”——让真人在后台扮演 AI,刻意出错或陷入循环,从而观察用户在不知情时的反应。
这项研究的关键结论:
-
讨厌“默默替我决定”:当选项不明确时,AI 自作主张最惹人烦。与其为追求“全自动化”而硬选,用户更希望 AI 在关键节点停下来询问。
-
透明度要拿捏:用户想知道 AI 正在做什么,但不愿被每一步细节刷屏。在熟悉的任务里大家更看重结果;可一旦涉及钱(如支付、修改账户信息),用户要求握有绝对的确认权。
-
信任掉得很快:只要 AI 没提前说明就偏离原定计划,信任会立刻崩塌。尤其在网购、转账等场景,哪怕一点点“聪明过头”,也会让用户强烈不安。
研究团队强调,未来的 AI 智能体不应只追求功能强大,更要把“用户可控”和“过程可解释”做好,避免让 AI 变成失控的“黑盒”。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?