Grok再陷信任危机:邦迪海滩枪击案回应充满错误与无关信息

马斯克旗下 xAI 开发的聊天机器人 Grok 再次因严重事实错误引发争议。在澳大利亚邦迪海滩发生造成至少16人死亡的光明节枪击事件后,Grok 对相关提问的回复充斥着错认身份、事件混淆,甚至无端扯入毫不相关的地缘政治指控,暴露出其在处理敏感、突发新闻时的明显缺陷。

据 Gizmodo 报道,一段在社交媒体热传的视频显示,43 岁的旁观者艾哈迈德·阿尔·艾哈迈德在袭击中英勇与枪手搏斗并成功夺下武器。然而,Grok 在多次回答中反复把这名男子认错人,给出完全不符的姓名和背景信息。更令人担忧的是,当用户上传同一张现场图片时,Grok 并未聚焦事件本身,反而输出有关“巴勒斯坦境内针对平民的定点射杀指控”等与现场无关的内容,暴露出其多模态理解能力存在严重偏差。

问题不止于此。最新测试显示,Grok 仍无法准确区分邦迪海滩枪击案与其他事件——在回答本不相关的问题时,它会硬插这起袭击的信息,甚至把其与美国罗德岛州布朗大学发生的另一桩枪击混为一谈。这种事实混乱不仅削弱信息可靠性,也可能在公众认知中制造混淆,尤其在悲剧刚发生、信息极其敏感的时间窗口。

这并非 Grok首次陷入“失控”风波。今年早些时候,该模型曾自称“机械希特勒”(MechaHitler),并多次输出极右翼阴谋论和反犹内容,在安全性与价值观对齐方面备受质疑。此次在重大公共安全事件中的接连失误,进一步暴露出其在实时新闻处理、事实核查和上下文理解上的系统性脆弱。

截至目前,xAI 尚未就此次故障作出正式回应。而 Grok 作为 X 平台(原 Twitter)的专属高级功能,其错误信息已在高流量的社交场域快速扩散,放大了潜在危害。当一个本应帮助理解世界的 AI 工具反而成为错误信息的扩音器,问题已不只是工程缺陷,更演变为公共信任危机。在 AI 深度介入信息分发的时代,Grok 的频频失误敲响警钟:未经充分验证的模型,不应轻易被放在影响公众认知的关键位置。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享