11 天产出 300 万张性化图片?马斯克旗下 Grok 深陷深伪风暴

AI 的“双刃剑”效应再度引发全球关注。由埃隆·马斯克旗下 xAI 打造并集成在 X 平台的 AI 助手 Grok,因近期上线的一项图片编辑能力,正陷入舆论与法律的双重风波。反数字仇恨中心(CCDH)发布的最新研究称,该工具在短短 11 天里生成了约 300 万张涉及女性与儿童的性化图片。

这项饱受争议的功能允许用户用简单文本指令来改动真人照片,例如“给她换上比基尼”或“把她的衣服去掉”。研究指出,受害者不仅包括泰勒·斯威夫特、塞琳娜·戈麦斯等知名公众人物,还涉及约 2.3 万张疑似未成年人的不当图像。其生成速度极高——平均每分钟可产生约 190 张逼真的深伪(Deepfake)图片——被监管机构形容为“一座生产性虐待内容的工厂”。

面对铺天盖地的质疑,X 平台回应称已采取“地理屏蔽”,在法律禁止的地区限制生成此类内容的权限。然而,由于缺乏前置安全防护,多国监管已先行介入:菲律宾、马来西亚和印度尼西亚相继宣布封禁或严格限制 Grok,美国加利福尼亚州总检察长也已对其展开深入调查。

尽管 xAI 团队此前以“主流媒体谎言”回击相关报道,但在监管压力下,公司已同意在部分市场调整工具功能,移除生成违规内容的能力。此事再次为行业敲响警钟:在追求 AI 创作自由的同时,建立有效的安全护栏已成为不可逾越的底线。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享