X平台紧急收紧Grok图像功能:彻底叫停真人照编辑,涉裸露生成全面严管

连日来舆论与监管持续升温,X平台(原Twitter)今日凌晨通过其官方安全账号@Safety发布公告,对旗下AI模型Grok的图像生成与编辑功能推出迄今为止最严的新规。此举直面近期多起关于Grok生成涉及儿童“性化”画面及未经同意裸露内容的严重指控。

按照最新政策,Grok将一律禁止编辑任何现实人物照片,尤其不得把其改成穿着比基尼、内衣等暴露装束的形象。该限制覆盖所有用户,不论是否为付费订阅者。同时,X明确承诺:“Grok AI不会再将真人的照片改成‘比基尼照’。”

image.png

另外,xAI已将图像生成功能整体置于付费墙之后,未订阅用户将无法生成图片。而在法律明确禁止的地区(如美国加州),系统会直接屏蔽所有生成“现实人物身穿比基尼或内衣”类图像的能力,从源头切断违规内容。

上述措施紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查而来。据其披露,一项独立分析显示,在2025年圣诞至新年期间,xAI生成的约2万张图像中,超过一半包含极度暴露的人物形象,其中不乏疑似未成年人的内容,令外界对AI平台的内容安全机制提出重大质疑。

对此,马斯克此前称自己对Grok生成未成年人裸露图像“毫不知情”,并解释相关功能仅在开启NSFW(成人内容)选项时可用,按设定应仅限于虚构的成年角色,尺度参照Apple TV上的R级电影。他同时也承认,系统需要依照各地法律动态及时调整限制策略。

X平台在声明中再次重申对儿童剥削“零容忍”的立场,并表示将持续清理包括儿童性虐待材料(CSAM)与未经同意裸露内容在内的高风险信息。然而,这起事件也再次暴露了生成式AI在开放部署中面对的伦理与合规挑战——当技术能力快于监管与安全机制,再强大的模型也可能成为风险放大器。

在AI生成内容愈发逼真的当下,如何在创造力与安全性之间达成平衡,已成为所有大模型厂商无法回避的核心命题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享