在连续数周的舆论质疑与监管施压后,X平台(原Twitter)于今日凌晨通过其官方安全账号@Safety发布公告,宣布对旗下AI模型Grok的图片生成与编辑功能推出迄今为止最严的新规。此次调整直面近期关于Grok生成涉及儿童“性化”图像及未经同意的裸露内容等严重指控。
依照最新政策,Grok将全面禁止编辑任何现实人物的照片,尤其严禁将真人照片处理成穿着比基尼、内衣等暴露装束的形象。该禁令适用于全部用户,不论是否付费订阅。X同时明确承诺:“Grok AI不会再把真人照片改成‘比基尼照’。”

此外,xAI已将图像生成功能整体置于付费墙之内,非订阅用户将不再具备生成图片的权限。而在法律明确禁止的地区(如美国加州),系统会直接屏蔽所有“现实人物身穿比基尼或内衣”类图像的生成,从源头封堵违规内容产出。
上述举措紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查。其披露的一项独立分析显示,在2025年圣诞至新年期间,xAI生成的约2万张图像中,有超过半数包含高度暴露的人物形象,其中还出现疑似未成年相关内容,引发外界对AI平台内容安全机制的强烈担忧。
面对争议,马斯克此前回应称,他对Grok生成未成年人裸露图像“并不知情”,并解释相关功能仅在开启NSFW(成人内容)选项后可用,原则上应限定于虚构的成年角色,尺度参考Apple TV上的R级影片。他同时承认,系统需根据各地法律的变化持续调整限制策略。
X在声明中再次强调对儿童剥削行为“零容忍”,并表示将持续清理包括儿童性虐待材料(CSAM)和未经同意裸露内容在内的高风险信息。然而,这一事件也再次显示出生成式AI在开放部署时面临的伦理与合规挑战——当技术发展快于监管与安全防护,再强大的模型也可能成为风险的放大器。
在AI生成内容愈发逼真的当下,如何兼顾创作自由与内容安全,已成为所有大模型厂商必须直面与解决的核心课题。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?