X平台火速收紧Grok图像权限:彻底禁改真人照,露骨内容生成全面受控

在连续数周的舆论质疑与监管施压后,X平台(原Twitter)于今日凌晨通过其官方安全账号@Safety发布公告,宣布对旗下AI模型Grok的图片生成与编辑功能推出迄今为止最严的新规。此次调整直面近期关于Grok生成涉及儿童“性化”图像及未经同意的裸露内容等严重指控。

依照最新政策,Grok将全面禁止编辑任何现实人物的照片,尤其严禁将真人照片处理成穿着比基尼、内衣等暴露装束的形象。该禁令适用于全部用户,不论是否付费订阅。X同时明确承诺:“Grok AI不会再把真人照片改成‘比基尼照’。”

image.png

此外,xAI已将图像生成功能整体置于付费墙之内,非订阅用户将不再具备生成图片的权限。而在法律明确禁止的地区(如美国加州),系统会直接屏蔽所有“现实人物身穿比基尼或内衣”类图像的生成,从源头封堵违规内容产出。

上述举措紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查。其披露的一项独立分析显示,在2025年圣诞至新年期间,xAI生成的约2万张图像中,有超过半数包含高度暴露的人物形象,其中还出现疑似未成年相关内容,引发外界对AI平台内容安全机制的强烈担忧。

面对争议,马斯克此前回应称,他对Grok生成未成年人裸露图像“并不知情”,并解释相关功能仅在开启NSFW(成人内容)选项后可用,原则上应限定于虚构的成年角色,尺度参考Apple TV上的R级影片。他同时承认,系统需根据各地法律的变化持续调整限制策略。

X在声明中再次强调对儿童剥削行为“零容忍”,并表示将持续清理包括儿童性虐待材料(CSAM)和未经同意裸露内容在内的高风险信息。然而,这一事件也再次显示出生成式AI在开放部署时面临的伦理与合规挑战——当技术发展快于监管与安全防护,再强大的模型也可能成为风险的放大器。

在AI生成内容愈发逼真的当下,如何兼顾创作自由与内容安全,已成为所有大模型厂商必须直面与解决的核心课题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享