X收紧Grok图像功能:禁改真人照,裸露生成全面严管

在连续数周的舆论争议和监管施压下,X平台(原Twitter)今天凌晨通过其官方安全账号@Safety宣布,对旗下AI模型Grok的图像生成与编辑功能推出迄今最严限制。此举直接回应近期多起指控,称Grok生成了涉及儿童“性化”的图像以及未经同意的裸露内容。

最新政策,Grok将完全停止对任何现实人物照片的编辑,尤其严禁将其改成穿着比基尼、内衣等暴露服饰的样子。该限制面向所有用户,与是否付费订阅无关。同时,X明确表示:“Grok AI不会再把真人照片改成‘比基尼照’。”

image.png

另外,xAI已将图像生成功能全部纳入付费墙,未订阅用户将无法生成图片。而在法律明确禁止的地区(如美国加州),系统会直接屏蔽生成“现实人物穿比基尼或内衣”相关图像的能力,从源头阻断违规内容的产出。

上述举措紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查。其披露的独立分析显示,2025年圣诞至新年期间,xAI生成的约2万张图像中,超过一半包含高度暴露的人物形象,其中还出现疑似未成年人的内容,外界因而对AI平台的内容安全机制提出严肃质疑。

在舆情发酵时,马斯克曾称他对Grok生成未成年人裸露图像“一无所知”,并解释相关功能仅在开启NSFW(成人内容)选项时可用,且原则上只限虚构的成年角色,尺度参考Apple TV上的R级影片。他也承认,系统需要随各地法律变化动态调整限制策略。

X平台在声明中再次重申对儿童剥削“零容忍”,并表示将持续清理儿童性虐待材料(CSAM)和未经同意的裸露内容等高危信息。然而,这一事件也再次暴露了生成式AI在开放部署中的伦理与合规挑战——当技术能力领先于监管与安全机制时,再强大的模型也可能成为风险放大器。

在AI生成内容愈发逼真的当下,如何在创作自由与安全合规之间取得平衡,已成为所有大模型厂商必须直面的核心问题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享