Grok陷入安全风波:九天产出180万张色情化图片,X平台遭多国调查

《纽约时报》反网络仇恨中心(CCDH)联合最新分析显示,埃隆·马斯克旗下的AI聊天机器人Grok在短短九天里生成了不少于180万张针对女性的性化图片,并被大量流入X(原推特)平台。

CCDH的报告称,在Grok生成的约460万张图片样本中,约65%(约300万张)含有对男性、女性或儿童的性暗示元素。其中,约有2.3万张被标记为疑似涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以通过诱导提示让Grok生成“脱衣照”,或对真实人物的照片进行性化处理。

Grok、马斯克、xAI

事件已引发国际社会高度关注。随着英国、美国、印度和马来西亚等国监管机构启动调查,X平台上周进一步收紧了Grok的生成功能。尽管平台已采取措施,但围绕AI生成内容的监管边界与社交媒体的审核责任,仍是当下科技界争论的核心焦点。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享