据
CCDH的报告称,在Grok生成的约460万张图片样本中,约65%(约300万张)含有对男性、女性或儿童的性暗示元素。其中,约有2.3万张被标记为疑似涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以通过诱导提示让Grok生成“脱衣照”,或对真实人物的照片进行性化处理。

事件已引发国际社会高度关注。随着英国、美国、印度和马来西亚等国监管机构启动
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?