据
CCDH报告显示,在抽取的约460万张Grok生成图片样本中,有65%(约300万张)含有对男性、女性或儿童的性暗示表现。其中,约有2.3万张图片被标记为可能涉及儿童的性暗示内容。此次大范围滥用,源于部分用户发现可通过提示诱导Grok生成“脱衣照”,或对真人照片进行性化改造。

该事件已引发全球高度关注。随着英国、美国、印度和马来西亚等国家的监管机构相继展开
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?