Google与OpenAI绘图工具被滥用,一键生成女性不雅深伪图

近日,主流生成式AI工具的安全边界再度成为焦点。科技媒体称,本应服务创意工作的Google Gemini以及OpenAI的ChatGPT被少数用户恶意利用,借由特定提示词绕开安全审核,把穿着完整的女性照片“换装”为暴露的深伪(Deepfake)图像。

在Reddit等社交平台上,一些技术社区(如已被封禁的r/ChatGPTJailbreak)曾聚集了大量用户分享所谓的“脱衣”教程。报道提到,有用户上传一张身着印度传统服饰萨丽的女性照片,要求将其衣着“改成”比基尼,随后很快收到了其他用户生成的假图回应。尽管Reddit在接到投诉后清理了相关内容,并封禁了拥有20万成员的违规子版块,这类针对女性的非自愿深伪仍在网络角落流传。

针对这一情况,Google与OpenAI均作出回应。Google发言人表示,公司有明确规定,禁止生成露骨性内容,并在持续改进AI模型以识别并拦截此类违规请求。OpenAI方面称,虽然今年放宽了部分关于非性化成人身体图像的限制,但严禁未经本人许可篡改他人肖像,并会对违规账号予以封禁。

不过,随着AI技术不断升级,如Google新推出的Nano Banana Pro和OpenAI更新的图像模型在写实度上有了明显跃升。法律专家对此表示忧虑,认为这些工具一边提高生产效率,一边也降低了制造恶意虚假信息的门槛。眼下,如何在技术创新与伦理安全之间筑起更牢固的防线,已成这些AI巨头亟待解决的难题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享