有用户滥用Google与OpenAI绘图工具,一键生成女性不当深伪图片

最近,主流生成式AI的安全红线再次成为焦点。多家科技媒体称,原本面向创意生产的Google GeminiOpenAI的ChatGPT被少数用户恶意滥用,通过特定提示词绕过安全审查,把穿着完整的女性照片改造成穿着暴露的“深伪(Deepfake)”图片。

在Reddit等社交平台上,部分技术论坛(如已被封禁的r/ChatGPTJailbreak)曾聚集大量用户分享所谓“脱衣”指南。报道提到,有人上传一张身着印度传统服饰萨丽的女性照片,要求将其衣着“替换”为比基尼,随后很快便收到了他人生成的伪造图片。尽管Reddit在接到投诉后清理了相关内容并封禁了拥有约20万成员的违规子版块,这类针对女性的非自愿深伪内容仍在网络角落流传。

对此,Google与OpenAI均作出回应。Google发言人表示,公司有明确政策禁止生成性露骨内容,并正持续优化AI模型以识别并拦截此类违规请求。OpenAI方面则称,虽然今年放宽了部分关于非性化成人身体图像的限制,但严禁未经本人同意擅自篡改他人肖像,并会对违规账号采取封禁等措施。

然而,随着AI技术不断迭代,如Google新推出的Nano Banana Pro与OpenAI更新的图像模型在写实度上更进一步。法律专家对此深感忧虑,认为这些工具在提升生产力的同时,也降低了制造恶意虚假信息的门槛。当下,如何在技术创新与伦理安全之间筑起更坚固的防火墙,已成为这些AI巨头亟待解决的难题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享