17岁高中生借助ChatGPT写入侵脚本,盗走日本最大网咖725万名用户信息!AI拉低作案门槛引发警示

生成式AI的“利弊并存”再度引起全球关注。据日本警方最新通报,日本最大连锁网咖“快活CLUB”(Kaikatsu Club)在今年1月发生大规模数据泄露,幕后竟是一名年仅17岁的高二男生。该少年通过绕过ChatGPT安全限制,借助AI生成恶意代码,非法获取约725万条会员个人信息,涉及姓名、地址、电话、会员编号等敏感数据。

 AI变“黑客孵化器”?少年以话术绕过平台防护写出攻击工具

调查显示,这名嫌疑人来自大阪关西地区,并非职业黑客,但从小自学编程,曾在信息安全竞赛中获奖,技术功底不俗。其主要作案方式包括:  

– 向快活CLUB服务器发送伪造的API请求,绕过身份认证环节;  

– 使用自动化脚本成批抓取会员数据库内容;  

– 造成公司部分系统短暂停摆,运营受到严重影响。

关键点在于,这套攻击程序的核心代码由ChatGPT生成。虽然主流AI平台设置了多重限制,禁止输出恶意软件,但该少年通过“换种说法”的方式(比如将攻击代码包装为“渗透测试脚本”或“安全研究工具”),诱导AI给出具备实操性的攻击载荷。

 作案动机出人意料:为网购宝可梦卡片而窃取信用卡信息

警方透露,作案初衷是获取会员绑定的信用卡资料,以便在线购买宝可梦卡片。到案后,他辩称只是“测试网站漏洞”,但警方指出其目的明显违法,且未按合法流程披露漏洞,已涉嫌不正当指令电磁记录等多项刑事罪名。

 专家提醒:AI显著降低网络攻击门槛

网络安全专家称,此案揭示了生成式AI在安全领域的潜在风险:  

– 技术普及可能等于“犯罪普及”:过去需多年积累的黑客能力,如今或在数小时内借助AI复现;  

– 自然语言的灵活性让安全限制更易被规避——只要不断改写提示词,AI就可能被“绕过”;  

– 即使平台加强过滤,“AI+人工微调”的组合仍可能产出隐蔽性更强的恶意代码。

“我们正走向一个‘几乎人人都能发动攻击’的时代,”一位不愿具名的安全研究员表示,“防守方需要从单纯补洞,升级到识别与拦截AI被滥用的模式。”

 AIbase观察:当AI可能被卷入犯罪,安全边界必须重塑

这并非孤例。进入2025年,全球多地已出现利用AI生成钓鱼邮件、勒索软件,甚至深度伪造诈骗工具的案件。监管与科技公司面临两难:  

– 限制过严,会影响AI在安全研究和教育场景中的正当价值;  

– 放任不管,则恐催生“AI赋能型犯罪”的快速扩散。

专家呼吁,平台应建立AI生成代码的溯源与审计机制,企业需强化API防护与异常行为监测,同时法律要明确诱导AI生成恶意内容的责任边界。

当一句“帮我写个测试脚本”就可能引爆数百万人数据风险,AI的“无害默认”已被打破。未来的网络安全,不仅要防人,更要防被滥用的智能。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享