多国拉响 AI 语音诈骗警报:深度伪造让熟人来电真假难辨

基于 Techradar 的最新研究,一种借助 AI 深度伪造(Deepfake)克隆语音的新型骗局正于全球范围迅速攀升。针对美、英、加、法、德、西六国超 1.2 万名消费者的调查显示,这类冒充熟人声音的来电已演变为严峻的社会风险。

结果显示,过去一年里,约四分之一的美国受访者接到过此类 AI 仿声来电。更让人担忧的是,还有 24% 的人表示,单凭听感根本分不清电话那头是真人还是人工智能。骗子正利用低成本的生成式 AI 工具,将语音克隆“武器化”,专门假扮受害者的亲属或可信联系人。

报告强调,这种诈骗对 55 岁以上的老年群体危害最大。由于该群体对技术伪装的识别能力相对较弱,人均经济损失已达 1298 美元,是年轻受害者的三倍。目前,此类骗局正以每年 16% 的复合增长率持续攀升,形势不容乐观。

在威胁不断升级的背景下,电信运营商的角色备受关注。多数受访者认为,骗子在技术对抗中占据上风,并呼吁政府出台更严格的监管。安全专家指出,面对防御难度极高的 AI 语音克隆,不能只依赖个人识别,运营商必须加快部署“AI 盾牌”系统,利用技术手段过滤非法合成语音,以应对这场失控的“AI 军备竞赛”。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享