基于 Techradar 的最新研究,一种借助 AI 深度伪造(Deepfake)克隆语音的新型骗局正于全球范围迅速攀升。针对美、英、加、法、德、西六国超 1.2 万名消费者的调查显示,这类冒充熟人声音的来电已演变为严峻的社会风险。
结果显示,过去一年里,约四分之一的美国受访者接到过此类 AI 仿声来电。更让人担忧的是,还有 24% 的人表示,单凭听感根本分不清电话那头是真人还是人工智能。骗子正利用低成本的生成式 AI 工具,将语音克隆“武器化”,专门假扮受害者的亲属或可信联系人。
报告强调,这种诈骗对 55 岁以上的老年群体危害最大。由于该群体对技术伪装的识别能力相对较弱,人均经济损失已达 1298 美元,是年轻受害者的三倍。目前,此类骗局正以每年 16% 的复合增长率持续攀升,形势不容乐观。
在威胁不断升级的背景下,电信运营商的角色备受关注。多数受访者认为,骗子在技术对抗中占据上风,并呼吁政府出台更严格的监管。安全专家指出,面对防御难度极高的 AI 语音克隆,不能只依赖个人识别,运营商必须加快部署“AI 盾牌”系统,利用技术手段过滤非法合成语音,以应对这场失控的“AI 军备竞赛”。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?