
微新创想:根据 Techradar 的最新研究报告,一种利用 AI 深度伪造语音的新型诈骗正在全球范围内迅速蔓延。这项研究覆盖了美国、英国、加拿大、法国、德国和西班牙六国,调查对象超过 1.2 万名消费者。结果显示,模拟熟人声音的来电已成为影响公众安全的重要社会问题。
调查显示,约四分之一的美国受访者在过去一年内曾接到过此类 AI 伪造的来电。更令人担忧的是,有 24% 的受访者表示,他们根本无法仅凭听觉分辨电话中的声音是真人还是人工智能生成的。这表明 AI 语音技术的逼真度已经达到了令人难以察觉的程度。
诈骗分子正借助低成本的生成式 AI 工具,将声音克隆技术应用于非法活动。他们专门冒充受害者的亲属或信任的联系人,以获取受害者的信任并实施诈骗。这种技术的普及使得诈骗手段更加隐蔽,也更具欺骗性。
报告特别指出,这类 AI 语音诈骗对 55 岁以上的老年群体造成了最大的危害。由于该群体在技术识别方面的能力相对较弱,他们更容易成为诈骗的目标。数据显示,老年受害者的平均经济损失高达 1298 美元,是年轻受害者的三倍。
目前,AI 语音诈骗的数量正在以每年 16% 的复合增长率持续上升。这一趋势表明,如果不采取有效措施,未来此类诈骗的规模和影响将进一步扩大。形势已经变得非常严峻,亟需引起社会各界的高度重视。
面对日益复杂的诈骗手段,电信运营商在防范 AI 语音诈骗中的作用愈发关键。多数受访者认为,诈骗分子在技术层面已经占据了明显优势。因此,他们呼吁政府尽快出台更严格的法律法规,以加强对 AI 技术滥用的监管。
安全专家强调,仅依靠个人的识别能力已无法有效防范 AI 语音克隆带来的风险。运营商必须加快部署“AI 盾牌”系统,利用先进的技术手段过滤非法合成语音。只有通过技术与政策的双重手段,才能应对这场不断升级的“AI 军备竞赛”。
