FBI拉响警报!AI伪造"总统来电"诈骗横行,声音克隆技术已让骗子无所不能
美国联邦调查局(FBI)近日发布紧急公告,揭露一起利用深度伪造(Deepfake)和生成式AI(GenAI)技术实施的钓鱼攻击。诈骗分子通过伪造联邦及州政府高级官员的声音和身份,诱骗受害者泄露敏感信息或安装恶意软件。
AI诈骗升级:从"假马斯克"到"假总统"
技术手段:攻击者使用AI克隆官员声音(vishing)或发送伪造短信(smishing),甚至能模仿特定官员的说话习惯和语调。
目标对象:包括现任/前任联邦及州政府高官及其联系人,部分案例中骗子会要求受害者转至次级通讯平台(如加密聊天软件),以便进一步实施攻击。
真实案例:此前已有多起AI仿冒名人(如马斯克)推广加密货币骗局,但此次针对政府官员的伪造标志着诈骗技术进入新阶段。
FBI防御指南
身份核验:对自称政府官员的来电/消息,务必通过官方渠道二次确认。
警惕异常:注意语音消息中的语调、用词不一致性(如AI生成语音可能缺乏自然停顿)。
拒绝转移:不轻易点击链接或切换至非官方通讯平台。
AI诈骗为何更难防范?
情感操控:诈骗话术常利用紧急威胁(如"账户即将关闭")或高额利诱(如"退税补贴"),迫使受害者仓促行动。
技术平民化:开源AI工具(如ElevenLabs语音克隆)降低了伪造门槛,甚至可实时生成对话。
全球威胁:英国已报告多起Deepfake语音诈骗,单次损失达数百英镑;美国国税局(IRS)同样遭遇AI仿冒税务官员的钓鱼攻击。