“只要念两个例句,你就可以让AI代替你说话了。”不仅如此,现在的技术已经可以在保证声音高保真的同时,模拟你的音色,甚至细致到你说话时的口音、重音、换气的节奏等等,这完全可以满足实时的互动需求。违法犯罪份子也利用了这一技术动起了歪心思,制造了多起语音诈骗案。
案例一:声音像老板就一定是老板? 某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。 案例二:“女儿”找母亲要三十万求救? 去年11月,王欣的母亲突然接到一通“王欣”打来的电话,让母亲转账30万元,着急的王欣母亲立马就打算给对方转钱,被同事拦了下来。 同事建议先给王欣打电话,确认情况,结果真实的王欣正在睡午觉,啥事也没,而那通“求救电话”就是骗子利用王欣的AI克隆声音制作的。 案例三:哥哥我啊,差点就骗到你啦! 江苏警方接到一工厂员工报警称,其同事可能遭遇诈骗。民警赶到现场时,被骗女子情绪激动,不愿配合调查。 民警一直坚持耐心劝导,终于在女子与骗子通话近3个小时后将其拦下。而刚挂断骗子来电后,女子的哥哥就打来电话询问是否是要向其借钱。 民警立刻识破这是一种利用AI技术进行诈骗的新方式,骗子通过AI合成声音,甚至影像向受害人亲友借钱。同时,在通话过程中,骗子还盗取了女子身份进行网贷。最终,民警联系网贷平台中断放款,成功挽回女子5万元损失。 以上三个案例,均是违法犯罪份子利用AI合成音频的技术实施的诈骗。然而,这种AI合成声音的诈骗还是有很多破绽的,在遇到涉及转账或信息安全等敏感操作时,多留个心眼犯罪分子就难得逞。 AI合成声音有以下几个破绽: 1.AI合成声音不能长时间快速说话; 2.AI合成声音在读某些字词时会有一些怪异的语调; 3.诈骗犯在使用AI合成声时会营造紧张的情景试图让你忽略掉这些瑕疵。 因此,日常遇上涉及这类敏感操作的语音沟通,做到以下几点,就能一定程度防止上当受骗: 1.保持镇定,耐心询问情况,仔细听当事人口音有无异样状况; 2.要求进行视频交流; 3.多做一些试探性的举动如讲讲家乡话等,听听有没有露出破绽; 4.用常用的联系方式与对方再联系一遍进行确认; 5.注意自己的以及身边人生物信息的保护,避免泄露声纹信息等。 |