3秒模仿声音!AI语音诈骗横行!
Geoffrey Hinton 是ChatGPT 等人工智能工具发展背后的技术先驱。
但这位 75 岁的开拓者表示,由于 AI 可能被滥用,他对自己毕生致力的工作感到遗憾。
“你很难防止有人利用它做坏事。”
根据 Hinton 的说法,他的主要担忧之一是AI生成工具会导致虚假或欺诈内容被创造出来,以及普通人无法再知道什么是真实的。
例如几周前,身穿巴黎世家白色羽绒服的教皇假照片在网上流传开来。
同理还有特朗普被捕的照片,这些都是AI生成的虚假照片,但是足以以假乱真。
这类图像如果不及时“辟谣”,会让不知情的受众掌握错误信息。
更可怕的是,除了图像,声音也可以复制。
1 月的一个下午,Jennifer DeStefano接到了一个匿名电话,电话那头是她15岁的女儿尖叫的声音。紧接着是一名男子的声音,声称绑架了Jennifer的女儿,并索要100 万美元。
Jennifer顿时如坠冰窖,因为当时她 15 岁的女儿恰好出城参加滑雪比赛,并不在家。
但Jennifer突然急中生智,先给女儿尝试的拨打了电话。
在警方的帮助下,发现这是一起语音人工智能的骗局。
“这显然是她的声音,”Jennifer接受采访时表示,“电话里的音调变化,都和女儿的声音一模一样。”
网络安全公司McAfee调查发现,四分之一的受访成年人都经历过 AI 语音诈骗。
77% 的目标客户报告说他们因诈骗而损失了钱,在这 77% 的人中,“超过三分之一的人损失了超过 1,000 美元,而 7% 的人被骗了 5,000 到 15,000 美元。”
调查显示,美国的受害者损失最大。通过 AI 语音诈骗而蒙受损失的美国受害者中,有 11% 损失了 5,000 至 15,000 美元。
欺诈者会通过 AI 语音生成器播放一段从社交媒体上截取的声音,使用机器学习生成独特的原始音频,近乎完美地模仿对方的声音,而这一切操作都非常简单,短短几秒就可以完成
。任何你上传到社交媒体上的声音文件,都有可能成为诈骗者的创作素材。
然后,骗子会通过应用程序将这些录音发送给受害者的朋友和亲戚,从而骗取钱财。
如何预防诈骗
随着 AI 语音诈骗变得越来越普遍,有一些迹象可以识别骗局:
•不寻常的联系方式(例如未知号码)•立即要求大笔资金•要求通过不寻常的方式(例如礼品卡或加密货币)转移资金•要求您不要将电话/事件告诉任何人
如果感觉到是骗局后,您应当:
•拨打给您留言的号码以验证其身份•拨打您家人或朋友的个人电话号码,验明真伪•及时报警
今日推荐
👍华人留学生伙同男友,回国弑父抛尸!只因父亲供不起她读书了!
新闻来源time等,版权归原作者所有
本文禁止任何形式的转载,请与一亩三分地联系
微信扫码关注该文公众号作者