模仿声音成诈骗新招,人工智能使情况更糟
大部分人都已经明白,如税务局、汽车保修公司等机构并不会通过电话,要求用预付卡形式支付紧急罚款或费用。但美国联邦通信委员会(Federal Communications Commission)针对某大规模跨国自动电话业务开出的近3亿美元罚款,足以显示这种问题的普遍性。
随着生成人工智能的广泛应用,模仿你认识的人的声音与你进行实时交流,导致电话信任度大大降低。
图源:CNBC
电话分析和软件公司Hiya Inc.的产品管理总监乔纳森•纳尔逊(Jonathan Nelson)表示,电话系统是建立在信任基础上。过去,电话响应表示有实实在在的物理连接,但如今这种连接已经消失。尽管如此,隐含的信任仍然存在。
目前,人们只能真正信任自己主动拨打的电话。根据 Hiya 发布的《2023 年第二季度全球呼叫威胁报告》,四分之一的来电被标记为垃圾电话或诈骗电话,这意味着需要加强电话的验证工作。
数字安全公司 McAfee 发布的一份关于人工智能和网络安全的报告称,有52%的美国人在线上分享了自己的声音,这为诈骗者提供了模仿的素材。他们可以生成受害者的声音,使熟人成为诈骗的目标,此技术被称为交互式语音应答(IVR),常被用于“vishing”或语音网络钓鱼攻击。
尼尔森提到,尽管传统的鱼叉式网络钓鱼需要大量的时间和资金,但生成式人工智能使这种诈骗更为普遍。
根据McAfee的首席技术官史蒂夫•格罗布曼(Steve Grobman)的说法,至少在目前,相比其他明显的诈骗电话,这类诈骗不易被识别,并使受害者更容易上当。
为了防范此类诈骗,专家建议企业和个人加强教育,这需要让人们了解如何保护自己和身边的人。
企业可以在网络安全培训中加入有关音频诈骗的内容,个人则需谨慎分享个人信息。此外,格罗布曼还提议,家庭成员之间可以设立一个安全验证词,类似口令,以确认对方身份,但应避免使用容易获取的个人信息作为验证词。
洛杉矶最值得关注的两个微信号
看新闻 追热点 关注这个油管频道!
微信扫码关注该文公众号作者