了解一下新骗术:AI 3秒可以偷走声音 用来诈骗你的亲友
多年来,一个常见的骗局是接到一通自称是权威人士(如警察)的来电,紧急要求你付钱,以帮助朋友或家人摆脱困境。
现在,美国联邦监管机构警告说,这样的电话可能来自一个听起来像某位朋友或家人的人——但实际上是一个使用克隆声音的诈骗者。
联邦贸易委员会(the Federal Trade Commission)本周发布了一份消费者警报,敦促人们对使用人工智能生成的克隆声音的电话保持警惕。这是犯罪分子骗取人们钱财的最新技术之一。
像ChatGPT之类的AI工具已经能够将很短的声音后制仿真(voice cloning)成像是本尊在说话。收到诈骗电话的家属起初会怀疑,但声音真的是宝贝儿孙的声音时,可能就汇款了。
联邦贸易委员会警告说:"(骗子)只需要你的家庭成员的声音的简短音频剪辑——他可以从网上发布的内容中获得——和一个声音克隆程序。"当骗子给你打电话时,他的声音听起来就会像你的亲人一样。"
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章