在 SORA、Claude将人工智能推向新高峰时,AI的诈骗也愈发严重。
当我们大部分人都在感叹新技术带来新世界的时候,却有极少部分人开始作恶,借助AI工具进行诈骗。一家英国跨国企业的香港分公司,被骗子用伪造的「AI换脸」和AI音频合成的视频内容,冒充总公司的CFO,直接骗走了2亿港币!最近,一名乌克兰女孩突然在外网上被中国网友追着道歉,而原因嘛说来也是让人“害臊”。因为有人在中国“克隆”了她...身为乌克兰人的她,居然在中国平台上操着一口流利中文,为俄罗斯咔咔带货!!一番细查后,终于理清了背后的猫腻。为了吸取流量带货,她被“有心人”克隆了脸和声音,而后成立了一个和她相似度“几乎100%的克隆大军”。
在中国各大社交媒体上,她拥有不同的俄罗斯女子名字,为俄罗斯带货。“她”自称在中国生活了8年,在各个平台上高喊中俄友谊长存、感谢中国的支持、想嫁中国男人、对中国有着深深的爱。“她”自称是俄罗斯留学生,她一直在中国学习,然后决定留在中国,同样对中国爱得深沉,也要找中国男友。由于人设和言论获得非常多的用户好评,在获得巨大的流量号,进行橱窗带货获利。诈骗团伙用AI客服电话,一天能打1500个电话,诱导受害者充值。诈骗团伙用AI工具,拨打广告电话,你拒绝时候录音,克隆你的声音......对AI或新技术有了解的年轻人,可能还会稍有警惕,不屑于这种诈骗。但是家里的老人和小孩,可能对AI换脸和AI数字人完全没有概念,根本防不胜防。- 在视频通话的时候,如果涉及利益相关,尽量拉长通话时间,观察你的“亲人”的脸部表情是否模糊,甚至要求他/她转动侧脸或者用手遮挡脸部。
- 在语音通话的时候,发现对方说话的语气过于平静,没有抑扬顿挫或者熟悉的口音,也要提高警惕度。
- 如果是收到一张照片或一段视频,尽量先和对方电话或视频通话求证。
目前AI的技术手段,主要是生成文字,图片,语音和视频。所以你看到的图片,视频和听到的声音,都可以通过技术手段进行克隆。简单的克隆,只需要你的一张照片或者几秒的声音即可,但是生成的效果也会比较差,多看看多听听就能识别。复杂的克隆,需要你的一段视频或者多段声音,生成的效果以假乱真,可能就不容易识别了。商务合作敬请联系:
微信:DAISYYUAN318(王老师)
欢迎写作、摄像、剪辑人才
加入《首席访谈》栏目组
联系电话:13699864745(麦子老师)
简历投递邮箱:[email protected]
转载:请微信后台回复“转载”