相信 “ AI诈骗正在全国爆发 ”,你就进入了楚门的世界
朋友们,这两天我本来在兢兢业业写小说,却被一则新闻——《AI诈骗正在全国爆发》吓破了胆,还找不到人赔钱。
后边,越来越多朋友和粉丝来问我,求证他们在视频号和公众号文章里看到的“接了好友的微信视频通话(真微信号)然后被AI换脸技术诈骗”(视频实时互动)是不是真的?
我觉得很有必要来说道说道。
首先来说说这个恐慌式传播的“AI换脸视频诈骗”标题,我特地去看了这一切的来源——最原始的“平安包头”版本,发现它只是用朴实无华的文字介绍了一个较为普通的诈骗案件:
以上就是案件新闻来源的包头版本。
可以看出,包头这篇文章朴实无华,介绍了一个金额较大,但手法平平无奇的诈骗案件。只是强调了一下骗子利用了“换脸视频”,强调在如今AI技术进步飞快的时代背景下,这种“换脸视频”的制作越来越容易。
从细节上看,郭先生多次疏忽大意是被骗的主要原因(1.没有多重方式验证好友的身份,2.没有确认收款);认知不到位是被骗的次要原因(没有了解常见诈骗手法,对这种常见的“冒充熟人借过桥资金”诈骗没有警惕)。
包头警方没有披露诈骗中的具体实施细节和手法,这是正常操作。但也正是因为没有披露,所以给了一些哗众取宠的自媒体很多添油加醋的空间。
于是后来我们看到,从某些媒体玩弄热点,添油加醋开始,逐渐将这个案件描述成“微信盗号+AI换脸实时视频通话”,继而大大引起了大众的恐慌情绪。
然后,更多的媒体,没有确认信息的真实性,不必负责,只管人云亦云,只管添油加醋,只管加入这场恐怖盛宴,最后留下恐慌的大众内心一地鸡毛。
可惜没吓倒我。
朋友们,如果诈骗技术已经发展成“ 骗子能用你好友的微信号给你打来视频通话,然后连视频里的好友面孔和声音都是骗子用AI制作的,普通人难以分辨 ”的地步。
那你这就不是遇上诈骗了,
你这是进入了楚门的世界,这是别人全家在演你。
因为想达成媒体渲染的那种程度的诈骗,要同时满足:
1、盗用你好友本人的微信(并且有长时间的作案时间不被好友发现);
2、获取你好友本人大量的人脸数据(要达到实时对话的换脸技术,并且不露出破绽,那不是少量照片就能训练好的,最少各个角度都要几十张照片);
3、获取你好友本人大量的声音数据(这也不是一句两句话就行,而是要大量声音,最好是在录音棚环境里录的)。
单说盗微信号这个事,众所周知,盗取微信的技术非常难,微信号和手机是强绑定的,除非你连手机一起被盗了。留意生活你也会发现,QQ被盗的事情还有时候见到,但是你身边好友微信被盗这个事情,你真的见过吗?
至于存不存在微信被盗这个可能性?这个也是可能存在,连手机一起被偷走是一种情况。还有一种情况是,骗子诱导你扫码多设备登录(电脑端登录)但是这种方法作案时间特别短,限制多,一般只是用于群发一些拉群的广告而已。
总之,再加上其他的条件
那么普通人会遇到的“利用换脸视频来冒充好友诈骗”是什么样的呢?
常见的情况是,骗子用一个别的微信号,换了你好友的头像和名字提前加了你,然后择机给你打了个视频电话又挂断,等你看到好友头像和名字的未接视频通话,你就自然会回拨过去,这时好友挂断你的视频通话请求,然后给你发了个换脸视频过来。这种情况下,你很容易误以为这是好友的微信,误以为和好友视频了,继而相信他后边说的话而被骗。
魔高一尺,道高一丈,或许总有一天,诈骗技术真的可以做到用你朋友的人脸实时地跟你对话,但请相信,那个时候负责架起这个视频通信桥梁的互联网公司,它自然就有反制方法去防止这个事情发生。不然它就要倒闭。
最后,希望朋友们记住,所有的诈骗的点都不在于诈骗技术有多么高超,而在于利用被诈骗人的需求感和恐慌心理——认知不到位以及疏忽大意才是被诈骗的核心。
同时,我也理解一些媒体炒作“AI诈骗正在全国爆发”可能是出于好意,想要通过更多的传播来提醒更多的人注意到诈骗泛滥这个事实,注意到骗子的狡猾。但是,通过制造恐慌的方式,只会降低整个社会的信任感,增加群众内心的恐慌,使得类似针对恐慌心理来做案的“冒充公检法诈骗”更加有机可乘。这实在是适得其反!
无论宣传形式如何,守住基于真实发案的宣传底线,拒绝没来由的臆想才是正道。
终结诈骗 原创出品
部分图片来源于网络 仅用于公益传播
联系 合作 投稿邮箱:[email protected]
微信扫码关注该文公众号作者