和朋友视频一下,钱就没了
2023年6月9日之前,河南高三生吴小乐对高考后的生活有很多幻想。她以为自己即将进入不受家长管制,充斥多巴胺的互联网世界。但没想到,等待她的首先是骗局。
6月9日高考结束,她在QQ上收到了同学的私信,称自己找不回某软件的密码,需要好友录音频和视频帮助认证。
对方给她发了一段与同学声音一模一样的音频。没多加怀疑,按照要求,她对着手机说,“我是吴小乐,请相信”,拍了一个5秒视频。
骗局开始。
半夜,吴小乐的脸和声音出现在另一部手机上。
AI实时换脸技术/中央广电总台中国之声
一位QQ好友收到了一通视频电话。实时的、会动的、声音一样的“吴小乐”朝他借钱,于是将仅有的几百元倾囊相助。
这些都是吴小乐第二天一早才知晓的事情。对方早已不见音讯,留下被骗者原地愤怒与惊悚。她没想到自己遇上了电视剧里才有的技术——深度伪造(deep fake)。就像英剧《真相捕捉》演的,各机构为了达到目的,使用AI合成人脸的深度伪造技术,让现实真假难辨。
1个月后,吴小乐仍对自己被“AI换脸”感到惶恐。她把上述归咎于自己是“互联网小白”。大学前没接触过广阔的互联网,“太愚蠢了”。
只是,如果真实的人脸出现在视频、直播间里,多数人第一反应也将像高中生们一样,选择相信。今年5月,因为如出一辙的套路,福州一公司老板10分钟内被骗430万元。
《真相捕捉》剧照
没人会怀疑屏幕前的“刘德华”、“杨幂”是否为真人。因为深度伪造反复迭代的目的,就是让人无法验伪。
我由此踏上学习深度伪造的技术之路。
这段“学习”经历令人意外,它的门槛出奇地低,想入手的人却出奇地多。在大模型奔流的2023年,深度伪造成为了中小商家、个体户最先上手的人工智能应用之一。
毫无疑问地,世界愈加虚实难辨了。
AI导师
想学习深度伪造,难度并不大。
技术的进步这些年有了最直接的受益者——自称懂AI换脸的“导师”们。
他们活跃在短视频、社交平台上,顶着“成龙”“马斯克”的脸直播、录像,像变魔术般让外行人惊叹。
找到这群AI导师并不难。在后台私信留言,“有偿”,多数“导师”会回复联系方式。一位微信名叫“AI导师”通过微信后,首先对我发出提醒:“这个入坑条件有点高”。
他随后发了张价目表。“1980,一对一,学会预计2天;2680元,保姆级,学会预计1天……”
只有购买超过2680元的套餐,才能被这名“导师”收作徒弟。
某AI群里的教学套餐价目表
相似的价格表出现在与“AI超人”,“X哥AI黑科技”等导师的聊天里。包学会套餐价格200-4000元不等。这些课程都指向了同一款实时换脸软件(为了谨慎传播该技术,本文以X软件代指),原因是其代码开源,且对电脑配置要求不算高。
为了力证效果,第一位AI导师给我发送了两个徒弟“刘德华”的视频。
在一个面积不大的房间,身着白色T恤衫的“刘德华”左右摆头,上下打量镜头。接着,无论他张大嘴巴,露出侧脸,还是用手拨弄头发,都没露出破绽。
还是那副让人怀缅青春的刘德华面孔。
视频里传来导师欣喜的画外音:“不错嘛,这和华仔有点像,再把灯光打一打,效果更好。”
几天后,这名AI导师在朋友圈更新了他的进展。
“如今用AI换脸,你眨眼、遮挡脸都没问题。还有更高级一些的,现在可以实时定制人物脸型。你觉得脸型太宽了,可以直接调小。更恐怖的是,即使直播,你也可以直接把皮肤揪起来。”
这是深度伪造技术多年来发展的巅峰。
某AI导师在朋友圈发布的“高级变脸效果”
这一技术首先在2017年被发明。一位名叫“DeepFakes”的用户,在Reddict发布了一个AI换脸明星的视频,并公布了其开源代码。AI换脸开始在英文互联网流行,次年传入中国。
Deep Fake(深度伪造)一词,从此与AI换脸深度绑定。
新技术的推出,一度骗过多个人脸识别系统。2018年,美国国防部研发出全球首款“反AI变脸刑侦检测工具”,以AI反AI换脸。据介绍,这个检测工具的原理发现,AI换的脸极少会眨眼,因为它们是使用睁眼照片训练出来的。
但近年来,随着代码不断更新,被AI换的脸早已能自动眨眼,具备各种真人的反应。
“你学会后,能给你带来变现和利润吗?你要清晰考虑这点。”面对咨询,“AI导师”看出了我言语间的犹豫。
“没有的话,真没必要浪费时间与金钱。”
明星脸
想要用AI换脸挣钱的人很多。在一个560人的AI换脸技术交流群里,我遇到了程刚和莹莹。他们是群里最活跃的两个人,也是最希望赶快搭上AI换脸东风的商家。
程刚是毫无疑问的“技术小白”。手机用的是2018年推出的“小米Note 8”,现售价不到500元。他很少用笔记本电脑,不会使用邮箱,导致人生之路经常与互联网潮水擦肩而过。
但这次的AI浪潮,他想抓住。2023年7月,在网上看到一个介绍深度伪造的视频,心开始萌动。视频里,主讲人拥有了成龙的脸,比着成龙标准的大拇指,介绍AI究竟如何换了这张脸。
程刚被这样的“成龙”震动。
他想起了久久不见起色的短视频账号,心生一计:如果一段视频出镜的不是自己这种无名小卒,而是网红、明星呢?
他决定试一试,使用最低门槛的换脸工具。这样做的目的,他解释,为了省钱。在山东卖苹果多年,今年是淡季,他只能通过短视频吸引流量,线上销售。
“找个女的拿苹果,拍视频,以后(视频)就一直换明星脸,我觉得能行。”这是他当前的畅想。
莹莹也有相似想法。她是新媒体运营,手上有上千个服装厂家的渠道。她打算将换脸技术,运用到服装上新,模特拍照环节。
她来做后期,批量用AI给模特换脸,帮厂家省成本。
“我们这几千家服装厂,后续只要招几个大学生在电脑前(从事换脸),我就可以大规模接单了。”
群友提供的AI换脸图片效果
一说到这,莹莹就兴奋。
只是,以她现有的技术水平,她发现漏洞不断。AI换的脸经常会出现违反人体规律的“废片”。
比如,“眼睛容易怪怪的,大小眼,三角眼”;比如,“脖子和脸的像素、肤色不一致”。
一位名叫“红色气球”的导师对我解释,AI换脸的效果,与电脑的参数有关,“电脑越强效果越好”。
除此以外,还与“底丹、(视频)素材”紧密相关。
炼丹,是这些换脸爱好者自己的交流方式。
好的人脸模型需要大量src(源视频)素材包进行投喂,使用专门软件对AI预训练。这一过程就叫炼丹。最好的炼丹效果,是拥有人脸多角度,多光源的素材。
在大量的源视频素材包投喂下,可以对AI进行专门训练/中央广电总台中国之声
处理模型的电脑的GPU(图形处理器),被这群人称为“炉子”。
至于底丹,则是一个预训练好的模型。
“在这个底模上训练新模型,节省时间,更容易出效果,” 红色气球耐心地解释。
但问到如何获得底丹时,他的指导立刻变得明码标价。
“底丹,一个100。公开课100元一节,明星模型,一个100。”
他手上有着多个训练好的名人模型。只要一键购买,将其嵌入某换脸软件,刘亦菲、马保国、普京、杨幂、赵今麦等名人,就栩栩如生地替换掉了摄像头眼前的人。
“给你看看刘亦菲的,”他对自己训练的“神仙姐姐”尤其自豪。
“但赵今麦的,感觉效果就一般。” 红色气球老实地说。
许多带货主播换脸杨幂等明星/锦州网警巡查执法
为了不付钱,我最终决定首先试一下自学X软件。根据开源论坛的教程,安装大约耗时20分钟。下载完毕后,只花了30分钟调适,X软件自带的明星模型,便成功嵌入完毕。
出人意料地简单。
1小时内,我拥有了令旁人惊叹的成龙、刘玉玲、憨豆先生的脸。
AI换脸界面
魔法打败魔法?
包括红色气球的多位导师告诉我,面对客户,他们“不清楚、不过问”具体换脸后用途。这是职业素养。
真实的案例将深度伪造技术背后的角落曝光。7月,济南公安发布7秒被AI诈骗的案例。小伙子小冯收到亲戚“白某”信息。与对方打了7秒视频电话后,他深信眼前的人是“白某”,给他转了30万。
让女性感到不安和恐惧的是,自己的脸随时可能出现在不见光的暗处。4月26日,网红博主“Caro赖赖”分享了自己被盗脸的经历。
群友提供的AI换脸图片效果
她在过去半年听很多人说,看过她的“视频”。深感疑惑的她有一次点开粉丝发的视频,看见“里面的女生正做着一些难以描述的动作。”
“我看着视频里那张跟我长得一模一样的脸,愤怒得说不出话来。”。
她决定去弄明白,为什么自己的脸大量出现在淫秽视频里。
通过查看境外社交媒体,赖赖发现,有多个冒充自己的账号,搬运她的照片。“等到粉丝数差不多的时候,以会员订阅的方式贩卖视频。”
她同时发现这是一个完整的产业链。“我曾看到过一个网红名单,表里密密麻麻写满了我熟悉的名字。他们根据博主的粉丝量级进行分类,假视频价格在30-50元不等。”
这些细节都让赖赖感到被侮辱,认为自己遭遇了“一场集体的性暴力”。
背后更让人感到恐惧的是,愈加逼真的AI换脸已经模糊了虚实的边界。瑞莱智慧RealAI联合创始人、算法科学家萧子豪对我介绍,最近的发展中,迁移学习和生成模型成为图像和语音合成的重要方向。
技术软件开发者与记者的聊天截图/中央广电总台中国之声
“这些技术方法的进步,极大地提升了(AI换脸)生成质量,生成的速度也在不断地提高。”
对此,用“魔法打败魔法”,即,使用AI反AI,成为业内破除深度伪造的主流手段。
萧子豪创立的公司,近日推出了生成式人工智能内容检测平台。他解释,AI的辨别思路大致是寻找图像编辑痕迹。“一般来说,这类换脸都会对原先的人脸进行编辑,过程中会有类似图片编辑的操作并且留下痕迹。这类痕迹和真正拍摄时不一样。”
“此外,我们还会检测视频中是否展现出不符合常识的行为,如长时间不眨眼。”
但是,也有业内人士对这一理念提出反对意见。创新工场AI子公司CTO张发恩曾指出,用AI识破AI是个伪命题。
他认为,AI换脸的一种训练方式叫生成辨别对抗训练。在这种方式下,有两个AI模型,一个是“造假”模型,一个是辨别模型。当“造假”模型产出的内容越来越逼真,辨别模型就无法辨别真假。
萧子豪也承认,随着换脸技术的提升,识别AI换脸的“防御技术”需要持续验证和优化,经历博弈提升的过程。
视频确认对方的方法变得不可靠/济南刑警
同时,“互联网的传播环境中,AI换脸的数据会经过有意无意的变化,比如数据会被压缩。这会给原本的伪造痕迹带来变化,给识别增加难度。”
连AI与AI的博弈都变得艰难,普通人似乎在大浪潮中难以为继。萧子豪说,如果在现实生活遇到疑似AI换脸,可以在视频时有意识地引导对方做一些动作,如,大幅度摇头或张嘴。当骗子技术手段较弱,便有可能发现对方面部边缘或者牙齿的瑕疵。
不过,这个方法对识别 “高水平”的不法分子,存在难度。因此,“可以追问几个只有你们之间知道的私密信息,核实对方身份。”
萧子豪建议,AI换脸的时代,普通人除了防止自己上当,还要注意保护个人图像,尽量避免在公开平台大量晒自己的照片和视频。
“因为,深度伪造的原材料是个人音频、图片、视频。数据越多,训练的视频也越逼真。”
群友提供的AI换脸图片效果
愈加难以鉴别的现实,需要人们重塑和更新对视频、音频文件的认知。
被AI诈骗的高中生吴小乐告诉我,被骗后的最大的教训,是她第一次认识到,“连视频都可以被伪造”。
她像所有被AI换过脸的人一样,想找出幕后真凶。
只是,结局与网红赖赖相似。
用AI换脸的诈骗账号已经注销或者身在海外。消失得无踪无迹,警察也无能为力。
没人知道自己的脸下一次出现在哪。
(应受访者要求,文中吴小乐、莹莹为化名)
文中配图部分来源于网络
更多资讯
编辑 | 向由
值班编辑 | 阿树
排版 | 菲菲
南风窗原创访谈节目
《致敬实干家》
南风窗新媒体 出品
未经授权 禁止转载
欢迎分享至 朋友圈
投稿、投简历:[email protected]
广告、商务合作: NFCmagJiang
记得星标!点点在看让理性的声音传得更远
微信扫码关注该文公众号作者