Redian新闻
>
人脸识别这么好糊弄,我的钱会不会被盗刷?

人脸识别这么好糊弄,我的钱会不会被盗刷?

其他

AI换脸,曾经只会困扰名人,如今却会直接影响到我们普通人的财产安全


伪造人脸盗号、转账的新闻不在少数,今年8月,就有两名犯罪嫌疑人因使用手机软件制作人脸识别动态视频,并“伪装”登录他人的网络账号盗取资金而被警方抓获


另一则新闻提到,由于制作简单,一个视频价格仅为2至10元,

“客户”往往是成百上千购买,牟利空间巨大 | 图源:北京青年报


根据新闻报道和法院裁定书,这类案件的非法获利几千至几十万元不等,全国各地都已经发生了许多类似案件。甚至有不法分子利用银行的人脸识别授权功能,再通过木马病毒拦截短信验证码盗取存款,涉案总金额超200万元。


骗不过人,可以骗摄像头啊!


AI换脸,术语是Deepfake(深度伪造),是把Deep learning(深度学习)和Fake(伪造)组合在一起,用AI把一个人的人脸换到另一个人的照片/视频当中的技术


围绕AI换脸有着相当多的“犯罪应用”,包括且不限于:


· 攻击刷脸验证:直接从支付宝、微信钱包、甚至贷款软件里,伪造他人信息套现;

· 制作虚假色情图片/视频:诈骗、敲诈勒索或损坏他人名誉;

· 实时换脸通话:盗号并诈骗号主亲友;

· 制造虚假信息:蒙骗政客、法官、投资者等;

· 发布假新闻:煽动民众、引起混乱恐慌、打击商业对手、制造股市动荡等。


在这当中,刷脸验证与普通人关系最大,因为它验证的是一个人的身份,一旦这个信息被突破,你的资产安全与信息安全都会受到威胁,很容易在网络上“裸奔”。


除了Deepfake技术,还有相当多的方法可以干扰人脸识别认证,比如造一个“骗AI眼镜”:



不好意思放错了,是这个:


图源:Accessorize to a crime: Real and stealthy attacks on

state-of-the-art face recognition.


在一篇图像识别领域的经典文献中,研究者通过数学运算设计了一种特定的“眼镜”(中图),戴上就可以让一个人(左图)被AI人脸识别认成另外一个人(右图)。


另一种骗检测设备的方式是3D面具,比如下面这些图:


图源:businessinsider & kneron


这是Kneron这家公司的产品,他们在2019年底声明,对于微信、支付宝的刷脸支付和火车站的人脸识别闸机,都可以戴着面具伪装成别人通过。


AI换脸,特别在哪?


对普通人来说,上述技术还不必过于担心,因为它们有着各种各样的缺陷,比如“骗AI眼镜”主要是针对静态图片识别,无法突破动态人脸识别,而“人脸面具”需要定制、价值不菲且制作工艺复杂,用在普通人身上性价比并不高。


AI改变了一切,简直把造假成本降到了“白菜价”


视频越短、像素越低、实时性要求(需要实时换脸还是可以制作完视频再发出)越低、欺骗对象警惕性越低、可用素材(就是目标人物的多角度照片、视频)越多,造假成本就越低。


举个例子,同样是一个人说话,AI换成另一个人的脸,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到这样,动作还算流畅,但“塑胶感”严重,一眼就能看出不是真人的视频。


图源:Youtube@Matthias Niessner


而经过NVIDIA RTX 3090 Ti长时间(数小时甚至数天)训练的AI模型,可以做出相当以假乱真的效果。可能只有在认真反复的观看下,才会发现:诶?刚刚这个人额头的皱纹是不是在闪?


图源:Youtube@Druuzil Tech & Games


针对“人脸识别”,deepfake便宜很多;因为攻破“人脸识别”不需要最“精细”,最费工夫的Deepfake技术,只需要一个清晰度一般的几秒钟的视频。


而提高成本后制作的更精细的视频,则可以用于其他的诈骗用途。并且这种造假是一种“一本万利”的买卖,在设备与算法齐全后,就可以根据不同的情境与需求,批量生产假视频


普通人能怎么办


当AI换脸进入普通人的生活,我们能做些什么来应对跟它相关的不法行为呢?


“骗”机器的换脸咋办?


针对刷脸验证身份这一类场景,伪造的视频需要通过的是人脸识别系统的自动验证,或者说“骗过”机器。所需的视频时间短(几秒钟以内)、动态简单(只有少量固定动作、甚至有些系统仅仅识别图片)、没有实时要求,从技术上来讲是相对简单的,识别端也不在真人的掌控之中。


对于这类案件,普通人能做的就是平时守护好自己的个人信息(包括人脸信息),并且尽量采用多种方式结合的身份验证


密码、指纹、手机号,能选的验证方式都选上,虽然自己也会麻烦点,但是相当于多几道保险,全部被同时攻破的可能性还是小很多的。



如果不幸被盗刷,立刻报警,配合警察追踪不法分子、追回违法所得,同时上报平台,让平台获取更多的信息来修补漏洞、升级系统


“骗”真人的换脸,咋办?


欺骗真人的AI换脸,比如面对个人的勒索、诈骗,还有面对大众的虚假新闻,则显得更加隐蔽和多样化。


从根本上来说,有了AI换脸技术以后,普通人面对图像信息都应该多留个心眼,不能一味相信“眼见为实”。


如果被人用伪造的裸照、不雅视频勒索,不要回应,直接报警


这类犯罪的AI换脸目标就是受害人,所以只要看到视频的人知道自己没有拍过此类照片、视频,就可以判断视频是伪造的。最大的难点反而在于不要自乱阵脚、不要因为害怕而向不法分子交付钱财。


如果被人用伪造的视频诈骗,比如骗子盗了你朋友的号,用AI换脸跟你实时通话借钱。这个时候,多渠道验证就很重要,各个社交平台、邮箱、短信、电话,不要因为对方看起来很着急就想都不想地打钱。


在观看网上的新闻、视频时,多查查新闻来源是否可靠。尤其是什么拜登讲话,马斯克讲话,这些名人们可用于机器学习的训练集太多了,仿造高精度视频很容易。


这张图里的马斯克是假的哈…… | 图源:VR陀螺


识别Deepfake的亿些小技巧


还有一些小诀窍,可以帮助你更好地判断一个视频是不是AI换脸伪造的(如果开了十级美颜,这些方法就不是很可靠了。毕竟,十级美颜也可以被看作一种AI换脸呢):


关注脸型


多看看脸的大小、形状、下颚线位置,尤其是动起来的样子,和本人是否一致。


关注皱纹


毕竟每个人的皮肤情况和皱纹走向都是不一样的,AI模型仅凭一些照片(而且不一定是最近的照片),生成的皱纹很难跟本人一模一样。


一个人皮肤过于光滑、皱纹过多、或者全脸皮肤状况不一致(比如额头很多皱纹、脸颊却很光滑)、一段视频中年龄感不一致(一会儿看着年轻一会儿看着年长),都可能是伪造视频的特征。


关注背景


看看这个背景是不是这个人平时用的背景、背景和人的衔接是不是自然、背景本身有没有变形等等。


关注光影


AI换脸生成的视频并不遵循现实世界的物理光影规则,因此面部的阴影眼镜的反光等等,都可能出卖伪造的视频。


关注五官的位置和大小


AI伪造的视频可能会出现五官忽大忽小、位置飘移的现象。


关注独特的面部特征


如果这个人脸上有痣、文身、疤痕,它们看起来都在正确的位置吗?


关注头发


发量、发际线看起来真实吗?头发边缘看起来自然吗?



关注动态


比如眨眼的频率和方式是否正常、眉毛和嘴的运动是否像这个人平时的样子、转头(尤其是转到90度的侧面)的时候有无变形、脸部被遮挡的时候遮挡物是否清晰可见,都是一些辨别AI伪造视频的要点。


一些容易露馅的动作 | 图源:metaphysic & VFXChris Ume


除了以上的理论知识,你还可以试着去这个网站(

https://detectfakes.media.mit.edu/)实操做题,提升一下自己鉴别假视频的能力,说不定还能帮科学家对抗使用AI换脸的不法行为。


名人们有说过这些话吗?| 图源:MIT Media Lab


只要还有很高的潜在非法收益,不法分子就会不惜加大投入,制作更精美、更“真实”的虚假视频,去欺骗普通人、大公司、大机构乃至政府。


所以,除了个人能做到的事情外,其实也更应该由政府、公司从政策法规和技术建设上不断完善和加强,让技术的进步真正造福于人类,而不是沦为伤害他人的犯罪工具



参考资料

[1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1

惊堂木 | 眼见为实?“变脸”盗刷支付宝!已有人中招... (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/s/qNEaUN-A_83OL53vHvbWww

[2]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility

[3]Kneron's Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www.kneron.com/news/blog/85/

[4]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12

[5]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways - Metaphysic.ai. (2022). Retrieved 25 October 2022, from https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/

[6]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https://phys.org/news/2019-06-deepfakes-reveals.html

[7]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[8]Project Overview ‹ Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media.mit.edu/projects/detect-fakes/overview/

[9]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540).

[10]Thies, J., Zollhöfer, M., Theobalt, C., Stamminger, M., & Nießner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13.

[11]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288.

[12]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11).

[13]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41.

[14]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673.

[15]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., ... & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525.

[16]警惕!伪造“人脸”盗取账号,漳州两男子被抓_腾讯新闻. (2022). Retrieved 25 October 2022, from https://new.qq.com/rain/a/20220830A068U500



作者:罗碗

编辑:Emeria、游识猷


 一个AI 

只有AI才能打败AI!识别假图片假视频的打假AI请求出战!

本文来自果壳,未经授权不得转载.

如有需要请联系[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
单片机可以人脸识别吗?不行,是Linux在一个小茶馆里朱雀剧团大戏开幕 | 我们的爱情再来一次, 会不会不一样?意大利宣布人脸识别技术非法,但用于打击犯罪的除外终于曝光了,人脸识别的巨大丑闻!冬天最伤胃的主食,人人都爱这么给娃吃,快别这么做了经济放缓盗刷越发猖獗!华女银行卡被盗刷逾万元 恐无法追回!情感bot | 我知三当三,情愿被男人玩弄,求骂醒...中美大不同 | 中美资产继承顺序概览,你的钱会给谁?附全文 | 美国《2022年人脸识别法》(提案)发布新加坡官方模板 | 公共场合摄像头人脸识别合规评估【友情转发】大戏开票|我们的爱情再来一次,会不会不一样?为什么一开始农民不发粮票?秋天最伤胃的主食,人人都爱这么给娃吃,快别这么做了聚会泡汤了!近期我的钱和时间都花在这上面了,毕竟女人脸蛋最重要!从DeepFace到AdaFace,一文搞懂人脸识别!宁愿把买包的钱抠下来也要买它!就这么好用?冬季风暴致纽约州7万户断电! 狂风、洪水、酷寒三重威胁!粮食券SNAP频频被盗刷?这个法案终于通过了!受害者可获赔偿....从DeepFace到AdaFace,7篇论文讲清人脸识别去餐厅点“全熟牛排”会不会被嘲笑?网友发文称 很多店不提供粮食券SNAP频频被盗刷?这个法案终于通过了!受害者可获赔偿….2022年雅典神话之旅 9 德尔斐,神谕的地方(下)城投公司拿地会不会被叫停【友社转发】朱雀剧团的年度大戏开票|我们的爱情再来一次,会不会不一样?千万别这样搭讪帅哥,会被打!范德堡大学ED和RD录取率差别这么大,我们该怎么选?别人一抢他就让,这样的孩子会不会被人欺负到底?带娃也能 2min 搞定早餐!真不是糊弄,营养搭配杠杠滴深度好文|三年后,金融业会不会不卷了?人脸识别案 | 法国CNIL对美国公司处以2000万欧元罚款再不警惕,中产挣的钱会被吃干抹净!李迅雷:从房地产退出的钱会缓慢流入资本市场,A股被显著低估,配置这两个方向有志者事未成--为失败者辩护人脸神经辐射场的掩码编辑方法NeRFFaceEditing,不会三维建模也能编辑立体人脸
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。