深伪变脸换声全球蔓延 港设防骗刑警未雨绸缪警方教绝招:叫对方镜头前动手指摇头便显破绽
▲警方示范AI「变脸」,当模拟头像(右)侧面时会露出破绽,面部轮廓较为模糊。香港文汇报记者廖杰尧 摄
▲测试AI「变脸」可叫对方用手指横过面前,如果像右边画面出现模糊的影象便要小心。
网络骗案防不胜防,「有图有真相」已成过去,接下来即将面临「有影片也难有真相」的挑战。AI人工智能「换脸」、「换声」的「深伪技术」开始运用于诈骗,正在全球迅速蔓延,香港今年以来也收到两宗涉及AI诈骗的查询。儘管因技术和成本等原因尚未成为诈骗案的主要类型,香港警方仍提醒,随着AI技术日趋成熟,市民应及早提高防范意识。警方日前讲解和分析「深伪技术」骗局的趋势及现存的「穿煲」弱点,建议市民可叫对方在镜头前做指定动作来识破「真人假象」,同时提醒市民避免接听陌生人的视像电话,保护好个人脸部、声音等生物特徵信息,免被骗徒收集成数据用来「换脸」「换声」造假行骗。
利用人工智能(AI)技术生成的deepfake(深度伪造技术),是透过人工智能作深度学习的方法,模拟特定对象的多角度面部特徵和声音,製成高仿真的模拟影声,有海外个案显示此技术被骗徒利用来行骗。
四督察首次出任「防骗刑警」
香港警方网络安全及科技罪案调查科首次委任4名警务督察作为「防骗刑警」,包括高级督察吴柏慧、高级督察陈智颖、高级督察张文瀚及督察梁珮筠,日前向香港文汇报等媒体分享包括AI「深伪技术」在内的科技罪案趋势和手法以及有效防骗策略。
目前香港警方尚未接获涉人工智能诈骗案的举报,但警方获悉有两宗涉及香港元素的个案查询。今年5月,一名日本男子在社交平台浏览到一名香港银行CEO的账号,发现内有关于在香港投资的新闻报道片段,殊不知是骗徒以深伪技术製造新闻女主播推介投资项目及专访CEO的报道。日汉信以为真,最终被骗购买1,570港元的点数卡,他其后致电到涉案银行寻找该名CEO,该银行指并没有此人,男子和银行都将事件通知日本警方,得知骗徒是盗用了另一间银行CEO的样貌。
今年3月,一名25岁香港男子在交友平台玩裸聊,被诱骗下载不知名手机程式,骗徒透过程式的视像功能盗取港男的样貌及手机电话簿,再以「深伪技术」将其头像移花接木到色情影片,然后向事主勒索1万元。事主拒绝付款,但他只是通知警方,没有正式报案。因此,香港警方暂时未有接到利用「深伪技术」实施诈骗的报案。
至于早前内地有报道指有科技公司老板被AI伪术骗去数百万元,国家反诈中心已澄清没有相关案件举报。不过,近期以「深伪技术」进行实时「换脸」、「换声」的骗案再度成为网民热搜对象。
◆骗徒利用AI「深伪技术」製造假新闻,讹称香港银行有赚钱投资计划。
眨眼视线变化等易露破绽
警方分析指,理论上AI「深伪技术」也可使用在网恋骗案、电邮骗案、钓鱼骗案中。现阶段,骗徒通常需要收集大量被模拟对象的原始影像及语音数据,才能达到理想的伪造成果,过程要配合高运算力的电脑,需时费力,加上现时技术尚无法作非常细緻的处理, 例如眨眼、视线变化或脸部抽搐的动作会较不自然,通常在画面边缘处会出现不协调,故利用「深伪技术」实时对话较易露出破绽。
警方日前向记者演示利用人工智能「变脸」的手法,以数星期时间搜集及模拟到的一名警司脸部资料,将其套用在另一人身上并作实时视像聊天,可见因数据不完善,画面中被伪冒人物的眼神、口型出现不协调,脸部边缘线不自然。
手指动作变得模糊和迟滞
警方指出,要特别留意手指在镜头摆动的动作,因数据不完整及电脑运算力不足,无法应对突然改变的画面,令手指动作变得模糊和迟滞。所以,市民若有怀疑,只要叫对方在视像中做出用手指横过脸部的动作,便可看出上述破绽,即可判定这可能是一个假影像。
根据警方了解,现时骗徒使用的所谓「变脸」片段,都是骗徒预先製作,并且透过视像的通话播放,为免「夜长梦多」露出破绽,往往只会播放数秒钟,便会以不同借口结束视像聊天,然后返回传统的诈骗「剧本」,用即时通讯软件继续行骗。
警方指出,利用「深伪技术」做视像电话,其实都是增加受害人信任度的一个行骗手段,无论人工智能发展到何地步,只不过是其中一个接触受害人的手段,整体行骗套路与传统的手法大致相同。不过,科技发展一日千里,市民必须时刻保持警惕,提高防骗「免疫力」,谨记「眼见不一定为实,有图并不一定是真相」。
--- 廣 告 ---
--- 廣 告 ---
--- 廣 告 ---
--- 廣 告 ---
微信扫码关注该文公众号作者