「深伪」採样要多 名人红星易中招
香港文汇报讯(记者 萧景源)AI科技日趋成熟和普及,由于「深伪技术」须收集大量被模拟对象的原始影像及语音数据,才能达至理想的伪造效果,故此骗徒绞尽脑汁打造几可乱真的「犯案工具」犯案。一些经常曝光的公众人物或明星首当其衝成为受害者,如在内地早前便有骗徒以AI变脸变声的「深伪技术」,将直播间推销员摇身变成「杨幂」、「杨颖」、「迪丽热巴」等女星带货,推高销量,有诈骗之嫌。
本港有「庙街歌王」之称的男歌手尹光,近期亦被人以AI製造「翻唱」歌曲在YouTube频道播放。尹光早前向传媒表示,听过由AI模仿自己声音唱出林家谦、姜涛等的歌曲后,「觉得好笑,都唱得好似,不过与自己真人唱肯定有分别。」
欧美骗案佔比飙升
至于在殴美等发达国家,近年涉及「深伪技术」的诈骗案不断上升。今年5月,有网络公司发布多国首季涉及「深伪技术」的诈骗案比例的统计数据显示,与去年同期相比,美国已从0.2%上升到2.6%,加拿大则从0.1%飙升到4.6%。而在英国、德国、意大利等的「深伪技术」诈骗案所佔比例都超过了5%。
今年3月在加拿大,当地便有一对夫妇接获骗徒利用AI模仿其儿子的声音来电,被骗2.1万加元(约12万港元)。
据悉,骗徒是在电话上利用以AI合成其儿子的「声线」致电该对夫妇,讹称因驾车撞死一名美国外交官,现身处监狱,急需金钱支付律师费。数小时后,骗徒又再佯称是其儿子的代表律师致电,声称开庭前需要2.1万加元。
有香港资讯科技专家表示,随着AI科技和工具的不断进步,「变脸」、「变声」的製作成本逐渐降低。内地早前便有不法分子指只需3.5万元人民币,就可以买张「明星脸」,30分钟便可将训练好的AI模型送到买家手上。
不过,专家则对此说法有所保留,因为AI的「深伪技术」製作均需专业的硬件,以及运算需时,短时间内完成,本身肯定已是「诈骗」。
专家不排除日后科技发展,「变声」、「变脸」的电骗案将会增加,市民须提高警觉。但从现时的程度看来,技术仍有不少缺陷,例如声音会较「生硬」及「粗糙」,市民若收到怀疑是模拟家属的声线电话时,应保持冷静,可先尝试联络当事人,以确认对方的现况,切勿轻易将金钱转给别人。
--- 廣 告 ---
--- 廣 告 ---
--- 廣 告 ---
--- 廣 告 ---
微信扫码关注该文公众号作者