人工智能造假正迅速成为我们在网上面临的最大问题之一。由于人工智能生成工具的兴起和滥用,欺骗性图片、视频和音频层出不穷。
从泰勒·斯威夫特(Taylor Swift)到唐纳德·特朗普(Donald Trump),几乎每天都有人工智能深度伪造的图片出现,人们越来越难辨别真假。像 DALL-E、Midjourney 和 OpenAI 的 Sora 这样的视频和图像生成器,让没有任何技术技能的人也能轻松创建深度伪造图像–只需输入一个请求,系统就会自动生成。这些虚假图像看似无害。但它们可能被用来实施诈骗和身份盗窃,或进行宣传和操纵选举。在深度伪造的早期,技术远非完美,经常会留下被操纵的蛛丝马迹。一些图片有明显的错误,比如有六个手指的手或镜片形状不同的眼镜。但随着人工智能的进步,这变得难上加难。咨询公司 Latent Space Advisory 创始人、生成式人工智能领域的著名专家亨利·阿吉德(Henry Ajder)说,一些广为流传的建议–比如在深度伪造视频中寻找人物不自然的眨眼模式–已经不再适用。很多人工智能深度伪造照片,尤其是人物照片,都有一种电子光泽,“一种美学上的平滑效果”,让皮肤“看起来光洁无比”,阿吉德说。不过,他警告说,创造性的提示有时可以消除这种现象和许多其他人工智能操纵的迹象。检查阴影和光线的一致性。通常情况下,主体对焦清晰,看起来栩栩如生,但背景中的元素可能并不那么逼真或光鲜。换脸是最常见的深度伪造方法之一。专家建议仔细观察面部边缘。面部肤色是否与头部或身体的其他部分相匹配?面部边缘是清晰还是模糊?如果怀疑某人说话的视频被篡改,请查看其嘴部。他们的嘴唇动作是否与音频完全吻合?阿吉德建议查看牙齿。它们是清晰,还是模糊不清,与现实生活中的样子不一致?网络安全公司诺顿表示,算法可能还不够复杂,无法生成单个牙齿,因此单个牙齿轮廓不清晰可能是一个线索。有时,背景很重要。花点时间考虑一下你所看到的是否可信。Poynter新闻网站建议,如果你看到公众人物做了一些看起来“夸张、不现实或不符合人物性格”的事情,这可能是深度伪造。例如,教皇真的会像一张臭名昭著的假照片所表现的那样穿着一件奢华的夹克吗?如果是这样,难道就不会有其他合法来源发布的照片或视频吗?微软开发了一种验证工具,可以分析照片或视频,对其是否被篡改给出置信度评分。芯片制造商英特尔(Intel)的 FakeCatcher使用算法分析图像的像素,以确定图像的真假。网上有一些工具承诺,如果你上传文件或粘贴可疑材料的链接,它们就能识别出赝品。但有些工具,如微软的验证器,只提供给选定的合作伙伴,不对外开放。这是因为研究人员不希望向坏人通风报信,让他们在深度伪造军备竞赛中占据更大优势。阿吉德说,检测工具的开放也会给人们留下这样的印象:它们是神一样的技术,可以为我们鉴定真假,而我们需要意识到它们的局限性。尽管如此,人工智能仍在以迅雷不及掩耳之势向前发展,人工智能模型正在互联网数据上接受训练,以产生质量越来越高、瑕疵越来越少的内容。专家们说,让普通人承担成为数字神探的重任甚至可能是危险的,因为这可能会给他们带来虚假的自信,因为即使是训练有素的眼睛也越来越难以识别深度伪造的内容。