AI 合成以假乱真:只需 7 张照片,就能让真人“社死”
近日,Arstechnica 的研究人员做了一项研究:大家在社交媒体上发布的真实照片,会被 AI 的二次创作“玩坏”吗?
为了找到答案,研究人员联系了一位志愿者,使用其提供的几张真实照片,用 AI 生成假照片。结果显示,这些假照片的威力巨大,很有可能破坏其声誉。最终,研究人员创建了一个名为约翰的虚拟人物,以其作为案例,一起看看 AI 是怎么把约翰“玩坏”的。
这位名叫约翰的虚构人物,在假想的场景中是一名小学教师。和大多数人一样,他在过去 12 年里通过 Facebook 发布了不少自己工作、居家和外出时的照片。
以约翰的 7 张照片作为训练数据,就能训练出足以伪造约翰形象的强大 AI 模型,并能把约翰的照片毫无破绽地放在任意背景之下。
这个 AI 模型生成的假照片栩栩如生,甚至到了以假乱真的底部,比如,约翰打扮成小丑跑去喝酒,约翰在周末参加准军事组织的训练,约翰几年前曾入狱服刑。
这些约翰照片来自名为 Stable Diffusion(1.5 版)的 AI 图像生成器,外加名为 Dreambooth 的技术。虽然约翰不是真人,但用真人的 5 张以上图像完全可以重现类似的结果。这类照片不难获取,社交媒体的发布内容可以、视频中的静止帧也行。
整个训练过程大概需要一个小时,训练完成后,图像内容的生成还需要几个小时——这不是因为生成过程太慢,而是研究人员从大量不完美的图片里挑出质量最高的图片。但无论如何,这样还是比亲自动手用 PS 画假约翰简单得多。
在 AI 的支持下,约翰可以是犯罪分子,也可以是变态狂人,如果使用针对色情内容优化的附加 AI 模型,约翰甚至可以成为色情明星。
AI 还能把约翰放置在奇妙的背景下,例如让他成为中世纪的骑士或者宇航员,让他显得年轻或衰老、肥胖或瘦弱、戴眼镜或不戴,也能给他换上不同的服饰。
有的合成图像并不完美。如果仔细观察,有经验的人会发现这些并非真图。但相应的 AI 技术一直在迅速发展,我们可能很快就无法分辨合成照片与真实照片间的区别。而且即使存在缺陷,这些伪造图像仍有可能毁掉约翰的名誉乃至生活。
这就是技术的两面性所在。人们当然可以用 AI 创建天马行空的神奇画面,Lensa 等近期大热的商业服务和应用就是一例。然而,一旦有人未经他人同意就使用对方的面部图像,那么同样的技术也可能造成可怕的后果。
计算机科学家们已经找到了利用真实照片教 AI 伪造新画面的高质量方法,在过去的一年里,这项技术正日渐成熟。不过,这项技术一直存在争议,因为除照片之外,它还允许人们在未经许可下模仿在世艺术家的创作风格。
目前最具影响力的 AI 图像生成器之一是 Stable Diffusion。这种深度学习图像合成模型能够利用文本描述生成全新图像,可以运行在 Windows 或 Linux PC 的强大本地 GPU 上,也可以在 Mac 或者租用的云端硬件上起效。
在 Stability AI 雄厚财力的支持下,CompVis 学术组织利用互联网上获取的几亿张公开图像训练出了 Stable Diffusion AI 模型。Stability AI 于 2022 年 8 月 22 日将 Stable Diffusion 以开源软件的形式发布,现在任何人均可免费使用,其功能也被集成至越来越多商业产品当中。
通过强化训练,Stable Diffusion 神经网络学会了单词与图像中各像素位置间的一般统计关联。大家可以给 Stable Diffusion 提供一条文本提示,例如“摩根·弗里曼坐在教室里”,然后就能得到相应的全新图像。
制作这类大明星的图像很简单,因为 Stable Diffusion 的训练数据集里没准有几百张摩根·弗里曼的照片,它知道这位演员长什么样子。但如果想制作约翰这类普通人的图像,就得给 Stable Diffusion 一点额外的帮助。这就是 Dreambooth 的意义所在。
谷歌研究人员于 2022 年 8 月 30 日宣布,Dreambooth 使用一种特殊的“微调”技术帮助 Stable Diffusion 完成了新的学习。
最初,Dreambooth 其实跟 Stable Diffusion 没有任何关系,而且谷歌为了防止被滥用而屏蔽了 Dreambooth 的代码。但在公布不久之后,就有人主动把 Dreambooth 跟 Stable Diffusion 结合了起来,并将其代码作为开源项目免费发布。
从那时起,Dreambooth 开始成为 Stable Diffusion 学习全新艺术风格的重要“家教”。用户们在线上存储库里分享自己的 Dreambooth 微调模型,并供其他人下载以快速获得类似的视觉效果。
但从一开始,谷歌研究人员就知道这种技术完全可以用到人身上,而麻烦也将随之而来。因此他们在公布 Dreambooth 时,使用的是柯基犬的图像。但这点小心思当然躲不过评判者的法眼,《麻省理工科技评论》批评称,AI 科学家显然是在用这种消极的方式回避其成果所带来的潜在负面影响。
未来,也许会有新的技术手段来防范这种照片滥用。例如,法律可能要求未来的 AI 图像生成器在输出中嵌入肉眼不可见的水印,以供日后检验。
比如,Stable Diffusion 就默认嵌入水印,但开源版本的用户可以删除或禁用水印组件来解决问题。不过,即使法律强制要求,市面上也还有其他不加水印的 Deepfakes 技术存在。
最近,麻省理工学院的研究人员公布了 PhotoGuard 对抗方法,能用一种不可见的方法巧妙修改照片,借此防止 AI 操纵现有图像。但其目前只适用于 AI 编辑(即「修改」),而非图像训练或生成。
另外,时间也许能解决一切。随着人们对伪造图像认知的增强,社会文化最终也许能够消化掉这些新问题。我们会慢慢接受这样一种新的媒体呈现方式,并开始关注照片是否拥有可信来源。但在适应新形势之前,AI 合成的伪造品肯定会造成一段时期的混乱。
点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!
微信扫码关注该文公众号作者