Redian新闻
>
复旦大学重磅开源:AIGC图像检测方法的综合测评平台

复旦大学重磅开源:AIGC图像检测方法的综合测评平台

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【视觉和Transformer】微信交流群

扫码加入CVer知识星球可以最快学习到最新顶会顶刊上的论文ideaCV从入门到精通资料,以及最前沿项目和应用!发论文,强烈推荐!


(本图由AIGC大模型合成)


随着AIGC技术的发展,由AI所生成的虚假图像的检测正成为一个新的研究热点。然而,现有检测方法的实验条件与测试数据集不完全相同,无法直接横向对比检测性能。为此,复旦大学计算机学院多媒体智能安全实验室针对现有主流AIGC图像检测方案进行全面分析与比较,并提出了性能更好的AIGC图像检测新方法。

更进一步,课题组提供了一个综合测试与评估平台,在保证相同训练集与实验条件的情况下,分析并测试了目前检测算法的检测准确率与泛化性等性能指标,为AIGC生成图像检测领域提供一项基准的实验对比平台(Benchmark),同时整合并开源了多种现有AIGC生成图像的检测算法,供同行研究比较。欢迎大家下载源代码、测评比较,并引用课题组在arXiv公开的论文。

论文信息:
N. Zhong, Y. Xu, Z. Qian*, X. Zhang*. Rich and Poor Texture Contrast: A Simple yet Effective Approach for AI-generated Image Detection[J]. arXiv preprint arXiv:2311.12397, 2023.(点击下方阅读原文查看论文全文)

AIGC图像测评网站:

https://fdmas.github.io/AIGCDetect/

开源代码链接 :

https://github.com/Ekko-zn/AIGCDetectBenchmark

论文链接:

https://arxiv.org/abs/2311.12397








AIGC图像检测方法的综合测试与评估

钟楠,徐怡然,钱振兴,张新鹏


一. 引言


近年来,AI生成图像在视觉质量、语义复杂度、运行时间效率等方面都有了显著提升。生成虚假图像所­­­­需的专业知识和成本也都有了明显下降,各大生成图像平台纷纷涌现,人人都可以使用在线工具(如Midjourney,DALL·E等),根据自己的需求生成虚假图像。



Midjourney是近年来最火爆的在线图像生成平台,目前已经更新到了第5.2代,用户可以付费使用。DALL·E由OpenAI公司研发,用户可以付费后将DALL·E 3模型和ChatGPT Plu版、企业版结合使用。微软公司还将DALL·E模型整合到了Bing聊天功能中,在Microsoft Edge浏览器中向用户提供服务。Stability AI公司研发的Stable Diffusion已经开源了Stable Diffusion v2.0, v2.1和XL等多个版本的预训练模型。用户可以使用在线接口或者使用开源模型在本地计算。这些都是强大的text-to-image工具,根据用户输入的文字生成相应内容的高质量图像。除此之外,Pixeling、wukong等等在线平台还支持中文输入的text-to-image功能。


这前所未有的可访问性引发了人们对虚假信息普遍传播的担忧。


左右滑动查看更多

🌟

猜猜看:上述图像哪张是由AI模型生成的?

点击下方空白处查看答案

第一张图像是由AI模型生成的。



根据Lago等人的研究 [1] ,受访者将StyleGAN生成图像中的68%标记为“真实的”,却将真实图像中的48%标记为“虚假的”。可见生成图像已经能够“欺骗”人类的眼睛,开发有效的检测工具迫在眉睫。


目前,已有许多针对AI生成虚假图像的检测工作 [2-9] ,然而,它们在性能分析实验中存在着一定的不一致性和不足。


(1)训练集的不一致


在实际应用中,由于待检测的AI生成图像的生成模型是不可知的,因此检测器的泛化性,即检测器对在训练阶段未见过的数据的检测性能,是评估检测器的一个重要标准。为了保证比较的公平性,所有检测器都应在同一训练集上训练而得。然而目前SOTA检测方法所提供的预训练模型普遍使用了不同的训练集,无法公平地对比泛化性。


(2)测试集的多样性不足


大部分检测方法都致力于准确、高效地区分GAN生成图像和真实图像,却忽视了扩散模型的强大能力,并没有测试在扩散模型生成图像数据集上的准确率。因此无法评估这些方法在扩散生成模型上的泛化性。


上述问题对后续的研究工作产生了一定的阻碍。相关研究人员需要花费大量的时间、精力和计算资源来复现现有检测方法,来进一步补充验证实验。为了解决这一问题,我们使用同一训练集来训练各种不同的AI生成图像检测器,并进行了一系列针对现有方法的基准测试,来评估现有方法在泛化性、鲁棒性上的能力。我们共选取了9个SOTA检测方法 [2-10] ,在16个生成图像数据集上进行了大量测试。旨在提供一种标准化的方式来比较不同方法的性能,以便发现现有方法存在的优缺点,为后续工作的开展提供方便的基准分析框架,以及有价值的参考指标和改进方向。此外,我们还整合了现有SOTA方法的测试接口,并开源了所有检测器的预训练模型。

二、实验


我们进行了一系列的实验来分析这些检测方法在各类GAN、Diffusion Model生成图像上的泛化性和鲁棒性。


表1 测试数据集概览


我们采用的训练数据集是由Wang 等人 [2] 提供的ProGAN生成图像数据集。测试数据集的构建则使用了各种生成模型,包括一些先进的商用生成器(如 Midjourney,DALL·E 2),以更全面地评估和比较每种检测器的泛化性。测试集包含 Wang 等人 [2] 和 Zhu [11] 等人提供的数据集、以及我们自己构造的生成图像数据集,共计16个。部分实验结果如下所示:

图1 各检测方法在不同数据集上的检测准确率


图1中,各雷达图的中心表示检测准确率为0%,最内侧的圆环表示检测准确率为20%,以此类推,最外侧的圆环表示检测准确率为100%。最外侧标记了16个数据集,每个数据点表示该检测方法在对应数据集上的检测准确率。数据点越靠外侧圆环,说明在该数据集上的准确率越高。从整体上来说,一个更靠外的十六边形(更接近圆的图形)表示该检测方法具有更好的泛化性能。


实验中我们用到的检测方法有:


[CNNSpot] Wang等人 [2] 提出了使用ResNet50模型训练用于分辨真实图像和生成图像的二分类器,并在训练过程中加入了对图像的随机预处理(JPEG压缩、高斯模糊、图像大小调整等)来提升模型的泛化能力。


[FreDect] Frank等人 [3] 分析了多种流行的GAN模型生成的虚假图像在频域上的特征,并发现这些虚假图像在频域上都存在着类似的,由上采样操作留下的伪影。基于这个发现,提出了基于频域特征的二分类器。


[Gram-Net] Liu等人 [4] 把检测重心放在GAN生成的虚假人脸上。发现合成人脸在纹理统计上与真实人脸图像有着明显的区别,并且,全局纹理信息可以有效提升检测器的泛化性和对各种图像失真的鲁棒性。在CNN模型的基础上,引入了Gram模块来提取图像的全局纹理信息,构成了Gram-Net。


[Fusing]  Ju等人 [5] 使用双分支框架,将全局图像特征与信息丰富的局部块特征相结合,以增强合成图像检测的泛化能力。此外,借助基于注意力机制的块选择模块,能够自动选择多个块,无需手动标注即可有效提取局部微小伪造特征。


[UnivFD]  Ojha等人 [8] 分析了CNNSpot分类器学习到的决策边界具有不对称性,虽然可以有效区分出GAN生成的虚假图像,但是真实图像的特征空间并不具有独立性,即所有非GAN生成的图像(真实图像、Diffusion生成图像)都被归为了一类。因此,Ojha等人认为,要提升检测器的泛化性,使其合理区分真实图像和虚假图像,即学习到平衡的决策边界,需要一个合适的特征空间。Ojha等人使用了预训练的CLIP:ViT模型来提取特征空间。


[LGrad] Tan等人 [7] 在开始训练分类器之前,使用一个预训练CNN模型(如VGG16, ResNet50, ProGAN的鉴别器等等)将图像转换成梯度图,并归一化到[0,255]。在梯度图数据集上训练得到一个区分真实图像和生成图像的二分类器。


[LNP] Liu等人 [6] 对真实图像的噪声模式进行了频域分析,发现在真实图像之间,这种噪声模式存在着一致性,而生成图像之间的噪声模式则差距很大,因此可以根据图像的噪声模式来分类。噪声模式是原始图像减去去噪图像后,得到的没有语义干扰的模式。


[DIRE] Wang等人 [9] 注意到了现有生成图像检测方法在扩散模型上的性能有明显下降,因此提出了一个新的检测方法。他们发现与真实图像相比,通过预先训练的扩散模型可以更准确地重建扩散过程产生的图像。在此预设基础上,提出了扩散重构错误(DIffusion REconstruction Error, DIRE),用于检测基于扩散模型的生成图像。


[RPTC] Zhong等人 [10] 利用了图像内丰富和贫乏纹理区域之间的像素间相关性对比度来检测AI生成图像。他们发现纹理复杂区域中的像素表现出比纹理平坦区域中更显著的波动。基于这一原理,他将图像划分为多个块,并将其重建为两个图像,分别包括复杂纹理块和平坦纹理块。随后,提取了复杂纹理区域和平坦纹理区域之间的像素间相关性差异特征,作为一种通用“指纹”,用于不同生成模型中的生成图像取证。

三、参考资料


1. Lago F, Pasquini C, Böhme R, et al. More real than real: A study on human visual perception of synthetic faces [applications corner][J]. IEEE Signal Processing Magazine, 2021, 39(1): 109-116.
2. Wang S Y, Wang O, Zhang R, et al. CNN-generated images are surprisingly easy to spot... for now[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 8695-8704.

3. Frank J, Eisenhofer T, Schönherr L, et al. Leveraging frequency analysis for deep fake image recognition[C]//International conference on machine learning. PMLR, 2020: 3247-3258.

4. Liu Z, Qi X, Torr P H S. Global texture enhancement for fake face detection in the wild[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 8060-8069.

5. Ju Y, Jia S, Ke L, et al. Fusing global and local features for generalized ai-synthesized image detection[C]//2022 IEEE International Conference on Image Processing (ICIP). IEEE, 2022: 3465-3469.

6. Liu B, Yang F, Bi X, et al. Detecting generated images by real images[C]//European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 95-110.

7. Tan C, Zhao Y, Wei S, et al. Learning on Gradients: Generalized Artifacts Representation for GAN-Generated Images Detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 12105-12114.

8. Ojha U, Li Y, Lee Y J. Towards universal fake image detectors that generalize across generative models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 24480-24489.

9. Wang Z, Bao J, Zhou W, et al. DIRE for Diffusion-Generated Image Detection[J]. arXiv preprint arXiv:2303.09295, 2023.

10. Zhong N, Xu Y, Qian Z, et al. Rich and Poor Texture Contrast: A Simple yet Effective Approach for AI-generated Image Detection[J]. arXiv preprint arXiv:2311.12397, 2023.

11. Zhu M, Chen H, Yan Q, et al. GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image[J]. arXiv preprint arXiv:2306.08571, 2023.





供稿:钟楠,徐怡然,复旦大学计算机学院多媒体智能安全实验室


实验室简介:多媒体智能安全实验室(MAS Lab)现有教师3位(张新鹏教授、钱振兴教授、李晟副教授)、在站博士后2位、在读博士生19位、在读硕士生30位,主要研究多媒体与人工智能安全,包括信息隐藏、多媒体取证、人工智能安全、虚拟机器人、多媒体应用等五个方向。实验室团队已发表学术论文400余篇,多篇论文发表在IEEE TPAMI、TIFS、TIP、TDSC、TCSVT、TMM、TCYB、TCC、TASPL、AAAI、IJCAI、NeurIPS、ACM MM、ICCV、CIKM等顶刊顶会上。欢迎青年才俊加入复旦多媒体智能安全实验室!

复旦大学多媒体智能安全实验室主页:
https://fdmas.github.io/
神经网络模型研究资源:
https://fdmas.github.io/research/Neural_Network_Watermarking.html
虚假新闻检测研究资源:
https://fdmas.github.io/research/fake-news-detection.html
AIGC取证主页:

https://fdmas.github.io/AIGCDetect/


CVPR / ICCV 2023论文和代码下载
后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

计算机视觉和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
精准至上:干涉仪AFM为材料机电耦合测试提供卓越准确性复旦大学合作最新BMJ(IF=106)红色日记 读鲁迅 4.1-10单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法【前沿速递】复旦大学余宏杰课题组在新冠病毒变异株的流行病学参数估计领域取得进展JMV|复旦大学姜世勃/陆路/夏帅:合作发现小分子化合物Navitoclax靶向冠状病毒保守靶点HR1实例解析,肺动脉高压合并右心衰的综合管理招募晚期肿瘤患者@复旦大学附属肿瘤医院及全国36家医院注意!3月截止的综合性大学转学申请汇总,想申请的要抓紧了!复旦发布AIGC图像检测方法综合测评平台,整合并开源多种现有检测算法复旦大学女教授:为什么我们不想生孩子了?Gut|复旦大学陈兴栋:覆盖31省市2.3亿人,系统描述中国过去50年间慢乙肝感染的流行病学特征golang中使用kafka的综合指南3D目标检测方向微信交流群成立!OpenAI图像检测工具曝光,CTO:AI生成的99%都能认出视觉检测方案商「菲特智能」获超亿元融资,致力于提升汽车制造良品率|36氪首发目标检测方向微信交流群成立!读诺奖提名者残雪的小说《茶园》JACS|复旦大学周璐:合作报道共价配体高通量筛选新方法Leukemia|复旦大学 徐国良院士/石玉衡/高海:首次报道cGAS-STING通路在介导TET2缺失导致的CH发生中的作用夏婳:两情难相知(二十一)GENOME RES | 北大本科生一作发表论文:基于机器学习的单细胞年龄预测方法猴痘检测20-30 分钟出结果!上海巴斯德研究所等开发出新型检测方法送别!复旦大学林之果教授逝世复旦大学自然语言处理实验室:如何构建和训练ChatGPTNature子刊|复旦大学孔星星/刘铁民:合作揭示非酒精性脂肪性肝炎中骨骼肌细胞和肝脏发生代谢对话的新机制确认!系复旦大学校友,在纽约流浪复旦留美博士三餐已解决,江苏老家回应与翻译家非琴夫妇的交往我对零元购较为全面的看法Lancet Microbe|复旦大学余宏杰:于甲型H1N1病毒母传抗体和毒株间交叉免疫领域取得重要进展复旦大学联合华为诺亚提出VidRD框架,实现迭代式的高质量视频生成北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务复旦大学余宏杰课题组联合国防科技大学吕欣课题组在人群移动与新冠病毒传播领域取得重要进展DISC-FinLLM:复旦大学团队发布中文智慧金融系统,采用多专家微调框架Nature Commun.|复旦大学服部素之:合作揭示神经性疼痛相关的P2X4受体别构抑制的机制
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。