Redian新闻
>
港中大和商汤提出HPS v2:为文本生成图像模型提供更可靠的评价指标

港中大和商汤提出HPS v2:为文本生成图像模型提供更可靠的评价指标

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型和Transformer】交流群

TL;DR 本文提出了一个目前数据量最大的、涵盖面最广、反应人类对生成图像喜爱程度的数据集:HPD v2, 并基于该数据集,提出了目前泛化性最强的“人类喜好评估模型”:HPS v2。HPS v2可以类比为ChatGPT中的reward model,可以用于图像生成模型的对齐以及评估。

论文:https://arxiv.org/abs/2306.09341

代码:https://github.com/tgxs002/HPSv2

背景

文生图模型的出现颠覆了人类的绘图方式,只需寥寥数字便可根据描述生成逼真的图像。然而,不少工作已经证明现有的评价指标(例如FID,IS,CLIP Score等)无法有效预测人们对于生成图像的喜好程度。

人类偏好数据集 HPD v2

为了解决这个问题,本文推出了一个名为HPD v2的全新数据集,它类似InstructGPT论文中的compaison data,包含了0.8M图片之间的comparison,反映了人们对不同图像的喜爱程度,是目前同类型数据集中最大的一个。

如上图所示,我们先对COCO Caption和DiffusionDB的文本进行清洗,去除繁杂的风格词汇。再用Stable Diffusion,DALL-E等近十个文生图模型(如下表所示),生成了超过43万张图片。我们请标注员对这些图片按组进行排序,从而构成我们的数据集。下图展示了我们的图像来源分布。

人类偏好分数 HPS v2

通过对HPD v2数据集的训练,我们训练了一个模型来拟合人类对图像的喜好:HPS v2。实验结果显示,HPS v2比以前的模型(包括 HPS v1、ImageReward 和 PickScore等)具有更好的泛化能力,并可作为文生图模型更好的评估指标。

在下图中,我们展示了由6个开源文生图模型生成的图像的HPS v2指标,可以看到,HPS v2 与人类的主观感受有良好的一致性。

文生图模型评价基准

为了方便后续文生图模型的比较,我们还提出了一套稳定、公正且易用的测试文本,并用HPS v2对来自学术界和工业界最新的文生图模型进行测试,构建了一个较为完备的评价基准,如下表所示所示。

我们期望我们提出的人类偏好分数HPS v2和文生图模型评价基准,可以为文生图模型的研发提供一个客观的衡量标准,从而促进文生图领域研究的发展。

如何优化HPS v2?

本文提出两个简单的方案,可以提高生成图像的分数,为后续研究工作抛砖引玉。一个是用参考图像的特征提供更好的文生图初始化噪声。我们发现,在训练Stable Diffusion时,模型并没有见过纯噪声的输入,但推理时模型的输入却是从纯噪声开始的,这与训练阶段不一致。基于这一观察,我们尝试将参考图像的特征与随机噪声混合作为初始化噪声。如下图所示,我们的方法有效地提高了生成图像的HPS v2,并提高了对于生成结果的控制力度。

第二个方案是如HPS v1中介绍的,在关键词中给定一些有助于提高质量的标记。我们在此进行了量化的对比。如下表所示,这两种方法均提升了生成图像的HPS v2值,其中给定额外的标记能大幅提升生成质量。

总结

本文提出了目前数据量最大、覆盖模型最多的、反映人类对生成图像喜爱度的数据集HPD v2,并基于该数据集提出了最具泛化性的人类喜好评估模型HPS v2和一套稳定、公正、易用的文生图模型的评价基准。本工作为文本到图像生成模型的质量评估提供了一种新的方法,为模型改进和进一步研究提供了有力支持。

点击进入—>【扩散模型和Transformer】交流群


最新CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


扩散模型和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-扩散模型或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
给大模型生成文本发身份证:针对大模型生成文本的可编码水印技术7 Papers & Radios | LeCun世界模型首次尝试;Meta开源文本音乐生成模型Cell子刊:利用人类大脑发育的干细胞模型提示阿尔茨海默病的胚胎起源加快制造业可靠性提升 助力制造业高质量发展——《制造业可靠性提升实施意见》解读法律翻译 | 拜登-哈里斯政府宣布采取新行动促进可靠的人工智能创新,保护美国人民的权利与安全单张A100,50亿步训练!英伟达开源最强虚拟角色定制模型,超逼真动作零样本生成,游戏动画行业要变天35 亿+66 亿参数双模型,消费级显卡上也能跑!Stability AI 发布重大升级,生成图像真假难辨亚马逊DS实习+Yale科研助力助力!有梦不难,跟着常青藤去闯!哥大和耶鲁MSCS都来抢,怎么选?T50美本生甜蜜的烦恼“她对梅根的评价令所有人惊呆”!英女王去世前,一反常态用这两个字评价了梅根…ICCV 2023 | 清华&西电提出HumanMAC:人体动作预测新范式无需任何3D数据,直接文本生成高质量3D内容,清华朱军团队带来重大进展汽车|最可靠的十款日本⻋排行榜出炉,你的爱车上榜了吗?咀外文嚼汉字(236)“加冕”、“戴冠”,coronationOpenAI文本生成3D模型再升级,数秒完成建模,比Point·E更好用Meta开源文本生成音乐大模型,我们用《七里香》歌词试了下Nat Med丨斯坦福团队利用twitter资源,开发出“病理图像文本对应”的自然语言-图像预训练模型规则制定者与普通劳动者通过循环训练实现忠实的低资源数据文本生成PromptBench: 首个大语言模型提示鲁棒性的评测基准ChatGPT能写长篇小说了,ETH提出RecurrentGPT实现交互式超长文本生成“不作诗,只做事”的盘古大模型怎么为文娱行业赋能?给AI生成图像「加水印」,谷歌发布识别工具SynthIDCVPR 2023最佳论文候选出炉!武大、港中文、商汤等国内机构多篇入选《爱的月光》&《初见》ICCV 2023 Oral | HumanSD:更可控更高效的人体图像生成模型CVPR 2023最佳论文候选出炉,12篇上榜!武大、港中文、商汤等国内机构多篇入选Stable Diffusion能生成视频了!动画版上线!支持文本图像视频多种输入方式用GPT-4实现可控文本图像生成,UC伯克利&微软提出新框架Control-GPT一句话搞定3D模型纹理贴图,全程只需30秒,港大港中大TCL出品 | ICCV'23 Oral义工随笔:前传好人若蓝上海市监局《互联网平台企业竞争合规评价指引》征求意见查尔斯加冕和其他PS失业警告,文本描述需求,Midjourney新功能一键成图ICCV 2023 | HumanSD: 更可控更高效的人体图像生成模型港中文李教授:基于遥感图像的地理空间图像分类识别|收获一作论文与导师推荐信!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。