Redian新闻
>
ReVersion|图像生成中的 Relation 定制化

ReVersion|图像生成中的 Relation 定制化

公众号新闻



1

新任务:Relation Inversion

今年,diffusion model和相关的定制化(personalization)的工作越来越受人们欢迎,例如DreamBooth,Textual Inversion,Custom Diffusion等,该类方法可以将一个具体物体的概念从图片中提取出来,并加入到预训练的text-to-image diffusion model中,这样一来,人们就可以定制化地生成自己感兴趣的物体,比如说具体的动漫人物,或者是家里的雕塑,水杯等等。

现有的定制化方法主要集中在捕捉物体外观(appearance)方面。然而,除了物体的外观,视觉世界还有另一个重要的支柱,就是物体与物体之间千丝万缕的关系(relation)。目前还没有工作探索过如何从图片中提取一个具体关系(relation),并将该relation作用在生成任务上。为此,我们提出了一个新任务:Relation Inversion

如上图,给定几张参考图片,这些参考图片中有一个共存的relation,例如“物体A被装在物体B中”,Relation Inversion的目标是找到一个relation prompt <R>来描述这种交互关系,并将其应用于生成新的场景,让其中的物体也按照这个relation互动,例如将蜘蛛侠装进篮子里。

  • 论文:https://arxiv.org/abs/2303.13495

  • 代码:https://github.com/ziqihuangg/ReVersion

  • 主页:https://ziqihuangg.github.io/projects/reversion.html

  • 视频:https://www.youtube.com/watch?v=pkal3yjyyKQ

  • Demo:https://huggingface.co/spaces/Ziqi/ReVersion



2

ReVersion框架

作为针对Relation Inversion问题的首次尝试,我们提出了ReVersion框架:

相较于已有的Appearance Invesion任务,Relation Inversion任务的难点在于怎样告诉模型我们需要提取的是relation这个相对抽象的概念,而不是物体的外观这类有显著视觉特征的方面。

我们提出了relation-focal importance sampling策略来鼓励<R>更多地关注high-level的relation;同时设计了relation-steering contrastive learning来引导<R>更多地关注relation,而非物体的外观。更多细节详见论文。



3

ReVersion Benchmark

我们收集并提供了ReVersion Benchmark: https://github.com/ziqihuangg/ReVersion#the-reversion-benchmark

它包含丰富多样的relation,每个relation有多张exemplar images以及人工标注的文字描述。我们同时对常见的relation提供了大量的inference templates,大家可以用这些inference templates来测试学到的relation prompt<R>是否精准,也可以用来组合生成一些有意思的交互场景。



4

结果展示

丰富多样的relation

我们可以invert丰富多样的relation,并将它们作用在新的物体上

丰富多样的背景以及风格

我们得到的relation <R>,还可以将不同风格背景场景中的物体,按照特定的方式联系在一起。

同一个Relation,丰富多样的物体组合

更多内容,点击下方关注:

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
语言模型战胜扩散模型!谷歌提出MAGVIT-v2:视频和图像生成上实现双SOTA!Controversy Over China’s Captive Breeding Rumbles On简单有效!Direct Inversion: 三行代码提升基于Diffusion的图像编辑效果清平乐:恰逢七月ICCV 2023 | HumanSD: 更可控更高效的人体图像生成模型微前沿 | 强可控视频生成;定制化样本检索器;用脑电重建视觉感知;大模型鲁棒性评测大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友简单有效!Direct Inversion:三行代码提升基于扩散的图像编辑效果推理效率比ControlNet高20+倍!谷歌发布MediaPipe Diffusion插件,「移动端」可用的图像生成控制模型究竟是believe you还是believe in you?关键看这个...《Never I Have Ever》:个人经历与亚裔身份,本质化的亚洲是否存在易观分析:2023年AIGC产业研究报告-图像生成篇nǚ hóng?nǚ gōngNeurIPS 2023 | 扩散模型再发力!微软提出TextDiffuser:图像生成的文字部分也能搞定!美女是这样上位的硬核观察 #1081 仅 100KB 大小,只需 4 分钟训练的人工智能图像生成器吹尽黄沙不见金(四十四): 交易China’s ‘Special Forces’ Savers Travel Far for Higher Interest为什么IB/AP/DSE/OSSD学生纷纷转A-level体系?A-level有什么魔力?“every day”还是“everyday”?差别很大!中国团队推出脑电图图像生成模型DreamDiffusionNeurIPS 2023 Spotlight|高质量多视角图像生成,完美复刻场景材质!SFU等提出MVDiffusionCAIE A-level昨天出分!东亚区剑桥国际A Level A及A*率为58%,比全球高出28%!《Never Have I Ever》:个人经历与亚裔身份,本质化的亚洲是否存在Base Toronto丨Evercore开放金融类Events投资性价比最高选择,自住投资两相宜--多家庭别墅推荐--Somerville/Revere/Boston/Everett即将分崩离析的美国?(3) 投奔天堂入地下ICCV 2023 Oral | HumanSD:更可控更高效的人体图像生成模型二次元专供:Midjourney发布动漫风格图像生成APP投资性价比最高选择,自住投资两相宜--多家庭别墅推荐--Everett/Boston/Revere科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体Erklärung zur Zusammenarbeit视觉新任务!ReVersion:图像生成中的Relation定制化今年A-level将更难拿到高分?!GCSE与A-level成绩即将揭晓:8个趋势值得关注!历史小说《黄裳元吉》第一百一十章 暮光
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。