Redian新闻
>
扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力

扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力

公众号新闻
明敏 发自 凹非寺
量子位 | 公众号 QbitAI

Pika北大斯坦福联手,开源最新文本-图像生成/编辑框架!

无需额外训练,即可让扩散模型拥有更强提示词理解能力。

面对超长、超复杂提示词,准确性更高、细节把控更强,而且生成图片更加自然。

效果超越最强图像生成模型Dall·E 3和SDXL。

比如要求图片左右冰火两重天,左边有冰山、右边有火山。

SDXL完全没有符合提示词要求,Dall·E 3没有生成出来火山这一细节。

还能通过提示词对生成图像二次编辑。

这就是文本-图像生成/编辑框架RPG(Recaption,Plan and Generate),已经在网上引起热议。

它由北大、斯坦福、Pika联合开发。作者包括北大计算机学院崔斌教授、Pika联合创始人兼CTO Chenlin Meng等。

目前框架代码已开源,兼容各种多模态大模型(如MiniGPT-4)和扩散模型主干网络(如ControlNet)。

利用多模态大模型做增强

一直以来,扩散模型在理解复杂提示词方面都相对较弱。

一些已有改进方法,要么最终实现效果不够好,要么需要进行额外训练。

因此研究团队利用多模态大模型的理解能力来增强扩散模型的组合能力、可控能力。

从框架名字可以看出,它是让模型“重新描述、规划和生成”。

该方法的核心策略有三方面:

1、多模态重新描述(Multimodal Recaptioning):利用大模型将复杂文本提示拆解为多个子提示,并对每个子提示进行更加详细的重新描述,以此提升扩散模型对提示词的理解能力。

2、思维链规划(Chain-of-Thought Planning):利用多模态大模型的思维链推理能力,将图像空间划分为互补的子区域,并为每个子区域匹配不同的子提示,将复杂的生成任务拆解为多个更简单的生成任务。

3、互补区域扩散(Complementary Regional Diffusion):将空间划分好后,非重叠的区域各自根据子提示生成图像,然后进行拼接。

最后就能生成出一张更加符合提示词要求的图片。

RPG框架还可以利用姿态、深度等信息进行图像生成。

和ControlNet对比,RPG能进一步拆分输入提示词。

用户输入:在一间明亮的房间里,站着一位身穿香槟色长袖正装、正闭着双眼的漂亮黑发女孩。房间左边放着一只插着粉色玫瑰花的精致蓝花瓶,右边有一些生机勃勃的白玫瑰。

基础提示词:一个漂亮女孩站在她的明亮的房间里。

区域0:一个装着粉玫瑰的精致蓝花瓶

区域1:一个身穿香槟色长袖正装的漂亮黑发女孩闭着双眼。

区域2:一些生机勃勃的白玫瑰。

也能实现图像生成、编辑闭环。

实验对比来看,RPG在色彩、形状、空间、文字准确等维度都超越其他图像生成模型。

研究团队

该研究有两位共同一作Ling Yang、Zhaochen Yu,都来自北大。

参与作者还有AI创企Pika联合创始人兼CTO Chenlin Meng

她是斯坦福计算机博士,在计算机视觉、3D视觉方面有着丰富学术经历,参与的去噪扩散隐式模型(DDIM)论文,如今单篇引用已有1700+。并有多篇生成式AI相关研究发表在ICLR、NeurIPS、CVPR、ICML等顶会上,且多篇入选Oral。

去年,Pika凭借AI视频生成产品Pika 1.0一炮而红,2位斯坦福华人女博士创办的背景,使其更加引人注目

左为郭文景(Pika CEO),右为Chenlin Meng

参与研究的还有北大计算机学院副院长崔斌教授,他还是数据科学与工程研究所长。

另外,斯坦福AI实验室博士Minkai Xu、斯坦福助理教授Stefano Ermon共同参与这项研究。

论文地址:https://arxiv.org/abs/2401.11708

代码地址:https://github.com/YangLing0818/RPG-DiffusionMaster

参考链接:
https://twitter.com/pika_research/status/1749956060868387101

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好AI视觉字谜爆火!梦露转180°秒变爱因斯坦,英伟达高级AI科学家:近期最酷的扩散模型|亮马桥小纪严选传微软组建新团队开发更小、更便宜AI模型;Pika联手北大斯坦福开源文生图框架;传和硕独家拿下Ai Pin代工订单丨AIGC日报巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024GPT-4+物理引擎加持扩散模型,生成视频逼真、连贯、合理谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果取代 Vue 和 React?新框架 Nue JS,能将代码量减少 10 倍!比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略家居修理系列: 漏水篇(1)今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!AAAI 2024 | 武大提出神经元分类全新框架,联合学习神经元骨架与大脑回路拓扑结构苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生趣图:第一次使用新框架《晴空月儿明》&合唱《约定》Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩ICLR 2024 | 机器人领域首个开源视觉-语言操作大模型!RoboFlamingo框架激发开源VLMs更大潜能小红书搜索团队提出全新框架:验证负样本对大模型蒸馏的价值孩子们上斯坦福春晚啦!站在世界名校大舞台,萌娃闹新年!招募功夫小演员集训! 附斯坦福春晚精彩节目提前知!斯坦福开源的机器人厨子,今天又接手了所有家务一文读懂我国数据跨境监管新框架CVPR 2023 | MovieChat: 集成视觉模型和LLM的长视频理解新型框架AAAI 2024 | 通用图扩散框架:建立不同图神经网络与扩散方程之间的关系小红书推出新框架:负样本也能提升大模型的推理能力咀外文嚼汉字(294)“依存症”、“依赖症”AAAI 2024 | 小红书搜索团队提出全新框架:验证负样本对大模型蒸馏的价值机器人领域首个开源视觉-语言操作大模型,RoboFlamingo框架激发开源VLMs更大潜能亲测!斯坦福大学校夏令营,6-12年级!住学生宿舍,吃学生食堂,用斯坦福教室!把金钗石斛兰养开花容易吗扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略全球最强大模型一夜易主,GPT-4时代终结!Claude 3提前狙击GPT-5,3秒读懂万字论文理解力接近人类|亮马桥小纪严选发烧,出门戴口罩
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。