Redian新闻
>
NeurIPS 2023 | 无惧图像中的文字,TextDiffuser提供更高质量文本渲染

NeurIPS 2023 | 无惧图像中的文字,TextDiffuser提供更高质量文本渲染

公众号新闻


©作者 | 机器之心编辑部

来源 | 机器之心

近几年来,Text-to-Image 领域取得了巨大的进展,特别是在 AIGC(Artificial Intelligence Generated Content)的时代。随着 DALL-E 模型的兴起,学术界涌现出越来越多的 Text-to-Image 模型,例如 Imagen,Stable Diffusion,ControlNet 等模型。然而,尽管 Text-to-Image 领域发展迅速,现有模型在稳定地生成包含文本的图像方面仍面临一些挑战。

尝试过现有 SOTA 文生图模型可以发现,模型生成的文字部分基本上是不可读的,类似于乱码,这非常影响图像的整体美观度。


▲ 现有SOTA文生图模型生成的文本信息可读性较差

经过调研,学术界在这方面的研究较少。事实上,包含文本的图像在日常生活中十分常见,例如海报、书籍封面和路牌等。如果 AI 能够有效地生成这类图像,将有助于辅助设计师的工作,激发设计灵感,减轻设计负担。除此之外,用户可能只希望修改文生图模型结果的文字部分,保留其他非文本区域的结果。

因此,研究者希望设计一个全面的模型,既能直接由用户提供的 prompt 生成图像,也能接收用户给定的图像修改其中的文本。目前该研究工作已被 NeurIPS 2023 接收。



论文链接:

https://arxiv.org/abs/2305.10855
项目链接:

https://jingyechen.github.io/textdiffuser/

代码链接:

https://github.com/microsoft/unilm/tree/master/textdiffuser
demo链接:

https://huggingface.co/spaces/microsoft/TextDiffuser


▲ TextDiffuser 的三个功能
本文提出了 TextDiffuser 模型,该模型包含两个阶段,第一阶段生成 Layout,第二阶段生成图像。

▲ TextDiffuser框架图

模型接受一段文本 Prompt,然后根据 Prompt 中的关键词确定每个关键词的 Layout(也就是坐标框)。研究者采用了 Layout Transformer,使用编码器-解码器的形式自回归地输出关键词的坐标框,并用 Python 的 PILLOW 库渲染出文本。在这个过程中,还可以利用 Pillow 现成的 API 得到每个字符的坐标框,相当于得到了字符级别的 Box-level segmentation mask。基于此信息,研究者尝试微调 Stable Diffusion。

他们考虑了两种情况,一种是用户想直接生成整张图片(称为 Whole-Image Generation)。另一种情况是 Part-Image Generation,在论文中也称之为 Text-inpainting,指的是用户给定一张图像,需要修改图里的某些文本区域。

为了实现以上两种目的,研究者重新设计了输入的特征,维度由原先的 4 维变成了 17 维。其中包含 4 维加噪图像的特征,8 维字符信息,1 维图像掩码,还有 4 维未被 mask 图像的特征。如果是 Whole-image generation,研究者将 mask 的区域设为全图,反之,如果是 part-image generation,就只 mask 掉图像的一部分即可。扩散模型的训练过程类似于 LDM,有兴趣的伙伴可以参考原文方法部分的描述。

在 Inference 阶段,TextDiffuser 非常灵活,有三种使用方式:

  • 根据用户给定的指令生成图像。并且,如果用户不大满意第一步 Layout Generation 生成的布局,用户可以更改坐标也可以更改文本的内容,这增加了模型的可控性。

  • 直接从第二个阶段开始。根据模板图像生成最终结果,其中模板图像可以是印刷文本图像,手写文本图像,场景文本图像。研究者专门训练了一个字符集分割网络用于从模板图像中提取 Layout。

  • 同样也是从第二个阶段开始,用户给定图像并指定需要修改的区域与文本内容。并且,这个操作可以多次进行,直到用户对生成的结果感到满意为止。



▲ 构造的 MARIO 数据

为了训练 TextDiffuser,研究者搜集了 1000 万张文本图像,如上图所示,包含三个子集:MARIO-LAION, MARIO-TMDB 与 MARIO-OpenLibrary。

研究者在筛选数据时考虑了若干方面:例如在图像经过 OCR 后,只保留文本数量为 [1,8] 的图像。他们筛掉了文本数量超过 8 的文本,因为这些文本往往包含大量密集文本,OCR 的结果一般不太准确,例如报纸或者复杂的设计图纸。除此之外,他们设置文本的区域大于 10%,设置这个规则是为了让文本区域在图像的比重不要太小。

在 MARIO-10M 数据集训练之后,研究者将 TextDiffuser 与现有其他方法做了定量与定性的对比。例如下图所示,在 Whole-Image Generation 任务中,本文的方法生成的图像具有更加清晰可读的文本,并且文本区域与背景区域融合程度较高。


▲ 与现有工作比较文本渲染性能

研究者还做了定性的实验,如表 1 所示,评估指标有 FID,CLIPScore 与 OCR。尤其是 OCR 指标,本文方法相对于对比方法有很大的提升。



▲ 表1:定性实验

对于 Part-Image Generation 任务,研究者尝试着在给定的图像上增加或修改字符,实验结果表明 TextDiffuser 生成的结果很自然。

▲ 文本修复功能可视化

总的来说,本文提出的 TextDiffuser 模型在文本渲染领域取得了显著的进展,能够生成包含易读文本的高质量图像。未来,研究者将进一步提升 TextDiffuser 的效果。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Nextdoor裁员25%简单有效!Direct Inversion: 三行代码提升基于Diffusion的图像编辑效果NeurIPS 2023 Spotlight | 探索不变学习中的充分必要因果NeurIPS 2023 | MSRA、清华、复旦等联合提出AR-Diffusion:基于自回归扩散的文本生成吹尽黄沙不见金(七十四):暗示一财社论:以更高水平的金融开放促进更高质量发展NeurIPS 2023 Spotlight|高质量多视角图像生成,完美复刻场景材质!SFU等提出MVDiffusionNat Med丨斯坦福团队利用twitter资源,开发出“病理图像文本对应”的自然语言-图像预训练模型​NeurIPS 2023 | RayDF:实时渲染!基于射线的三维重建新方法Nextdoor宣布裁员25%!不到$100买Le Creuset!博主晒加拿大Winners、HomeSense疯狂折扣买名牌!【2023 坛庆】《菊花台》无惧图像中的文字,TextDiffuser提供更高质量文本渲染​NextEra Energy:“跌”出个光明未来NeurIPS 2023 | 扩散模型再发力!微软提出TextDiffuser:图像生成的文字部分也能搞定!NeurIPS 2023 | 全新机械手算法:辅助花式抓杯子,GTX 1650实现150fps推断单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法At China Expo, a Next-Gen Prosthetic Knee Offers New HopeNeurIPS 2023 | 港科大提出EAC:"可解释一切"图像概念解释器《天凉好个秋》&《江南烟雨路》NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器NeurIPS 2023 | 北大具身智能团队提出需求驱动导航:对齐人类需求,让机器人更高效【2023 坛庆】贴首今天吹的笛子Fuchsia Dunlop on the Past, Present, and Future of Chinese FoodNeurIPS 2023 | SlotDiffusion: 基于Slot-Attention和扩散模型的全新生成模型【2023 坛庆】山之茶5133 血壮山河之武汉会战 信罗战役 6NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer他刚在我们去的冰川失踪去世了一周全球十大并购:罗氏72.5亿美元收购Telavant Stonepeak同意收购集装箱运输公司Textainer【2023 坛庆】 ⑤⑥ 花妖的鸳鸯枕起售价 899 欧,微软 Surface Laptop Go 3 笔记本渲染图曝光:配酷睿 i5-1235U 处理器突发!Nextdoor宣布裁员25%图像中的《南京条约》:鸦片战争中英交涉史实新释北大全新「机械手」算法:辅助花式抓杯子,GTX 1650实现150fps推断|NeurIPS 2023科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体【2023 坛庆】 ※ 烟雨行舟 ※ 夜垂云流缓 清梦醉阑珊双重国籍的退休生活
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。