Redian新闻
>
Stable Diffusion读你大脑信号就能重现图像,研究还被CVPR接收了

Stable Diffusion读你大脑信号就能重现图像,研究还被CVPR接收了

公众号新闻

机器之心报道

机器之心编辑部

大脑活动到图像,Stable Diffusion 能重建。


如果人工智能可以解读你的想象,将你脑海中的图像变成现实,那会怎样?



虽然这听起来有点赛博朋克。但最近发表的一篇论文,让 AI 圈吵翻了天。



这篇论文发现,他们使用最近非常火的 Stable Diffusion,就能重建大脑活动中的高分辨率、高精准图像。作者写道,与之前的研究不同,他们不需要训练或微调人工智能模型来创建这些图像。



  • 论文地址:https://www.biorxiv.org/content/10.1101/2022.11.18.517004v2.full.pdf

  • 网页地址:https://sites.google.com/view/stablediffusion-with-brain/


他们是怎么做到的呢?


在此研究中,作者基于 Stable Diffusion 来重建通过功能磁共振成像 (fMRI) 而获得的人脑活动图像。作者也表示,通过研究与大脑相关功能的不同组成部分(例如图像 Z 的潜在向量等),也有助于了解隐扩散模型的机制。 


这篇论文也已经被 CVPR 2023 接收。


该研究的主要贡献包括:


  • 证明了其简单框架可以从具有高语义保真度的大脑活动中重建高分辨率(512×512)图像,而无需训练或微调复杂的深度生成模型,如下图所示;

  • 通过将特定组成部分映射到不同的大脑区域,该研究从神经科学的角度定量解释了 LDM 的每个组成部分;

  • 该研究客观地解释了 LDM 实现的文本到图像转换过程如何结合条件文本表达的语义信息,同时保持原始图像的外观。


方法概览


该研究的总体方法如下图 2 所示。图 2(上)是该研究中使用的 LDM 示意图,其中,ε 表示图像编码器,D 表示图像解码器,τ 表示文本编码器(CLIP)。 


图 2(中)是该研究的解码分析示意图。研究者分别从早期(蓝色)和高级(黄色)视觉皮层内的 fMRI 信号中解码了呈现图像 (z) 和相关文本 c 的潜在表征。这些潜在表征被用作生成重建图像 X_zc 的输入。 


图 2(下)是该研究的编码分析示意图。研究者构建了编码模型来预测来自 LDM 不同组成部分的 fMRI 信号,包括 z、c 和 z_c。


有关 Stable Diffusion 这里就不做过多介绍,相信很多人都比较了解。


结果


我们来看一下该研究的视觉重建结果。


解码


下图 3 展示了一个主体(subj01)的视觉重建结果。研究者为每个测试图像生成了五个图像,并选择了具有最高 PSM 的图像。一方面,只用 z 重建的图像在视觉上与原始图像一致,但未能抓住其语义内容。另一方面,只用 c 重建的图像生成的图像具有很高的语义保真度,但在视觉上却不一致。最后,使用 z_c 重建的图像可以生成具有高语义保真度的高分辨率图像。



图 4 展示了所有测试者对同一图像的重建图像(所有图像都是用 z_c 生成的)。总体来说,各测试者的重建质量是稳定和准确的。



图 5 是定量评估的结果:



编码模型


图 6 显示了编码模型对与 LDM 相关的三种潜像的预测精度:z,原始图像的潜像;c,图像文本注释的潜像;以及 z_c,经过与 c 交叉注意力反向扩散过程后的 z 的加噪潜像表征。


图 7 显示,当加入少量的噪声时,z 对整个皮层的体素活动的预测比 z_c 更好。有趣的是,当增加噪声水平时,z_c 对高位视觉皮层内体素活动的预测优于 z,表明图像的语义内容逐渐被强调。



在迭代去噪过程中,添加噪声的潜在表征如何变化?图 8 显示,在去噪过程的早期阶段,z 信号主导了 fMRI 信号的预测。在去噪过程的中间阶段,z_c 对高位视觉皮层内活动的预测比 z 好得多,表明大部分语义内容在这个阶段出现了。结果显示了 LDM 如何从噪声中提炼和生成图像。


最后,研究者探讨了 U-Net 的每一层都在处理什么信息。图 9 显示了去噪过程的不同步骤(早期、中期、晚期)以及 U-Net 不同层的编码模型的结果。在去噪过程的早期阶段,U-Net 的瓶颈层(橙色)在整个皮层中产生了最高的预测性能。然而,随着去噪的进行,U-Net 的早期层(蓝色)预测早期视觉皮层内的活动,而瓶颈层则转向对更高的视觉皮层的卓越预测能力。


更多研究细节,可查看原论文。


ChatGPT及大模型技术大会


机器之心将于3月21日在北京举办「ChatGPT 及大模型技术大会」,为圈内人士提供一个专业、严肃的交流平台,围绕研究、开发、落地应用三个角度,探讨大模型技术以及中国版 ChatGPT 的未来。

届时,机器之心将邀请大模型领域的知名学者、业界顶级专家担任嘉宾,通过主题演讲、圆桌讨论、QA、现场产品体验等多种形式,与现场观众讨论大模型及中国版 ChatGPT 等相关话题。

点击阅读原文,立即报名。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
录用2360篇、接收率25.78%,CVPR 2023接收结果公布CVPR 2023 | 结合Transformer和CNN的多任务多模态图像融合方法CVPR 2023 | 统一框架MAGE:表征学习超MAE,无监督图像生成超越Latent Diffusion赛博仓颉,在线造字!Stable Diffusion:没人比我更懂汉字大脑视觉信号被Stable Diffusion复现图像!“人类的谋略和谎言不存在了” | CVPR2023你们可以不服老,但是我要服老!AIGC落地门槛被打下来了:硬件预算一口气降至1/46,低成本上手Stable Diffusion2.0,一行代码自动并行Stable Diffusion团队放大招!新绘画模型直出AI海报,实现像素级图像生成Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍Midjourney危!Stable Diffusion-XL开启公测:会画手、能写字,再也不用写长prompt了Stable Diffusion公司重磅开源大语言模型StableLM,又爆火了!英伟达超快StyleGAN回归,比Stable Diffusion快30多倍,网友:GAN好像只剩下快了AI通灵!类ChatGPT模型解码大脑信息,准确率高达82%CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable Diffusion!CVPR 2023 | 超越MAE!谷歌提出MAGE:图像分类和生成达到SOTA!CVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion今年 CV 热点这么多,不可错过 CVPR 2023 线下论文分享会AI读脑炸裂!扫描大脑画面,Stable Diffusion逼真复现图像《初恋》啊初恋:却道天凉好个秋!爵士乐、放克钢琴曲,Stable Diffusion玩转跨界、实时生成音乐CVPR 2023 | GAN的反击!朱俊彦新作GigaGAN,出图速度秒杀Stable Diffusion你大爷终究是你大爷TPAMI 2023 | 无创解码大脑信号语义,中科院自动化所研发脑-图-文多模态学习模型FastTrack Universität 2023莱比锡大学公立语言项目招生简章大脑视觉信号被AI复现图像!CVPR最新研究!Jay Alammar再发新作:超高质量图解Stable Diffusion,看完彻底搞懂「图像生成」原理推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTAGAN的反击:朱俊彦CVPR新作GigaGAN,出图速度秒杀Stable DiffusionCVPR 2023 接收结果出炉!再创历史新高!录用2360篇!(附10篇最新论文)小灾小祸避其后之大难Stable Diffusion被起诉!结果人类律师水平拉胯,网友:还不如ChatGPT帮他写美国成功预测了中国新冠的突然开放7 Papers & Radios | 推理速度比Stable Diffusion快2倍;视觉Transformer统一图像文本在最美风景的阿尔卑斯高山公路自驾CVPR 2023 | YOLOv7强势收录!时隔6年,YOLOv系列再登CVPR!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。