Redian新闻
>
7 Papers & Radios | 一块GPU跑ChatGPT体量模型;AI绘图又一神器ControlNet

7 Papers & Radios | 一块GPU跑ChatGPT体量模型;AI绘图又一神器ControlNet

公众号新闻

机器之心 & ArXiv Weekly 

参与:楚航、罗若天、梅洪源

本周重要论文包括 AI 绘图神器ControlNet、Transformer 模型综述等研究。


目录


  1. Transformer models: an introduction and catalog

  2. High-throughout Generative Inference of Large Language Models with a Single GPU

  3. Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks

  4. Large-scale physically accurate modelling of real proton exchange membrane fuel cell with deep learning

  5. A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT

  6. Adding Conditional Control to Text-to-Image Diffusion Models

  7. EVA3D: Compositional 3D Human Generation from 2D image Collections

  8. ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)


论文 1:Transformer models: an introduction and catalog


  • 作者:Xavier Amatriain

  • 论文地址:https://arxiv.org/pdf/2302.07730.pdf


摘要:自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。


由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。


推荐:本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,还介绍了 Transformer 模型中最重要的方面和创新。


论文 2:High-throughout Generative Inference of Large Language Models with a Single GPU


  • 作者:Ying Sheng 等

  • 论文地址:https://github.com/FMInference/FlexGen/blob/main/docs/paper.pdf


摘要:传统上,大语言模型(LLM)推理的高计算和内存要求使人们必须使用多个高端 AI 加速器进行训练。本研究探索了如何将 LLM 推理的要求降低到一个消费级 GPU 并实现实用性能。、


近日,来自斯坦福大学、UC Berkeley、苏黎世联邦理工学院、Yandex、莫斯科国立高等经济学院、Meta、卡耐基梅隆大学等机构的新研究提出了 FlexGen,这是一种用于运行有限 GPU 内存的 LLM 的高吞吐量生成引擎。下图为 FlexGen 的设计思路, 利用块调度来重用权重并将 I/O 与计算重叠,如下图 (b) 所示,而其他基线系统使用低效的逐行调度,如下图 (a) 所示。


推荐:跑 ChatGPT 体量模型,从此只需一块 GPU:加速百倍的方法来了。


论文 3:Temporal Domain Generalization with Drift-Aware Dynamic Neural Networks


  • 作者:Guangji Bai 等

  • 论文地址:https://arxiv.org/pdf/2205.10664.pdf


摘要:在领域泛化 (Domain Generalization, DG) 任务中,当领域的分布随环境连续变化时,如何准确地捕捉该变化以及其对模型的影响是非常重要但也极富挑战的问题。


为此,来自 Emory 大学的赵亮教授团队,提出了一种基于贝叶斯理论的时间域泛化框架 DRAIN,利用递归网络学习时间维度领域分布的漂移,同时通过动态神经网络以及图生成技术的结合最大化模型的表达能力,实现对未来未知领域上的模型泛化及预测。


本工作已入选 ICLR 2023 Oral (Top 5% among accepted papers)。如下为 DRAIN 总体框架示意图。


推荐:漂移感知动态神经网络加持,时间域泛化新框架远超领域泛化 & 适应方法。


论文 4:Large-scale physically accurate modelling of real proton exchange membrane fuel cell with deep learning


  • 作者:Ying Da Wang 等

  • 论文地址:https://www.nature.com/articles/s41467-023-35973-8


摘要:为了保障能源供应和应对气候变化,人们的焦点从化石燃料转向清洁和可再生能源,氢以其高能密度和清洁低碳的能源属性可以在能源转型变革中发挥重要作用。氢燃料电池,尤其是质子交换膜燃料电池 (PEMFC),由于高能量转换效率和零排放操作,成为这场绿色革命的关键。


PEMFC 通过电化学过程将氢转化为电能,反应的唯一副产品是纯水。然而,如果水不能正常流出电池,随后「淹没」系统,PEMFC 可能会变得低效。到目前为止,由于燃料电池体积非常小且结构非常复杂,工程师们很难理解燃料电池内部排水或积水的精确方式。


近日,悉尼新南威尔士大学的研究团队开发了一种深度学习算法(DualEDSR),来提高对 PEMFC 内部情况的理解,可以从较低分辨率的 X 射线微计算机断层扫描中生成高分辨率的建模图像。该工艺已经在单个氢燃料电池上进行了测试,可以对其内部进行精确建模,并有可能提高其效率。下图展示了本研究中生成的 PEMFC 域。


推荐:深度学习对燃料电池内部进行大规模物理精确建模,助力电池性能提升。


论文 5:A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT


  • 作者:Ce Zhou 等

  • 论文地址:https://arxiv.org/pdf/2302.09419.pdf


摘要:这篇近百页的综述梳理了预训练基础模型的演变史,让我们看到 ChatGPT 是怎么一步一步走向成功的。


推荐:从 BERT 到 ChatGPT,百页综述梳理预训练大模型演变史。


论文 6:Adding Conditional Control to Text-to-Image Diffusion Models


  • 作者:Lvmin Zhang 等

  • 论文地址:https://arxiv.org/pdf/2302.05543.pdf


摘要:本文提出了一种端到端的神经网络架构 ControlNet,该架构可以通过添加额外条件来控制扩散模型(如 Stable Diffusion),从而改善图生图效果,并能实现线稿生成全彩图、生成具有同样深度结构的图、通过手部关键点还能优化手部的生成等。


推荐:AI 降维打击人类画家,文生图引入 ControlNet,深度、边缘信息全能复用。


论文 7:EVA3D: Compositional 3D Human Generation from 2D image Collections


  • 作者:Fangzhou Hong 等

  • 论文地址:https://arxiv.org/abs/2210.04888


摘要:在 ICLR 2023 上,南洋理工大学 - 商汤科技联合研究中心 S-Lab 团队提出了首个从二维图像集合中学习高分辨率三维人体生成的方法 EVA3D。得益于 NeRF 提供的可微渲染,近期的三维生成模型已经在静止物体上达到了很惊艳的效果。但是在人体这种更加复杂且可形变的类别上,三维生成依旧有很大的挑战。


本文提出了一个高效的组合的人体 NeRF 表达,实现了高分辨率(512x256)的三维人体生成,并且没有使用超分模型。EVA3D 在四个大型人体数据集上均大幅超越了已有方案,代码已开源。


推荐:ICLR 2023 Spotlight | 2D 图像脑补 3D 人体,衣服随便搭,还能改动作。


ArXiv Weekly Radiostation

机器之心联合由楚航、罗若天、梅洪源发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下:
本周 10 篇 NLP 精选论文是:
1. Active Prompting with Chain-of-Thought for Large Language Models.  (from Tong Zhang)
2. Prosodic features improve sentence segmentation and parsing.  (from Mark Steedman)
3. ProsAudit, a prosodic benchmark for self-supervised speech models.  (from Emmanuel Dupoux)
4. Exploring Social Media for Early Detection of Depression in COVID-19 Patients.  (from Jie Yang)
5. Federated Nearest Neighbor Machine Translation.  (from Enhong Chen)
6. SPINDLE: Spinning Raw Text into Lambda Terms with Graph Attention.  (from Michael Moortgat)
7. A Neural Span-Based Continual Named Entity Recognition Model.  (from Qingcai Chen)



本周 10 篇 CV 精选论文是:


1. MERF: Memory-Efficient Radiance Fields for Real-time View Synthesis in Unbounded Scenes.  (from Richard Szeliski, Andreas Geiger)
2. Designing an Encoder for Fast Personalization of Text-to-Image Models.  (from Daniel Cohen-Or)
3. Teaching CLIP to Count to Ten.  (from Michal Irani)
4. Evaluating the Efficacy of Skincare Product: A Realistic Short-Term Facial Pore Simulation.  (from Weisi Lin)
5. Real-Time Damage Detection in Fiber Lifting Ropes Using Convolutional Neural Networks.  (from Moncef Gabbouj)
6. Embedding Fourier for Ultra-High-Definition Low-Light Image Enhancement.  (from Chen Change Loy)
7. Region-Aware Diffusion for Zero-shot Text-driven Image Editing.  (from Changsheng Xu)
8. Side Adapter Network for Open-Vocabulary Semantic Segmentation.  (from Xiang Bai)
9. VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Completion.  (from Sanja Fidler)
10. Object-Centric Video Prediction via Decoupling of Object Dynamics and Interactions.  (from Sven Behnke)


本周 10 篇 ML 精选论文是:


1. normflows: A PyTorch Package for Normalizing Flows.  (from Bernhard Schölkopf)
2. Concept Learning for Interpretable Multi-Agent Reinforcement Learning.  (from Katia Sycara)
3. Random Teachers are Good Teachers.  (from Thomas Hofmann)
4. Aligning Text-to-Image Models using Human Feedback.  (from Craig Boutilier, Pieter Abbeel)
5. Change is Hard: A Closer Look at Subpopulation Shift.  (from Dina Katabi)
6. AlpaServe: Statistical Multiplexing with Model Parallelism for Deep Learning Serving.  (from Zhifeng Chen)
7. Diverse Policy Optimization for Structured Action Space.  (from Hongyuan Zha)
8. The Geometry of Mixability.  (from Robert C. Williamson)
9. Does Deep Learning Learn to Abstract? A Systematic Probing Framework.  (from Nanning Zheng)
10. Sequential Counterfactual Risk Minimization.  (from Julien Mairal)


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
7 Papers & Radios | GPT-4学会反思;ChatGPT数据标注比人便宜20倍7 Papers & Radios | AI绘画引入人类反馈;微软多模态ChatGPT?巨头ChatGPT大战陷败局,竟因嫌GPU太贵!Meta用CPU跑AI,点错科技树渡十娘|我的ChatGPT体验之一春天先遣者,冬后一阳升ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇Reverse Alchemy: The Chinese Emperor Who Turned Silver Into Tin四少女火爆外网!ControlNet组合拳效果惊人,颠覆AI绘画游戏规则【放开你的心】《茶香夜雨》翻唱:爱晚亭&丽莎 视频来自网络素材。ControlNet star量破万!2023年,AI绘画杀疯了?ControlNet仅靠一张照片完成“旧房改造” | GitHub热榜第一Chinese University Offers Course to Excel in Civil Service Exam7 Papers | 超越GPT 3.5的小模型;对ChatGPT摸底考试火爆全网!ControlNet颠覆AI绘画游戏规则!网友:这是新“魔法”...7 Papers & Radios | 21℃室温超导引爆物理圈;微软发布视觉ChatGPTFastTrack Universität 2023莱比锡大学公立语言项目招生简章ClickPrompt:一站式 Prompt 学习、设计与运行工具(开源),支持 ChatGPT 等AI画图又双叒革命了?华人小伙开发ControlNet让出图更可控!ControlNet如何为扩散模型添加额外模态的引导信息?我亲爱的爸爸在北京被新冠带走了如何爱男人疫情总结,无奈和悲催集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布【放开你的心】我的心让你牵 & 永恒的舞曲J6事件的Law & Order。我的结论:川普和绝大部分人合法,佩罗西等人渎职导致骚乱;和理由如下7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型Xbox Series S 512GB Console with controller"𝙇𝙚𝙖𝙙 𝙏𝙝𝙚 𝘾𝙝𝙖𝙧𝙜𝙚"广告#创译挑战ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!《花开富贵》8点1氪:复旦MOSS团队回应内测国内首个类ChatGPT模型;全球第5例艾滋病治愈者出现;10省份放宽公务员年龄限制至40周岁《Love Is A Battlefield》给女神节 3/8 & 3/9 活动打 call大胆提前预测美国大选:川普必胜 & 普京必胜一文详解Prompt学习和微调(Prompt Learning & Prompt Tuning)瑞银的胜利,瑞士银行业的耻辱!!(由翻译神器ChatGPT贡献)NeurIPS 2022 | 重振PointNet++雄风!PointNeXt:改进模型训练和缩放策略审视PointNet++适配Diffusers框架的全套教程来了!从T2I-Adapter到大热ControlNetAI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3世界上最重要的原油价格即将彻底转变(由翻译神器ChatGPT贡献)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。