Redian新闻
>
NeurIPS 2022 | 量子算法用于采样对数凹分布和估计归一化常数

NeurIPS 2022 | 量子算法用于采样对数凹分布和估计归一化常数

公众号新闻



©作者 | 刘锦鹏、李彤阳
单位 | 量子算法实验室


本文是 NeurIPS 2022 入选论文 Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants [1] 的解读。该方法对数凹采样(log-concave sampling)在机器学习、物理、统计等领域有着诸多应用。本文基于朗之万扩散(Langevin diffusion)设计了新的量子算法,用于采样对数凹分布和估计归一化常数,相比最好的经典算法对于精度(ε),维度(d),条件数(κ)等参数达到了多项式级加速。
本文作者包括:Andrew M. Childs(马里兰大学),李彤阳(北京大学),刘锦鹏(加州大学伯克利分校西蒙斯研究所),王春昊(宾州州立大学)和张睿哲(德州大学奥斯汀分校)。


论文标题:

Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants

收录会议:

NeurIPS 2022

论文链接:

https://arxiv.org/abs/2210.06539



问题介绍

从给定的分布函数采样是一个基础的计算问题。例如,在统计中,样本可以确定置信区间或探索后验分布。在机器学习中,样本用于回归和训练监督学习模型。在优化中,来自精心挑选的样本分布可以产生接近局部甚至全局最优的点。

本文考虑的问题是对数凹采样(log-concave sampling),这个问题涵盖了许多实际应用例子,例如多元高斯分布和指数分布。与之相关的一个问题是估计对数凹分布的归一化常(normalizing constant),这个问题也有许多应用,例如配分函数(partition function)的估计[2]。更多相关工作见参考文献[3, 4, 5, 6]




问题模型

给定一个凸函数  ,且  是  smooth 和  convex 的。我们定义条件数  。我们希望从分布函数  进行采样,这里  是正则化常数。给定  ,


1. 对数凹采样:输出一个随机变量满足分布  ,使得  ;
2. 归一化常数估计:输出一个随机变量  ,使得以至少  的概率满足  。




主要贡献

我们设计了新的量子算法,对于采样对数凹分布和估计正则化常数两个问题,对比经典算法在复杂度上实现了多项式级加速。
定理 1(对数凸采样)给定一个对数凹分布  ,存在量子算法输出一个随机变量满足分布  ,使得:

  • ,这里 是 Wasserstein 2-范数,对于量子访问 oracle 的查询复杂度为 ;或
    ,这里 是全变差距离(total-variation distance),对于量子梯度 oracle 的查询复杂度为 ;若初始分布满足热启动条件,则复杂度为


定理 2(归一化常数估计)存在量子算法输出一个随机变量  ,使得以至少  的概率满足  ,

  • 对于量子访问 oracle 的查询复杂度为 ;或
    对于量子梯度 oracle 的查询复杂度为 ;若有一个热的初始概率分布(warm start),则复杂度为


外,这个任务的量子查询复杂度的下界是  。


我们在表 1 和表 2 总结了我们的结果和先前经典算法复杂度的对比。




技术改进

我们开发了一种系统的方法来研究量子游走混合(quantum walk mixing)的复杂度,并揭示了对于任何可逆的经典马尔可夫链,只要初始分布满足热启动条件,我们就可以获得混合时间(mixing time)的平方加速。特别地,我们将量子行走和量子退火(quantum annealing)应用于朗之万动力学并实现多项式量子加速。下面简单介绍我们的技术贡献。 

1. 量子模拟退火(quantum simulated annealing)。我们用于估计归一化常数的量子算法结合了量子模拟退火框架和量子平均值估计算法。对于每种类型,根据朗之万动力学(随机游走),我们构建了相应的量子游走。重要的是,随机游走的谱间隙在相应的量子游走的相位间隙中被“放大”为原先的平方。这让在给定足够好的初始状态的情形,我们使用类似 Grover 算法的过程来产生稳定分布状态。在退火框架中,这个初始状态就是前一个马尔可夫链的稳定分布状态。 
2. 有效谱间隙(effective spectral gap)。我们展示了如何利用热启动的初始分布来实现量子加速用于采样。即使谱间隙很小,热启动也会导致更快的混合。在量子算法中,我们将“有效谱间隙”的概念推广到我们更一般的采样问题。我们表明使用有界热启动参数,量子算法可以在混合时间上实现平方加速。通过将采样问题视为只有一个马尔可夫链的模拟退火过程,通过分析有效谱间隙,我们证明了量子算法实现了平方加速。 

3. 量子梯度估计(quantum gradient estimation)。我们将 Jordan 的量子梯度算法应用于我们的量子算法,并给出严格的证明来限制由于梯度估计误差引起的采样误差。


参考文献

[1] Andrew M. Childs, Tongyang Li, Jin-Peng Liu, Chunhao Wang, and Ruizhe Zhang, "Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants," to appear in NeurIPS 2022. 
[2] Rong Ge, Holden Lee, and Jianfeng Lu, "Estimating normalizing constants for log-concave distributions: Algorithms and lower bounds," STOC 2020. 
[3] Xiang Cheng, Niladri S. Chatterji, Peter L. Bartlett, and Michael I. Jordan, "Underdamped langevin mcmc: A non-asymptotic analysis," COLT 2018. 
[4] Yin Tat Lee, Ruoqi Shen, and Kevin Tian, "Logsmooth gradient concentration and tighter runtimes for metropolized Hamiltonian Monte Carlo," COLT 2020. 
[5] Ruoqi Shen and Yin Tat Lee, "The randomized midpoint method for log-concave sampling," NeurIPS 2019. 
[6] Keru Wu, Scott Schmidler, and Yuansi Chen, "Minimax mixing time of the Metropolis-adjusted Langevin algorithm for log-concave sampling," 2021, arXiv:2109.13055.


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Stable Diffusion采样速度翻倍!仅需10到25步的扩散模型采样算法与老母亲的视频通话及感想妈妈和保姆们(下)一个电插座,收我九百刀NeurIPS 2022 | 马里兰、北大等机构提出量子算法用于采样对数凹分布和估计归一化常数NeurIPS 2022 Oral | 离线强化学习新范式!京东科技&清华提出解耦式学习算法Hinton最新研究:神经网络的未来是前向-前向算法|NeurIPS 2022特邀演讲北京量子院量子工程研究部招聘工程师1名(支持光量子通信与器件团队)NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络NeurIPS 2022 | 何恺明团队新作:MAE扩展到视频!学习时空表示,最优Mask比例高达90%!将通信带宽降低至十万分之一,NeurIPS 2022论文提出新一代协作感知方法香茅、柠檬草与柠檬香脂NeurIPS 2022|图对比学习的结构公平性初探「稀疏编码」从理论走向实用!马毅教授NeurIPS 2022新作:稀疏卷积性能和稳健性超越ResNetNeurIPS 2022 | DetCLIP:开放域检测新方法,推理效率提升20倍!NeurIPS 2022|探明图对比学习的“游戏规则”:谱图理论视角NeurIPS 2022 | 阿里浙大提出利用更典型的特征来提升分布外检测性能NeurIPS 2022 | 开放域检测新方法DetCLIP,推理效率提升20倍NeurIPS 2022 | 谷歌用贝叶斯优化做巧克力曲奇!还跟自家食堂签了约...当AI遇上量子化学,这是NeurIPS 2022挑战赛的冠军解决方案NeurIPS 2022 | Stable Diffusion采样速度翻倍!清华提出扩散模型高效求解器从理论走向实用!马毅教授NeurIPS 2022新作:稀疏卷积性能和稳健性超越ResNetNeurIPS 2022 | 香港理工提出OGC:首个无监督3D点云物体实例分割算法Tesla, 买还是不买?大规模GNN如何学习?北邮最新《分布式图神经网络训练》综述,35页pdf阐述分布式GNN训练算法和系统​NeurIPS 2022 | IPMT:用于小样本语义分割的中间原型挖掘TransformerNeurIPS 2022 | Rebuttal起死回生!对攻击者的攻击:一种真实场景下的防御首次!无残差连接或归一化层,也能成功训练深度TransformerNeurIPS 2022 | 首个将视觉、语言和音频分类任务进行统一的半监督分类学习基准首次突破30FPS!天大、清华和卡迪夫联合提出基于单RGB相机的全新三维表示方法FOF|NeurIPS 2022NeurIPS 2022 | AutoMTL:第一个自动化多任务学习编程框架!NeurIPS 2022 | ConvMAE:当Masked卷积遇见何恺明的MAENeurlPS 2022 | 用于医学图像分割的类感知生成对抗Transformer
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。