Redian新闻
>
一种基于神经网络的策略,可增强量子模拟

一种基于神经网络的策略,可增强量子模拟

公众号新闻

编辑 | 萝卜皮

近期的量子计算机为寻找量子系统的基态提供了一个有前途的平台,这是物理学、化学和材料科学中的一项基本任务。然而,近期方法受到噪声影响以及近期量子硬件资源有限的限制。
加拿大滑铁卢大学的研究人员引入了神经误差缓解,它使用神经网络来改进使用近期量子模拟获得的基态和基态可观测值的估计。为了证明该方法的广泛适用性,研究人员采用神经误差缓解来找到通过变分量子本征求解器制备的 H2 和 LiH 分子哈密顿量以及晶格 Schwinger 模型的基态。
实验结果表明,神经误差缓解改进了数值和实验变分量子特征求解器计算,以产生低能量误差、高保真度和对更复杂的可观察量(例如阶参数和纠缠熵)的准确估计,而无需额外的量子资源。此外,神经误差缓解与所使用的量子态准备算法、实现它的量子硬件以及影响实验的特定噪声通道无关,有助于其作为量子模拟工具的多功能性。
该研究以「Neural Error Mitigation of Near-Term Quantum Simulations」为题,于 2022 年 7 月 20 日发布在《Nature Machine Intelligence》。
自 20 世纪初以来,科学家们一直在开发描述量子力学系统行为的综合理论。然而,研究这些系统所需的计算成本往往超过当前科学计算方法和硬件的能力。因此,计算不可行性仍然是这些理论在科学和技术问题上的实际应用的障碍。
量子计算机上的量子系统模拟(这里称为量子模拟)显示出克服这些障碍的希望,并且一直是量子计算机概念和创造背后的基础驱动力。特别是,超出经典计算机能力的量子多体系统的基态和稳态的量子模拟预计将对核物理、粒子物理、量子引力、凝聚态物理、量子化学和材料科学产生重大影响。当前和近期量子计算机的能力继续受到量子比特数量和噪声影响等限制的限制。量子纠错技术可以消除由噪声引起的错误,为容错量子计算提供了一条途径。然而,在实践中,实现量子纠错会在所需的量子比特数和低错误率方面产生很大的开销,这两者都超出了当前和近期设备的能力。
在可以实现容错量子模拟之前,现代变分算法大大减轻了对量子硬件的需求,并利用了嘈杂的中等规模量子设备的能力。
一个突出的例子是变分量子本征求解器 (VQE),这是一种混合量子经典算法,它通过一系列参数化量子电路的变分优化迭代地逼近目标哈密顿量的最低能量本征值。在其他变分算法中,这已成为使用近期设备实现量子优势并加速多个科学和技术领域进展的领先策略。
变分量子算法的实验实现对于许多科学问题来说仍然是一个挑战,因为嘈杂的中等规模量子设备会受到各种噪声源和缺陷的影响。当前,已经提出了几种用于缓解这些问题的量子误差缓解 (QEM) 方法并经过实验验证,从而在没有量子纠错所需的量子资源的情况下改进了量子计算。
通常,这些方法使用有关影响量子计算、硬件实现或量子算法本身的噪声通道的特定信息;包括噪声模型的隐含表征以及它们如何影响对所需可观察量的估计、准备好的量子态应该驻留的状态子空间的特定知识以及量子计算的各个组件上噪声源的表征和缓解 ,例如单量子比特和双量子比特门错误,以及状态准备和测量误差。
机器学习技术最近被重新用作解决量子多体物理和量子信息处理中复杂问题的工具,为 QEM 提供了另一种途径。在这里,滑铁卢大学的研究人员介绍了一种名为神经误差缓解(NEM)的 QEM 策略,它使用神经网络来缓解哈密顿量的量子基态的近似准备中的错误。
NEM 算法由两个步骤组成。首先,研究人员进行了神经量子态 (NQS) 断层扫描 (NQST) 以训练 NQS ansatz 来表示由噪声量子设备使用实验可访问的测量准备的近似基态。受传统量子态断层扫描 (QST) 的启发,NQST 是一种数据驱动的 QST 机器学习方法,它使用有限数量的测量来有效地重建复杂的量子态。
然后,在相同的 NQS ansatz(也被称为 NEM ansatz)上应用变分蒙特卡洛(VMC)算法来改进未知基态的表示。本着 VQE 的精神,VMC 在经典变分 ansatz 的基础上逼近哈密顿量的基态,在示例中为 NQS ansatz。
图示:NEM 程序。(来源:论文)
在这里,研究人员使用自回归生成神经网络作为 NEM ansatz;更具体地说,他们使用了 Transformer 架构,并表明该模型作为 NQS 表现良好。由于它能够模拟长程时间和空间相关性,这种架构已被用于自然语言和图像处理领域的许多最先进的实验中,并且具有模拟长程量子相关性的潜力。
与其他错误缓解技术相比,NEM 有几个优点。首先,它的实验开销低;它只需要一组简单的实验上可行的测量来学习由 VQE 制备的噪声量子态的特性。因此,NEM 中错误缓解的开销从量子资源(即执行额外的量子实验和测量)转移到用于机器学习的经典计算资源。特别是,研究人员注意到 NEM 的主要成本是在收敛之前执行 VMC。NEM 的另一个优点是它与量子模拟算法、实现它的设备以及影响量子模拟的特定噪声通道无关。因此,它也可以与其他 QEM 技术相结合,并可以应用于模拟量子模拟或数字量子电路。
图示:分子哈密顿量的实验和数值 NEM 结果。(来源:论文)
NEM 还解决了使用近期量子设备估计量子可观测物时出现的低测量精度问题。这在量子模拟中尤为重要,在量子模拟中,准确估计量子可观测量对于实际应用至关重要。NEM 从本质上解决了算法每一步测量精度低的问题。在第一步中,NQST 以引入小的估计偏差为代价来改进可观察估计的方差。通过使用 VMC 训练 NEM ansatz 可以进一步减少这种偏差以及剩余方差,这会在达到基态后导致能量估计的零方差期望值。

图示:NEM 的性能应用于晶格 Schwinger 模型的基态。(来源:论文)

通过结合使用参数量子电路作为 ansatz 的 VQE,以及使用神经网络作为 ansatz 的 NQST 和 VMC,NEM 将两个参数量子状态族和三个关于其损失情况的优化问题结合在一起。研究人员提出了这些状态家族之间关系的性质、它们的损失情况和量子优势的问题。检查这些关系提供了一种新的方法来研究嘈杂的中等规模量子算法在寻求量子优势方面的潜力。这可能会促进在经典易处理的量子系统模拟和需要量子资源的模拟之间获得更好地划分。
论文链接:https://www.nature.com/articles/s42256-022-00509-0
相关报道:https://techxplore.com/news/2022-08-neural-networkbased-strategy-near-term-quantum.html

人工智能 × [ 生物 神经科学 数学 物理 材料 ]

「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展

欢迎注标星,并点击右下角点赞在看

点击读原文,加入专业从业者社区,以获得更多交流合作机会及服务。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
HIRE——基于异构图神经网络的高阶关系级知识蒸馏方法北京量子院量子工程研究部招聘工程师1名(支持光量子通信与器件团队)神经网络高斯过程 (Neural Network Gaussian Process)人生乐在相知心(图)神经网络的简单偏好只需一次向前推导,深度神经网络可视化方法来了!(ECCV Workshops 2022)NeurIPS 2022 | 基于解耦因果子结构学习的去偏差图神经网络大规模GNN如何学习?北邮最新《分布式图神经网络训练》综述,35页pdf阐述分布式GNN训练算法和系统AAAI 2022 | 正交图神经网络北邮王啸:挖掘图神经网络中的「万物真理」清华、上交等联合发表Nature子刊:「分片线性神经网络」最新综述!汇编语言之母100岁逝世:曾和冯·诺依曼一起研究,退休后还在研究神经网络从多篇顶会论文看图神经网络黑盒攻击近期进展每天都打神经阻滞,局麻药到底是怎么作用于神经的?教育随笔(105)高考文言文备考之六清华&上交等发表Nature子刊!分片线性神经网络最新综述!NeurIPS 2022 | 一种基于毒性样本敏感性的有效后门防御!什么咖啡最好喝?众说纷纭呀!一种基于人工智能的化学合成机器人,用于纳米材料的探索和优化Costco 的红油抄手,Aldi的美味青口和几款小菜解决神经网络的百年难题,MIT新模型Liquid CfC让模拟大脑动力学成为可能研究人员开发在小型设备上训练大型神经网络 保护隐私Hinton最新演讲!一种新神经网络:前向-前向FF算法,论文已公开!ICLR'23截稿, 图神经网络依然火热 (附42 篇好文整理)ICML2022 | GNNRank: 基于有向图神经网络从两两比较中学习全局排序7 Papers & Radios | 用神经网络推开数学推理大门;世界首个宏基因组蛋白质图谱中山大学HCP Lab团队:AI解题新突破,神经网络推开数学推理大门百岁汇编语言之母逝世!71岁时她还在和儿子合写神经网络论文TPAMI 2022 | 利用子图同构计数提升图神经网络的表达能力如何每周花两分钟时间达到锻炼效果“AI+分子模拟”上云,如何破局新药研发难题上海交大副教授五年参禅:神经网络的简单偏好Hinton 最新研究:神经网络的未来是前向-前向算法量子模拟再立功!研究规范场论问题,中国打开了一扇门 | 科技袁人
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。