Redian新闻
>
预训练通用神经网络CHGNet,实现基于电荷的原子模拟

预训练通用神经网络CHGNet,实现基于电荷的原子模拟

公众号新闻

ScienceAI 设为星标

第一时间掌握

新鲜的 AI for Science 资讯



编辑 | 紫罗

复杂电子相互作用的大规模模拟仍然是原子建模面临的最大挑战之一。尽管经典力场通常无法描述电子态和离子重排之间的耦合,但更准确的从头算分子动力学受到计算复杂性的影响,无法进行长时间和大规模的模拟,而这对于研究技术相关现象至关重要。

近日,来自加州大学伯克利分校和劳伦斯伯克利国家实验室的研究人员,提出了一种基于图神经网络的机器学习原子间势(MLIP)模型:晶体哈密顿图神经网络(Crystal Hamiltonian Graph Neural Network,CHGNet),可以对通用势能面进行建模。

研究强调了电荷信息对于捕获适当的化学反应的重要性,并提供了对离子系统的见解,这些离子系统具有以前的 MLIP 无法观察到的额外电子自由度。

该研究以「CHGNet as a pretrained universal neural network potential for charge-informed atomistic modelling」为题,于 2023 年 9 月 14 日发布在《Nature Machine Intelligence》上。

大规模模拟,例如分子动力学 (MD),是固态材料计算探索的重要工具。但电子相互作用或其在分子动力学模拟中的微妙影响的精确建模仍然是一个重大挑战。经典力场等经验方法通常不够准确,无法捕获复杂的电子相互作用。

从头算分子动力学 (AIMD) 与密度泛函理论 (DFT) 相结合,可以通过显式计算密度泛函近似内的电子结构,产生具有量子力学精度的高保真结果。长时间、大规模的自旋极化 AIMD 模拟对于研究离子迁移、相变和化学反应至关重要,具有挑战性且计算量极大。

诸如 ænet 和 DeepMD 之类的 MLIP,为弥合昂贵的电子结构方法和高效的经典原子间电势之间的差距提供了有希望的解决方案。然而,包含化合价对化学键的重要影响仍然是 MLIP 的一个挑战。

电荷以多种方式表示,从简单的氧化态标签到从量子力学推导出的连续波函数。将电荷信息纳入 MLIP 的挑战来自于许多因素,例如表示的模糊性、解释的复杂性、标签的稀缺性等。

CHGNet 架构

CHGNet 根据材料项目轨迹数据集(Materials Project Trajectory Dataset,MPtrj))的能量、力、应力和磁矩进行了预训练,该数据集包含 10 多年对超过 150 万个无机结构的密度泛函理论计算。明确包含磁矩使 CHGNet 能够学习并准确表示电子的轨道占据,从而增强其描述原子和电子自由度的能力。

MPtrj 数据集中元素的分布如下图所示。

图示:MPtrj 数据集的元素分布。(来源:论文)

在此,研究人员将电荷定义为一种原子属性(原子电荷),可以通过包含磁矩(magmoms)来推断。研究表明,通过明确地将特定位点 magmoms 作为电荷态约束纳入 CHGNet 中,既可以增强潜在空间正则化,又可以准确捕获电子相互作用。

CHGNet 的基础是 GNN,其中图卷积层用于通过由边 {eij} 连接的一组节点 {vi} 传播原子信息。GNN 中保留了平移、旋转和排列不变性。CHGNet 以具有未知原子电荷的晶体结构作为输入,并输出相应的能量、力、应力和 magmoms。电荷装饰结构可以从现场 magmoms 和原子轨道理论推断出来。

图示:CHGNet 模型架构。(来源:论文)

在 CHGNet 中,通过在原始单元中每个原子 vi内搜索相邻原子 vj,将周期性晶体结构转换为原子图

与其他 GNN 不同,其中 t 个卷积层后更新的原子特征 直接用于预测能量,CHGNet 正则化 t−1 卷积层的节点特征 以包含有关岩浆的信息。正则化特征携带有关局部离子环境和电荷分布的丰富信息。因此,用于预测能量、力和应力的原子特征受其电荷态信息约束的电荷。因此,CHGNet 可以仅使用核位置和原子身份作为输入来提供电荷态信息,从而可以研究原子建模中的电荷分布。

CHGNet 在固态材料中的应用

研究人员展示了 CHGNet 在固态材料中的几种应用。展示了 Na2V2(PO4)3 中原子电荷的电荷约束和潜在空间正则化,并展示了 CHGNet 在 LixMnO2 中的电荷转移和相变、LixFePO4 相图中的电子熵以及石榴石型锂超离子导体 Li3+xLa3Te2O12 中的锂 (Li) 和扩散率。

为了合理化对原子电荷的处理,使用 NASICON 型钠离子阴极材料 Na4V2(PO4)3 作为说明性示例。除了从 V 原子核的空间配位中学习之外,在没有任何有关 V 离子电荷分布的先验知识的情况下,CHGNet 成功地将 V 离子区分为三价 V 和四价 V 两组。

图示:Na2V2(PO4)3 中的 Magmom 和隐藏空间正则化。(来源:论文)

在 LixFePO4 的研究中强调了 CHGNet 区分 的能力,这对于包含电子熵和有限温度相稳定性至关重要。

图示:来自 CHGNet 的 LixFePO4 相图。(来源:论文)

在 LiMnO2 的研究中,证明了 CHGNet 能够通过长时间的电荷信息 MD 深入了解异价过渡金属氧化物体系中电荷歧化和相变之间的关系。

图示:Li0.5MnO2 相变和电荷歧化。(来源:论文)

接下来,研究了 CHGNet 对于通用 MD 的精度。以石榴石导体中的 Li 扩散为研究对象。

图示:石榴石 Li3La3Te2O12 中的锂扩散率。(来源:论文)

结果表明,不仅精确捕获了活化扩散网络效应,而且 CHGNet 的活化能量与 DFT 结果非常一致。证明了 CHGNet 能够精确捕获活化的局部环境中锂离子之间的强相互作用,以及模拟高度非线性扩散行为的能力。此外,CHGNet 可以显著降低模拟扩散率的误差,并通过扩展到纳秒级模拟,能够对扩散率较差的系统进行研究。

可进一步改进

尽管取得了以上进步,但仍可实现进一步的改进。

首先,使用 magmom 进行价态推断并不能严格确保全局电荷中性。

其次,虽然 magmom 对于离子系统中自旋极化计算的原子电荷来说是很好的启发式方法,但人们认识到非磁性离子的原子电荷推断可能是不明确的,因此需要额外的领域知识。因此,对于没有 magmom 的离子,以原子为中心的 magmom 无法准确反映其原子电荷,CHGNet 将从环境中推断电荷,类似于其他 MLIP 的功能。

还可以通过结合其他电荷表示方法来进一步增强模型,例如电子定位函数、电极化和基于原子轨道的划分。这些方法可用于潜在空间中的原子特征工程。

总之,CHGNet 能够实现基于电荷的原子模拟,适合使用大规模计算模拟来研究异价体系,从而扩大了计算化学、物理学、生物学和材料科学中电荷转移耦合现象的研究机会。

论文链接:https://www.nature.com/articles/s42256-023-00716-3

人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]

「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展

欢迎注标星,并点击右下角点赞在看

点击读原文,加入专业从业者社区,以获得更多交流合作机会及服务。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
NeurIPS 2023 | 旷视张祥雨等人提出RevColV2:当解耦学习遇见自监督训练!视觉预训练新思路当我们说起神经网络的等变性,我们在谈论什么?ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响马库斯总结16项「可信AI」要求,符号主义+神经网络携手打造AGI!40年前的Cyc成版本答案全面拥抱大模型!腾讯正式开放全自研通用大模型:参数规模超千亿、预训练语料超 2 万亿 tokens百沐生物:用BT+IT实现基因行业降本增效,业务覆盖三大核心板块吴雷钧博士:A.I.神经网络赋能营销新玩法(I) | 深度观点知足常乐在美国hLife | 高福/王奇慧等团队发现基于RBD的冠状病毒疫苗可作为开发广谱冠状病毒疫苗的候选大规模神经网络优化:神经网络损失空间“长”什么样?NeurIPS 2023 | RevCol V2: 当解耦学习遇上自监督训练,视觉预训练的思路ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成第八章第三节 社会组织全新的总体架构AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头NeurIPS 2023 | InstructBLIP:指令微调训练通用视觉-语言模型《故乡的春天》&《我会等》上海交大团队发现频率原则,开启理解神经网络的新方向减肥困难的原因找到啦!Nature研究揭示肥胖损害人类海马体中的促食欲神经网络,或为极具潜力的肥胖治疗新靶点!​ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质其实,这个地方蛮怕万马齐喑的,蛮喜欢百家争鸣的。科研上新 | 语言-音乐对比预训练;查找表实现的神经网络推理;大模型时代重新定义搜索框架骗我一次,算你狠;骗我两次,我活该NeurIPS 2023 | FD-Align:基于特征判别对齐的预训练模型小样本微调ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究引领AMI新变革--杨跃进教授团队携通心络CTS-AMI研究荣登国际权威期刊JAMA!NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer挑战英伟达H100霸权!IBM模拟人脑造神经网络芯片,效率提升14倍,破解AI模型耗电难题预训练机器阅读理解模型:对齐生成式预训练与判别式下游场景港大&百度提出LLMRec:基于LLM增强的多模态图神经网络推荐​SIGIR 2023 | 基于图的预训练和提示来增强低资源文本分类图神经网络还有搞头?Nature子刊:我国科学家发现基于自愈外泌体装载微胶囊的新型伪细胞制剂有望治疗多种玻璃体视网膜疾病
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。