Redian新闻
>
4000万蛋白结构训练,西湖大学开发基于结构词表的蛋白质通用大模型,已开源

4000万蛋白结构训练,西湖大学开发基于结构词表的蛋白质通用大模型,已开源

公众号新闻

将 ScienceAI 设为星标

第一时间掌握

新鲜的 AI for Science 资讯


编辑 | ScienceAI

蛋白质结构相比于序列往往被认为更加具有信息量,因为其直接决定了蛋白质的功能。而随着AlphaFold2带来的巨大突破,大量的预测结构被发布出来供人研究使用。如何利用这些蛋白质结构来训练强大且通用的表征模型是一个值得研究的方向。

西湖大学的研究人员利用Foldseek来处理蛋白质结构,将其编码成一维的离散token,并与传统的氨基酸进行结合,形成了结构感知词表(Structure-aware Vocabulary),以此将结构信息嵌入到模型输入中,增强模型的表征能力。

在预训练上,论文使用了目前最多的蛋白质结构(identity过滤后4000万),在64张A100上训练了3个月,最终开源了具备650M参数量的模型SaProt(同时包括了35M的版本)。实验结果表明SaProt各种蛋白质任务上都要好于之前的序列和结构模型。

研究《SaProt: Protein Language Modeling with Structure-aware Vocabulary》的预印版本,于 2024 年 3 月 21 日发布在 bioRxiv 预印平台。

论文链接:https://www.biorxiv.org/content/10.1101/2023.10.01.560349v4

github链接:https://github.com/westlake-repl/SaProt

方法

本文利用Foldseek将蛋白质进行编码,生成了一维的3Di结构序列(使用了Foldseek的结构词表,每种3Di token代表不同的局部结构),这样的结构序列与氨基酸序列是等长的。

因此本文使用了一种简单而有效的结构嵌入方式:将结构词表和氨基酸词表计算笛卡尔积(即两两组合),形成新的结构感知词表。这样对于蛋白质的每个位点,其氨基酸类型和对应的局部结构都能组合成新词表中的某个元素,从而让模型同时考虑到蛋白质的序列与结构信息。

本文使用Bert架构进行掩码语言建模(Masked Language Modeling )预训练(关于训练的更多细节可参考原论文)。

图:结构感知词表

实验

方法对比

一个可能令人疑惑的问题就是为什么需要这样编码结构?论文展示了使用不同的结构编码方式进行预训练的结果图:

图:不同结构模型训练的loss曲线图

图左和图中是两种经典的蛋白质结构建模方式,即将结构信息编码成bias后添加到transformer的attention map中(如Evoformer,Uni-Mol),或者使用图神经网络的方式建模蛋白质的空间关系(如MIF,GearNet等)。

然而从loss图中可以发现,当上述两种建模方式在AF2结构上使用MLM的训练目标进行预训练时,模型会非常迅速地过拟合(表现为在AF2预测结构上预测loss非常低,但在PDB真实结构上loss停滞甚至上升)。

作者推测这是由于AF2预测出来的蛋白质结构带有一些隐藏的模式(patterns),由于前两种方式是直接对蛋白质的三维坐标进行建模,这些隐藏的pattern可能很轻易地就被模型识别出来,从而造成了信息泄露的问题,让模型无需真正学习到蛋白质的进化信息就能轻松地完成训练目标。

而结构感知词表通过将蛋白质结构编码成一维的结构序列,在尽可能保留结构模式的情况下忽略了精细的坐标数值,因此模型能够有效地利用结构信息而不受到隐藏pattern的影响。

Zero-shot测试

作者在蛋白质突变数据集(ProteinGym)上和真实人类临床疾病数据集(ClinVar)上测试了SaProt的zero-shot能力,结果如下:

图:Zero-shot实验结果

SaProt在两个数据集上都超越了以往的所有结构和序列模型,证明了其在zero-shot预测突变上具备优异的能力。

监督微调测试

本文还涵盖了各种下游任务来测试模型表现,结果如下:

图:下游任务fine-tune结果

SaProt在各个下游任务上都超越了以往的序列和结构模型,展示出了其强大且通用的表征能力。

结构信息测试

SaProt在4000万的蛋白质结构上进行训练,获得了强大的表征能力。一个可能的疑问是如何确定SaProt学到了更多的结构信息而不是模型被训练得更好?

论文对SaProt和ESM-2在残基接触预测任务(Contact Prediction Task)上进行了测试。作者冻住了模型的backbone,只训练一个线性分类层。实验结果如下:

图:Contact Prediction Task的结果

从结果可以看到,由于结构token的嵌入,SaProt的表现大大超越了ESM-2,这表明SaProt蕴含了非常丰富的结构信息,使其能够在结构预测任务上获得十分优异的结果。同时,论文在SCOPe数据库上对alpha蛋白质和beta蛋白质进行了可视化,结果如下:

图:在SCOPe数据库上的Embedding可视化

SaProt的可视化结果非常清晰地将alpha蛋白质和beta蛋白质区分开来,而ESM-2的可视化结果却将两种蛋白质混杂在一起,这说明了SaProt对结构的变化有很强的感知能力。

不同结构预测方法的比较

除了AF2,目前还存在许多其他的单序列结构预测方法(如ESMFold),因此本文额外测试了其他方法预测出来的结构对SaProt性能的作用。结果如下:

图:不同结构预测方法的fine-tune结果

从测试结果可以看出,虽然SaProt在AF2结构上的表现最好(模型本身也是基于AF2结构进行训练的),但其他的结构预测方法也能让SaProt与ESM-2等模型性能相当。这意味着考虑到计算与时间成本,单序列结构预测模型也能作为替代方法输入到SaProt中。

局限

虽然SaProt经过训练展示出了优异的性能,但依然还有一些可以改进的地方,例如:

Foldseek默认的结构词表大小只有20,如果有更加精准的结构编码模型,扩大结构表征的词表大小,是不是能进一步提升模型利用结构的能力?

由于计算能力的限制,SaProt只在650M上完成了训练。如果能够继续扩大模型规模,是否可以进一步地提升模型表现?

论文虽然已经测试了很多的蛋白质任务,但还有一些其他任务可以应用探索,例如蛋白质序列设计(给定backbone预测氨基酸序列)等。





© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AI成功改写人类DNA,全球首个基因编辑器震撼开源!近5倍蛋白质宇宙LLM全生成《草原三杯酒》&《爱情雪》大模型助力具身智能、电池研发与蛋白质研究,讯飞、深势科技、字节专家齐聚分享|AICon【十言別律】答诗友怒AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用今日arXiv最热NLP大模型论文:微软:用大模型分析用户满意度,让智能系统更善解人意首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源打通AI「任督二脉」,国产自研通用大模型「砭石」实力迈向AGI卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事开源大模型火了!(附99个大模型微调模型/数据/工具)!饶毅:国内引进的一批国际正教授几乎被“清零”!西湖大学国际正教授已超北大清华,除浙大外,大部分国内大学都接近放弃招聘国际正教授独家丨周鸿祎x朱啸虎:没10亿美金闲钱,别碰通用大模型今日arXiv最热大模型论文:复旦提出基于diffusion的虚拟试衣模型,模特一键换装上海交通大学/中国科学院大学/康奈尔大学/西湖大学/小红书/简单心理/Knowyourself|海内外心理学相关RA&工作红杉资本入局,马斯克的AI公司接近达成60亿美元融资;苹果发布基于开源训练和推理框架的语言模型OpenELM丨AIGC日报荣耀CEO赵明:不会做通用云端大模型,AI phone会比AI PC更懂用户最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上那份欢乐好久都没有了,以后也不会再有苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源英伟达最强通用大模型Nemotron-4登场!15B击败62B,目标单张A100/H100可跑超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源基于微环境感知图神经网络构建指导蛋白质定向进化的通用人工智能360安全大模型3.0来了!垂直大模型,他们这么训清华大学生命学院李丕龙与自然资源部第三海洋研究所李增鹏合作开发利用降解凝聚体的蛋白质靶向降解“垃圾桶”CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务城北轶事(1)元素周期表来自陌生人的善意【首发】天鹜科技完成数千万元Pre-A轮融资,加速蛋白质工程通用大模型商业落地【生物分子】2. 脂肪和蛋白质:基本营养素的结构与功能周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报Meta无限长文本大模型来了:参数仅7B,已开源最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍通用图大模型HiGPT:一己之力建模任何图结构关系!来自港大数据智能实验室&百度
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。