Redian新闻
>
Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革

Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革

公众号新闻



  新智元报道  

编辑:庸庸 乔杨
【新智元导读】科学家们把Transformer模型应用到蛋白质序列数据中,试图在蛋白质组学领域复制LLM的成功。本篇文章能够带你了解蛋白质语言模型(pLM)的起源、发展,以及那些尚待解决的问题。

「大语言模型」不仅可以用于人类语言,也可以用于蛋白质的「语言」,而且两者之间有很多相似之处。

过去几年,Transformer架构带来了大模型在文本和图像方面的惊人进展,当应用于生命科学领域时,也取得了影响深远的的成果。

大语言模型是如何应用于蛋白质组学的?科学家们又有哪些发现?

蛋白质是一种「语言」

自然语言由单词、短语、句子等不同层次的模块组成,蛋白质的「语言」也是类似的情况。

蛋白质由基序(motif)和结构域(domain)组成,类似于蛋白质世界的「单词」和「短语」。

基序和结构域的各种组合与重复构建了更加复杂的结构,从而决定蛋白质的生物功能,类似于人类语言中句子传达的含义。

除了结构层次的相似性,蛋白质和人类语言还有另一个关键的相似点——「信息完整性」。

这意味着从信息论的角度来看,蛋白质的信息(例如其结构)完全包含在其序列中。

虽然由于环境和与其他分子的相互作用,蛋白质的行为方式可能发生变化,但它仍然由基础序列定义。

就像每个句子的含义虽然会因为语境和语气的不同发生变化,但是其信息都藏在句子本身之中。

因此,由氨基酸组成的蛋白质序列至关重要,决定了蛋白质在环境中的结构和功能,也会影响蛋白质在生物系统中的折叠和相互作用。

既然蛋白质和语言这么相似,我们是不是可以遵循「拿来主义」,把自然语言处理的方法直接照搬过来就行了?

当然不行。

问题就在于,NLP和蛋白质语言建模之间虽然可以类比,但并不完全一样。

首先,我们可以直接阅读和理解自然语言,但蛋白质不行。大多数人类语言有统一的标点符号和停顿词,由明确的词汇组成,具有明显可分的结构,而这些都是蛋白质语言没有的。

其次,对于蛋白质,我们并不总是知道氨基酸序列是否是功能单元的一部分。

而且,蛋白质在长度上也表现出高度可变性,一个序列可以包含20个或者上千个氨基酸。

蛋白质语言模型(pLM)

Encoder模型

许多早期pLM都是基于Encoder-only Transformer架构,因为它们的目标是在向量空间中获得蛋白质的嵌入表示,用于下游任务。

这些模型的大多数使用类BERT架构,并将去噪自动编码作为训练目标,即通过以某种方式破坏输入token,并在预训练时让模型重建原始序列。

Facebook训练的ESM以及ProtTrans、ProteinBERT等预训练模型都属于此类。

在预训练阶段生成嵌入后,通过监督学习技术进一步完善模型,以解决蛋白质工程中的各种下游任务,比如:

  • 二级结构预测
  • 接触预测
  • 远程同源性检测
  • 翻译后预测
  • 生物物理特性预测

Decoder模型

与Encoder模型不同,Decoder模型采用自回归训练,训练目标是根据给定上下文,让模型预测后续单词。

听起来很熟悉吧?

当前最成功的语言模型之一——GPT就是这样训练出来的。

pLM领域中,GPT型Decoder的一个早期例子是ProtGPT2,参数量级为738M,在5000万个蛋白质序列上训练而成。

ProtGPT2 成功生成了与天然蛋白质有相似特征的序列,比如含有的氨基酸类型以及各种氨基酸的出现频率,而且序列在有序(稳定)和无序(灵活)区域之间表现出类似的平衡。

此外,研究人员目测,ProtGPT2生成的蛋白质保留了一些结合位点,这对功能性至关重要。

尽管生成的序列看起来很靠谱,但很难说它们的功能是否真的像天然蛋白质。

而且ProtGPT2没有流行太久,很快就被更大、更好的模型所取代。

条件Transformer(Conditional Transformer)

ProGPT2 利用类似于 GPT2 的结构生成蛋白质序列,而新开发的方法则在训练阶段整合了生物学中更深层次的上下文知识。

这种方法可确保模型学到的「模式」不仅在统计学上正确,而且具有生物学意义。

蛋白质模型可以通过两种主要方式进行条件化——

  • 序列条件化
  • 蛋白质结构条件化

序列条件化

2019年的一篇论文提出了「Conditional Transformer Language」,简称CTRL,是一种包含条件标签的自回归模型。

CTRL的提出标志着 NLP 领域的一大进步。

这些条件标签被称为控制代码,让模型无需输入序列即可生成有针对性的文本,有效地影响输出文本的体裁、主题或风格。

基于CTRL,2023年的一篇论文就提出了ProtGen模型,在2.81亿个蛋白质序列上进行训练,并采用UniProtKB关键词作为条件标签,

这些标签涵盖 「生物过程」、「细胞成分」和 「分子功能」等十个类别,包含1100 多个术语。

ProGen达到了更好的效果,即使为未见的蛋白质家族生成序列时,也能达到与高质量英语模型相当的困惑度。

ProGen的性能表明,通过模仿天然蛋白质,我们蛋白质设计的领域取得了重大进展。

严格的测试证明,这些蛋白质的功能与天然蛋白质一样好,甚至更好。具体来说,ProtGen能够:

  • 创建与天然蛋白质的能量效率和结构准确性相匹配的蛋白质
  • 生成特定蛋白质结构域的变体,这些变体被证明比随机变体更有效,这表明其在实际应用中具有很高的预测准确性和实用性。

大型语言模型生成跨不同家族的功能蛋白序列

而且ProtGen的能力不局限于模仿天然蛋白质。

今年Profluent Bio发表了一篇新论文,他们使用ProGen设计的Cas9蛋白能够成功编辑人类基因,但这种蛋白质在自然界中原本并不存在。

这表明,我们现在不仅实现了模仿自然,甚至还可以超越,在天然蛋白质的基础上改进,设计出更高的合成蛋白质。

结构条件化

除了序列,我们还可以在训练时结合蛋白质的结构,这样模型就可以按照从结构到序列的流程学习。

这就是所谓的「反向折叠」,因为它与蛋白质从序列到结构的折叠正好相反。

这听起来可能违反直觉,但实际上是蛋白质设计中非常有用的过程,尤其是蛋白酶和治疗药物的设计。

比如,你希望设计一种酶或治疗蛋白质,完成一项特定任务,与某种分子结合或催化某种特定反应。

传统的方法通常是调整现有的蛋白质序列,然后测试新版本是否能更好地完成任务。这种方法通常很慢,而且偶然性较大,导致成功率不高。

反向折叠则从理想的结构开始,也就是你预测的最能执行目标的结构。在此基础上,反向折叠可以找出哪些序列可以折叠到该结构中。

这种方法有多个优点,一方面,反向折叠模型往往非常快速,可以在几分钟内预测出数百个潜在序列。

另一方面,与传统方法相比,这种方法还能探索更广泛的潜在序列。因为传统方法可能只会稍微改变现有序列。这种广泛探索让我们有机会找到从曾考虑过的序列,也许它们才可能具有最佳的特性。

最典型的反向折叠模型是Facebook提出的ESM-IF,它采用encoder-decoder架构,将结构作为encoder的输入,并以结构编码为条件对序列进行自回归解码。

「规模就是一切」

我们已经看到,随着计算能力、数据和模型规模的增加,通用语言模型在复杂任务上的性能也在提高。

规模大到一定程度时,语言模型会表现出有用的能力,如少样本语言翻译、常识推理和数学推理等,这些能力是将简单的训练过程扩展到大型数据语料库的结果,

生物学中的序列推理也有类似的思路。

由于蛋白质的结构和功能制约着其序列的突变,而突变是通过进化选择出来的,因此可以从序列模式推断生物结构和功能,这将有助于深入了解生物学中的一些最基本的问题。

这正是由Meta建立的有15B参数的ESM-2所做的工作。

通过利用语言模型(ESM-2)的内在表征,ESMFold 只使用单序列作为输入就能生成结构预测,从而大大加快了结构预测的速度。

当人为地将单序列作为输入时,ESMFold还能生成比AlphaFold2或RoseTTAFold更准确的原子级预测,准确性随着语言模型规模的扩大逐渐提高。

在将完整的多序列对齐结果(MSA)作为输入的情况下,ESMFold还能获得与RoseTTAFold相当的性能。

此外,ESMFold对低困惑度序列的预测结果与SOTA模型不相上下。

而且更普遍的是,结构预测准确性与语言模型的困惑度相关,这表明当语言模型能更好地理解序列时,它也能更好地理解结构。

这意味着,通过扩大模型规模和数据集大小,我们就可以摆脱特定的归纳偏置(如 MSA),只用一个序列作为输入就能生成结构预测。

虽然ESM-2的准确性不如当时的AlphaFold,但它是一种有趣且简单的方法,可以利用不断扩大的多样化的未注释蛋白质序列数据:

为了进一步说明ESM蛋白质模型的惊人能力,研究人员用高度优化的单克隆抗体(包括针对埃博拉病毒和COVID等疾病的抗体)进行了一项了不起的实验。

他们将这些抗体的序列输入ESM模型,然后发现了实际氨基酸序列与预测之间的差异。

通过选择性地用模型预测的氨基酸取代这些差异位点上的氨基酸,研究人员大大提高了抗体的结合亲和力、热稳定性和体外效力——

成熟抗体的效力提高了7倍,而未成熟抗体的效力则提高了惊人的160倍!!

结语

尽管取得了重大进展,但我们仍处于充分掌握蛋白质序列空间复杂性的早期阶段。

长期以来,了解蛋白质之间关系的唯一方法是明确的成对或多序列比对,这种方法依赖于假定的进化联系,将一种蛋白质的残基映射到另一种蛋白质的残基上。

但最近,一种更通用的方法正在形成,它不太关注进化的谱系,而更关注蛋白质的基本功能和结构。

如果这种进展速度继续保持下去,我们就有可能获得突破性的发现——发现熟悉蛋白质的未知面,甚至合成全新的蛋白质。

这一愿景面临一个挑战——缺乏可解释性。

随着这些模型变得越来越复杂,了解它们是如何处理和表示蛋白质序列至关重要。

特别是对于药物研发等应用来说,确定模型如何预测结合位点非常关键。

蛋白质建模的下一步涉及开发更多受生物学启发的模型。这意味着我们要在已有模型的框架内加深对生物化学知识的整合,以完善其准确性和功能性。

通过在模型训练和数据处理中嵌入更深刻的生物学见解,我们才可以显著提升各种蛋白质相关任务的效果。

通过将更大更好的模型与巧妙的实验设计相结合,蛋白质组学有望取得更多突破。

LLM已经重塑了我们对于科技的想象,pLM的发展又会把我们带向何处?

参考资料:
https://www.apoorva-srinivasan.com/plms/


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2《只留清香春来报》&《今生我在修佛缘》再回首 (三十)个人感慨之124 真没钱了Transformer解码真实场景!Meta推出70M参数SceneScript模型Transformer要变Kansformer?用了几十年的MLP迎来挑战者KANMamba超强进化体一举颠覆Transformer!单张A100跑140K上下文痛风发作痛不欲生,痛风究竟是怎么回事,一文梳理!谁将替代 Transformer?47、长篇家庭伦理小说《嫁接 下》第十六章 千里姻缘(2)超越 Transformer 与 Mamba,Meta 联合斯坦福等高校推出最强架构 TTT为什么Transformer一般使用LayerNorm?250+篇文献!最新综述全面解析科学领域大模型及其在科学发现中的应用一文理解透TransformerOscar马后炮,电影\'留校联盟( The Holdovers)\'会议邀约|诺禾致源&赛默飞与您相约蛋白质组学发展城市研讨峰会-北京站AI 大神首次承认参与神秘模型 Q* 研发,把 OpenAI 吓坏了 | Transformer 作者专访Mamba和Transformer合体!Jamba来了:超越Transformer!IF12.3=蛋白质组+单细胞RNA测序+孟德尔随机化!千万别再说MR过时了!(送干货)一文梳理有效提升RAG效果的方法大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司开源日报 | 清明节前AI复活亲人成热门生意;中国没有“百模大战”,未来也不会有“十模大战”;谁将替代Transformer?Mamba架构第一次做大!混合Transformer,打败TransformerFTX赔付在即,一文梳理债权人需要关注的重点信息YOCO:打破传统Decoder-only架构,内存消耗仅为Transformer的六分之一Meta革命新架构掀翻Transformer!无限上下文处理!豪赌!哈佛辍学华人竟然发布了只支持Transformer一种算法的AI芯片,一张顶20张H100 ,比GB200快一文梳理!9-12年级竞赛全规划,目标G5,各阶段适合的赛事项目!万字长文带你梳理Llama开源家族:从Llama-1到Llama-3新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量一文梳理!9-12年级竞赛全规划,各阶段适合的赛事项目!ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则ICML 2024|Transformer究竟如何推理?基于样例还是基于规则30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。