Redian新闻
>
多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

公众号新闻

ScienceAI 设为星标

第一时间掌握

新鲜的 AI for Science 资讯


编辑 | 萝卜芯

预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权重集在不同任务中表现出色的多功能模型仍然存在挑战。

百度大数据实验室(Big Data Lab,BDL)和上海交通大学团队开发了 RNAErnie,一种基于 Transformer 架构,以 RNA 为中心的预训练模型。

研究人员用七个数据集和五个任务评估了模型,证明了 RNAErnie 在监督和无监督学习方面的优越性。

RNAErnie 超越了基线分类准确率提高了 1.8%,交互预测准确率提高了 2.2%,结构预测 F1 得分提高了 3.3%,展现了它的稳健性和适应性。

该研究以「Multi-purpose RNA language modelling with motif-aware pretraining and type-guided fine-tuning」为题,于 2024 年 5 月 13 日发布在《Nature Machine Intelligence》。

RNA 在分子生物学的中心法则中扮演着关键角色,它负责将 DNA 中的遗传信息传递给蛋白质。

RNA 分子在基因表达、调控和催化等多种细胞过程中起着至关重要的作用。鉴于 RNA 在生物体系中的重要性,对 RNA 序列进行高效、准确的分析方法需求日益增长。

传统的 RNA 序列分析依赖于如 RNA 测序和微阵列等实验技术,但这些方法通常成本高昂、耗时且需要大量的 RNA 输入。

为了应对这些挑战,百度 BDL 和上海交通大学团队开发了一种预训练的 RNA 语言模型:RNAErnie。

RNAErnie

该模型建立在知识集成增强表示(ERNIE)框架之上,并包含多层和多头 Transformer 块,每个 Transformer 块的隐藏状态维度为 768。预训练是使用一个广泛的语料库进行的,该语料库由从 RNAcentral 精心挑选的约 2300 万条 RNA 序列组成。

所提出的基序感知预训练策略涉及基础级掩蔽、子序列级掩蔽和基序级随机掩蔽,它有效地捕获了子序列和基序级知识,丰富了RNA序列的表示。

此外,RNAErnie 将粗粒度 RNA 类型标记为特殊词汇表,并在预训练期间将粗粒度 RNA 类型的标记附加在每个 RNA 序列的末尾。通过这样做,该模型有可能辨别各种 RNA 类型的独特特征,从而促进域适应各种下游任务。

图示:模型概述。(来源:论文)

具体来说,RNAErnie 模型由 12 个 Transformer 层组成。在主题感知预训练阶段,RNAErnie 在从 RNAcentral 数据库中提取的大约 2300 万个序列的数据集上进行训练,使用自我监督学习和主题感知多级随机掩码。

图示:主题感知预训练和类型引导微调策略。(来源:论文)

在类型引导的微调阶段,RNAErnie 首先使用输出嵌入预测可能的粗粒度 RNA 类型,然后利用预测的类型作为辅助信息,通过特定于任务的头来微调模型。

这种方法使模型能够适应各种 RNA 类型,并增强其在广泛的 RNA 分析任务中的实用性。

更具体地说,为了适应预训练数据集和目标域之间的分布变化,RNAErnie 利用域适应将预训练主干与三种神经架构中的下游模块组合在一起:具有可训练头的冻结骨干网(FBTH)、具有可训练头的可训练骨干网(TBTH)和用于类型引导微调的堆叠(STACK)。

通过这种方式,所提出的方法可以端到端优化主干和特定于任务的头,或者使用从冻结主干中提取的嵌入来微调特定于任务的头,具体取决于下游应用。

性能评估

图示:RNAErnie 捕获多级本体模式。(来源:论文)

研究人员评估了该方法,结果显示 RNAErnie 在七个 RNA 序列数据集(涵盖超过 17,000 个主要 RNA 基序、20 个 RNA 类型和 50,000 个 RNA 序列)中优于现有先进技术。

图示:RNAErnie 使用 ArchiveII600 和 TS0 数据集在 RNA 二级结构预测任务上的性能。(来源:论文)

使用 30 种主流 RNA 测序技术进行评估,证明了 RNAErnie 的泛化性和稳健性。该团队采用准确度、精确度、召回率、F1 分数、MCC 和 AUC 作为评估指标,从而确保 RNA 序列分析方法的公平比较。

目前,将具有增强外部知识的 Transformer 架构应用于 RNA 序列数据分析的研究很少。从头开始的 RNAErnie 框架集成了 RNA 序列嵌入和自我监督学习策略,从而为下游 RNA 任务带来卓越的性能、可解释性和泛化潜力。

此外,RNAErnie 还可以通过修改输出和监控信号来适应其他任务。RNAErnie 是公开可用的,是理解类型引导 RNA 分析和高级应用的有效工具。

局限性

虽然 RNAErnie 模型在 RNA 序列分析方面有所创新,但仍面临一些挑战。

首先,该模型受到它可以分析的 RNA 序列大小的限制,因为长度超过 512 个核苷酸的序列会被丢弃,可能会忽略重要的结构和功能信息。为处理较长序列而开发的分块方法可能会导致有关远程相互作用的信息进一步丢失。

其次,这项研究的重点很窄,仅集中在 RNA 结构域上,没有扩展到 RNA 蛋白质预测或结合位点识别等任务。此外,该模型在考虑 RNA 的三维结构基序(例如环和连接点)时遇到了困难,而这对于理解 RNA 功能至关重要。

更重要的是,现有的事后架构设计也有潜在的局限性。

结语

尽管如此,RNAErnie 在推进 RNA 分析方面拥有巨大潜力。该模型在不同的下游任务中展示了其作为通用解决方案的多功能性和有效性。

此外,RNAErnie 采用的创新策略有望增强其他预训练模型在 RNA 分析中的性能。这些发现使 RNAErnie 成为一项宝贵的资产,为研究人员提供了一个强大的工具来解开 RNA 相关研究的复杂性。

论文链接:https://www.nature.com/articles/s42256-024-00836-4

人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]

「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展

欢迎注标星,并点击右下角点赞在看

点击读原文,加入专业从业者社区,以获得更多交流合作机会及服务。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《高阳台 - 春分》高效涨点!用Transformer模型发Nature子刊(文末送书)为什么Transformer一般使用LayerNorm?「懂物理」是具身智能核心!北大高逼真物理仿真,加持磁性微米级机器人登Nature子刊Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存AI小分子药物发现的「百科全书」,康奈尔、剑桥、EPFL等研究者综述登Nature子刊Mamba和Transformer合体!Jamba来了:超越Transformer!《等你在草原》&《繁华梦》Transformer+时间序列登上Nature子刊!纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型可控核聚变新里程碑,AI首次实现双托卡马克3D场全自动优化,登Nature子刊ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则Nature子刊:海外团队使用可编程肽-DNA技术构建「人造细胞」,与真实细胞拥有几乎相同的外观和功能Transformer登上Nature子刊!Transformer成最大赢家!登上Nature子刊AI预测所有生命分子!谷歌AlphaFold 3模型登Nature,免费开放节省上亿年研究时间图灵奖得主Bengio团队新作:注意力可视为RNN!新模型媲美Transformer登Nature子刊,「机器人+AI+MD模拟」加速材料发现和设计,发现全天然塑料替代品妈妈踏海个人感慨之119 寻衅滋事的包公《花信风之春分》Transformer解码真实场景!Meta推出70M参数SceneScript模型30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点YOCO:打破传统Decoder-only架构,内存消耗仅为Transformer的六分之一CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术Mamba架构第一次做大!混合Transformer,打败Transformer现场围观 | 黄仁勋对话Transformer论文作者:世界该给Tranformer翻篇了ICML 2024|Transformer究竟如何推理?基于样例还是基于规则AI早知道|Midjourney推出新功能Room;百度文库上线智能漫画功能深圳/香港/上海内推 | 商汤研究院基础语言模型团队招聘大语言模型算法研究员清华系细胞大模型登Nature子刊!能对人类2万基因同时建模,代码已开源平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法开源日报 | 华为腾讯相爱相杀;Redis不再 “开源”;老黄集齐Transformer论文七大作者;“中国大模型第一城”争夺战Transformer要变Kansformer?用了几十年的MLP迎来挑战者KAN
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。