Redian新闻
>
K2乔戈里,上交大团队推出一个70亿参数的地球科学大语言模型

K2乔戈里,上交大团队推出一个70亿参数的地球科学大语言模型

公众号新闻

机器之心专栏

机器之心编辑部

说到世界上最高的山峰大家都能想到是珠穆朗玛峰,但是世界上的第二高峰就鲜有人知 —— 乔戈里峰(又称 K2,仅以 200 多米之差屈居第二)。珠穆朗玛峰固然高大雄伟,但是乔戈里峰的攀爬难度却远超珠穆朗玛峰,在登山界享有盛名,即使是最简单的登顶路线也需要穿越地形复杂的冰川,攀缘几乎垂直的峭壁,经过许多很容易倒塌的冰柱。来自上海交通大学的科研团队,将第一个地球科学的大模型就被命名为乔戈里峰,就源于此。

地球科学是一门古老的学科,不仅研究岩石、矿物和土地的性质,还探讨地球的气候、海洋、大气、生态系统等多个方面现象和原理。地学与我们的日常生活息息相关,帮助我们预测天气,了解地球的演化历史,维护海洋生态系统平衡和海洋资源均衡等。同时火山活动、地震、恐龙化石、气象现象等引人入胜的内容,也被一个个地学工作者阐述出来,带给大家一个又一个令人惊奇和引人入胜的故事。

图:地学领域词云图;研究各个地学年代的地学论文数量的分布。

总的来说,地球科学是一门理论性、应用性都很强的自然科学。从理论性上来说,它承担着揭示自然界奥秘与规律的使命。从应用性上来看,它为生活在地球上的人类如何适应、利用、保护自然提供了科学的方法论。但是一味的通过传统的理论和实践的方法并不能高效的发现新的地学理论,整合传统的地球科学和利用计算机科学的处理大数据成了地球科学的新科研范式。

很长一段时间以来,计算机科学已经成为地球科学不可或缺的一部分。地球科学涉及大量的数据,包括文献数据、地质数据、气象数据、遥感数据等。计算机科学提供了处理、存储和分析这些海量图片、文本和数字等模态的数据的工具和技术。这两个学科的交叉融合已经成为大势所趋。

其中,文本数据挖掘是重要的但是最容易被忽视的一个重要组成部分。从大量的文本数据中提取有关地球科学的信息、模式和趋势,可以加深对地球科学的理解,并为科学研究、决策制定和问题解决提供支持。与此同时,近年大火的语言模型又是文本数据挖掘重要的工具。因此,在这样的一个属于大语言模型的时代,推出一个地球科学这个垂直领域的基座语言模型势在必行。

最近,来自上海交通大学的团队推出一个 70 亿参数的地球科学大语言模型名叫 K2。K2 是基于初代 LLaMA-7B 模型,并使用了 100 万余篇地球科学文献以及和地球科学相关的维基百科的文章进行更进一步的预训练。同时设计了第一个地球科学领域的微调数据集 GeoSignal,包含文章内容、类别、参考文献、提到的实体等,适用于解决回答地球科学方面的专业问题、完成命名实体提取、地学概念上下位关系判断等任务。

图:地球科学领域大语言模型 K2 的构建流程图。

区别于大多数垂直领域的模型训练的思路,该团队通过独特的数据重构技术生成指令微调的数据,而不仅仅是利用 self-instruct 等方法,利用 ChatGPT 生成的数据来进行指令数据的采集。

同时为了评估模型在地学知识的理解和应用方面的能力,他们还建立了第一个地球科学语言模型的基准 GeoBenchmark,它主要由中国的地理、地质学的考研题目和美国的地理、地质与环境科学的 AP 考试题目组成。有意思的是,ChatGPT 和 GPT4 在地学相关的 AP 考试上的分数并没有随着 GPT4 的技术报告一同给出,留给大家十足的想象空间。

在大模型纷争的时代,大多数垂直领域的大模型训练都有统一的范式,那就是先进行专业领域语料的预训练,再进行指令微调。但是大多数的模型在预训练阶段使用的数据并不透明,指令微调的数据更多的是蒸馏 ChatGPT 来抑或进行高价的人工标注。但是 K2 针对地学这一个垂直领域给出了一套技术路线,从计算机角度通过数据的整合和提炼来进行学科交叉的知识工程和模型构建,这是 K2 之于数据挖掘和自然语言领域的贡献之一。

针对预训练数据,该团队基于 Grobid,PyPDF2 和 DeepShovel  (https://deepshovel.deep-time.org/) 等工具开发了一套数据清洗工具包。

DeepShovel:是一款辅助地学科学家进行知识抽取的文献标注平台,也陆续推广至所有的学术领域。目前 DeepShovel 以及辅助超过一百家地球科学的科研单位。


其中,每一篇地学开放获取(Open Access)的论文都会被转化成对于计算机来说可读性极高的 Markdown 格式的文本,有着多级标题的区分、公式和引用的特殊词元(Special Token)以及图片和表格的注释文本也被特殊词元保存下来。经过一系列的操作,累计获取了 5.5B 词元(Tokens)的文本语料。目前他们正在构建更大的学术资源的语料,旨在进行更大规模的学术大模型的训练。


针对指令微调数据,该团队通过多个自主研发平台上的数据融合,通过数据重构,将具备一定结构化的网页进行了解构,并重组成一套 knowledge-intensive 的数据。在这个过程中,上海交通大学团队集中团队内部所有的平台课题组的力量,进行数据的充分重组,从而构建了一套独一无二的具有特定地学任务的知识性指令微调数据集。

据论文描述,上海交通大学团队在过去的 3 年,相应 DDE 大科学计划(https://deep-time.org/)的号召,完成研发的地学数据和功能平台共 4 个。

  • Deep literature
    https://ddescholar.acemap.info/ 
    致力于打造地学领域的 DBLP,将所有的地学学术文献进行整合并依托这个平台进行一系列的数据挖掘和学者画像的分析。

  • GAKG
    https://gakg.acemap.info/ 
    致力于打造地学领域的多模态学术知识图谱,对所有的地学学术文献进行数据的挖掘,抽取文献之间的关联关系、地学知识点之间的上下位等语义关系以及地学文献内的知识挖掘。对外提供了语义查询和文本搜索系统,也是 CIKM 历史上第一篇地球科学相关的科研文章。GAKG 对外也提供了数据下载、语义查询和文本搜索的平台。同时,GAKG 的技术工作也发表在 CIKM 上,也是一篇计算机科学领域与地球科学交叉研究的科研文章。

  • GSO
    https://gso.acemap.info/ 
    是利用机器生成人工修正的地学知识树系统,用上下位关系维护了地学知识点之间的关联,这给大模型提供了很好的地学知识链接预测的监督信号。

  • DataExpo
    https://dataexpo.deep-time.org/
    通过关键词检索以及文本分类归纳了所有的地学数据集。


这些平台承载着地学的知识元数据,如果通过人工整合平台底层的数据逻辑,将可以很快的获得地学知识之间关联关系,以及一定的任务驱动的数据集。

基于 DDE Scholar 可以获得地学相关的科研文献,并且通过其中 OA 的文献的下载链接,可以下载下来构建预训练语料,通过 GAKG,可以构建实体抽取的数据集,语义上下位词的知识判断的数据集。通过 DeepShovel 一直以来的数据积累,可以构建特定任务的地学问答系统,以及文献中表格抽取的数据集。通过 DataExpo,可以得到数据集相关的知识文本,也可以一定程度上类似科研文献一般,提供地学知识的监督信号。

当然,一定程度上的蒸馏 ChatGPT 确实能辅助模型向 ChatGPT 靠拢,因此针对不同的地学领域,K2 还集成了一套基于 Self-instruct 的指令微调数据集,并且在 ChatGPT 生成之后也通过了专业地学同事的审核,进而得到高质量的监督效果。


最后上海交通大学团队通过人工和机器相结合的方法,对这些指令进行清洗,并最后构成了一套 39k 大小的地学知识性指令微调数据集。在这个数据集中,蒸馏 ChatGPT 的占比并不高,因为在交大团队看来这类数据仅仅只是 QA 任务的一种监督,并不能很好的泛化到其他更难的任务中。

最后,上海交通大学团队聘请了专业的地学翻译专家,将近几年的地学的考研题进行了翻译,并结合美国高中的 AP 考试中的地学相关的科目,构建了 GeoBenchmark,与同等大小的模型相比,K2 以较少的数据成本,最终得到了如下结果:


除此之外,该团队还发现,在微调 K2 的过程中,也是比较有技巧的,如果只利用知识性的指令微调数据,模型并不能达到最好的效果,甚至也只比利用 alpaca 这类开源的和地球科学无关的指令微调数据达到的效果好一些。但是令人激动的是,如果先利用 alpaca 这类指令微调数据进行微调,再利用知识性指令微调数据进行更进一步的训练,达到的效果则更优秀。


前尚且不知道这个特性是不是只在地球科学领域存在,因为这种现象类似于,先让一个小朋友学会说人话,再学会说行话。面对晦涩难懂的学科,多一条这样的思路,不失为一种方法。


这个现象是否广泛存在呢,答案是很有可能的,在一次由乔治亚大学的买庚辰教授组织的 GeoAI 的研讨会上,来自乔治亚大学和哈佛大学的团队也在训练 radiology 领域的生成式模型的过程中也发现了这一现象。充分说明,要想成为专家,要先学会 “做人”。

在整个过程中,K2 的训练和研发可谓是坎坷曲折,由于领域壁垒较高,因此很难直接获得专家的标注,如果从需求出发,地学领域的需求也很难直接转化为计算机领域的任务。最后,这款地学领域的大模型还是从成功地从计算机角度出发训练完成了,给后续的地学领域的大模型一定的参考意义。

目前看来,在国际社区中,K2 的应用前景非常广阔。例如,它可以用于自然语言理解、结合 GAKG 进行信息检索增强的 QA 任务和文本生成等任务。此外,在未来 K2 还可以用于地球科学领域的知识图谱构建和地球科学文献的自动化分析等方面。在地学类资讯公司的社交圈子里,已经广泛讨论了该团队这一令人激动的工作。例如:

1.https://paulhcleverley.com/2023/08/03/worlds-first-geoscience-large-language-model/
2.https://www.linkedin.com/posts/paulhcleverley_geosciences-largelanguagemodels-artificialintelligence-activity-7093001271632101376-jzAc 


经过本文的陈述,计算机赋予地学新的生命,地学赋予计算机新的使命。我们相信,会有越来越多的真正愿意奉献地学的计算机学科专家投入时间,以及真正愿意沉下心来从地学角度给予支持和耐心的地学专家参与进来,地学的 AI 时代将很快到来。

  • Paper: https://arxiv.org/abs/2306.05064
  • Code: https://github.com/davendw49/k2

关于 DDE 国际大科学计划


K2 是响应深时数字地球(DDE)国际大科学计划号召,由计算机领域的科研工作者深入地学领域进行数据采集分析,打开了一条计算机科学与地球科学交叉研究的新思路。DDE 国际大科学计划是全国唯一一个国际大科学计划,由中国地质大学王成善院士,中国科学院地理科学与资源研究所周成虎院士等中国地球科学的科学家领导的,致力于建设一个为应对全球科技挑战、支撑全球或者区域命运共同体提供社会所需知识的国际平台来实现聚合全球地学大数据,构建数据驱动的地球科学发现的目的。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
土耳其索菲亚大教堂原创《思考陆扬的“晚唐清流文化”》大语言模型会偷懒?新研究:上下文太长,模型会略过中间不看 | 本周论文推荐大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯亚马逊被曝组建新团队研发大语言模型,CEO贾西亲自监督天津大学熊德意教授团队发布最新综述,全面介绍大语言模型对齐技术哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展大模型竞争突然升级!亚马逊 CEO 亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的大语言模型5123 血壮山河之武汉会战 富金山战役 11大语言模型真能“理解”语言吗?专攻芯片设计,英伟达推出定制版大语言模型ChipNeMo!76页综述+300余篇参考文献,天大团队全面介绍大语言模型对齐技术两行代码解决大语言模型对话局限!港中文贾佳亚团队联合 MIT 发布超长文本扩展技术能总结经验、持续进化,上交把智能体优化参数的成本打下来了十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型传滴滴造车VP创业大模型;澜舟科技推出400亿参数通用大模型;商汤AIGC相关收入增长670.4%全面的中文大语言模型评测来啦!香港中文大学研究团队发布工作重要,还是妻子重要推理1760亿参数的BLOOMZ,性能时延仅3.7秒 | 最“in”大模型北京/杭州内推 | 阿里通义实验室对话智能团队招聘大语言模型方向算法专家MIT惊人再证大语言模型是世界模型!LLM能分清真理和谎言,还能被人类洗脑文档字越多,模型越兴奋!KOSMOS-2.5:阅读「文本密集图像」的多模态大语言模型首富的傲娇和价值观贾佳亚团队开源全球首个70B长文本大语言模型,读论文看小说直接ProMax2023年8月23日未来科学大奖直播视频之一:赵忠贤、陈仙辉获未来科学大奖,两位科学家做出哪些贡献?丢弃99%的参数!阿里团队提出语言模型合体术,性能暴涨且无需重新训练和GPU用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成北京/杭州内推 | 阿里达摩院对话智能团队招聘大语言模型方向算法专家MIT惊人证明:大语言模型就是「世界模型」?吴恩达观点再被证实,LLM竟能理解空间和时间图文并茂,三步速出「原神」文稿!首个70亿参数图文混合创作大模型正式开源,一键生成神作OpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键1300亿参数,国内首个数学大模型MathGPT上线!多项基准赶超GPT-4UCLA发布SciBench,评估大语言模型的科学问题解决能力
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。