Redian新闻
>
少用ChatGPT,多支持开源!纽约大学教授Nature发文:为了科学界的未来

少用ChatGPT,多支持开源!纽约大学教授Nature发文:为了科学界的未来

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】为了科学界的未来,加入开源LLM阵营吧!


免费的ChatGPT用的是很爽,但这种闭源的语言模型最大的缺点就是不开源,外界根本无法了解背后的训练数据以及是否会泄露用户隐私等问题,也引发了后续工业界、学术界联合开源了LLaMA等一系列羊驼模型。


最近Nature世界观栏目刊登了一篇文章,纽约大学政治与数据科学教授Arthur Spirling呼吁大家更多地使用开源模型,实验结果可复现,也符合学术伦理


重点是,万一哪天OpenAI不爽了,关闭了语言模型接口,或是靠封闭垄断涨价的话,那用户只能无奈地说一句,「终究是学术败给了资本」



文章作者Arthur Spirling将于今年7月加入普林斯顿大学教授政治学,主要研究方向是政治方法论和立法行为,具体为文本数据(text-as-data)、自然语言处理、贝叶斯统计、机器学习、项目反应理论和广义线性模型在政治科学中的应用。

研究人员应该避免商用模型的诱惑,共同开发透明的大型语言模型,以确保可重复性。


拥抱开源,拒绝垄断


似乎每天都有一个全新的大型语言模型(LLM)推出,其创建者和学术界相关人士每次都会对新模型如何与人类进行流畅交流的能力慷慨陈词,比如可以帮用户改代码,写推荐信,给文章写摘要等等。


作为一名正在使用并教授如何使用这些模型的政治和数据科学家,我认为学者们应该保持警惕,因为目前最受大众追捧的语言模型仍然是私有且封闭的,即由公司运营,他们不会披露基本模型的具体信息,只会独立地检查或验证模型的能力,所以研究人员和公众并不知道模型的训练使用了哪些文件。



急于将语言模型纳入自己的研究流程可能会出问题,可能会威胁到来之不易的「研究伦理」和「结果复现性」方面的相关进展。


不光不能依赖商用模型,研究人员还要通力合作开发透明且不依赖于某个具体公司利益的开源大型语言模型。


虽然商用模型非常方便,可以开箱即用,但投资开源语言模型是历史的趋势,既要想办法推进开发,也要让模型应用于未来的研究中。


我乐观地估计,语言模型工具的未来一定是开源的,类似于开源统计软件的发展历史,刚开始商用的统计软件很流行,但目前基本所有社区都在使用R或Python等开源平台。



举个例子,去年7月发布的开源语言模型BLOOM,其开发团队Hugging Face是一家总部位于纽约的人工智能公司,携手一千多名志愿者和研究人员共同打造,部分研发资金由法国政府提供;其他团队也在努力开源大型语言模型。


我认为类似这样的开源项目都是伟大的,但我们还需要更多的合作,需要汇集国际资源和专业知识。


开源大型语言模型的团队通常不像大公司那样资金充足,并且开发团队还需要持续运营以跟踪领域内的最新进展:AI领域的发展实在是太快了,甚至大部分语言模型在推出几周或几个月以后就会过时。


所以参与到开源中的学者越多,最终开源模型的效果也会更好。



使用开源 LLM 对于「可重复性的研究」至关重要,因为闭源的商用语言模型所有者可以随时更改其产品或其训练数据,都有可能会改变模型的生成结果。


比如说,一个研究小组可能会发表一篇论文,测试商用语言模型建议的措辞是否可以帮助临床医生更有效地与患者沟通;如果另一个小组试图复现这项研究,谁知道模型的基础训练数据是否和当时一样?甚至该模型是否仍然运营都是未知数。


之前研究人员常用的辅助工具GPT-3已经被GPT-4取代了,所有基于GPT-3接口的研究在未来很可能无法复现,对于公司来说,维持旧模型运行的优先级并不高。


相比之下,使用开源LLM,研究人员可以查看模型的内部架构、权重,了解模型是如何运行的,定制代码并指出错误,这些细节包括模型的可调参数和训练模型的数据,社区的参与和监督都有助于让这种模式长期保持稳健。


在科学研究中使用商用语言模型也对研究伦理产生了负面的影响,因为用于训练这些模型的文本是未知的,可能包括社交媒体平台上用户之间的直接信息或儿童撰写的内容。


尽管制作公共文本的人可能已经同意了平台的服务条款,但这可能不是研究人员希望看到的知情同意标准。


在我看来,科学家应该尽可能地在自己的工作中远离使用这些模型。我们应该转向开放的语言模型,并推广给其他人使用。



此外,我认为学者,尤其是那些拥有大量社交媒体追随者的学者,不应该推动其他人使用商用模型,如果价格飙升,或者公司倒闭,研究人员可能会后悔把技术推广给同事。


研究人员目前可以求助于私人组织制作的开放式语言模型,例如用Facebook母公司Meta开源的LLaMA,最初是基于用户申请、审核的形式发放的,但完整版模型随后在网上泄露;还可以使用Meta的开放语言模型OPT-175 B


从长远来看,不利的一面是,这些模型的发布过于依赖公司的仁慈,这是一种不稳定的局面。


除此之外,还应该有与语言模型合作的学术行为准则,以及相应的监管措施,但这些都需要时间,根据我作为政治学家的经验,我预计这些规定最初肯定是很不完善的,并且见效缓慢。


与此同时,大规模的合作项目迫切需要支持,以训练用于研究的开源语言模型,类似欧洲粒子物理研究所(CERN),国际粒子物理组织,政府应通过赠款增加资金。


该领域正在以闪电般的速度发展,现在需要开始协调国内和国际支持。


科学界需要有能力评估由此得到模型的风险,并且需要谨慎地向公众发布,但很明显,开放的环境是正确的。


参考资料:
https://www.nature.com/articles/d41586-023-01295-4





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
两篇Nature论文打架:云南大学最新Nature论文指出两年前Nature重磅研究有误微档--师昌绪美国入境档案微软再扔AI聊天画图炸弹!视觉模型加持ChatGPT,Visual ChatGPT横空出世Turnitin放大招,可以检测出是否使用ChatGPT?集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布ChatGPT在律所:聪明人已经在用ChatGPT吊打同事了!巴黎市长将重修Châtelet 广场以方便行人用ChatGPT做PPT,太爽了!(附赠3个网站,1分钟做出绝美PPT!)日本女性的不婚(二)ChatGPT能写长篇小说了,ETH提出RecurrentGPT实现交互式超长文本生成ChatGPT路线图曝光:没有GPT-5、识图功能要等到明年、GPT-3或将开源苹果公司限制员工使用ChatGPT,加入担心泄密的公司行列;另C哈他GPT发布ios手机版GPT-4来了!直接升级ChatGPT,准确性大大提高,可识别图像信息 | 环球科学要闻5篇Nature和2篇Nature Medicine预测肺癌细胞的未来行为学生用ChatGPT做作业?华人教授在Natuer发文:鼓励,但要这样做大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4ToolsAgustín Hernández:中美洲建筑背景下的未来主义巨构常识和生活中的经济学问ChatGPT:不会用ChatGPT怎么办?Nature:学生使用ChatGPT,绝不能一禁了之!相反,需要学习如何负责任且高效地使用GPT-3 计划开源!Sam Altman 自曝急缺 GPU,GPT-4 多模态能力明年开放微软也搞起了开源小模型!利用OpenAI的ChatGPT和GPT-4 训练,实力碾压当前最强开源模型Hinton的预言要实现了!美加顶尖大学Nature发文:全科医学人工智能GMAI不止要取代「放射科医生」Nature重磅:引爆生命科学界的下一个风口!普通科研人员也能快速发顶刊!40岁蒋欣同框41岁孙俪,差一岁像隔辈!一个风姿卓越一个老气横秋美国入境档案--吴大昌震撼!GPT-4来了,支持多模态,全面吊打ChatGPT,完虐标准化考试ChatGPT之父反驳马斯克/高考生喊话取消调休/刘慈欣也用ChatGPT写稿|灵感周报大羊驼、羊驼、小羊驼和ChatGPT比差在哪儿?CMU副教授测评了7个类ChatGPT大模型轰动学界的Nature和Cell论文,再被质疑有误,Ptbp1缺失不能诱导胶质细胞转化为神经元用ChatGPT赚钱的秘诀是,教别人怎么用ChatGPT赚钱【城事】巴黎市长将重修Châtelet 广场以方便行人开源版ChatGPT,30分钟训完,性能堪比GPT3.5!GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放程序员的未来属于「伪代码」!Nature专栏:用ChatGPT加速科研编程的三种姿势
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。