Redian新闻
>
开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼

开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼

公众号新闻

机器之心编译

编辑:杜伟、小舟

AI 尤其是大模型时代的开源与闭源,有利有弊,重要的是如何在使用的过程中做好文章。

一直以来,人们在 AI 领域的开源与闭源选择上存在着分歧,而在大模型时代,开源这股强大的力量已经悄然崛起。根据此前谷歌泄露的一份内部文件,围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌大模型能力类似的模型。

毋庸置疑,Meta 是开源世界的绝对核心,持续做出开源努力,如最近发布 Llama 2。然而木秀于林风必摧之,最近 Meta 因为开源陷入了「麻烦」。

在 Meta 的旧金山办公室外,一群手举标语的抗议者聚集在一起,抗议 Meta 公开发布 AI 模型的策略,并声称这些发布的模型造成了潜在不安全技术的「不可逆转的扩散」。甚至有抗议者将 Meta 发布的大模型比作「大规模杀伤性武器」。

这些抗议者自称为「concerned citizens」(关心某事的公民),由 Holly Elmore 领导。根据领英信息,她是 AI Pause(中止 AI)运动的独立倡导者。

图源:MISHA GUREVICH

她指出,如果一个模型被证明不安全,则可以关闭 API,比如谷歌和 OpenAI 等只允许用户通过 API 访问的大模型。

与之相反,Meta 的 LLaMA 系列开源模型向公众提供了模型权重,使得任何拥有合适硬件和专业知识的人都可以自行复制和调整模型。一旦发布了模型权重,发布公司就不再有任何手段来控制 AI 的使用方式了。

在 Holly Elmore 看来,释放模型权重是一项危险的策略,任何人都可以修改模型,并且这些模型无法被召回。「模型越强大,这项策略就越危险。」

相较于开源,通过 API 访问的大模型通常具备各种安全特性,比如响应过滤或通过特定训练阻止输出危险或令人厌恶的响应。

如果模型权重被释放出来,那么重新训练模型来跳过这些「护栏」就变得容易多了。这使得利用这些开源模型来制作网络钓鱼软件、实施网络攻击更加成为了可能。

图源:MISHA GUREVICH

因为,她认为部分问题在于「针对模型释放的安全措施不够」,需要有更好的方式来保证模型安全。

目前,Meta 尚未对此发表任何评论。不过,Meta 首席 AI 科学家 Yann LeCun 似乎对「开源 AI 必须被取缔」这一说法进行了回应,晒出了巴黎开源 AI 创业社区的盛况。


与 Holly Elmore 持不同意见的人也有很多,认为 AI 发展的开放策略是确保实现技术信任的唯一途径。

有网友表示,开源有利有弊,既可以让人们获得更高透明度并增强创新,但也将面临恶意行为者滥用(如代码)的风险。


不出所料,OpenAI 再次遭到了揶揄,「它应该回归开源。」


对开源持有担忧的不在少数

MIT AI 安全博士后研究员 Peter S. Park 表示:「未来广泛发布先进的 AI 模型将特别成问题,因为防止滥用 AI 模型基本是不可能的。」

不过,非营利性人工智能研究组织 EleutherAI 的执行董事 Stella Biderman 表示:「到目前为止,几乎没有证据表明开源模型造成了任何具体的损害。目前还不清楚是否仅在 API 背后放置一个模型就可以解决安全问题。」

Biderman 认为:「构建 LLM 的基本要素已在免费的研究论文中公开,世界上任何人都可以阅读论文文献来开发自己的模型。」

她还补充道:「鼓励公司对模型细节保密可能会对领域研究的透明度、公众意识和科学发展产生严重的不良后果,特别是会影响独立研究人员。」

尽管大家已经在讨论开源带来的影响,但 Meta 的方法是否真的足够开放,是否能够发挥开源的优势,还未可知。 

开放源代码促进会(OSI)执行董事 Stefano Maffulli 表示:「开源 AI 的概念尚未得到正确定义。不同的组织使用该术语来指代不同的事物 —— 表示不同程度的『公开可用的东西』,这会让人们感到困惑。」


Maffulli 指出,对于开源软件来说,关键问题是源代码是否公开可用并可复现用于任何目的。但是想复现 AI 模型可能必须要共享训练数据、收集数据的方式、训练软件、模型权重、推理代码等等。其中,最重要的是训练数据可能存在隐私和版权问题。

OSI 自去年以来一直致力于为「开源 AI」给出一个确切的定义,很有可能会在未来几周内发布早期草案。但无论如何,他都认为开源对 AI 发展至关重要。「如果 AI 不是开源的,我们就不可能拥有值得信赖、负责任的 AI」,他说道。

未来,关于开源与闭源的分歧会一直延续下去,但开源已经无法阻挡。

原文链接:https://spectrum.ieee.org/meta-ai




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《身披彩衣的姑娘》&《往事》自动驾驶独角兽如此造假,LeCun都服了Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解试点工作如火如荼!事关数字人民币,这个省份全国第一超级AI不会主宰人类,但人工智能必须开源!LeCun最新采访引全网300万人围观GPT-4最强平替更新!UC伯克利发布Vicuna v1.5,支持4K和16K上下文,刷新SOTA,LeCun转赞AI实时解读大脑信号,7倍速还原图像关键视觉特征,LeCun转发图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的AI读脑成真,延迟仅0.25秒!Meta里程碑新研究:MEG实时解码大脑图像,LeCun转赞ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!穆迪默默地捅刀子GPT-4作弊被抓!吉娃娃or松饼打乱顺序就出错,LeCun:警惕在训练集上测试卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞红颜从来非祸水,妖孽原是自本心红色日记 6.1-10“失控,完全失控了”吴恩达加入图灵三巨头混战,炮轰Sam Altman:AI监管「不会管不如不管」,LeCun转赞用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4GPT-4不知道自己错了! LLM新缺陷曝光,自我纠正成功率仅1%,LeCun马库斯惊呼越改越错图灵奖得主LeCun:为什么未来几年AI更可能变得像狗一样聪明,而不是人类?从天涯社区到小红书:“附近”消失后,线上社区如何变迁纽大具身智能新进展:靠视觉反馈学会开罐头,任务成功率提高135%,LeCun点赞UNC斯坦福等曝光GPT-4V意外漏洞,被人类哄骗数出8个葫芦娃!LeCun和Jim Fan震惊了微软开源的大模型太强了,数学推理超ChatGPT,论文、模型权重全部公开阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习时间匆匆,岁月如梭研究称AI绘画碳排放仅为人类画家1/2900,LeCun转发“失控,完全失控了”!UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出生成模型构建交互式现实世界模拟器,LeCun觉得非常酷非法解雇、“员工处于很压抑的工作状态”!中城按摩店被举牌抗议
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。