Redian新闻
>
三大巨头联合署名!又一封“警惕AI、保卫人类”的公开信发出 | 大模型新鲜事

三大巨头联合署名!又一封“警惕AI、保卫人类”的公开信发出 | 大模型新鲜事

公众号新闻

作者Vicky Xiao
邮箱[email protected]

来源硅星人(guixingren123

自从生成式AI以势如破竹的速度席卷几乎每一个领域,AI挑战人类的担忧也越来越真实。
上次,马斯克就人工智能研究界和产业界的大佬们一起发布了一篇呼吁暂停半年AI大模型训练、加强AI技术监管的公开信,呼吁全球所有实验室暂停比更强的AI模型研发,暂停时间至少为6个月。但结果被人扒出其实他为Twitter购买了1万个GPU用于推进一个全新的AI项目,极有可能正在开发自家的大语言模型。
但这一次,又一封呼吁人们要重视AI带来威胁的公开信又发出。比上一次更引人注目的是,目前生成式AI领域鼎立的三大巨头:OpenAI 、DeepMind(隶属于Google)、Anthropic都加入其中。

22字声明,350人签名

这份声明由总部位于旧金山的非营利组织AI安全中心发布,就他们认为AI对人类构成的生存威胁发出了新的警告。整份声明才22个字——对,你没看错,才22个字,全部内容如下:
减轻 AI 灭绝的风险,应该与管控流行病和核战争等其他社会级规模的风险一样,成为一项全球优先事项。
尽管AI威胁论并不新鲜,但如此直白地把它和“核战争”、“大流行病”等危害全体人类的危机因素列在一起公开作比较,还是属于首次。
声明的署名部分比声明的内容长得多。
除去OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode以外,超过350名顶级AI研究人员、工程师和创业者也加入其中,包括曾经获得图灵奖的“AI三巨头”之二Geoffrey Hinton和 Yoshua Bengio,但另一位和他们一起获奖的、现任Facebook母公司Meta首席 AI 科学家的Yann LeCun尚未签名。
此外,名单里还出现了中国学者的身影,包括中国科学院的自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等。
完整签名名单,可以在这里进行查看:https://www.safe.ai/statement-on-ai-risk#open-letter
声明发布者AI安全中心的执行主任Hendrycks表示,这一份声明很简洁,特意没有提出任何减轻人工智能威胁的潜在方法,就是为了避免分歧。“我们不想推动包含30种潜在干预措施的庞大措施组合,”Hendrycks说。“当这种情况发生时,它会淡化信息。”

马斯克公开信的加强版

这封公开信可以看做是今年早些时候马斯克公开信的加强版和“清白版”。
此前,马斯克联合超过千名产业界和学术界的大佬们在“生命未来研究所(Future of Life Institute)”网站上发布联名公告。公开信中主要传达了两个方面的信息:一是警告人工智能存在对人类社会的潜在威胁,要求立刻暂停任何比GPT-4更强大的人工智能系统的训练,时间跨度至少6个月。二是呼吁整个人工智能领域以及政策制定者们,要共同设计一套全面的人工智能治理系统,对人工智能技术的发展进行监督和审查。
这封信当时在多个层面受到批评。不仅因为马斯克被爆出“不讲武德”,一边公开呼吁暂停AI研究,一边偷偷推进一个全新的AI项目,并挖走了一些Google和OpenAI的技术人才,还因为“暂停开发”的建议并不可行,而且也并不能解决问题。
比如当年跟Yoshua Bengio一起获得图灵奖,人工智能“三巨头”之一的Yann LeCun当时就明确表示他并不同意这封信的观点,也没有签名。
不过,此次这封全新的更为含糊的公开信,Yann LeCun同样没有签名。
人工智能领域的著名学者、Landing AI的创始人吴恩达当时也在LinkedIn上发文表示,认为全面暂停AI训练6个月的想法是一个糟糕、不切实际的想法。
他表示能够真正让整个行业都暂停研究AI训练的唯一办法是政府的介入,但让政府暂停他们不了解的新兴技术是反竞争的,显然也不是一个很好的解决办法。他承认负责任的AI很重要、AI确实也有风险,但一刀切的方式不可取。当前更重要的是各方要在发展AI技术的同时更多的投资于人工智能的安全领域,并且配合制定围绕透明度和审计的法规。
Sam Altman更是在接受美国国会质询的时候就直接表示,马斯克这个呼吁的框架是错误的,日期上的暂停毫无意义。“我们暂停6个月,然后呢?我们再暂停6个月?”他说。
但和吴恩达一样,Sam Altman一直也是要求政府加强对AI监管的最积极的呼吁者。
他甚至在听证会上向美国政府提出了监管建议,要求政府组建一个新的政府机构,负责为大型AI模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证。
上周,他还联合了另外几位OpenAI的高管,呼吁建立类似国际原子能机构的国际组织来监管AI,号召国际间领先的人工智能开发商展开合作。

反对者的声音

和马斯克的公开信一样,这封最新的公开信同样基于AI系统能力会迅速提高、但人类没法完全控制其安全运行的假设。
许多专家指出,大型语言模型等系统的迅速改进是可以预见的。一旦人工智能系统达到一定的复杂程度,人类就可能无法控制它们的行为。来自牛津大学的学者Toby Ord就表示,正如人们希望大烟草公司能够早一点承认他们的产品会带来严重的健康危害、并开始讨论怎么限制这些危害一样,现在AI的领袖们正在这么做。
但也有不少人人怀疑这些预测。他们指出人工智能系统甚至无法处理相对平凡的任务,例如驾驶汽车等。尽管在这一研究领域付出了多年的努力并投入了数百亿美元,但全自动驾驶汽车仍远未成为现实。怀疑论者说,如果人工智能连这一挑战都无法应对,那么在未来几年,这项技术有什么机会造成威胁?
Yann LeCun就在Twitter上表达了对这一担忧的反对,他表示,超人AI完全不在人类灭绝危机的名单前面——主要因为它现在还不存在。“在我们可以设计出狗这个级别的AI(更不用说人类级别的AI了)之前,讨论如何让它更安全完全为时过早。”
而吴恩达对于AI持有更加乐观的态度。他称他眼里会对大部分人类造成生存危机的因素,包括流行病、气候变化、小行星等,AI反而会是这些危机的关键解决办法。如果人类想要在未来1000年生存并发展,那就需要让AI更快发展,而不是更慢。
你怎么看?欢迎在评论区告诉我们。
注:封面图来自于Pexels,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。






微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
开源大模型新SOTA!支持免费商用,比LLaMA65B小但更强,基于1万亿token三大巨头联合署名!又一封“警惕AI、保卫人类”的公开信发出《神秘花园》&《Love Me Tender》时间、空间可控的视频生成走进现实,阿里大模型新作VideoComposer火了只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型美国三大半导体巨头联合告诫拜登:别对中国继续限制17岁的公开信 将我推入深渊加比案又出新资料,凶手母亲给自己的儿子一封“阅后即焚”的信件内容曝光!谷歌Bard遭自家员工差评/ 英伟达发布视频生成模型/ 波士顿动力机器狗整活…今日更多新鲜事在此谷歌新大模型明夜就发/ 菜鸟冲刺IPO/ 苹果新增Siri录屏...今日更多新鲜事在此一封公开信,暴露了淄博的套路電視劇《永恆的愛》– 台詞節譯阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl一位海外华人致马英九的公开信怎么看马斯克联名公开信?专家:人工智能已觉醒,人类还没有普通人有人给了AI“毁灭人类”的任务,让它持续自主运行找方法…它开始研究最强核武器….突发!ChatGPT之父警告 AI可能灭绝人类,350名AI权威签署联名公开信致莱德市全体市民的公开信华为盘古大模型新进展,华为云AI首席科学家7000字演讲精华聚焦气候变化 亚投行与中国国合署达成战略合作AMINO四月新鲜事:硅谷李师傅新书《投资的逻辑》热销中|喜迎又一独角兽Replit代码生成像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信家属致枣强县法院院长王爱军的公开信(转载)百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报为了一个鸭脖,江西省四大巨头部门成立联合调查组消费巨头联合利华表示通胀峰值已过 对中国消费低迷失望癸卯花见这是一封“情书”,写给那些给我的生活带来巨大改变的工具ChatGPT的过去,现在和未来——这才是今年Build上最重要的对话|大模型新鲜事(古詩詞英譯) 早梅 - (明)道源这8家AIGC公司正在“入侵”好莱坞|大模型新鲜事最新大模型排名!中文大模型评测基准SuperCLUE发布6月榜单俄勒冈州将「卖淫合法化」要集齐「黄赌毒」三大巨头!拨款10万美元专门研究利弊!朱晓彤跻身特斯拉“四巨头”/ 王慧文光年之外已开业/ 微软浏览器接入文生图…今日更多新鲜事在此
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。