人类首个“反AI联盟”四问AI风险 暂停大模型训练遭遇不同意见
关于人类和AI关系的思考,从技术诞生之初就没有停过。著名物理学家霍金曾说过:“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境。”
在 GPT-4 诞生两周之际,一封公开信正在社交媒体发酵。人工智能开发会否危及人类的“文明控制权”?AI的发展是否已来到需要按下“暂停键”的转折点?
公开信地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
呼吁:暂停大型AI研究
AI Generated Content
人工智能风口正盛,一封发布在非营利性组织“未来生命研究所”(Future of Life Institute)网站上的公开信呼吁暂停大型AI研究的公开信在硅谷科技圈流传开来,激起千层浪。
公开信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:
我们是否应该让机器用宣传和谎言淹没我们的信息渠道?
我们是否应该让所有的工作自动化,包括那些令人满意的工作?
我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
我们应该冒着失去对我们文明控制的风险吗?
公开信正在引起广泛讨论
在这个被称为人类首个“反AI联盟”的公开信签名者名单上,签名的有图灵奖得主、深度学习三巨头之一约书亚·本吉奥,埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名支持,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。
马斯克作为OpenAI的共同创始人之一,一直也毫不掩盖他对OpenAI的敌意,认为其过商业化,从开源变成了“闭源”,已经忘了非盈利和开放的“初心”。但最近也有新闻指出,马斯克之所以如此敌视OpenAI,是因为2018年争夺OpenAI经营权失败,所以撤资走人。
此外,签名人还包括苹果联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能: 一种现代方法》作者Stuart Russell、AI领军公司DeepMind的一众研究人员等。
公开信认为,高级AI可能代表地球生命史上的深刻变化,人类应以相应的关怀和资源进行规划和管理——但不幸的是,对应级别的规划和管理并没有发生。此外,最近几个月AI实验室们陷入了一场失控的竞赛(an out-of-control race),但包括这些AI系统的创造者们,都无法完全去理解、预测或者可靠地控制(reliably control)它们。
图片来源:unsplash
杞人忧天,还是未雨绸缪
AI Generated Content
从这些内容中不难看出,比起技术,公开信的支持者更在意的,是人工智能可能出现的“野蛮生长”,以及它的发展可能带来的社会和伦理难题。
图片来源:unsplash
公开信认为,“没有进行一定水平的规划和管理”,相反,在最近几个月里,未具名的“AI 实验室”一直在“陷入无法控制的竞赛中,不断开发和部署越来越强大的数字智能,甚至连它们的创造者都无法理解、预测或可靠地控制。”这些决定不应该委托给未经选举的技术领袖。强大的 AI 系统只有在我们有信心它们的影响将是积极的,风险可控时才应该开发。
此番暂停并不意味着从总体上暂停人工智能的开发,而是从危险竞赛中“后退一步”。人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统变得更加准确、安全、可解释、透明、稳健、一致、可信且可靠。
不仅仅是行业专家,这封信在网咯上也引起热烈讨论,有网友表示认同,人们需要知道发生了什么,“仅仅因为我们知道可以建造它,并不意味着应该建造”。
图片来源:unsplash
如今,从通过资格考试,到进行艺术“创作”,AI能做的事越来越多,朝着“智能”的方向越走越远。但同时,利用AI技术进行网络诈骗勒索、传播非法信息等犯罪行为也层出不穷。
不同于物理世界技术创新成果转化的漫长周期,AI技术突破往往会通过互联网一夜之间散播全球。在人类未能就AI伦理、监管等找到妥善解决之道前,这些讨论和担忧并不多余。
纽约大学心理学和神经科学教授加里・马库斯说:“这封信并不完美,但其精神是正确的。”同时,Stability AI 首席执行官穆斯塔克在推特上表示,OpenAI 是一家真正“开放”的 AI 公司,“所以,我不认为暂停训练六个月时间是最好的主意,也不同意信中的很多观点,但这封信中有些地方的确很有趣。”
图片来源:unsplash
该公开信背后的组织者之一泰格马克表示,AI的进展已超过许多专家几年前认为可能达到的程度。他说,“这就像是一场自杀式竞赛,谁先到并不重要,重要的是整个人类有可能会失去对自己命运的控制。”泰格马克表示,6个月的暂停开发将让整个行业获得“喘息之机”,那些选择谨慎行动的公司并不会处于劣势。
汽车畅行马路五十年后,安全带才被发明出来;杀虫剂面世近百年后,人类才怀疑其破坏环境……对于一种前所未见的新科技,思考、探索、提出质疑,才能辩证性地看清一种新事物。
由ChatGPT引发的人工智能话题正在从科技和经济学问题演变成伦理和哲学命题。
AI是否已成为脱缰之马
AI Generated Content
人类对人工智能的担忧由来已久,清华大学梅汝璈法学讲席教授冯象早在2019年就发表过文章《人工智能让我们害怕什么》。他认为,从人机关系的视角看,主要包括两项巨大的挑战,一是机器替换人类,导致失业浪潮;二是人工智能的军事化。用美国科幻文学的口号来说,“未来已经来到”。
那么,身在其中的微软创始人比尔·盖茨是如何看待人工智能带来的负面影响的呢?公开报道中,比尔·盖茨将人工智能与芯片、个人电脑、互联网和手机相提并论,认为它将重新定义人类的学习、生产、生活和交流等。他认为,未来对企业的划分标准将通过一家公司如何使用GPT来进行制定。对于人工智能引发的担忧,比尔·盖茨认为,不安是社会对颠覆性新技术出现的本能反应。正因为人工智能模拟人类的思维和行事模式,因此产生的尖锐问题也必将很多。
图片来源:unsplash
尽管已有1000多人在公开信上签字,但诸多业内人士提出不同意见。Meta副总裁兼首席AI科学家勒邱恩表示,因为不认同这封信的前提条件,他没有在这封信上签名。而Stability AI首席执行官莫斯塔克则发推文称,虽然自己已在信上签名,但他不赞同暂停开发6个月的提议。同时,据美国CNBC网站29日报道,谷歌也并未受到这封公开信的影响,其正在重组虚拟助手部门,以更加专注于开发人工智能聊天技术Bard。
AI 初创公司 Hugging Face 的研究科学家萨莎・卢西奥尼在接受采访时表示:“公开信在本质上是一种误导:让每个人都注意到大型语言模型被臆想的力量和危害,并提出非常模糊、几乎无效的解决方案,而不是在此时此刻关注这些危害并解决它们。例如,在涉及 LLM 的培训数据和能力时要求更多的透明度,或者要求立法规定在哪里和何时可以使用它们。”
科大讯飞股份有限公司高级副总裁杜兰30日在博鳌亚洲论坛2023年年会上表示,尽管马斯克等知名科技人士签署人工智能“暂停信”给人们带来了新的思考,但暂停AI训练是非常困难的。“AI的快速发展的确会带来失业、隐私侵犯等问题,但它更多的是提升人们的效率、医疗、改善环境等。坦率地说,想要暂停是很难的,因为不同国家、不同公司、不同实验室都会竞争领先位置,因此全球范围内的协调和执行会面临一些挑战。”
图片来源:unsplash
此次通过公开信对AI领域进行干预正值世界各国政府竞相制定相关政策应对迅速发展的AI领域之际。据英国《金融时报》报道,英国政府本周三发布一份白皮书,要求现有监管机构制定在相应行业中使用AI的统一规则。此外,欧盟也在准备自己的法案,以规范欧洲如何使用人工智能。
当我们把这个问题抛回给风暴中心的ChatGPT时,它又会如何作答?
OpenAI网站截图
GPT-4认为,虽然这段时间可以让政策制定者、研究人员和社会讨论开始关注AI安全和伦理问题,但要完全解决这些问题并制定全面的规范和监管措施可能需要更长时间。然而,6个月的暂停确实可以作为一个良好的起点,引发关注并推动相关方面加快行动。
它的回答似乎与公开信最后的呼吁不谋而合:如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天”。
资料来源:每日经济新闻、正观新闻、中国新闻网、IT之家、北京青年报、观察者网
❖ END ❖
往期推荐
金融地产圈再度“地震” | 巨头黑石集团暴雷违约,商业地产危机蔓延
阿里巴巴迎来24年最大变革!张勇:“不拥抱变化就会变得僵化,市场是最好的试金石。”
微信扫码关注该文公众号作者