Redian新闻
>
人类首个“反AI联盟”四问AI风险 暂停大模型训练遭遇不同意见

人类首个“反AI联盟”四问AI风险 暂停大模型训练遭遇不同意见

公众号新闻

关于人类和AI关系的思考,从技术诞生之初就没有停过。著名物理学家霍金曾说过:“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境。”


在 GPT-4 诞生两周之际,一封公开信正在社交媒体发酵。人工智能开发会否危及人类的“文明控制权”?AI的发展是否已来到需要按下“暂停键”的转折点?

公开信地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/



呼吁:暂停大型AI研究

AI Generated Content


人工智能风口正盛,一封发布在非营利性组织“未来生命研究所”(Future of Life Institute)网站上的公开信呼吁暂停大型AI研究的公开信在硅谷科技圈流传开来,激起千层浪。


公开信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:


我们是否应该让机器用宣传和谎言淹没我们的信息渠道?


我们是否应该让所有的工作自动化,包括那些令人满意的工作?


我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?


我们应该冒着失去对我们文明控制的风险吗?


公开信正在引起广泛讨论


在这个被称为人类首个“反AI联盟”的公开信签名者名单上,签名的有图灵奖得主、深度学习三巨头之一约书亚·本吉奥埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名支持,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。


马斯克作为OpenAI的共同创始人之一,一直也毫不掩盖他对OpenAI的敌意,认为其过商业化,从开源变成了“闭源”,已经忘了非盈利和开放的“初心”。但最近也有新闻指出,马斯克之所以如此敌视OpenAI,是因为2018年争夺OpenAI经营权失败,所以撤资走人。


此外,签名人还包括苹果联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能: 一种现代方法》作者Stuart Russell、AI领军公司DeepMind的一众研究人员等。


公开信认为,高级AI可能代表地球生命史上的深刻变化,人类应以相应的关怀和资源进行规划和管理——但不幸的是,对应级别的规划和管理并没有发生。此外,最近几个月AI实验室们陷入了一场失控的竞赛(an out-of-control race),但包括这些AI系统的创造者们,都无法完全去理解、预测或者可靠地控制(reliably control)它们。


图片来源:unsplash



杞人忧天,还是未雨绸缪

AI Generated Content


从这些内容中不难看出,比起技术,公开信的支持者更在意的,是人工智能可能出现的“野蛮生长”,以及它的发展可能带来的社会伦理难题


图片来源:unsplash


公开信认为,“没有进行一定水平的规划和管理”,相反,在最近几个月里,未具名的“AI 实验室”一直在“陷入无法控制的竞赛中,不断开发和部署越来越强大的数字智能,甚至连它们的创造者都无法理解、预测或可靠地控制。”这些决定不应该委托给未经选举的技术领袖。强大的 AI 系统只有在我们有信心它们的影响将是积极的,风险可控时才应该开发。


此番暂停并不意味着从总体上暂停人工智能的开发,而是从危险竞赛中“后退一步”。人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统变得更加准确、安全、可解释、透明、稳健、一致、可信且可靠。


不仅仅是行业专家,这封信在网咯上也引起热烈讨论,有网友表示认同,人们需要知道发生了什么,“仅仅因为我们知道可以建造它,并不意味着应该建造”。


图片来源:unsplash


如今,从通过资格考试,到进行艺术“创作”,AI能做的事越来越多,朝着“智能”的方向越走越远。但同时,利用AI技术进行网络诈骗勒索、传播非法信息等犯罪行为也层出不穷。


不同于物理世界技术创新成果转化的漫长周期,AI技术突破往往会通过互联网一夜之间散播全球。在人类未能就AI伦理、监管等找到妥善解决之道前,这些讨论和担忧并不多余。


纽约大学心理学和神经科学教授加里・马库斯说:“这封信并不完美,但其精神是正确的。”同时,Stability AI 首席执行官穆斯塔克在推特上表示,OpenAI 是一家真正“开放”的 AI 公司,“所以,我不认为暂停训练六个月时间是最好的主意,也不同意信中的很多观点,但这封信中有些地方的确很有趣。”


图片来源:unsplash


该公开信背后的组织者之一泰格马克表示,AI的进展已超过许多专家几年前认为可能达到的程度。他说,“这就像是一场自杀式竞赛,谁先到并不重要,重要的是整个人类有可能会失去对自己命运的控制。”泰格马克表示,6个月的暂停开发将让整个行业获得“喘息之机”,那些选择谨慎行动的公司并不会处于劣势。


汽车畅行马路五十年后,安全带才被发明出来;杀虫剂面世近百年后,人类才怀疑其破坏环境……对于一种前所未见的新科技,思考、探索、提出质疑,才能辩证性地看清一种新事物。


由ChatGPT引发的人工智能话题正在从科技和经济学问题演变成伦理和哲学命题。



AI是否已成为脱缰之马 

AI Generated Content



人类对人工智能的担忧由来已久,清华大学梅汝璈法学讲席教授冯象早在2019年就发表过文章《人工智能让我们害怕什么》。他认为,从人机关系的视角看,主要包括两项巨大的挑战,一是机器替换人类,导致失业浪潮;二是人工智能的军事化。用美国科幻文学的口号来说,“未来已经来到”。


那么,身在其中的微软创始人比尔·盖茨是如何看待人工智能带来的负面影响的呢?公开报道中,比尔·盖茨将人工智能与芯片、个人电脑、互联网和手机相提并论,认为它将重新定义人类的学习、生产、生活和交流等。他认为,未来对企业的划分标准将通过一家公司如何使用GPT来进行制定。对于人工智能引发的担忧,比尔·盖茨认为,不安是社会对颠覆性新技术出现的本能反应。正因为人工智能模拟人类的思维和行事模式,因此产生的尖锐问题也必将很多。


图片来源:unsplash


尽管已有1000多人在公开信上签字,但诸多业内人士提出不同意见。Meta副总裁兼首席AI科学家勒邱恩表示,因为不认同这封信的前提条件,他没有在这封信上签名。而Stability AI首席执行官莫斯塔克则发推文称,虽然自己已在信上签名,但他不赞同暂停开发6个月的提议。同时,据美国CNBC网站29日报道,谷歌也并未受到这封公开信的影响,其正在重组虚拟助手部门,以更加专注于开发人工智能聊天技术Bard。


AI 初创公司 Hugging Face 的研究科学家萨莎・卢西奥尼在接受采访时表示:“公开信在本质上是一种误导:让每个人都注意到大型语言模型被臆想的力量和危害,并提出非常模糊、几乎无效的解决方案,而不是在此时此刻关注这些危害并解决它们。例如,在涉及 LLM 的培训数据和能力时要求更多的透明度,或者要求立法规定在哪里和何时可以使用它们。”


科大讯飞股份有限公司高级副总裁杜兰30日在博鳌亚洲论坛2023年年会上表示,尽管马斯克等知名科技人士签署人工智能“暂停信”给人们带来了新的思考,但暂停AI训练是非常困难的。“AI的快速发展的确会带来失业、隐私侵犯等问题,但它更多的是提升人们的效率、医疗、改善环境等。坦率地说,想要暂停是很难的,因为不同国家、不同公司、不同实验室都会竞争领先位置,因此全球范围内的协调和执行会面临一些挑战。”


图片来源:unsplash


此次通过公开信对AI领域进行干预正值世界各国政府竞相制定相关政策应对迅速发展的AI领域之际。据英国《金融时报》报道,英国政府本周三发布一份白皮书,要求现有监管机构制定在相应行业中使用AI的统一规则。此外,欧盟也在准备自己的法案,以规范欧洲如何使用人工智能。


当我们把这个问题抛回给风暴中心的ChatGPT时,它又会如何作答?


OpenAI网站截图


GPT-4认为,虽然这段时间可以让政策制定者、研究人员和社会讨论开始关注AI安全和伦理问题,但要完全解决这些问题并制定全面的规范和监管措施可能需要更长时间。然而,6个月的暂停确实可以作为一个良好的起点,引发关注并推动相关方面加快行动。


它的回答似乎与公开信最后的呼吁不谋而合:如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天”



资料来源:每日经济新闻、正观新闻、中国新闻网、IT之家、北京青年报、观察者网

❖ END ❖


 往期推荐 


金融地产圈再度“地震” | 巨头黑石集团暴雷违约,商业地产危机蔓延


阿里巴巴迎来24年最大变革!张勇:“不拥抱变化就会变得僵化,市场是最好的试金石。”


ChatGPT人工智能绘画飞速发展的背景下,艺术与设计的“感知力”将变得更加重要

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大模型训练一次200-1200万美元!ChatGPT多烧钱?每日原则:一旦做出决定,任何人都必须服从,即便个人可能仍有不同意见“AI可能杀死人类!” 1000多名硅谷企业家科学家联名呼吁暂停大型AI研究日本励志剧ㄍ四重奏》2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载谷歌砸了4亿刀的Anthrophic:AI模型训练计算量5年增加1000倍!第四范式开源强化学习研究通用框架,支持单智能体、多智能体训练,还可训练自然语言任务!训练速度提升17%阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-OwlSHEIN 或在美面临被关闭风险;华为 4 月发布盘古大模型;微软禁止竞对用 Bing 训练 AI | 极客早知道可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了面向大模型训练,腾讯发布高性能计算集群:整体性能提升3倍布碌仑车祸殒命华妇出殡 家属遭遇不少程序困难人类首次被聊天机器人杀死?人工智能的伦理边界在哪里?局部晚期直肠癌分不同危险程度,预后不同治疗方式也不同!马克龙和冯徳莱恩在中国的待遇不同为什么马斯克、图灵奖得主等千名从业者联名叫停大型AI研究?Meta连甩AI加速大招!首推AI推理芯片,AI超算专供大模型训练CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型机器学习与因子模型实证:怎么进行模型训练?人类首次商业登月失败:日本公司ispace的登月舱于着陆前一刻失联,或已坠毁突发校园血案!女枪手扫射教室,孩子凄厉哭喊,刚上学就成遭遇不幸…世界经济或迎失落十年,硅谷大佬欲喊停大型AI研究 | 财经日日评克罗地亚首都萨格勒布(Zagreb),教堂游览“我不同意向黑奴后裔赔偿500万美元!”黑人领袖在关键提出反对意见字节参战!火山引擎推出大模型训练云平台,自研DPU实例性能提升3倍黑马AIGC峰会在京举行;中国首个科创大模型“黑马天启”问世;“黑马AIGC产业服务联盟”成立;“黑马AIGC产业营”正式启动小心致命菌!加州一母亲敦促公众避开混浊水塘 其儿已遭遇不幸有哪些省内存的大语言模型训练/微调/推理方法?副省长遭殴记谷歌Bard首秀翻车,所以到底是谁拍摄了人类首张系外行星照片?柴米油盐的生活:谈谈鸡蛋Gelsenkirchen(4):一家美味餐馆ChatGPT背后大模型如何高效训练?京东探索研究院、悉大、中科大60页论文详述五大类训练方法ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构微软开源“傻瓜式”类ChatGPT模型训练工具,提速省钱15倍
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。