Redian新闻
>
叫停GPT-4后续AI大模型!马斯克、Bengio等人发出公开信,千人响应

叫停GPT-4后续AI大模型!马斯克、Bengio等人发出公开信,千人响应

公众号新闻
机器之心报道

机器之心编辑部

呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月。

人们一直在说 ChatGPT 有风险,OpenAI CEO 也这么说,现在终于有人出手了。

在 GPT-4 诞生两周之际,一封公开信正在社交媒体发酵。

这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。因此,公开信呼吁,所有 AI 实验室应立即暂停训练比 GPT-4 更强大的 AI 模型,为期至少 6 个月。


公开信链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

截至目前,图灵奖得主 Yoshua Bengio、特斯拉 CEO(OpenAI 联合创始人)伊隆・马斯克、纽约大学名誉教授 Gary Marcus、UC 伯克利教授 Stuart Russell 等 1000 多人已经在这封公开信上签名。


不过一直抨击ChatGPT的Yann LeCun公开表示不会签署这个公开信,不同意这封公开信的内容。



以下为公开信内容:

大量研究[1]表明:具有人类水平智能的 AI 系统可能对社会和人类带来极大的风险,这一点已经得到顶级 AI 实验室[2]的认同。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。

当代人工智能系统现在在一般任务[3]上表现与人类相当,我们必须扪心自问:

  • 我们是否应该让机器用宣传(尤指福狭、误导的)和谎言充斥我们的信息渠道?
  • 我们应该自动化所有的工作,包括令人满意的工作吗?
  • 我们是否应该发展最终可能超越我们并取代我们的非人类思维?
  • 我们应该冒险失去对我们文明的控制吗?

我们不应该将此类决定交给未经选举产生的技术领导者。只有当我们确信 AI 大模型的影响是积极的并且风险是可控的时,我们才能开发强大的人工智能系统。而且,这种判断必须有充分的理由,并随着系统潜在影响的大小而跟进。OpenAI 最近关于人工智能的声明指出:「在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。」我们认为,现在已经到了这个时间点。

因此,我们呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月。这种暂停应该是公开的和可验证的,并且所有关键参与者也应该暂停相关工作。如果不能迅速实施这种暂停计划,政府机构应介入并暂停。

人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑的[4]。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。

人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。

同时,人工智能开发者必须与政策制定者合作,大幅加快强大的人工智能治理系统的开发。这些工作至少应该包括:

  • 专门针对人工智能的新的、有能力的监管机构;
  • 对高能力的人工智能系统和大型计算能力池的监督和跟踪;
  • 帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;
  • 强大的审计和认证生态系统;
  • 对人工智能造成的伤害的责任认定;
  • 对人工智能安全技术研究的强大公共资金;
  • 资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。

人类可以通过人工智能享受一个繁荣的未来。在成功创造出强大的人工智能系统之后,我们现在可以享受一个「人工智能之夏」。在这个夏天,我们收获了回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。社会已经暂停了对自身有潜在灾难性影响的其他技术[5]。我们在这个领域也可以这样做。让我们享受一个漫长的人工智能之夏,而不是在毫无准备的情况下冲进秋天(Let's enjoy a long AI summer, not rush unprepared into a fall)。

签名者:

Yoshua Bengio,蒙特利尔大学,因开发深度学习而获得图灵奖,蒙特利尔学习算法研究所负责人

Stuart Russell,加州大学伯克利分校智能系统中心创始人兼计算机科学专业教授,标准教科书《人工智能:一种现代的方法》的合著者

Elon Musk,SpaceX、Tesla 和 Twitter 的首席执行官

Gary Marcus,纽约大学,AI 研究员,名誉教授

Steve Wozniak,苹果公司联合创始人

杨安泽,2020 年美国总统候选人,纽约时报畅销书作家

Emad Mostaque,Stability AI 首席执行官

Zachary Kenton,DeepMind,高级研究科学家

……

目前,这封仅仅出现数小时的公开信在持续发酵,在国外 AI 社区已经引起了了极大的关注与讨论。因为有大佬带头,支持者甚多。当然,在看到 ChatGPT 的成功之后,也有一大批人反对这个公开信。

目前而言,谁是谁非难有定论。

机器之心的读者们,你怎么看?

公开信参考链接:

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43 (3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
微软接入GPT-4后首份成绩单!智能云、Bing、Office杀疯了比已知更可怕…马斯克等1000多科学家发公开信要叫停AI研发GPT-5别整了!马斯克Bengio等联名疾呼:所有先进AI系统暂停研发6个月GPT、BERT、XLM、GPT-2、BART…你都掌握了吗?一文总结文本生成必备经典模型(二)阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl正常人正常交流产生困惑有三种可能,一是说话者表达不清,二是言语有歧义,三是听话的人有歧解。你就是坚持“歧解”的那一类。“把实验停下来”!马斯克等千名科技人员签署公开信:呼吁暂停巨型AI实验2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载人工智能失控?马斯克带头紧急叫停AI训练,数千名科技大佬响应...下等人装聪明,中等人装实在,上等人......老海归和他的丹麦妻子煮屁话禅茶(六)雪鸟日常恐危及全人类!马斯克等1000人签署公开信:立即暂停!暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持“暂停GPT-5!”马斯克等千人联名叫停强AI研发:它太可怕了AI太强,人类危险?马斯克、图灵奖得主紧急呼吁暂停GPT-4模型后续研发立即停止训练比 GPT-4 更强的模型,至少六个月!马斯克、图灵奖得主等数千 AI 专家紧急呼吁ChatGPT 带火大模型!深度解读人工智能大模型在产业中的服务新态势为什么马斯克、图灵奖得主等千名从业者联名叫停大型AI研究?叫停GPT-5!马斯克、苹果联合创始人、图灵奖得主联名上书:至少停6个月别让GPT-4再进化!马斯克带头签署千人联名信,紧急呼吁AI实验室立即暂停研究比已知更可怕,马斯克等1000多科学家,叫停AI研发,并签署公开信危险!马斯克、赫拉利、图灵奖主联署:“暂停巨型人工智能实验至少半年”的公开信GPT-5恐被叫停!马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月GPT5 后续 AI 大模型恐被叫停!?马斯克等要求暂停GPT训练!我们采访了ChatGPT,它这么看→8点1氪:马斯克、苹果联合创始人等千名科技人士发公开信叫停人工智能开发;钟薛高推出3.5元雪糕;理想回应雷达在无人陵园显示全是人一周资讯|罗永浩淘宝直播间交易额破纪录;马斯克等千名科技人士联名喊停GPT训练;腾讯视频号将推出创作分成计划...马斯克等为何呼吁暂停GPT-5训练?AI已成中美战略竞争制高点!中国需从九方面紧急应对!先有GPT-4流出“逃跑计划”,后有行业大佬联名叫停GPT-5开发,AI带来的危机是...?未知风险太大!马斯克等1000多名大佬发公开信:立即暂停训练比GPT-4更强大的AI俄罗斯文化塑造了现代中国马斯克请愿叫停GPT-5?周鸿祎:不发展才是最大的不安全让ChatGPT调用10万+开源AI模型!HuggingFace新功能爆火:大模型可随取随用多模态AI工具
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。