Redian新闻
>
危险!立即暂停!马斯克等超千人紧急呼吁

危险!立即暂停!马斯克等超千人紧急呼吁

公众号新闻


中国基金报 泰勒


科技圈出大事了,近日,包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名人工智能专家和行业高管签署了一份公开信,他们呼吁将AI系统的训练暂停六个月,理由是对社会和人性存在潜在风险。

马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月

事情是这样的,29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

截至发稿,这封信已有1126名科技领袖和研究人员签名,除了马斯克、辛顿和马库斯之外,还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、 苹果公司联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官埃马德·莫斯塔克等科技界领袖人物。

公开信内容是这样的:

具有人类竞争力智能的AI系统可能会对社会和人类造成深刻的风险,这一点已经被广泛研究并得到了顶级AI实验室的认可。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。

当代人工智能系统现在在一般任务上表现与人类相当,我们必须扪心自问:

我们是否应该让机器用宣传和虚假信息充斥我们的信息渠道?

我们是否应该自动化所有的工作,包括那些富有成就感的工作?

我们是否应该开发非人类的思维,可能最终会超过我们、智胜我们、使我们过时并取代我们?

我们是否应该冒险失去对我们文明的控制?

这些决策不能委托给未经选举的技术领袖。强大的AI系统只有在我们确信其影响将是积极的、风险可控的情况下才应该开发。这种信心必须有充分的理由,并随着系统潜在影响的程度增加而增强。OpenAI 最近关于人工智能的声明指出:「在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。」我们认为,现在已经到了这个时间点。

因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。这种暂停应该是公开和可验证的,并包括所有关键人员。如果无法快速实施这样的暂停,政府应该介入并实行叫停。

AI实验室和独立专家应该利用这个暂停时间共同开发并实施一套共享的高级AI设计和开发安全协议,这些协议应该由独立的外部专家进行严格审核和监督,这些协议应确保遵守它们的系统是安全的,无可置疑的。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。

人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。

同时,AI开发人员必须与决策制定者合作,大力加速强大的AI治理系统的发展。这些治理系统至少应该包括:

专门针对AI的新型和有能力的监管机构;

对高能力的AI系统和大量计算能力的监督和跟踪;

帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;

一个强大的审计和认证生态系统;

对由AI引起的损害的责任;

针对技术AI安全研究的强大公共资金;

资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。

人类可以在AI的帮助下享受繁荣的未来。我们已经成功地创建了强大的AI系统,现在可以享受“人工智能之夏”,在这个夏天,我们收获了回报,为所有人明确的利益设计这些系统,并给社会一个适应的机会。社会已经暂停了其他可能对社会产生灾难性影响的技术的发展。我们在人工智能领域也能这么做。让我们享受一个漫长的AI夏季,而不是匆忙而不准备地迎接秋天的到来。(Let's enjoy a long AI summer, not rush unprepared into a fall)。

GPT-4老板:AI可能会杀死人类,已经出现我们无法解释的推理能力

值得一提的是,OpenAI CEO奥特曼Altman在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

在此次采访中,Altman提出了一点关于GPT的新颖之处,即推理能力。“这个模型的神奇之处在于…对于很多它都不准确的定义,它可以进行某种推理。”

Altman指出,“我认为这很了不起,最令人兴奋的是,在提取人类知识的过程中,它产生了这种推理能力。”

Altman谈及了近期围绕ChatGPT产生的诸多问题,坦承就连OpenAI团队,也根本没搞懂它是如何“进化”的:
从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。

唯一的途径是向ChatGPT提问,从它的回答中摸索它的思路。

Altman称不会回避“人工智能可能杀死全人类”的说法。Yudkowsky此前指出“人工智能可能杀死所有人”。对于此,Altman回应道,“我认为有这种可能性,并且承认这一点很重要,因为如果我们不谈论它、不把它视为潜在的事实,那么我们就不会投入足够的努力去解决这个问题。” “我认为我们必须开发新的技术来解决这个问题…我所知道的解决这类问题的唯一方法就是不断迭代,尽早学习。”

环境更优!这类资金,迎利好!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
机器人取代人以后的一天。。AI太强,人类危险?马斯克、图灵奖得主紧急呼吁暂停GPT-4模型后续研发市民注意!紧急提醒!危险!危险!!危险!!!别让GPT-4再进化!马斯克带头呼吁AI实验室立即暂停研究我国短视频用户规模达10.12亿;货拉拉向港交所提交上市申请;马斯克等千名科技人士呼吁暂停更强AI开发……“把实验停下来”!马斯克等千名科技人员签署公开信:呼吁暂停巨型AI实验未知风险太大!马斯克等1000多名大佬发公开信:立即暂停训练比GPT-4更强大的AI法国巴黎,卢浮宫藏品窥探《满江红》与岳飞立刻暂停!马斯克等上千名科学家紧急发声,什么情况?A股最火赛道跳水马斯克等千名科技大佬呼吁,叫停超强AI研发6个月,是“求饶”还是对手的缓兵之计?恐危及全人类!马斯克等1000人签署公开信:立即暂停!马斯克等要求暂停GPT训练!我们采访了ChatGPT,它这么看→1死+5人永久失明!立即停用这眼药水!北美几十人紧急住院!别让GPT-4再进化!马斯克带头签署千人联名信,紧急呼吁AI实验室立即暂停研究八卦一下,听说立“危险!立刻停下所有GPT研究!”马斯克领衔,1000多名硅谷企业家科学家联名呼吁危险!马斯克、赫拉利、图灵奖主联署:“暂停巨型人工智能实验至少半年”的公开信硬核观察 #955 马斯克等人呼吁暂停训练更强大的 AI“危险!立刻停下所有大型AI研究!”马斯克、图灵奖得主领衔,上千名硅谷企业家科学家联名呼吁GPT-5恐被叫停!马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月马斯克等为何呼吁暂停GPT-5训练?AI已成中美战略竞争制高点!中国需从九方面紧急应对!环保局宣布立即暂停从俄亥俄州向休斯顿运送有毒废物“救救人类”!马斯克等千人联名反对AI实验!立即暂停训练更强大的AI!马斯克等超2300人签署联名信,科技大佬在担心什么;74页起诉书起底赵长鹏在美往事 |一周国际财经马斯克签署千人联名信:GPT-4 太危险,所有 AI 实验室必须立即暂停研究!“危险!立刻停下所有大型AI研究!”马斯克领衔,1000多名硅谷企业家科学家联名呼吁危险!危险!危险!龙卷风肆虐后 动物园2只老虎不见了!马斯克等千名大佬联名疾呼暂停先进AI训练,周鸿祎:不发展才是最大的不安全中灾协紧急呼吁:立即取消或中止行动计划!马斯克等人呼吁暂停AI研发;专家称60岁退休反而是浪费;茅台推出酒瓶装冰淇淋;理想回应雷达在陵园内显示人影...“暂停GPT-5!”马斯克等千人联名叫停强AI研发:它太可怕了国家预算花费的方向危险!立刻停下所有大型AI研究!马斯克等千名企业家科学家紧急呼吁!立即停止训练比 GPT-4 更强的模型,至少六个月!马斯克、图灵奖得主等数千 AI 专家紧急呼吁
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。