Redian新闻
>
“危险!立刻停下所有GPT研究!”马斯克领衔,1000多名硅谷企业家科学家联名呼吁

“危险!立刻停下所有GPT研究!”马斯克领衔,1000多名硅谷企业家科学家联名呼吁

公众号新闻
中华之声

家事、国事、天下事


........................................

当全社会都在为AI的进化而欢呼雀跃,全新的、意想不到的风险可能也正在悄悄酝酿。

........................................

3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。加微信amz986,看更多内幕好文! 

........................................

该机构在信中提到:

我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。

........................................

人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。

截止目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。

........................................


值得一提的是,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

那么ChatGPT是如何看待公开信中AI对人类社会的影响?华尔街见闻专门询问了ChatGPT 3.5,其表示随着人工智能技术的不断发展和普及,人工智能可能对社会和人类造成的影响将越来越大。这封公开信提出的呼吁和建议,应该被视为引起更广泛和深入讨论的起点和参考,而不是一个终点或解决方案。



以下是公开信原文:


正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。


现在,人工智能在一般任务上变得与人类有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。


因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。


人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统是安全的。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。


人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。


同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。加微信amz986,看更多内幕好文! 


人类可以通过人工智能享受繁荣的未来。现在,我们成功地创建了强大的人工智能系统,可以在这个“人工智能之夏”中获得回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。停止使用其他技术可能会对社会造成灾难性影响,因此我们必须保持准备状态。让我们享受一个漫长的人工智能夏天,而不是匆忙进入秋天。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
超1.8万人签名呼吁暂停ChatGPT,专家警告AI自我迭代更可怕;多国央行加息“踩刹车”;“北溪爆炸案”现新线索|一周国际财经周末随笔“请立刻停止自我PUA,放过自己提升自信!”告别病态内耗「8天正念减压营」最后一天招募——微软build 大会!ChatGPT重磅植入Windows!没有GPT的操作系统都老了?为什么所有GPT-3复现都失败了?使用ChatGPT你应该知道这些“请立刻停止自我PUA,放过自己提升自信!”告别病态内耗「8天正念减压营」最后席位——未知风险太大!马斯克等1000多名大佬发公开信:立即暂停训练比GPT-4更强大的AI“把实验停下来”!马斯克等千名科技人员签署公开信:呼吁暂停巨型AI实验危险!危险!危险!龙卷风肆虐后 动物园2只老虎不见了!“AI可能杀死人类!” 1000多名硅谷企业家科学家联名呼吁暂停大型AI研究“心机boy”马斯克:明面上呼吁暂停先进AI研发,背地里悄悄买1万块GPU推进大模型项目别让GPT-4再进化!马斯克带头签署千人联名信,紧急呼吁AI实验室立即暂停研究“暂停GPT-5!”马斯克等千人联名叫停强AI研发:它太可怕了马斯克签署千人联名信:GPT-4 太危险,所有 AI 实验室必须立即暂停研究!红豆年糕2015千人计划变2023千屏突破了ChatGPT研究框架(80页PPT)先有GPT-4流出“逃跑计划”,后有行业大佬联名叫停GPT-5开发,AI带来的危机是...?危险!立即暂停!马斯克等超千人紧急呼吁AI可能「毁灭人类」马斯克&1000名专家呼吁:暂停训练比GPT-4更强大的AI系统!骗子正在用假ChatGPT盗取信息!生活在佛州,你得学好西班牙语德知名人士联名呼吁:“与俄罗斯一起创造和平”危险!立刻停下所有大型AI研究!马斯克等千名企业家科学家紧急呼吁!市民注意!紧急提醒!危险!危险!!危险!!!ChatGPT研究框架(80页PPT 附下载)“危险!立刻停下所有大型AI研究!”马斯克领衔,1000多名硅谷企业家科学家联名呼吁“危险!立刻停下所有大型AI研究!”马斯克、图灵奖得主领衔,上千名硅谷企业家科学家联名呼吁曹德旺等25名科学家企业家联署呼吁"ChatGPT之父"语出惊人! AI恐杀死人类!马斯克怕了: 暂停研究!不要作死!效仿爱因斯坦末日警告信,千名科学家联名呼吁停止AI训练和研究最新!ChatGPT研究框架(80页PPT)知名硅谷黑客当街被刺身亡!年仅43岁,马斯克都怒了突然出手!意大利封杀ChatGPT!马斯克也下场呼吁限制ChatGPT!AI发展可能超越人类思维?小马宋领衔,3场直播,带你聊透企业营销新思路卡麦尔的警察和二手店
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。