Redian新闻
>
AI可能灭绝人类!350位大佬联名警告!但对普通人来说更紧迫的是什么?

AI可能灭绝人类!350位大佬联名警告!但对普通人来说更紧迫的是什么?

科技

 点击订阅,抓住风口

你好,我是王煜全,这里是王煜全要闻评论。

最近,生成式AI的影响力不断扩大,不仅拉动NVIDIA市值突破万亿美元,还在不断孕育新的独角兽,然而,一股阴郁的乌云也正在酝酿,来自人工智能领域的公开信试图为人们敲响警钟。

5月30日,超过350名人工智能行业的高管、研究人员和工程师联合在非营利组织“人工智能安全中心”(Center for AI Safety)发布的一份公开信上署名,公开信内容只有一句话:降低人工智能灭绝人类的风险,应该把它与大流行病、核战争等社会风险一样,当做全球的优先关注事项。

这350人中很多都是AI领域的权威人士,比如OpenAI的CEO Sam Altman、谷歌DeepMind的CEO Demis Hassabis,人工智能“教父”Geoffrey Hinton,Anthropic的CEO Dario Amodei等等。

其实,在3月份,马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等人就发表联名公开信,呼吁暂停训练比GPT-4更强大的AI,而Sam Altman也曾呼吁建立类似于国际原子能机构一样的组织来加强国际监管。

不过,这次的用词比以前更加惊悚,可能是想提醒人们,AI也许对人类的生存繁衍构成威胁。

从本质上说,AI与很多新技术一样是一把双刃剑,他们联合署名的出发点也有一定的公益性质,但事情也许并不是这么简单。

首先,并不是所有AI权威都参与了署名,比如吴恩达发推回应称:AI是人类应对流行病、气候变化、小行星等很多风险的关键技术,所以应该让它发展得更快而不是更慢。

虽然AI已经在很多领域取得了显著的进展,但离真正意义上的强人工智能,即在所有人类智能任务上都能匹敌或超越人类,还有很长的路要走,因此,我们可能需要对AI的能力有一个更现实的认识,不应过分夸大其可能带来的风险。

实际上,AI与核武器之间有很大区别,核武器的风险是具有很强的破坏性,而AI的主要风险是可能带来的社会变革,如失业、隐私侵犯、虚假信息等等,AI的这些影响是持久并且广泛的,而且在很大程度上取决于人们如何使用AI而不是AI本身。

并且,每隔一段时间就出现一次倡议,已经引起了一些人的抵触,有人就说:“搞出来的是你们,不让搞的也是你们,别闹了!”

看似矛盾的表象之下,可能有一些隐藏的动机,AI的颠覆能力可能会淘汰一些旧的巨头,孕育一些新的赢家,但有潜力成为新赢家的人就可能考虑建立新的竞争门槛。

比如,AI领域的领先者可能会支持更严格的监管,以便保持自己的竞争优势,因为他们已经有了应对这些监管所要求的资源和基础设施。

而对于新进入者或小型公司,这样的监管壁垒可能会阻碍他们发展,因为他们可能没有足够的资源来应对复杂的监管要求。

我们在科技特训营里讲过,如果在人工智能领域占据先发优势,就可能形成马太效应,再叠加算法更新和模型训练,就会进一步放大马太效应,而如果在此基础上再附加行业准入门槛,先发者的地位可能就更加稳固。

这就是为什么我们强调现在是“AI的线膛枪革命”时期,线膛枪替代滑膛枪的窗口期是有限的,这次生成式AI变革留给我们的窗口期可能很短暂,因为先行者会不断构筑自己的技术壁垒、规模壁垒和规则壁垒,越到后面就越难进入。

其实,与风险相比,AI创新才是真正的核心,因为AI最大的价值在于具有复制人类专家经验的潜力,能让以前只有少数人可以享受的专家级服务,变成大部分人都能享受的个性化高端服务,也就是我们一直倡导的服务规模化。

而要实现服务规模化,不仅仅需要大模型平台创新,更需要各行各业、大大小小的企业参与应用创新,这样才能真正实现AI的普惠化,让社会大众都可以享受到它带来的便利与实惠。

这就意味着,虽然AI行业监管是大势所趋,但重点是如何避免让监管沦为设定门槛和不当竞争的武器。

所以,重要的不是几句倡议,而是建立一个透明、公正的AI监管制度,而在这一问题上,不能只听某些利益相关方的一面之词,应该更广泛地听取各方的观点。找到一个既能鼓励AI创新,又能有效防止AI风险的解决方案。

当然,既得利益者也许会根据自己的需求制定不同的游戏规则,但是对于想要参与AI创新的创业者和普通人来说,需要的是对产业动态有冷静的思考,对底层逻辑有清醒的认知,快速行动,抓住新的机遇,而这正是我们创新地图一直以来致力于帮助大家解决的问题。

在创新地图成立7周年之际,我们为大家准备了回馈礼包,现在购买科技特训营会员,就可以获赠3个月的学时,还可以获得我的签名版新书,更可以率先体验【AI王煜全】,欢迎扫描海报中的二维码报名加入。

以上是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球风口微信号,报名加入!

王煜全要闻评论,我们下周见!


我们还整理了一份“生成式AI领域独角兽清单,辛苦你点下“赞”和“在看”,点击顶部的“进入公众号”,在对话框里发送“AI”二字,你就会获得这份清单。
清单每天更新,所以请跟上全球风口的节奏;如果想要所有行业清单,扫码加入科技特训营,分分钟尽在掌握!

【科技特训营】全新的会员订阅制线上书院模式,全年50次“在线直播课程+私享群互动”,你随时可以加入、我持续保持更新!一起互动,伴随成长!让我们为未来五年做好准备,一起探讨把握机遇,决胜未来!

【回放地址】
长按图片识别二维码报名加入,可观看所有直播和回放。

1. 前哨科技特训营直播课程第四季(2023年)共50讲+,除此之外还有5节加餐+公开课。
2. 每讲承诺为1小时视频内容,实际平均时长为2小时。
3. 每周四晚八点准时直播,会员可无限次观看回放。
4. 新入会员,可以无限次回看之前所有视频课程。
5. 成为会员即可使用【AI王煜全】,最新AI大模型开发的专属科技分析助手
6. 每周组织【前哨·创新启发局】,链接科技/产业一线人士,打开技术/应用前沿视野
7. 优先获取全球科技产业一线游学、访问机会,接触科技/产业专家,获取最新、最前沿的趋势洞察,人脉链接
8. 本课程为虚拟内容服务,年费订阅服务制。一经订阅概不退款,线下活动需另行支付差旅成本,请您理解。

课程咨询】
请加“创新地图助手”:
微信:innovationmapSM

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
辽宁龙卷风、​新西兰坐飞机称体重、人工智能可能灭绝人类等丨今日天下張豐毅/抗戰軍神/《中国远征军》《长沙保卫战》“ChatGPT之父”警告AI可能灭绝人类;英伟达发布新型AI芯片GH200|AIGC周观察第四期突发!ChatGPT之父警告 AI可能灭绝人类,350名AI权威签署联名公开信修行从否定自己开始张丰毅2015年《远征!远征!》(原名:国家记忆) 段仲仪, 2011年拍攝《人类灭绝》:将灭绝我们的,不是灾难,而是我们自己的残忍350名专家警告:人工智能可能灭绝人类!350余位专家高管联名:AI堪比核战,灭绝人类大佬联名给ChatGPT踩刹车,AI到了失控边缘?!网暴:对普通人的致命一击350位大佬警告,AI可能灭绝人类!AI教父从谷歌离职!并强调AI有风险!但更重要的是什么?巨头、专家发联名信:降低 AI 灭绝人类风险;Kindle 本月关闭电子书店;刘慈欣:科幻作家未来被 AI 替代 | 极客早知道又来:Hinton、Bengio等300余大佬、名人联名警告AI灭世风险惊爆! 拜登警告: 经济大萧条要来! 美国商界150位大咖急了,罕见祭“最严厉”警告警惕AI灭绝人类!OpenAI CEO等350位专业人士签署声明​;大脑的核桃状结构决定了我们的思考和感觉 | 环球科学要闻漫游大华府(10)华盛顿故居字少事大!OpenAI 创始人等超350名大牛再签联名信,一句话声明简短有力:AI或引发灭绝风险对普通人来说,生活最好不要轰轰烈烈AI孙燕姿火了!播放量100万+!但值得警惕的是什么?智能周报|英伟达市值破万亿,圈内顶流权威联名警告AI风险或灭绝人类?人工智能先驱警告AI将以6种方式伤害人类比沙尘暴更紧迫的“社会问题”,都在这里“澳洲有大麻烦了!”住房危机持续恶化,但对中国留学生来说,却迎来难得的好消息!艾博年也发话了...ChatGPT老板警告:AI可能灭绝人类花木兰 杜甫与卖炭翁 茅屋塌了(写于富士康抓壮丁期间)先有GPT-4流出“逃跑计划”,后有行业大佬联名叫停GPT-5开发,AI带来的危机是...?04月06日:普通人和富人的区别是什么?像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调AI会不会灭绝人类?耶鲁CEO峰会调查发现...中国全面实现不动产统一登记,对普通人意味着什么经济学家警告:澳洲经济衰退可能性高达50%!普通人最凄惨在新加坡,比住房更紧张的是电力供应
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。