Redian新闻
>
人工智能教父Hinton再次警告:AI可能会接管人类!

人工智能教父Hinton再次警告:AI可能会接管人类!

公众号新闻
【导读】最近,Hinton在采访中谈论了人工智能存在的各种安全隐患,担忧人类将会被其接管。
10月9日,Hinton面对《60分钟》的采访,再次表示了对人工智能可能会接管人类的担忧。
但早在今年5月,「人工智能教父」Geoffrey Hinton为了能自由谈论人工智能的风险,宣布了从谷歌离职。
之后,Hinton在各种公开场合中都表达了对人工智能风险的担忧。
在一次采访中,Hinton甚至表示:「我对自己的毕生工作,感到非常后悔」。
而在如火如荼的人工智能井喷之年,人们已经难以停下冲锋的步伐。
虽然在今年3月底,有上千名技术领袖签署了呼吁暂停开发比GPT-4更强大的人工智能的联名书。
但在9月24日的YC校友分享会上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。
与此同时,作为开源社区的领袖Meta,也在不断开发新的大模型。在7月,发布了在各项性能都得到提升,水平接近ChatGPT的Llama 2。
随着大模型性能的不断提升,安全隐患和威胁的阴影始终如达摩克里斯之剑悬在人类头顶。
有人认为担心人工智能的风险还为之过早,如Meta的首席科学家、同样是图灵奖得主的Hinton的弟子Yann LeCun多次表示,人们夸大了人工智能的风险。
但也有一些人坚持,「与生存相关的风险,如何重视都是不为过的」。
Hinton便是其中之一。

Hinton:AI接管人类的可能性

在与《连线》的记者对话时,Hinton从以下几个方面表达了对人工智能风险的担忧。
首先是人工智能的智能的不断增长。
Hinton认为,我们正在进入这样一个时代:人工智能正变得比人类更聪明,它们能够根据自身经验和理解来做出决定。
虽然图灵奖得主Bengio等用88页论证了人工智能目前还不具备意识,但不论是Bengio还是Hinton,都认为未来人工智能可能会发展出自我意识。
未来人工智能将会取代人类,成为地球上智商最高的存在。
决定模型智能的是学习的能力,Hinton解释了人工智能的学习过程。
人工智能能够进行学习,是因为人类设计了相应算法,但模型因此产生的神经网络是复杂的,并不完全为人所知。
这一过程被Hinton比作设计进化的原理,他承认随着人工智能对更复杂任务的处理,其内部运作对于人类而言将会变得越来越神秘、且不可知。
此外,Hinton还表示了对人工智能系统会自己编写代码来修改自己的担心,这可能会导致人类对人工智能失去控制。
除了人工智能的失控风险,Hinton还讨论了人工智能操纵人类的风险,指出了在自主战场机器人、假新闻和就业偏见等领域的潜在后果。
但比这些更糟糕的是,Hinton强调了围绕人工智能的不确定性,以及在未知领域航行所面临的挑战。
「我们正在进入一个非常不确定的时期,我们正在处理以前从未做过的事情。通常,当你第一次处理一些完全新奇的事情时,你肯定会犯错。但我们不能在这些事情上犯错。」
但Hinton也肯定了人工智能做出的贡献。
随着人工智能在现实世界中各种落地应用,在办公、科学发现、医疗等方面都极大地提升了人类的效率。
Hinton特别强调了人工智能在医疗保健领域的巨大优势,尤其是医学图像识别和药物设计等,任务谷歌DeepMind推出的Alpha Fold是一个绝佳的例证。
Hinton对人工智能在这一领域的积极影响表示乐观。
对于人工智能的未来,Hinton虽然没有预言人工智能一定会接管人类,但他承认了这将是我们可能的未来。
因此,Hinton一直敦促面对人工智能发展的潜力,人类对自身的安全进行必要的保护措施。
其他对人工智能风险的担忧

此前,纽约大学教授马库斯也表达了相同的担忧。
「是人类快要灭亡了比较重要,还是编码更快、跟机器人聊天更重要?」
马库斯认为,虽然AGI还太遥远,但LLM已经很危险了,而最危险的是,现在AI已经在给各种犯罪行为提供便利了。
「在这个时代,我们每天都要自问,我们究竟想要什么类型的AI,有的时候走慢一点未尝不好,因为我们的每一小步都会对未来产生深远的影响。」
ChatGPT之父、OpenAI CEO Sam Altman也曾公开表示,超级智能AI的风险可能会远远超出我们的预料。
在技术研究员Lex Fridman的播客中,Altman对高级人工智能的潜在危险发出了预警。
他表示自己最担心的是,AI造成的虚假信息问题,以及经济上的冲击,以及其他还没出现的种种问题,这些危害可能远远超过了人类能应对的程度。
他提出了这样一种可能性:大语言模型可以影响、甚至是主宰社交媒体用户的体验和互动。
「打个比方,我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?」
Altman说,「我认为,作为OpenAI,我们有责任为我们向世界推出的工具负责。」
「AI工具将给人类带来巨大的好处,但是,你知道的,工具既有好处也有坏处,」他补充道。「我们会把坏处降到最低,把好处最大化。」
虽然GPT-4模型很了不起,但认识到人工智能的局限性并避免将其拟人化也很重要。
同样地,对于「AI消灭人类」这个问题,比尔盖茨也已经忧心多年了。
很多年来,盖茨一直表示,人工智能技术已经变得过于强大,甚至可能引发战争或被用来制造武器。
他声称,不仅现实生活中的「007反派」可能利用它来操纵世界大国,而且人工智能本身也可能失控,对人类造成极大威胁。
在他看来,当超级智能被开发出来,它的思考速度会远远赶超人类。
它能做到人脑所能做的一切,最可怕的是,它的记忆内存大小和运行速度根本不受限。
这些被称为「超级」AI的实体可能会设定自己的目标,不知道会干出什么事。
而公众也开始发出自己的声音。
面对大公司之间的大模型「军备竞赛」,Meta因为向公众开放了Llama 2的模型权重而遭到了公民抗议。
公众担心Meta这项释放模型权重的策略,可以让任何人都能依照自身利益修改模型。
同时,因为权重的开放,意味着其他人无法召回这些的模型。这对利用大模型来实施网络犯罪几乎提供了无限制的生长土壤。
现在,对于全人类来说,似乎「to be,or not to be」已成为了迫在眉睫、不得不面对的问题。
来源:新智元
参考资料:
https://www.arabtimesonline.com/news/godfather-of-ai-fears-technology-could-one-day-take-over-humanity/
版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
夏婳:两情难相知(九)Hinton最新采访!再次警告:AI可能会接管人类!75岁Hinton再次警告:AI可能会接管人类!新书推荐丨人工智能会毁灭世界吗?警方通报:多次警告无果后开枪重视“智者”,善待“傻瓜”国际分布式人工智能会议 DAI 2023 将于 11月30日在新加坡开幕突破 | 欧盟《人工智能法案》: 欧盟理事会和欧洲议会达成协议!全球首个人工智能法律只差临门一脚!为什么AI教父Hinton会恐惧自己亲手创造的人工智能?Meta花500万美元购买一明星形象,只为打造人工智能助理;中国网络空间安全协会人工智能安全治理专业委员会成立丨AIGC日报nǚ hóng?nǚ gōng对人工智能的大胆押注可能会帮助微软超越苹果 | AI主题合辑温哥华惊现三重诈骗 每天超50华人上当 知名华商躺枪! 驻加使馆再次警告!chì rè?zhì rè?千词万字“返场赛”来了!美方再次警告后,胡塞武装直接对美军舰开火人工智能教程(一):基础知识 | Linux 中国妈妈养老院里的攀比 (多图)TUM、LMU食堂纷纷罢工!泼天的富贵这次轮到Döner店了?澳洲记忆重磅!拜登签署人工智能领域人才留美新政策,利好留学生!人工智能行业将迎来大增长!OpenAI 更新企业价值观:强调通用人工智能;阿里云、华为成立人工智能安全委员会;周杰伦演唱会 4 黄牛被抓 | 极客早知道【教育】教育部公示!这些学校入选中小学人工智能教育基地名单Nature:超越ChatGPT,思维更像人类的人工智能诞生,具备了人类举一反三的能力AI教父Hinton家谱曝出,全员科学巨匠!曾坦言:人生追求只是博士毕业,工作是唯一的放松「简报」Shapiro 州长访问卡耐基梅隆大学——人工智能的诞生地,签署关于生成式人工智能的行政命令;拓展:以新方式建模神经元是诈骗!别点!美国邮局(USPS)再次警告: 包裹短信是假的人工智能教程(五):Anaconda 以及更多概率论 | Linux 中国人工智能教程(二):人工智能的历史以及再探矩阵 | Linux 中国硬核观察 #1210 人工智能聊天机器人被用来越狱其它人工智能CDC发出警告:僵尸鹿病毒扩散全美31州,恐传染给人类!红色日记 大学招生 11.1-30“人工智能”还是“人类智能”?离开谷歌后,75岁AI教父Hinton自宣新动向:加入机器人创业公司AI教父Hinton家谱曝出!全员科学巨匠!曾坦言:人生追求只是博士毕业,工作是唯一的放松Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。