Redian新闻
>
75岁Hinton再次警告:AI可能会接管人类!

75岁Hinton再次警告:AI可能会接管人类!

公众号新闻



  新智元报道  

编辑:Lumina
【新智元导读】最近,Hinton在采访中谈论了人工智能存在的各种安全隐患,担忧人类将会被其接管。

10月9日,Hinton面对《60分钟》的采访,再次表示了对人工智能可能会接管人类的担忧。

但早在今年5月,「人工智能教父」Geoffrey Hinton为了能自由谈论人工智能的风险,宣布了从谷歌离职。

之后,Hinton在各种公开场合中都表达了对人工智能风险的担忧。

在一次采访中,Hinton甚至表示:「我对自己的毕生工作,感到非常后悔」。

而在如火如荼的人工智能井喷之年,人们已经难以停下冲锋的步伐。

虽然在今年3月底,有上千名技术领袖签署了呼吁暂停开发比GPT-4更强大的人工智能的联名书。

但在9月24日的YC校友分享会上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。

与此同时,作为开源社区的领袖Meta,也在不断开发新的大模型。在7月,发布了在各项性能都得到提升,水平接近ChatGPT的Llama 2。

随着大模型性能的不断提升,安全隐患和威胁的阴影始终如达摩克里斯之剑悬在人类头顶。

有人认为担心人工智能的风险还为之过早,如Meta的首席科学家、同样是图灵奖得主的Hinton的弟子Yann LeCun多次表示,人们夸大了人工智能的风险。

但也有一些人坚持,「与生存相关的风险,如何重视都是不为过的」。

Hinton便是其中之一。


Hinton:AI接管人类的可能性

在与《连线》的记者对话时,Hinton从以下几个方面表达了对人工智能风险的担忧。

首先是人工智能的智能的不断增长。

Hinton认为,我们正在进入这样一个时代:人工智能正变得比人类更聪明,它们能够根据自身经验和理解来做出决定。

虽然图灵奖得主Bengio等用88页论证了人工智能目前还不具备意识,但不论是Bengio还是Hinton,都认为未来人工智能可能会发展出自我意识。

未来人工智能将会取代人类,成为地球上智商最高的存在。

决定模型智能的是学习的能力,Hinton解释了人工智能的学习过程。

人工智能能够进行学习,是因为人类设计了相应算法,但模型因此产生的神经网络是复杂的,并不完全为人所知。

这一过程被Hinton比作设计进化的原理,他承认随着人工智能对更复杂任务的处理,其内部运作对于人类而言将会变得越来越神秘、且不可知。

此外,Hinton还表示了对人工智能系统会自己编写代码来修改自己的担心,这可能会导致人类对人工智能失去控制。

除了人工智能的失控风险,Hinton还讨论了人工智能操纵人类的风险,指出了在自主战场机器人、假新闻和就业偏见等领域的潜在后果。

但比这些更糟糕的是,Hinton强调了围绕人工智能的不确定性,以及在未知领域航行所面临的挑战。

「我们正在进入一个非常不确定的时期,我们正在处理以前从未做过的事情。通常,当你第一次处理一些完全新奇的事情时,你肯定会犯错。但我们不能在这些事情上犯错。」

但Hinton也肯定了人工智能做出的贡献。

随着人工智能在现实世界中各种落地应用,在办公、科学发现、医疗等方面都极大地提升了人类的效率。

Hinton特别强调了人工智能在医疗保健领域的巨大优势,尤其是医学图像识别和药物设计等,任务谷歌DeepMind推出的Alpha Fold是一个绝佳的例证。

Hinton对人工智能在这一领域的积极影响表示乐观。

对于人工智能的未来,Hinton虽然没有预言人工智能一定会接管人类,但他承认了这将是我们可能的未来。

因此,Hinton一直敦促面对人工智能发展的潜力,人类对自身的安全进行必要的保护措施。

其他对人工智能风险的担忧

此前,纽约大学教授马库斯也表达了相同的担忧。

「是人类快要灭亡了比较重要,还是编码更快、跟机器人聊天更重要?」

马库斯认为,虽然AGI还太遥远,但LLM已经很危险了,而最危险的是,现在AI已经在给各种犯罪行为提供便利了。

「在这个时代,我们每天都要自问,我们究竟想要什么类型的AI,有的时候走慢一点未尝不好,因为我们的每一小步都会对未来产生深远的影响。」

ChatGPT之父、OpenAI CEO Sam Altman也曾公开表示,超级智能AI的风险可能会远远超出我们的预料。

在技术研究员Lex Fridman的播客中,Altman对高级人工智能的潜在危险发出了预警。

他表示自己最担心的是,AI造成的虚假信息问题,以及经济上的冲击,以及其他还没出现的种种问题,这些危害可能远远超过了人类能应对的程度。

他提出了这样一种可能性:大语言模型可以影响、甚至是主宰社交媒体用户的体验和互动。

「打个比方,我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?」

Altman说,「我认为,作为OpenAI,我们有责任为我们向世界推出的工具负责。」

「AI工具将给人类带来巨大的好处,但是,你知道的,工具既有好处也有坏处,」他补充道。「我们会把坏处降到最低,把好处最大化。」

虽然GPT-4模型很了不起,但认识到人工智能的局限性并避免将其拟人化也很重要。

同样地,对于「AI消灭人类」这个问题,比尔盖茨也已经忧心多年了。

很多年来,盖茨一直表示,人工智能技术已经变得过于强大,甚至可能引发战争或被用来制造武器。

他声称,不仅现实生活中的「007反派」可能利用它来操纵世界大国,而且人工智能本身也可能失控,对人类造成极大威胁。

在他看来,当超级智能被开发出来,它的思考速度会远远赶超人类。

它能做到人脑所能做的一切,最可怕的是,它的记忆内存大小和运行速度根本不受限。

这些被称为「超级」AI的实体可能会设定自己的目标,不知道会干出什么事。

而公众也开始发出自己的声音。

面对大公司之间的大模型「军备竞赛」,Meta因为向公众开放了Llama 2的模型权重而遭到了公民抗议。

公众担心Meta这项释放模型权重的策略,可以让任何人都能依照自身利益修改模型。

同时,因为权重的开放,意味着其他人无法召回这些的模型。这对利用大模型来实施网络犯罪几乎提供了无限制的生长土壤。

现在,对于全人类来说,似乎「to be,or not to be」已成为了迫在眉睫、不得不面对的问题。

参考资料:

https://www.arabtimesonline.com/news/godfather-of-ai-fears-technology-could-one-day-take-over-humanity/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
又鸟马户米田共这些玩意儿太低级了吧感時二首畜生聚会,聊人类!(笑晕)离职谷歌,75岁Hinton官宣下场AI机器人!加盟初创公司,师徒再联手,打造「基础模型」TUM、LMU食堂纷纷罢工!泼天的富贵这次轮到Döner店了?验证「你是不是真人」,AI暴击人类!Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4温哥华惊现三重诈骗 每天超50华人上当 知名华商躺枪! 驻加使馆再次警告!孩子的学校装上了金属探测器chì rè?zhì rè?千词万字“返场赛”来了!是诈骗!别点!美国邮局(USPS)再次警告: 包裹短信是假的疑似“外星生物”遗骸亮相!每只手3根手指,DNA显示非人类!nǚ hóng?nǚ gōng疑似“外星生物”遗骸亮相!距今1800年,每只手3根手指,DNA显示非人类!网友:太像外星人了,假的《人类简史》尤瓦尔:人工智能会消灭人类吗?Hinton最新采访!再次警告:AI可能会接管人类!为什么人类会接吻?而其他动物不会?动物园的猩猩暗示游客要零食,居然还想教会人类!古斯塔夫·克林姆特(Gustav Klimt)的金色安吉丽娜朱莉的19岁亚裔儿子怒斥皮特:你可怕又卑鄙!该死的人类!网友站成两队吵翻了…OpenAI被曝取得重大技术突破,或威胁人类!马斯克:极度令人担忧OpenAI被曝取得重大突破,或威胁人类!马斯克:极度令人担忧!恐怖「僵尸鹿病毒」扩散全美31州!专家担忧:恐传染给人类!可怕|OpenAI被曝取得重大突破,或威胁人类!马斯克:极度令人担忧!OMEN再杀价 暗影精灵9大促,i9+RTX 4060降价启动人工智能教父Hinton再次警告:AI可能会接管人类!大隐隐于市!越南一家人在San Jose开的小店全是越南客人——Phở Cường 2AI研发出最强抗生素,超越人类!女子在航班上崩溃大喊:“飞机后座乘客不是人类!”同舱旅客吓到脸白,因为那里空无一人...花高价13小时高级舱飞行,邻座不是人类!还一直在打鼾放屁!CDC发出警告:僵尸鹿病毒扩散全美31州,恐传染给人类!第一次和走线偷渡人士面对面验证「你是不是真人」,AI暴击人类!准确率99.8%通过图灵测试,GPT-4示弱在线求助警方通报:多次警告无果后开枪宾大最新研究:AI产生创意的效率比人类高7倍,GPT创意能力击败99%的人类!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。