《人类简史》作者对人工智能发出骇人预警
“人工智能与历史上任何事物相比,跟其他发明相比,不管是核武器还是印刷术都完全不一样。”9月12日,赫拉利在英国伦敦的CogX Festival上对观众说。赫拉利是畅销书《未来简史》(Homo Deus: A Brief History of Humankind)和《人类简史》(Sapiens: A Brief History of Humankind)的作者。
“这是历史上第一个可以自行做决定的工具。原子弹自己做不了决定。轰炸日本广岛的决定是人类做的。”
赫拉利说,独立思考能力造成的风险是,超智能机器最终可能取代人类主宰世界。
“我们可能要面临人类历史的终结——也就是人类统治的终结。”他警告道。“在接下来的几年里,人工智能很可能迅速吸收人类所有文化,从石器时代以来(所有成就),开始产生外来智慧的新文化。”
赫拉利表示,由此会引发一个问题,即这项技术不仅会影响周围的物理世界,还会对心理学和宗教等方面造成影响。
“从某些方面来看,人工智能或许比人类更有创造力。”他表示。“说到底,人类的创造力受到有机生物学限制。而人工智能是无机智能,真的像外星智慧。”
“如果我说五年后会出现外来物种,也许非常好,没准还能够治愈癌症,但将夺走人类控制世界的力量,人们会感到恐惧。”
“这就是当前面临的情况,不过(威胁)并非来自外太空,而是来自美国加州。”
人工智能进化
然而赫拉利指出,人工智能领域的发展速度太迅猛,“所以非常可怕”。赫拉利曾经在作品中纵观人类的过去和未来。
“如果跟有机进化相比,人工智能现在就像(变形虫)——在有机进化过程中花了数十万年才变成恐龙。”他在CogX Festival上告诉人们。“有了人工智能助力,变形虫可能10年或20年就会演化成霸王龙。问题之一是人类没有时间适应。其实人类是极擅长适应的生物……但需要时间,现在适应的时间不够。”
人类下一个“巨大而可怕的实验”?
“人类不擅长新技术,经常犯大错误,所以总要做实验。”他说。
赫拉利指出,例如在工业革命期间,人类就犯过“一些可怕的错误”,而欧洲帝国主义、纳粹主义也是“巨大而可怕的实验,曾经夺走数十亿人的生命”。
“我们花了一个世纪,一个半世纪的时间,才从失败的实验中恢复。”他表示。“也许这次我们无法安然度过。即便最终人类获胜,又有多少亿人会在这个过程里丧失生命。”
引发分裂的技术
在今年夏天仅受邀参加的耶鲁大学首席执行官峰会(Yale CEO Summit)上,近一半受访首席执行官表示,相信在未来五年到十年内,人工智能有可能摧毁人类。
早在今年3月,包括埃隆·马斯克和苹果(Apple)的联合创始人史蒂夫·沃兹尼亚克在内1,100名著名技术人员和人工智能研究人员联名发布公开信,呼吁研发强大人工智能系统的工作暂停六个月。他们指出,相关人工智能系统有可能变成威胁人类文明的超级智能。
特斯拉(Tesla)和太空探索技术公司(SpaceX)的联合创始人马斯克在不同场合表示,该技术会“像小行星一样”冲击人类,还警告称可能“像电影《终结者》(Terminator)一样”。此后,他成立了自己的人工智能公司xAI,称目标是为了“了解宇宙”,并防止人类灭绝。
然而并非所有人都同意马斯克的观点,即超级智能机器可能消灭人类。
8月,1,300多名专家联合发声,希望平息人们对人工智能造出一群“邪恶机器人霸主”的焦虑,其中所谓的人工智能三教父之一直指,担心该技术可能威胁生存“荒谬至极”。
Meta的一位高管尼克·克莱格在最近一次采访中也在努力安抚人们对该技术的担心,他坚称当前的大型语言模型“相当愚蠢”,完全达不到拯救或摧毁文明的程度。
“时间至关重要”
“在人工智能抢下方向盘之前,人类还有几年时间,我不知道有多久,人类拥有掌控能力的时间或许还有五年、十年、30年。”他说。“这些年的时间应该非常谨慎地使用。”
他建议采取三个实际步骤降低人工智能的风险:不给机器人言论自由,不让人工智能伪装成人类,对人工智能领域的重大投资征税用来资助监管和能够协助控制技术的机构。
“很多人在努力推进相关举措。”他说,“我希望尽快(实施),因为时间至关重要。”
他还敦促人工智能领域的从业人员认真考虑,在全世界铺开创新是否最符合地球的利益。
“不能仅仅阻止技术发展,但开发和使用应该分开。”他说。“开发出来并不意味着必须使用。”(财富中文网)
译者:夏林
查看《美国“发出警报”:非常令人不安》的精彩观点
查看《美欧投资对华大幅下降?商务部:“不属实”》的精彩观点
推荐阅读
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章