图灵奖得主的20条判断:人工智能最大的威胁不是超越人类,而是人类过分依赖
「人工智能的崛起可能是人类遇到的最好的事,也可能是最坏的事情,但我们还不知道答案。」
这是霍金生前的观点,似乎也成为一种预言。
在人工智能疾速狂奔的时代,人们对人工智能是否可能取代人类这个话题投入了巨大的好奇。
在未来,人工智能将怎样接近人类智能,人类应该如何与人工智能共存,我们是否需要恐惧人工智能......都是需要探究并回答的议题。
2007年图灵奖得主、世界安全计算机系统发展重要贡献者、中美法三国院士约瑟夫·希发基思(Joseph Sifakis)在他的新作《理解和改变世界》中,针对这个问题给出了清晰的解答:人工智能不会超越人类,人类和人工智能是互补的,而非互相替代的关系。
他认为,比起所谓的超越人类,AI会带来的最大威胁是人类对它的依赖可能导致我们无限让渡自己的判断,丧失决策权,最终成为“奴隶的奴隶”。
今天的文章,与你分享他书中的核心观点。
观点摘要
关于人工智能
1.人类和人工智能是互补的,而非互相替代的关系。
人类拥有的常识知识和形成模型的抽象能力,这是当前范式的人工智能无法做到的,因此它们也不可能形成原理性的创新。
而人工智能是可以在不掌握原理的情况下,对于可能存在大量变量的复杂事物进行预测。这是人因为认知能力限制而无法达到的,这称为“AI神谕”,它可能带来一种“新的科学”。
2.目前的人工智能是一种弱人工智能,人类离通用人工智能(AGI)还很远。
机器可以做出令人印象深刻的事情。它们在游戏中可以超越人类。它们能够执行各种任务。最近也取得了巨大的成就。
它们可以执行感官能力相关的任务,比如视觉识别。然而,当涉及到情境感知、环境变化的适应和创造性思维时,机器无法超越人类。
3.自主系统是朝向通用智能迈出的重要一步,帮助人工智能更加接近人类。
让计算机接近人类智能的第一步,是让它表现得像我们所说的强人工智能。
传统计算机与人类的区别在于,传统计算机会自动执行某些预定的功能,是一个自动化系统;而人类则具有自主行动的能力。自主系统便是实现强人工智能的重要方式。
4.合理地使用人工智能和自主系统取决于:第一,根据客观标准评估我们是否可以信任计算机生成的知识。第二,全社会的警惕性和政治责任感。
如果我们不能保证足够的安全性和可靠性,那么就应该限制自主系统的使用。
5.“替代测试”可以超越“图灵测试”判断AI的智能程度。
图灵测试是不够的,需要使用替代测试,如果可以用一台机器替代执行任务的另一个代理,那么我会说这个代理和执行任务的代理一样聪明。
如果我可以将机器代替人类驾驶汽车、教人类或成为一名优秀的外科医生,那么我会说机器和人类一样聪明。
6.改善人类的生活是科技发展的首要任务。
在这个过程中,社会必须以人类生活的改善为目标发展并应用技术。
对我们的社会来说,重要的问题是我们是否能够与机器合作,掌握由机器辅助开发的知识的发展和演进。或者我们将发展出一种由人驱动的科学和机器驱动的科学并存的情况。
7.对于人类来说,最好的情景是机器和人类之间达成一种和谐合作。
AI会带来的最大威胁是人类对它的依赖可能导致我们无限让渡自己的判断,丧失决策权,最终成为“奴隶的奴隶”。
人类需要掌握知识的发展、应用的所有过程,确保不会让这些机器自身为我们做出关键决策。
8.人工智能带来的风险不在于人类被机器所统治,而在于人类接受机器做出所有关键决策。
人工智能、包括通用人工智能都是好事,我不反对这些。AI带来的危险是明确的,主要可能来自于对它的滥用。
但不幸的是,今天我们没有针对这种危险的相关法规。因为政府不知道这些东西是如何开发的,缺乏透明度也就意味着无法应用法规。各个国家、国际机构应该强制执行法规。
9.要识别出人工智能带来的实际风险和真正挑战。
人们都在热议计算机智能的假想风险,也许把真正的风险掩盖住了。
而这些真正的风险才是问题所在,因为它们涉及社会组织的类型及其所服务的关系,特别是社会和政治性质的问题。
失业,防护、安全和风险管理,技术依赖将是人工智能带来的真正的风险。
10.人工智能时代,通过适应性原则管理风险。
有两种风险管理办法:第一种基于预防原则,第二种方法则基于适应性原则。
人们对危机管理的态度出现了一种危险的转变,曾被人们奉为圭臬的预防性原则逐渐被适应性管理取代,
人们认为这种政策的转变是必要的,因为预防性原则的要求会使得人工智能和自主系统等新技术的推广与使用的成本攀升到令人望而生畏的地步。
关于知识和创新
1.知识是有用和有效的信息,可以让我们理解和改变世界。
一方面,能让我们对周围发生的事情,包括物理世界、社会及其产物,有更深刻的认识;另一方面,知识能让我们实现目标。
2.在当今这个时代,拥有知识比拥有物质产品更重要,也更具有战略意义。
人们可以利用知识来控制物质世界并应对全球挑战,当然,前提是人们能够掌握管理知识的元知识。
3.要强调知识的“真实性”,否则,知识将失去它的实用价值——帮助我们理解和改变世界。
4.要想获得更深入的知识,需要一种痛苦的、孤独的努力。
5.人们需要掌握管理知识的元知识。
元知识是用来管理所有形式知识的知识,它使我们能够把各种知识综合起来。
元知识包括解决问题的方法、设计方法和决策方法等,同时还包括在专业技能中使用的非形式化的知识。
6.草率地采用表面上看起来科学的方法是件危险的事。我们必须要有自己的辨别能力,而不是迷信于科学主义。
科学主义假借自然科学中采用方法论的权威,滥用于其他不能经受验证的领域。以所谓基于科学的预测的名义来操控社会进程,是我们所面临的实实在在的风险,尤其是目前人工智能被广泛应用的情况下。
7.科学主义往往伴随着把专业知识神秘化的危险。
专业知识神秘化,让人们感觉好像所有严肃的事情都必须经过专家判断,并由他们来最终决定。
计算机对知识的管理,更是强化了这种神秘的感觉。专家们滥用专业知识带来的权威性,可能会导致一些灾难性的政策。
8.创新是实现技术突破的关键。
美国成功的原因是创新方面十分出色。要实现创新,应该将卓越的大学和卓越的产业联系在一起。
这不仅取决于物质资源,还取决于文化因素、教育以及制度应该认可个体的创造力和创业精神。
9.现代的创新需要形成完善的创新生态系统。
因此现代的创新,并不是关起门来就能完成的。而是要形成一个完善的创新生态系统。这个生态系统是三个因素协同作用的结果:
(1)研究机构;
(2)工业企业;
(3)初创企业。
一个完善的创新生态系统,能够汇集专家、科学家、工程师和管理人员等重要的人力资源,并具有特殊的创新文化,硅谷就是一个很好的案例。
10.在知识和信息社会中,新闻和学术组织这样的机构应当发挥真理捍卫者的作用,帮助公众正确了解所有受关注的重大问题的作用。
糟糕的扭曲的信息,对个人和社会的自由都构成了巨大威胁。
现在,越来越多捏造的谎言成为误导和操纵大众的工具,互联网和社交网络正在成倍地放大这种破坏性的影响。
道德危机和相对主义模糊了真与假的界限,舆论正在被各种各样的信息混淆,人们难以区分未经证实的“新闻”和已被证实的事实,造成了如今的后真相时代。
快速思维和慢速思维
慢速思维基于我们理解事物的心智模式,这种模式与我们对计算机进行编程的计算模式类似。
快速思维则是有意识学习的结果,通过反复地训练,内化成一种自动的模式,这与人工神经网络的计算模型一样。
1. 考虑好所有可能的物理情况,然后将机器人的动作编写为相应的程序。我们需要借助力学理论,编写能实时控制的程序。
2. 对人工神经网络进行反复训练,让它在同样的物理条件下做出相似的动作。我们并不需要力学知识,但是可以训练人工神经网络学习如何平衡。
人类天生拥有常识智能
人工神经网络采用完全不同的计算模式,这种模式不是靠编程,而是从庞大的数据集中进行学习。
人类思维具有认知局限
机器学习的成果
人工智能接近人类的可能:自主系统
为了适应环境的变化,系统在没有人为干预的情况下,实现一系列目标的能力。
自主系统中有五个关键的功能协同工作实现自主性,环境感知和状态表示这两个功能可以理解环境状况,目标管理和策略规划这两个功能可以进行决策,自主学习帮助系统自我学习。
自主系统的体系结构及其五个关键功能
风险一:失业
风险二:防护、安全和风险管理
风险三:技术依赖
法国蒙彼利埃大学·工商管理硕士
EMBA
法国蒙彼利埃大学·工商管理博士
EDBA
法国蒙彼利埃大学·医疗健康管理博士
DHM
点击底部“阅读原文”查看更多
国际在职“MBA/EMBA/DBA”课程
↓↓↓↓↓↓↓↓
微信扫码关注该文公众号作者