如何找到智能时代的生存法则?公众号新闻2024-02-01 05:02随着以Chat GPT 为代表的人工智能时代的到来,除了赞叹技术的进步之外,我们讨论的核心越来越聚焦于人类究竟会不会被人工智能所取代?技术的“突飞猛进”又会把我们的世界带向何处?这种担心当然不是多余的,因为在过去的一段时间里,我们已经见到了人工智能在某些领域上战胜人类,并越来越多地渗透进我们的生活,甚至决定着我们的生活。它们选择我们在线看什么内容,推荐我们听什么音乐,回答我们的各种疑问。那么,人工智能真的会比人类做的更好吗?我们真的会被它取代吗?德国波茨坦大学哈丁风险知识普及中心主任格尔德·吉仁泽(Gerd Gigerenzer)在他的新书《失控与自控》((How to stay smart in a smart world))中给出了一个很有意思的概念叫作“稳定世界原则”。书中提到,当“环境”稳定时,人工智能是可以超越人类的。比如国际象棋和围棋,都是在有着稳定且明确规则的情况下,人工智能战胜了人类。因此,如果未来和过去一样,那么人工智能所分析的海量数据将有大用处。然而,未来是充满了不确定的,在不确定的状态下,复杂算法的成功概率也许并不高。格尔德·吉仁泽提出的“稳定世界原则”好像帮我们理解人工智能提供了一个新的视角,在了解了AI 的这个特点后,我们也许能知道在人类与AI 共存的当下,它能做什么和不能做什么?以及在失控的智能世界里,我们该如何自控?如何做出正确的决定?数字技术的潜力AI ,擅长做什么?正如“稳定世界原则”中提到的,复杂算法在有大量可用数据,而且数据明确稳定的情况下运作最好。比如,国际象棋和围棋等规则明确的游戏,人工智能的表现的确更胜一筹。国际象棋中的每个位置都可以由一个棋子形象来表示,该形象指定了从兵卒到国王的每个棋子的位置。弈棋机不需要推断其真实位置在哪里,因为棋子形象就代表了位置,并且现在和未来都稳定不变。规则的性质决定了其中不存在任何不确定性,未来也不会发生意外的变化。这一点在1997年IBM 的深蓝程序击败了国际象棋选手卡斯帕罗夫;2017年5月,阿尔法战胜了当时世界排名第一的围棋选手柯洁后得到了验证。既然算法在确定的情况下可以发挥最大的优势,那么“稳定世界原则”其实也适用于预测未来。即要成功预测未来,需要良好的理论、可靠的数据和稳定的环境。2004年8月,美国国家航空航天局家航空航天局发射了一枚信使号探测器,该探测器于 2011 年3 月进入水星轨道,恰好位于美国国家航空航天局六年多前预测的位置。这一令人难以置信的壮举之所以成为可能,是因为有良好的行星运动理论支持,还有高度可靠的天文数据,而且水星的运动随着时间的推移保持稳定,不会大幅度受人类行为影响。而人工智能恰恰擅长处理这种稳定的情况,例如使用人脸识别解锁手机,选择到达目的地的最佳路线,对会计工作中的大数据进行分类和分析。所以,稳定世界原则有一个重要的含义,即适应人工智能原则:为了提高人工智能的性能,我们需要使物理环境更加稳定,人们的行为更可预测。如果我们将决策交给算法,就必须改变我们的环境和行为。这可能包括使人类对于算法更透明,规范人类行为,甚至将人类排除在竞争环境之外。换句话说,如果我们想要通过人工智能达到一定的目的,我们就必须适应它们的潜在要求。该技术不仅是一个支持系统,也需要我们调整自己的行为。所以,通过“稳定世界原则”我们可以看到,随着计算能力的提高,对于稳定情况下的问题,机器用不了多久就会比人类解决得更好。然而,对于不稳定的情况,就不能一概而论了。数字技术的局限性和风险从不知疲倦地精确重复相同动作的工业机器人,到可以在大量文本中找到单词和短语的搜索引擎,人工智能超越人类智能的例子不胜枚举。但迄今为止,人工智能还只是在具有固定规则、定义明确的游戏中获得了胜利。换句话说,在定义越明确、越稳定的情况下,机器学习就越有可能超越人类。例如国际象棋和围棋,在相对不变的条件下的人脸和语音识别。当环境稳定时,人工智能可以超越人类。如果未来和过去一样,那么海量数据将大有用处。然而,如果发生意外,大数据(都是过去的数据)可能会误导我们对未来的看法。事实上,我们面临的许多问题并不是定义明确的游戏,而是充满了不确定性,比如寻找真爱、预测谁会犯罪,或者在不可预见的紧急情况下如何做出反应。在这些问题上,计算能力再强,数据量再大,帮助也是有限的。人类是不确定性的主要来源。当人类行为进入该领域的那一刻,不确定性就出现了,预测也相应变得困难。如果没有明确定义,或情况不稳定,或二者兼而有之,人工智能可能会陷入困境。不仅是寻找合适伴侣,在预测下一次大型金融危机方面也是如此,就像我们预测不出2008 年金融危机一样。在涉及人的情况下,信任复杂算法会对确定性产生错觉,从而成为灾难的根源。而在当下,我们对于人工智能的信心越来越强,我们相信机器会更准确、更快速、更经济地完成任务,相信软件比我们更了解自己。但其实人工智能也在很多方面存在着风险,甚至出于特定的目的对我们进行“诱导”。格尔德·吉仁泽通过研究指出人工智能其实缺乏一定的常识。常识,通常是源于遗传倾向以及个人和社会学习,它需要一定的经验。而对于从事人工智能开发的人来说,常识是一个巨大的挑战。我们还没有通过规则或通过创建能够学习常识的深度神经网络将常识编入计算机程序中,这不仅限制了它在翻译方面的应用,也限制了它在自然语言理解方面的应用。此外,在智能算法时代,大数据分析也被广泛应用于各个领域,融入到我们的日常生活中。随之而来的就是我们的隐私安全问题。可以说,人们正在数字技术的操控下梦游着进入监控。数字技术的两个特性,便利和监视,都与隐私相冲突。许多人虽感无助,但也别无选择。其他人则更倾向于眼前的便利,忽视了长此以往会失去的隐私。 不仅如此,社交网络平台充分运用数字技术,来“控制”人们的注意力。“赞”是一种让人上瘾的黏合剂,但控制人们的注意力不能只靠“赞”。社交媒体网站进行了一次又一次实验,希望找出让用户花更多时间盯着屏幕的方法。这类技术的目的就在于吸引用户,让用户很难离开某个平台,或者迫使用户返回特定的平台。对大多数人来说,该类技术会给用户带来更好的心情、提供令人喜爱的消遣方式,但这带来的后果就是“上瘾”。一种来自智能世界地失控正在逐步侵蚀我们的现实世界。智能世界,我们要如何保持聪明?自古以来,人类创造了许多惊人的新技术,但人类并不总能明智地使用这些技术。曾经,互联网的梦想是自由;现在,对许多人来说,自由意味着不受约束的互联网。尽管技术在不断创新,但我们却比以往任何时候都需要更多地使用大脑。为了获得数字技术的诸多好处,我们需要洞察力和勇气,以在智能世界中保持聪慧。那么,我们该如何做呢?格尔德·吉仁泽在《失控与自控》中指出,保持聪慧并不意味着完全信任技术,也不意味着完全不信任技术,对此充满焦虑。保持聪慧意味着了解数字技术的潜力和风险,以及在充满算法的世界中保持主导地位。自控意识是首要的。但自控并不意味着远离技术,自控的意思是,当一个人非常想转头做另外一件事情时,能够抑制住自己,因为他知道自己会后悔,或者知道该行为会威胁到自己和他人的健康。其次,意识到算法推荐的“可操作性”也是非常重要的,这就像我们常说的信息茧房。人们普遍认为,在社交媒体上的畅通无阻,就等于能够规避互联网的诡计和陷阱。然而,事实并非如此。斯坦福大学的研究人员曾经做过一项实验,他让来自美国12个州的900名学生浏览社交媒体中的信息,并从“证据是什么”“谁是信息背后的人”等角度来评估信息的可信度。在一位由银行高管撰写,美国银行赞助发行的《千禧一代有良好的金钱习惯吗》文章中提出,许多千禧一代需要财务规划方面的帮助。被试者需要考虑这篇文章的观点是否可信。令人惊讶的是,大多数学生并没有注意到信息发布者的身份其实是促成这种观点的主要原因。在这项实验中,无论是中学生还是大学生,很少有学生关注是谁在背后支持在线资源,他们没有考 虑支撑信息的依据,也没有参考独立的来源来核实这些信息。相反,他们听信了表面上的话,而且被生动的照片和图形设计吸引。即使别人鼓励他们通过互联网进行搜索,大多数人也没有去参考其他网站。因此,数字时代原住民的身份并不能证明我们真的了解数字时代。数字世界使虚假信息比以往任何时候都更容易泛滥、更具有发挥空间。但与此同时,数字世界也为我们了解人员和信息来源的可信度提供了多条路径。我们可以借此了解人工智能可以轻松做什么和不能做什么,可以思考以数据为货币的商业模式是如何销售用户的时间和注意力的。了解数字技术的潜力和风险,以及认识到它所建构的“真实”是很重要的一件事情。人类历史上,我们与技术的互动屡见不鲜,但没有哪一种技术像人工智能一样前所未有的参与我们的生活,甚至决定我们的生活。要想在智能世界依然保持聪明,正如格尔德·吉仁泽所说:“保持聪明就意味着我们要了解数字技术的潜力和风险,这样才能让我们在充满算法的世界中保持主导地位,不被人工智能打败。”因此,要想在智能世界保持聪慧,我们应该以冷静的敬意而不是毫无根据的敬畏或怀疑来看待数字技术,让数字世界成为我们想要生活的世界。来源:整理自中信出版社《失控与自控》作者:格尔德·吉仁泽(Gerd Gigerenzer)版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章