Redian新闻
>
AI威胁论:先过狗关,再赛人智

AI威胁论:先过狗关,再赛人智

公众号新闻

关注并将「人人都是产品经理」设为星标

每天早 07 : 45 按时送达

目标制定对企业至关重要但常被忽视,本文便围绕目标制定这一主题,提出了三个要点,希望对企业目标管理和业务发展有所帮助。


作者:樟稻;编辑:伊页

全文共 3969 字,阅读需要 8 分钟

—————— / BEGIN / —————

ChatGPT让人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性。

几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制。

上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

不过,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点。

这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题:是人类把技术看作是工具,完全受人类控制;还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁。

乐观派:AI不如狗

上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制。

“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的”。杨立昆说,“大部分人类的知识与语言无关…所以人类经验的那一部分并未被AI捕捉到。”

“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如”。杨立昆总结道。

这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:

“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能。主要是因为它还不存在。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟。”

当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早。

至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度:

1. 人们不会给现阶段的AI以完全自主权

杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标。

这种情况自然引发了一系列的担忧。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为。

一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强。

然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统。

2. 智力和控制欲毫无关联性

许多人认为,智能实体会因为比人类更聪明而想要支配人类。然而,杨立昆认为这是个误解。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关。

人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望。

因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系。

此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的。

在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺。

实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例。

完全中断研发进程并不是一个明智的决策。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值。

谨慎派:心思各异的联盟

相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势。当新的事物出现时,它往往会引发人们的担忧和疑虑。

这是人类对可能带来颠覆性改变的新技术所产生的本能反应。

在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现。

关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象。

然而,问题在于:这场大讨论真的有用吗?

表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动。这种现象在一定程度上显得像是在浪费大家的时间。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声”。这是不少业界人士对这种现象的评价。

就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传。

当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,不乏也有一些独到的见解。

中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。

在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:

1)未来

如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样:视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。

2)现在

如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。

但曾毅认为:正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。

有趣的是,这似乎正好在反驳杨立昆的两大主要论点。

此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖”。

然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉。

本吉奥认为:所有致力于构建强大AI产品的企业都应该进行正式的注册和报备。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制”。

辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。辛顿表示:“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶”。

辛顿对于AI的担忧主要有两个方面:

首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响。

其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置。

写在最后

上文中对立两派的观点,其实也有重合的地方。对于如今的 AI 是否具有风险以及该如何克服,两派代表人物杨立昆和奥特曼看法一致。

他们都认为,即便风险存在,但可以通过仔细的工程设计,减轻或抑制它。

可以肯定的是,随着AI技术的不断发展和深化,两派之间的争论和争议仍将持续不断。

不过相对于国外热火朝天地讨论,国内对AI伦理和风险的关注相对较少。市场似乎更专注于AI大模型如何改变各行各业,并对此感到喜悦和兴奋。

原因可能在于,一方面为了在全球竞赛中夺取发言权,商业公司首先需要缩小与国外AI大模型的差距;另一方面,也正由于国内的AI大模型能力还未进入未知前沿,大家对AI可能带来的威胁并未给予足够的关注。

在此背景下,国内的AI创业者更倾向于维持一种技术乐观主义的态度,他们不希望过早收敛自身发展,认为这将相当于提前投降,放弃了与国外竞争的机会。

总的来说,这次的争论并非毫无意义的口舌之争。它为我们提供了一个理想的舞台,让我们深入探讨AI的未来走向,以及如何以人类的智慧和经验,来引导这一领域的发展,使其真正地服务于人类社会,而非反过来控制我们。

从这场激烈的辩论中,可以清楚地看到,人类现在正站在一个重大的决策点。无论是选择乐观地拥抱AI的发展,还是谨慎地审视其可能带来的风险,都需要意识到,现在所做的每一个决定,将会影响人类和AI之间的关系,也将塑造人类对未来的想象和期望。

——————/ E N D /——————

产品经理培训|产品运营培训|企业内训服务

请在公众号后台回复「培训」了解更多

▼ 喜欢请分享&收藏,满意点个赞,最后点「在看」▼ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
西湖大学校长不建议选专业首要考虑挣多少钱:先看兴趣11个LLM一起上,性能爆炸提升!AI2联合USC开源LLM-Blender集成学习框架:先排序再融合|ACL 2023【声动】衣、食、住、行……四地主持人带你了解长三角人智慧和匠心刽子手嘲笑死囚怕死,死囚:我没吃饭,刽子手听完后马上下跪:先生请坐给人智慧和启迪的中华谋略苹果Vision Pro:先进到让同行绝望?匹兹堡飞往费城的航班因”炸弹“威胁被迫在起飞前紧急疏散|女子被控与费城监狱越狱案有关,2名囚犯仍然在逃,悬赏升至25,000美元A股将迎来巨无霸:先正达IPO过会 估值超3000亿拟募资650亿中国父母表达关心的第一步:先把你骂一顿76岁深度学习之父Hinton离职谷歌!发表AI威胁论,悲观预言灾难性风险多地遭暴雨突袭,有铁路桥部分垮塌!情侣订婚路上被洪水围困,男生:先救她川普或以独立人身份参选空巢日记摘要2005一个胖女孩的性探索:先接纳身体,再渴望爱情哈工大团队在足式机器人智能领域取得重要研究成果 | NSR封面都快想退休了,才发现/觉得我入错行了!为何全世界没有一个人说美国威胁论?但斌谈巴菲特投资理念感悟:先脚踏实地,再仰望星空张俊林:GPT4等LLM模型具备类人智慧了吗?G7要挑事?中方:先把欠联合国的会费补上张俊林趣谈:GPT4是否已具备类人智慧,为何GPT通过Next Token Prediction可以产生智能工业无线网络技术助力工业机器人智能互联——访中国科学院沈阳自动化研究所研究员梁炜比亚迪对印度说:先付20亿,再发货!90后胖女孩的性探索:先接纳自己,再渴望爱情让娃爱上古文的神器:先玩,再看,价格还很美丽王健林:先把员工工资提高,比搞慈善重要文革记忆 -- 红小兵追疯子巴厘岛警方通报挑战地球人智商?男方可能并非币圈大佬《封神第一部》导演乌尔善:先从人间开始至少,先过好当下吧经济学人智库全球经济前景概述 (2023年6月)到了中年才发现:先敬罗衣后敬人,你的形象决定了你的人生耗时2年,Meta联手CMU打造最强「通用机器人智能体」!上茶擦碗多面手,轻松泛化100多种未知任务身高一米九的王小波火化时,机器突然不转了,殡仪场工人说:先生,您的东西我不要了,还请您帮个忙一张表,了解大奖的世界
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。