“AI教父”从谷歌离职,警告AI风险:对自己毕生的工作感到后悔公众号新闻2023-05-03 10:05丨划重点① 被称为“人工智能教父”的杰弗里·辛顿博士宣布从谷歌离职,并计划对他长期推崇的这项技术的风险发出警告。② 辛顿博士解释了GPT-4比任何同类模型都更强大的原因,并称他现在认为数字智能比生物智能更强大,也更危险。③ 辛顿博士称,科技巨头陷入了一场可能无法阻止的竞争。他最担心的是,互联网上将充斥着虚假的照片、视频和文字,普通人将“再也无法辨别真相”。④ 辛顿博士担心未来的人工智能技术会对人类生存构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为,真正的自主武器(比如杀人机器人)将会成为现实。被称为“人工智能教父”的杰弗里·辛顿博士(Geoffrey Hinton)宣布从谷歌离职。半个世纪以来,杰弗里·辛顿帮助开发了ChatGPT等聊天机器人的核心技术。现在,他开始担心该技术会造成严重的伤害。“就算我不做,别人也会做的”杰弗里·辛顿是人工智能领域的先驱。2012年,辛顿博士和他在多伦多大学的两名研究生开发的技术,成为了人工智能系统的智力基础。科技行业最大的公司认为,人工智能系统是它们未来的关键。然而,辛顿博士本周正式加入了越来越多的批评人士行列。他们认为,这些公司积极开发基于生成式人工智能(AIGC)的产品,正在走向危险。这种技术为ChatGPT等流行聊天机器人提供动力。辛顿博士说,他已经辞去了谷歌的工作。他在谷歌工作了十多年,并成为该领域最受尊敬的专家之一,所以他可以从技术层面解读人工智能的风险。辛顿博士表示,他现在内心有几分对自己毕生的工作感到后悔。“我用常用的借口来安慰自己:就算我不做,别人也会做的,”上周,辛顿博士在多伦多家中的餐厅接受了媒体专访,那里距离他和学生取得突破的地方只有几步之遥。辛顿博士从人工智能的开拓者向末日预言者的转变,标志着科技行业正处于一个不同寻常的时刻,这可能是几十年来最重要的拐点。行业领袖认为,新的人工智能系统可能与上世纪90年代初推出的网络浏览器一样重要,可能会在药物研究和教育等领域带来突破。然而,令许多业内人士苦恼的是,他们担心自己正在释放一些危险的东西。AIGC已经可以成为制造错误信息的工具。很快,这可能会对就业构成威胁。科技行业最大的担忧者表示,在未来的某个时候,AIGC甚至可能会对人类生存构成威胁。辛顿博士说:“很难想象如何才能阻止坏人利用它做坏事。”新一代聊天机器人旧金山初创公司OpenAI今年3月发布了新版ChatGPT后,1000多名技术领袖和研究人员签署了一封公开信,呼吁暂停新系统的开发六个月,因为人工智能技术“对社会和人类构成了深刻的风险”。几天后,有40年历史的学术团体人工智能促进协会的19位在任和前任领导人发表了他们自己的公开信,警告人工智能的风险。该组织成员包括微软首席科学官埃里克·霍维茨,而微软已将OpenAI的技术应用于一系列产品,包括必应搜索引擎。常被称为“人工智能教父”的辛顿博士没有在这两封公开信上签名,他说,在辞职之前,他不想公开批评谷歌或其他公司。上个月,他通知公司自己将辞职,并与谷歌及其母公司Alphabet的首席执行官桑达尔·皮查伊通了电话。他拒绝公开讨论与皮查伊谈话的细节。谷歌人工智能业务的首席科学家杰夫·迪恩在一份声明中表示:“我们仍然致力于以负责任的态度开发和部署人工智能技术。我们在不断学习理解新出现的风险的同时,也在大胆创新。”开发神经网络获图灵奖现年75岁的辛顿博士是英国侨民,他一生从事学术工作,其对人工智能的发展和使用的个人信念推动了整个职业生涯的发展。1972年,作为爱丁堡大学的研究生,辛顿博士接受了名为神经网络的想法。神经网络是一种通过分析数据来学习技能的数学系统。当时,很少有研究人员相信这个想法,但这成了他毕生的事业追求。20世纪80年代,辛顿博士成为卡内基梅隆大学的计算机科学教授,但他离开了这所大学前往加拿大,因为他说自己不愿接受美国国防部的资助。当时,美国的大多数人工智能研究都由国防部资助。辛顿博士强烈反对在战场上使用人工智能,他称之为“机器人士兵”。2012年,辛顿博士和他在多伦多的两名学生伊利亚·苏斯凯弗和亚历克斯·克里舍夫斯基建立了一个神经网络,它可以分析数千张照片,并自学识别常见物体,比如花、狗和汽车等。谷歌斥资4400万美元收购了辛顿博士和他的两个学生创办的公司。他们的系统催生了越来越强大的技术,包括ChatGPT和谷歌Bard等新型聊天机器人。苏斯凯弗后来成为OpenAI的首席科学家。2018年,辛顿博士和另外两位长期合作者因在神经网络方面的工作获得了图灵奖,这一奖项通常被称为“计算界的诺贝尔奖”。数字智能更强大大约在同一时间,谷歌、OpenAI和其他公司开始构建从大量数字文本中学习的神经网络。辛顿博士认为,这是机器理解和生成语言的一种强大方式,但它仍不如人类处理语言的方式。去年,随着谷歌和OpenAI构建了使用大量数据的系统,他的观点发生了变化。他仍然认为这些系统在某些方面不如人类大脑,但他认为它们在其他方面使人类的智慧黯然失色。辛顿博士说:“也许这些系统中发生的事情实际上比大脑中发生的事情要好得多。”辛顿博士认为,随着公司对人工智能系统的改进,它们会变得越来越危险。“看看五年前和现在的情况,”他在谈到人工智能技术时说。“它们开似乎接受差异并将其向前传播,这是非常可怕的。”辛顿博士表示:“我现在认为,我们正在创造的数字智能与生物智能截然不同。如果我有1000个数字代理,它们都是完全相同权重的克隆体,每当一个代理学习如何做某事时,所有代理都会立即学会,因为它们共享权重。而生物智能做不到这一点。因此,相同的数字代理集合可以获得比任何单个生物代理多得多的知识。这就是为什么GPT-4比任何同类模型都更强大的原因。”辛顿博士在2021年孟买印度理工学院的毕业典礼上说:“我相信人工智能的快速发展将以我们尚未完全理解的方式改变社会,并不是所有的影响都是好的。”他指出,人工智能可能会促进医学发展,同时也可能被用于创造致命的自主武器。“我发现这种前景比机器人取代人类的前景更直接,也更可怕,我认为机器人取代人类还有很长的路要走。”人工智能竞赛需全球监管辛顿博士透露,直到去年,谷歌一直是这项技术的“适当管理者”,小心翼翼地不释放可能造成伤害的东西。但是现在微软用聊天机器人增强了必应搜索引擎以挑战谷歌的核心业务,后者也开始竞相部署同样的技术。辛顿博士说,科技巨头陷入了一场可能无法阻止的竞争。他最担心的是,互联网上将充斥着虚假的照片、视频和文字,普通人将“再也无法辨别真相”。他还担心人工智能技术最终会颠覆就业市场。如今,像ChatGPT这样的聊天机器人往往是对人类工作者能力的补充,但它们也可能取代律师助理、个人助理、翻译和其他从事机械式重复任务的人。他说:“它们承担了繁重的工作,但带走的可能不止这些。”辛顿博士担心未来的人工智能技术会对人类生存构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为。他说,这成了一个问题,因为个人和公司不仅允许人工智能系统生成自己的计算机代码,还允许它们自己运行这些代码。他担心有一天真正的自主武器(比如杀人机器人)会成为现实。辛顿博士说:“有些人相信,这类机器实际上会变得比人更聪明。但大多数人认为这太离谱了,我也这么认为。我曾预计,这需要30年、50年甚至更长的时间。显然,我现在不再这么认为了。”包括他的许多学生和同事在内的许多其他专家表示,这种威胁属于假想。但辛顿博士认为,谷歌和微软以及其他公司之间的竞争将升级为一场全球竞争,如果没有某种全球性监管,这场竞赛是不会停止的。但辛顿博士认为这个问题很难解决。他说,与核武器不同的是,我们没有办法知道公司或国家是否在秘密开发这项技术,最大的希望是世界领先的科学家携手合作。“我认为人们不应该扩大人工智能研发规模,直到他们明白自己是否可以控制它。”辛顿博士说,当过去人们问他如何才能研发出具有潜在危险的技术时,他会用领导美国制造原子弹的罗伯特·奥本海默的话来解释:“当你看到某种技术上令人兴奋的东西时,你就会去做。”但他现在不再这么说了。来源:腾讯科技版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章