一项人工智能法案,为何让硅谷陷入恐慌?| Q福利
过去几个月里,硅谷的科技公司们持续发出警告,宣称一项即将通过的法案将摧毁美国在人工智能领域的领导地位。
随着人工智能变得越来越复杂,政策制定者们正在采取行动,用来确保这项技术不会产生不可逆转的风险,加州 1047 号提案由此诞生。上个月,加州参议院正式通过了这项提案,该提案将被送交加州众议院进行进一步审议和修改。
鉴于加州是目前世界上最先进的人工智能公司们的所在地,这项提案获得了前所未有的关注度,并招致了众多科技巨头的反对。Meta 首席人工智能科学家杨立昆发文反驳称:1047 号提案将会终结加州技术创新的历史。
人工智能究竟应该如何被监管,我们又需要怎样的人工智能?
如果一家公司制造了一辆非常危险的汽车,并跳过了所有安全测试,结果发生了严重的交通事故。毫无疑问,这家公司会受到处罚,甚至会面临刑事指控。
但如果这家公司开发了一个搜索引擎,有不法分子用它搜索到了“如何犯罪”的相关内容,并也造成了无法挽回的后果,但根据美国《通信规范法》第 230 条(互联网平台不用对其平台上的用户发表的言论负责),这家公司不会因此承担法律责任。
这就有一个问题:人工智能更像是一辆汽车,需要制造商对其进行安全测试;还是更像是一个搜索引擎?
这个问题正是 1047 提案引发激烈争论的核心。如果这项提案最终通过,硅谷那些在人工智能上投入超过 1 亿美元的公司将被强制要求进行安全测试。如果未能遵守这些安全测试要求,这些公司将受到监管部门的处罚,金额最高可达模型开发成本的 30%,开发人员甚至还会面临刑事指控。
在政策制定者们看来,大模型是科技巨头们造的“汽车”,他们应该为对其安全性进行负责,这在全球已经形成了某种程度上的共识,但硅谷的巨头们并不这么想。
在他们看来,讨论人工智能是否安全仍然为时尚早。人工智能科学家吴恩达表示:我不担心人工智能的安全性,就像是我不担心火星会出现仍口过剩一样。杨立昆也在推特(如今的 X)上写道:拥有智慧并不意味着必然会产生统治欲,在人类中,最聪明的人也不一定渴望权力。
需要明确的是,如果 1047 提案最终被通过,它的确会大幅度增加大公司们的开发成本,从而可能改变它们在人工智能这项业务上的策略(比如不再对自己的大模型开源),最终影响整个软件开发的生态,甚至扼杀新兴的人工智能创业公司。
在这项提案的要求里,尽管公司对开发的人工智能进行了“对齐”,使其不会做有害于人类的事情并对其进行了开源,然而如果有其它的开发者撤销了这项调整,然后用它去做坏事,这家公司仍然要对所造成的损害负责,这看起来并不合理。
更值得担心的是,我们已经在许多行业见证过,过度的合规要求将占用大量的时间和精力,从而影响核心业务的进展。
这项提案的编写者 Scott Wiener 表示,针对外界的担忧,他已经对提案做出了一定的修改。他调整了提案涉及的大模型标准,并澄清开发者们并不需要对其开源所造成的负面影响负全责。Scott Wiener 还指出,他愿意做出更多的调整,他的本意只是希望人们要注意人工智能的安全,这一点很重要。
目前,人工智能可能会造成的风险可以分为两种:意外后果和故意滥用。
意外后果是许多科幻作品经常预测的场景:当人工智能不断进化,它们开始拥有自主的意识。如果它们与人类的基本价值观相冲突,就可能会导致灾难性的结果。
1047 提案似乎侧重于解决这一类风险,它预设了人工智能本身是危险的,要求开发人员对大模型进行安全评估,以识别可能存在的风险。1047 提案还要求,当人工智能出现问题时能够及时将其关闭,并且需要报告给新成立的监管部门。即使大模型运行良好,开发者也需要通过“安全认定”来证明技术是安全的。该认定每年都需要进行一次。
虽然这些规定从表面上看似乎很合理,但在实践中却不大可能非常有效。意外结果之所以被称为意外,是因为难以预测和预防的。无论是科学界还是商业界,都还没有真正解决好人工智能对齐的难题,即使采取了最严格的安全评估和预防措施,人工智能系统也有可能以有害的方式发展。
更值得担心的是故意滥用——将人工智能武器化,对人类造成伤害。目前,1047 提案几乎没有采取任何措施来解决那些心怀不轨的人类滥用人工智能的风险。这类人不太可能遵守立法的要求,他们也很大概率在加州的管辖范围之外,这使得执行这项提案变得困难。
初创公司 Zapier 的联合创始人兼人工智能负责人 Mike Knoop 提到:我个人希望看到的是,我们监管不良用例和不良用户,而不是开发和研究人员。
过去,人类面对技术的进步,往往都采取了谨慎的原则,比如限制获取浓缩铀等裂变材料的途径,从而避免非法分子制造大型杀伤武器的可能性。这对于这类易于识别的危险非常合理,然而,到了人工智能,情况变得有些复杂。
人工智能带来的潜在威胁经常被提及,但它可能造成的生存威胁显然并非迫在眉睫,带来的好处却是显而易见的,从语言翻译到前沿科学的研究,人工智能的潜在效益是如此巨大。退一步来讲,人工智能的带来的风险也是一个持续挑战,它也不太可能通过一项法案来解决问题,更需要的应该是一种“共识”。
被誉为“AI 教母”的李飞飞在她的自传《我看见的世界》中提到:在科学和工业领域,推动人工智能发展的动机是什么,这个问题非常重要。我认为这个动机必须明确地以人为本。
人工智能目前并未对我们的生活造成威胁,但美国国家标准与技术研究院、国土安全部和 “AI 教父”杰弗里·辛顿(Geoffrey Hinton)一致认为,危险很快就会到来,已经有超过 70% 的研究人员对该技术潜在的滥用风险表示“实质性”担忧。
有顾虑的不仅仅是技术人员。根据调查,近 40% 的美国人对人工智能的使用担忧多于兴奋,而只有 15% 的人表示相反。
这是个巨大的理解鸿沟,技术人员不仅需要向公众作出解释,也需要弥合他们与研究人员的理解偏差。
杨立昆在他的自传《科学之路》中提到:我们对人工智能想要获得权力的恐惧主要来自人性特质在机器上的投射。大多数人容易混淆智力和人性,统治的意愿与智力无关,更多的是睾丸素分泌的问题。我们之中最聪明的人并不总是渴望成为领导者,在国际政治舞台上有很多明显的例子。一些商业公司经常会邀请优秀的科学家担任管理者,但许多人都拒绝了,他们更想直接参与研究而非管理。
以非社会性物种红毛猩猩为例,它们几乎和人类一样聪明,其大脑尺寸是我们的一半。红毛猩猩是独居动物,它们会避免进入其他群体的领地,它们的社交关系仅限于两年内的母子关系以及地盘冲突。进化并没有使它们产生统治自己邻居的欲望: 没有社会结构,就没有统治体系。
人类为了生存,进化出了许多冲动和情感,其中包括好奇心,对探索的渴望、竞争力、屈服、渴望与我们的同类接触、爱、仇恨、掠食,以及我们对家庭成员、我们的部族、我们的文化、我们的国家的偏爱。只有当我们在智能机器中明确地建立了这种欲望时,它们才会渴望统治人类。
人类在将道德价值体系编纂入法律方面具有丰富的经验,这些价值会被编码,以使得许多非凡的智慧和力量的实体得以良好运转。另一方面,这些价值也被教育编码:几千年来,我们一直在教育孩子辨别是非,并努力在社会中表现良好。我们也有理由相信,人类也可以把这些编码在机器当中。
“图灵奖”得主、“深度学习三巨头”之一、“卷积神经网络之父”,杨立昆的科学之路,谱写了一段关于勇气的宣言。他为了知识本身求学,而不是文凭,他用自己的经历,证明了通过激烈的考试竞争进入名校不是科学成功的唯一路径。他广泛阅读,为他科学思维的形成奠定了坚实的理论基础。他特立独行,做自己感兴趣的事情,即便那件事在短时间里不被人看好。在人工神经网络研究的低谷期,他寂寞地坚持,终于取得了举世瞩目的成就。
人工智能正在颠覆人类社会,未来机器能思考吗?杨立昆的这部著作,讲述正是人工智能在我们面前崛起——这个历史上绝无仅有的时刻发生的故事。
为答谢读者朋友们的支持,「AI 前线」为大家准备了 3 本《科学之路》纸质书籍。关注「AI 前线」公众号,回复「科学之路」参与抽奖,开奖时间:7 月 12 日 18:00。
今日荐文
微信扫码关注该文公众号作者