专家呼吁监管GPU性能,不让AI成为脱缰野马
👆如果您希望可以时常见面,欢迎标星🌟收藏哦~
来源:内容由半导体行业观察(ID:icbank)编译自wired,谢谢。
即使是最聪明、最狡猾的人工智能算法也可能必须遵守硅定律。它的功能将受到其运行的硬件的限制。一些研究人员正在探索如何利用这种联系来限制人工智能系统造成伤害的可能性。
这个想法是将管理高级算法的训练和部署的规则直接编码到运行它们所需的计算机芯片中。
理论上,目前关于危险的强大人工智能存在很多争论的领域——这可能提供一种强大的新方法来防止某些国家或不负责任的公司秘密开发危险的人工智能。而且比传统法律或条约更难规避。美国颇具影响力的外交政策智库新美国安全中心(Center for New American Security,简称CNAS)本月早些时候发布的一份报告概述了如何谨慎地利用受限的芯片来执行一系列人工智能控制。
一些芯片已经配备了值得信赖的组件,旨在保护敏感数据或防止滥用。例如,最新的 iPhone 将个人的生物识别信息保存在“secure enclave”中。谷歌在其云服务器中使用了定制芯片,以确保任何内容都不会被篡改。
该论文建议在GPU 中内置类似功能,或者将新功能蚀刻到未来的芯片中,以防止人工智能项目在未经许可的情况下访问超过一定数量的计算能力。由于训练最强大的人工智能算法(例如 ChatGPT 背后的算法)需要强大的计算能力,这将限制谁能够构建最强大的系统。
CNAS 表示,许可证可以由政府或国际监管机构颁发,并定期更新,从而可以通过拒绝新许可证来切断人工智能训练的机会。“你可以设计协议,比如说为了安全起见,只有在运行特定评估并获得高于特定阈值的分数时才能部署模型,”CNAS 研究员、该论文的三位作者之一蒂姆·菲斯特 (Tim Fist) 说道。
一些人工智能杰出人士担心,人工智能现在变得如此智能,有一天可能会变得不守规矩且危险。更直接的是,一些专家和政府担心,即使现有的人工智能模型也可能使开发化学或生物武器或自动化网络犯罪变得更容易。华盛顿已经实施了一系列人工智能芯片出口管制,以限制某些国家获得最先进的人工智能,担心它可能被用于军事目的——尽管走私和巧妙的工程已经提供了一些解决办法。英伟达拒绝置评,但由于美国上次的出口管制,该公司已经失去了价值数十亿美元的订单。
CNAS 表示,尽管对计算机硬件进行硬编码(hard-coding)限制似乎有些极端,但建立基础设施来监控或控制重要技术以及执行国际条约是有先例的。“如果你考虑核安全和防扩散,核查技术绝对是保证条约的关键,”CNAS方便表示。“我们现在用来探测地下核试验的地震仪网络是条约的基础,这些条约规定我们不得测试超过一定千吨阈值的地下武器。”
CNAS 提出的想法并不完全是理论上的。Nvidia 最重要的人工智能训练芯片对于构建最强大的人工智能模型至关重要,已经配备了安全的加密模块。2023 年 11 月,生命未来研究所(一家致力于保护人类免受生存威胁的非营利组织)和安全初创公司 Mithril Security 的研究人员创建了一个演示,展示了如何将英特尔 CPU 的安全模块用于加密技术。可以限制未经授权使用人工智能模型的方案。
这种概念验证对于真正的人工智能训练来说是不切实际的,但它展示了公司如何向客户提供模型,并保证模型的权重(定义其行为的关键特征)无法访问。它还可以防止超过一定的计算阈值,并提供一个远程“终止开关”,可以将其发送到芯片以禁用模型。
由于技术和政治原因,开发和部署真正的“seismometers”或人工智能硬件控制可能会更加困难。需要开发新的加密软件方案,或许还需要开发未来人工智能芯片中的新硬件功能。这些技术必须能够被科技行业所接受,同时对于拥有先进芯片制造设备的外国对手来说,这些技术的成本也很高且不切实际。
然而,以前以国家安全的名义阻碍计算机的努力——比如 20 世纪 90 年代为美国国家安全局提供后门进入加密信息的 Clipper 芯片——并没有取得巨大成功。
原文链接
https://www.wired.com/story/fast-forward-ai-silicon-doomsday/
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3661期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
微信扫码关注该文公众号作者