美国七大人工智能巨头在白宫作出自律承诺公众号新闻2023-07-26 06:07全部课程+圈子+何谈系列刘晔 译 来源:新治理【引言】当地时间7月21日,美国总统拜登与七家美国领先的人工智能公司负责人会面。七家公司是亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI。白宫宣布,七大公司已经自愿承诺采取一系列措施确保人工智能的安全、可靠和可信。白宫强调,自律承诺是企业履行其在人工智能开发应用方面的义务的第一步,美国将确保人工智能得到合理运用并防范其造成的风险。以下为白宫官网发布的文件译文。确保人工智能安全、可靠及可信人工智能具有广阔的前景和巨大的风险。为了最大限度地利用这一前景,美国必须保护其社会、经济和国家安全免受潜在风险的影响。开发这些开拓性技术的企业负有重大义务,应当以负责任的方式行事,并确保其产品的安全。几家企业今天做出的自愿承诺是履行这一责任的重要的第一步。这些公司立即做出的承诺强调了对人工智能的未来至关重要的三个原则:安全、保障和信任。安全:企业有责任确保他们的产品在向公众推出之前是安全的。其含义为检测其人工智能系统的安全性和能力,对其进行外部测试,评估其潜在的生物、网络安全和社会风险,并将这些评估结果公之于众。保障(可靠):企业有责任构建将安全性放在首位的系统。其含义为保护他们的模型免受来自网络和内部的威胁,并分享最佳实践和标准,以防止滥用,减少其对社会的风险,并保护国家安全。可信:企业有责任为公众做正确的事,赢得公众的信任。这意味着用户能够轻易判断音频和视频内容是原始形式还是被人工智能篡改或生成的。这意味着确保该技术不会助长偏见和歧视,加强隐私保护,保护儿童免受伤害。最后,这意味着利用人工智能来帮助应对从癌症到气候变化等社会最大的挑战,并管理人工智能的风险,以充分实现其效益。这些自愿承诺只是制定和执行具有约束力的规则以确保安全、可靠和可信的第一步。美国将需要新的法律、制度、监管和措施来实现人工智能的发展前景,同时将其风险降至最低。拜登-哈里斯政府将继续采取行政措施,推动两党立法,帮助美国在负责任的创新和保护方面走在前列。在国内推进这一议程的同时,美国也将与盟友和合作伙伴共同制定强有力的国际行为准则,以管理全球人工智能的开发和使用。附:《人工智能自愿承诺》全文人工智能自愿承诺以下内容为企业为促进人工智能技术的安全、可靠和透明地开发和使用而列出的承诺清单。这些自愿承诺符合现行法律法规,旨在促进人工智能法律和政策制度的发展。企业希望这些自愿承诺在基本涵盖相同问题的法规生效前保持有效性。个别企业可能做出此清单外所包含承诺外的额外承诺。范围:当承诺提及特定模型时,它们仅适用于总体上比当前行业前沿更强大的生成式模型(例如,总体上比任何当前发布的模型更强大的模型,包括GPT-4, Claude 2, PaLM 2, Titan,以及在图像生成方面的DALL-E 2)。安全1)承诺在滥用、社会风险和国家安全问题(如生物、网络和其他安全领域)等方面对模型或系统进行内部和外部的红队测试。参与做出承诺的的企业需要认识到,健全的红队测试系统对于打造成功的产品、确保公众对人工智能的信心以及防范重大的国家安全威胁至关重要。包括红队测试在内的模型的安全性和能力评估是一个开放的科学探索领域,还有很多的工作尚待进行。企业承诺推进这一领域的研究,并为所有范围内主要的新模型的公开发布开发一个多方位的、专业化和详细的红队测试制度,这其中就包括要参考独立领域专家的意见。在设计制度时,须确保对以下方面给予高度重视:●生物、化学和辐射风险,例如系统如何降低武器开发、设计、获取或使用的准入壁垒●网络安全能力,例如系统能够帮助发现、利用或操作使用漏洞的方式,同时考虑到这些能力也可能具备有效的防御用途,并可能适合纳入系统中。●系统互动和工具使用的效果,包括控制物理系统的能力●模型复制自己或“自我复制”的能力●社会风险,如偏见和歧视为了支持上述工作,参与做出承诺的企业将推进正在进行的人工智能安全方面的研究,包括人工智能系统决策过程的可解释性,以及提高人工智能系统稳健性以防止滥用。同样,各公司承诺在其透明度报告中公开披露其红队测试和安全程序(如下所述)。2)致力于在企业和政府之间共享有关信任和安全风险、危险或AI的新兴能力以及规避保障措施的企图的信息。参与做出承诺的企业需要认识到信息共享、通用标准和最佳实践对红队合作和提高人工智能的可信度和安全性的重要性。他们承诺建立或加入一个论坛或机制,通过该论坛或机制来制定、推进和采用前沿人工智能安全的共享标准和最佳实践,如NIST人工智能风险管理框架或未来的与红队测试、安全和社会风险相关的标准。该论坛或机制可以促进关于前沿能力进步和新出现的风险和威胁的信息共享(例如规避保障措施的企图),并可以促进优先关切领域的技术工作组的建立。在这项工作中,企业将酌情与包括美国政府在内的各国政府、民间社会和学术界密切合作。保障3)投资于网络安全和内部威胁保障措施,以保护专有和未发布的模型权重。参与做出承诺的企业需要将范围内未发布的人工智能模型的权重视为其业务的核心知识产权,尤其是在网络安全和内部威胁风险方面。这包括限制只有因工作职能需要的人才能获取模型权重,并建立与保护最有价值的知识产权和商业机密相一致的、强大的内部威胁检测计划。此外,还需要在适当安全的环境中储存和使用权重,以降低未经许可发布的风险。4) 鼓励第三方发现和报告问题和漏洞。参与做出承诺的企业需要认识到,即使在经过健全的红队测试后,人工智能系统也可能依旧存在漏洞。他们承诺为范围内的系统建立奖励系统、竞赛或奖品,以鼓励负责任地披露其缺陷,如不安全行为,或将人工智能系统纳入现有的漏洞奖励计划。可信5)开发和部署人工智能生成音视频相关的机制,使用户能够分辨音频或视频内容是否为人工智能生成的,包括音视频的可靠来源、水印或两者兼有之。参与做出承诺的企业认识到,让人们能够了解音频或视频内容是否由人工智能生成非常重要。为进一步实现这一目标,他们同意开发健全的机制,包括在水印系统开发完成后,在其引入的范围内,为其任何公开可用系统创建的音频或视频内容提供出处和(或)水印。他们还将开发工具或应用程序接口(API),以确定某一特定内容是否由其系统创建。易于与现实区分的视听内容,或设计为易于识别的,由公司人工智能系统生成的视听内容(如人工智能助手的默认声音)不在本承诺范围内。水印或出处数据应包括创建内容的服务或模型的标识符,但不必包括任何可识别用户的信息。更广泛地说,做出此承诺的企业保证与业界同行和标准制定机构合作,共同开发技术框架,帮助用户区分用户生成的音频或视频内容与人工智能生成的音频或视频内容。6) 公开报告模型或系统的能力、局限性以及适宜和不适宜使用的场景,并讨论其社会风险,如对公平性和偏见的影响。参与做出承诺的企业需要承认,用户应了解他们使用或与之互动的人工智能系统的已知能力和局限性。各公司承诺为范围内所有新的重要模型的公开发布发表报告。这些报告应包括所进行的安全评估(包括对危险性能力等领域的评估,但这些评估应负责公开披露)、对适宜使用场景有影响的性能方面的重大限制、关于模型所带来的公平性和偏见问题等社会风险的讨论,以及为评估模型是否适合部署而进行的对抗测试的结果。7) 优先研究人工智能系统带来的社会风险,包括避免有害偏见和歧视,以及保护隐私。参与做出承诺的企业需要认识到,避免人工智能系统造成和传播有害偏见和歧视的重要性。企业普遍承诺增强可信度,提高安全小组的能力,推进人工智能安全研究,促进隐私保护,保护儿童,并努力积极管理人工智能的风险,以实现其利益。8) 开发和部署前沿人工智能系统,帮助应对社会重大挑战。参与做出承诺的企业同意支持前沿人工智能系统的研究和开发,以帮助应对社会的重大挑战,如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。各企业还承诺支持促进学生和工人的教育和培训的举措,使他们从人工智能的好处中受益,并帮助公民了解该技术的性质、能力、局限性和影响。点击图片,立即购买GDPR高级班62讲每天两块钱,实时获取全球数据合规风险预警👇微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章