突破 | 欧盟《人工智能法案》: 欧盟理事会和欧洲议会达成协议!全球首个人工智能法律只差临门一脚!
人工智能治理专家认证CAIGP培训课程
(Certifitied Artificial Intelligence Governance Professional)
CAIGP聚焦如何根据全球新兴法律和标准开发、集成和部署可信AI系统。课程包括AI技术、全球现行法律标准、全生命周期风险管理及国际标准、伦理审查最佳实践等主题。
如果您希望参加培训,或参与课程研发,或成为讲师?或有合作意向?请联系徐博士
经过 3 天的 "马拉松式 "会谈,欧盟理事会主席国和欧洲议会谈判代表就人工智能(AI)统一规则提案(即所谓的人工智能法案)达成了临时协议。该法规草案旨在确保投放到欧洲市场并在欧盟使用的人工智能系统是安全的,并尊重基本权利和欧盟价值观。这项具有里程碑意义的提案还旨在刺激欧洲的人工智能投资和创新。
西班牙数字化和人工智能国务秘书卡梅-阿蒂加斯:
这是一项历史性成就,也是迈向未来的巨大里程碑!今天的协议有效地解决了在快速发展的技术环境中,我们社会和经济未来的关键领域所面临的全球性挑战。在这一努力中,我们成功地保持了极为微妙的平衡:在促进全欧洲人工智能创新和应用的同时,充分尊重我们公民的基本权利。
人工智能法案是一项旗舰立法举措,有可能促进欧盟单一市场上私营和公共行为者开发和采用安全可信的人工智能。其主要理念是根据人工智能对社会造成危害的能力,采用 "基于风险 "的方法对其进行监管:风险越高,规则越严格。作为世界上首个同类立法提案,它可以为其他司法管辖区的人工智能监管制定全球标准,就像 GDPR 所做的那样,从而在世界舞台上推广欧洲的科技监管方法。
临时协议的主要内容
与欧盟委员会的初步提案相比,临时协议的主要新内容可归纳如下:
针对未来可能引发系统性风险的高影响通用人工智能模型以及高风险人工智能系统的规则 修订管理制度,在欧盟层面赋予一定的执行权力 扩大禁止清单,但执法部门可在公共场所使用远程生物识别技术,但须有保障措施 在人工智能系统投入使用之前,高风险人工智能系统的部署者有义务进行基本权利影响评估,从而更好地保护权利。
具体而言,临时协议包括以下方面:
定义和范围
为确保人工智能系统的定义提供足够明确的标准,以区分人工智能和更简单的软件系统,折中协议将定义与经合组织提出的方法保持一致。
临时协议还明确指出,该法规不适用于欧盟法律范围之外的领域,在任何情况下都不应影响成员国在国家安全方面的权限或受托执行该领域任务的任何实体。此外,人工智能法案将不适用于专门用于军事或国防目的的系统。同样,协议还规定,该法规不适用于仅用于研究和创新目的的人工智能系统,也不适用于出于非专业原因使用人工智能的人。
将人工智能系统划分为高风险和被禁止的人工智能行为
折中协议规定了一个横向保护层,包括高风险分类,以确保不可能造成严重侵犯基本权利或其他重大风险的人工智能系统脱离监管。风险有限的人工智能系统将承担非常轻微的透明度义务,例如披露内容是人工智能生成的,以便用户就进一步使用做出知情决定。
范围广泛的高风险人工智能系统将获得授权,但必须遵守一系列要求和义务,才能进入欧盟市场。共同立法者对这些要求进行了澄清和调整,使其在技术上更加可行,减轻了利益相关者的负担,例如在数据质量方面,或在中小型企业为证明其高风险人工智能系统符合要求而应起草的技术文件方面。
由于人工智能系统是通过复杂的价值链开发和销售的,因此折中协议包括一些修改,明确了这些价值链中各行为方的责任分配和作用,特别是人工智能系统的供应商和用户。它还澄清了《人工智能法》规定的责任与其他立法(如相关的欧盟数据保护或部门立法)规定的责任之间的关系。
对于人工智能的某些用途,风险被认为是不可接受的,因此这些系统将被禁止在欧盟使用。例如,临时协议禁止认知行为操纵、从互联网或闭路电视录像中无针对性地截取面部图像、工作场所和教育机构中的情绪识别、社交评分、用于推断敏感数据(如性取向或宗教信仰)的生物特征分类,以及某些针对个人的预测性警务。
执法例外
考虑到执法部门的特殊性,以及有必要保持其在重要工作中使用人工智能的能力,与会者同意对委员会提案中有关为执法目的使用人工智能系统的部分进行修改。在有适当保障措施的情况下,这些改动旨在反映尊重与其活动有关的敏感业务数据保密性的必要性。例如,引入了一项紧急程序,允许执法机构在紧急情况下部署未通过符合性评估程序的高风险人工智能工具。不过,还引入了一个具体机制,以确保充分保护基本权利,防止人工智能系统可能被滥用。
此外,关于在公共场所使用实时远程生物识别系统的问题,临时协议明确了为执法目的而绝对有必要使用这种系统的目标,因此应例外允许执法当局使用这种系统。折中协议规定了额外的保障措施,并将这些例外情况限制在某些罪行的受害者、防止真正的、当前的或可预见的威胁(如恐怖袭击)以及搜查最严重罪行的嫌疑人等情况。
通用人工智能系统和基础模型
新增条款考虑到了人工智能系统可用于多种不同目的(通用人工智能)的情况,以及通用人工智能技术随后被集成到另一个高风险系统中的情况。临时协议还涉及通用人工智能(GPAI)系统的具体情况。
对于基础模型,即能够胜任各种独特任务的大型系统,如生成视频、文本、图像、横向语言对话、计算或生成计算机代码,也商定了具体规则。临时协议规定,基础模型在投放市场前必须遵守特定的透明度义务。针对 "高影响 "基础模型引入了更严格的制度。这些基础模型经过大量数据训练,具有先进的复杂性、能力和性能,远远高于平均水平,可在价值链中传播系统性风险。
新的治理架构
根据有关 GPAI 模型的新规则以及在欧盟层面执行这些规则的明显需要,欧盟委员会成立了一个人工智能办公室,负责监督这些最先进的人工智能模型,促进标准和测试实践的发展,并在所有成员国执行共同规则。一个由独立专家组成的科学小组将就 GPAI 模型向人工智能办公室提供建议,具体做法是协助制定评估基础模型能力的方法,就高影响基础模型的指定和出现提供建议,以及监测与基础模型相关的可能的重大安全风险。
由成员国代表组成的人工智能委员会将继续作为委员会的协调平台和咨询机构,并将在条例的实施,包括地基模型实践准则的设计方面为成员国发挥重要作用。最后,还将设立一个利益相关者咨询论坛,如行业代表、中小企业、初创企业、民间社会和学术界,为人工智能委员会提供专业技术知识。
处罚
对违反《人工智能法》行为的罚款额定为违规公司上一财政年度全球年营业额的一定百分比或预定金额,以较高者为准。其中,违反被禁止的人工智能应用软件的行为将被处以 3500 万欧元或 7%的罚款,违反人工智能法案义务的行为将被处以 1500 万欧元或 3%的罚款,提供错误信息的行为将被处以 750 万欧元或 1.5%的罚款。不过,临时协议对中小型企业和初创企业违反人工智能法条款的行政罚款规定了更适度的上限。
折衷协议还明确规定,自然人或法人可就不遵守 AI 法案的行为向相关市场监督机构提出投诉,并可期望此类投诉将按照该机构的专门程序得到处理。
透明度和基本权利保护
临时协议规定,在高风险人工智能系统的部署者将其投入市场之前,必须进行基本权利影响评估。临时协议还规定提高使用高风险人工智能系统的透明度。值得注意的是,对欧盟委员会提案中的一些条款进行了修订,以表明高风险人工智能系统的某些公共实体用户也有义务在欧盟高风险人工智能系统数据库中注册。此外,新增加的条款强调,情感识别系统的用户有义务在自然人接触此类系统时通知他们。
支持创新的措施
为了建立一个更有利于创新的法律框架,并促进以证据为基础的监管学习,与欧盟委员会的提案相比,有关支持创新的措施的条款有了大幅修改。
值得注意的是,人工智能监管沙盒本应为人工智能创新系统的开发、测试和验证建立受控环境,但也应允许在现实条件下对人工智能创新系统进行测试。此外,还增加了新的规定,允许在特定条件和保障措施下,在真实世界条件下测试人工智能系统。为了减轻小型公司的行政负担,临时协议包括了一份为支持此类运营商而采取的行动清单,并规定了一些有限且明确的减损。
生效
临时协议规定,人工智能法案应在生效两年后适用,但某些具体条款除外。
下一步行动
在今天达成临时协议之后,未来几周将继续开展技术层面的工作,以最终确定新法规的细节。这项工作结束后,主席国将向成员国代表(Coreper)提交折中文本,供其批准。
在共同立法者正式通过之前,整个文本将需要得到欧盟两个机构的确认,并进行法律语言方面的修订。
背景资料
欧盟委员会于 2021 年 4 月提出的提案是欧盟政策的关键要素,旨在促进尊重基本权利的安全、合法人工智能在整个单一市场的发展和普及。
该提案采用基于风险的方法,为人工智能制定了统一的横向法律框架,旨在确保法律的确定性。该法规草案旨在促进人工智能领域的投资和创新,加强治理和有效执行有关基本权利和安全的现行法律,并促进人工智能应用单一市场的发展。它与其他倡议齐头并进,包括旨在加快欧洲人工智能投资的人工智能协调计划。2022 年 12 月 6 日,欧盟理事会就该文件的一般方法(谈判授权)达成一致,并于 2023 年 6 月中旬与欧洲议会进行机构间会谈("三方会谈")。
以下是欧盟《人工智能法》提案(2022 年 12 月 6 日,部分内容)
微信扫码关注该文公众号作者