科学治理人工智能:构建最佳治理框架
(本文阅读时间:14分钟)
“不要问计算机能做什么,而要问它们应该做什么。”
2019年,在一本我参与合著的关于人工智能伦理的书中,上面这句话是其中一个章节的标题。当时,我们写道:“这可能是我们这一代人面临的最核心的问题之一。”四年过去了,这个问题不仅引起了全世界的关注,而且成为许多人茶余饭后的话题。
那些曾经使用,或是听说过 Open AI 的 GPT-4 基础模型的人,多半会为其强大的能力感到震惊。有人为此激动不已,也有人因此对未来充满担忧。但有一点毋庸置疑,早在四年前,我们就已经意识到,我们正在创造人类历史上第一代能像人类一样做决策的机器。
大家提出的共同问题是,如何利用这项新技术解决我们的问题?我们又该如何防范和应对由新技术可能引发的新问题?我们应该如何掌控如此强大的技术?
要解决这些问题,不仅需要广泛而深入的讨论,还需要果断而有效的行动。这篇报告将从企业的视角提供一些思路和建议。
这些建议基于多年来我们在实际工作中积累的经验。早在2016年,微软首席执行官萨提亚·纳德拉(Satya Nadella)就曾指出:“或许我们最需要进行的讨论并非是关于善恶,而是应该向创造这项技术的人或组织传递怎样的价值观。”
自那时起,我们就通过定义、发布和实施人工智能的伦理准则来指导我们的工作,并通过建立不断优化的工程和治理体系,将伦理准则付诸实践。如今,微软设立了近350人的团队,专注于推动负责任的人工智能,确保我们能够最大程度地构建安全、可靠和透明的人工智能系统,以造福全社会。
第一,构建并实施以政府为主导的人工智能安全框架。通向成功的道路往往建立在他人的成功经验之上,对于需要快速推进的项目来说更是如此。在这种情况下,我们可以借鉴公共部门和商业机构已有的人工智能风险管理条例,结合本地化需求有的放矢地完善人工智能安全框架。
作为例证,首先,特定的、强大的人工智能模型开发者需要“了解云”,即了解他们的模型在哪个云平台上进行开发和部署。
其次,对于涉及敏感用途的情况,那些直接面对客户的公司(无论是模型开发者、应用提供者还是托管模型的云服务提供商)都应该“了解客户”。
最后,公众有知情权,即通过标签或其他标识方式,告知人们某个视频或音频文件是由人工智能模型生成的,而非人类创作。这种标注义务还可保护公众免受“被篡改的内容”和“深度伪造的内容”的影响。这些都需要制定新的法律条款,并且还有许多重要的问题和细节有待解决。细致缜密的措施将有助于遏制利用新技术欺骗欺诈公众的行为,未来社会的和谐发展都将得益于此。
第四,提高人工智能的透明度,确保学术界和非营利组织能够获得人工智能资源。我们认为提高透明度并扩大人工智能访问的授权范围是很关键的公共目标。虽然透明度与安全需求之间存在一些相悖之处,但我们仍有很多机会能以负责任的方式使人工智能系统更加透明——这就是微软承诺每年发布一份人工智能透明度报告的原因。我们还会采取多项举措进一步扩大人工智能服务的透明度。
我们认为,扩大学术机构和非营利组织获得人工智能资源的机会至关重要。应拓宽学术研究人员获取人工智能资源的途径,否则科学技术研究(包括与人工智能本身有关的研究)将面临真正的风险。我们呼吁采取新的措施,包括微软已经在执行的多项举措,以期优先应对上述挑战。
第五,积极推动公共机构和商业组织的广泛合作,将人工智能作为一种有效的工具,去应对新技术带来的,不可避免的社会挑战。近年来,我们总结出一项经验:利用技术的力量将公共部门和商业机构联合起来,便会取得令人瞩目的成就。我们可以借鉴这一经验,抵御人工智能对社会的消极影响。
我们要保持清醒的乐观主义精神,人工智能是一种非凡的工具,但它也像其他技术一样,可能会在一些目的不良之人的手中变成可怕的武器。幸而,我们可以从过往经验中获得一些信心——我们发现,当公共部门和商业机构共同努力,并与志同道合的盟友团结一致时,便能将我们所开发的技术当做“盾牌”来使用,它将会比地球上任何一柄“利剑”都更为强大。
目前工作的重点是,如何利用人工智能来保护人民的基本权利,拓宽获得人工智能资源的机会,以提高包容性,并利用人工智能的力量推进地球的可持续发展。或许,最重要的是,新一轮人工智能技术为我们提供了一个大胆思考、勇敢行动的机会。在任一领域,成功的关键都在于制定具体的倡议,并且联合政府、受人尊敬的企业和充满活力的非政府组织共同推动这些倡议的落地。对此,我们在报告中提出了一些初步的想法,并期待在未来的几个月或几年中能够取得更多的进展。
最终,每个创建或使用人工智能系统的组织都需要开发和实施自己的治理体系。报告的第二部分描述了微软的人工智能治理体系,包括我们的起点、现状及未来的发展方向。
正如第二部分内容所指出的,为新技术建立一个新的治理体系本身就是一段漫长的旅程。十年前,我们对这一领域的探索几乎为零。如今,微软有近350名专业人员致力于推动该领域的发展,我们还计划进一步扩大该团队的规模和投入。
过去六年,我们在微软内部建立起了更为全面的人工智能治理框架和体系。我们并非完全从零开始,而是从隐私保护和数字安全等优秀实践案例中汲取经验,它们和人工智能治理一样,都是企业风险管理(Enterprise Risk Management)体系的一部分,而后者已经成为世界上许多公司和组织的重要管理手段之一。
在人工智能领域,我们首先制定了伦理准则,然后将其转化为更具体的企业政策。目前我们已经在执行第二版的企业相关标准,该标准充分体现了上述伦理准则,并为我们的工程团队制定了更为精细的实践方法。我们通过培训、使用工具和测试系统来实施这一标准,并不断快速地完善它们。此外,我们还建立了监控、审计与合规措施等额外的治理流程。
和我们在生活中一样,经验永远是最好的老师。在人工智能治理方面,我们从审查敏感的人工智能应用案例中获得重要的经验。2019年,我们开启了敏感用途审查计划,对最敏感和最新颖的人工智能应用案例进行严格的专业审查。截至目前,我们已经完成了大约600个敏感用途案例的审查工作。随着人工智能技术的高速发展,这一审查计划的进程也不断加快——在过去的11个月当中,我们对近150个敏感用途案例进行了审查。
这一切都基于我们过去所做的工作,我们将继续通过企业文化推动负责任的人工智能发展。这意味着我们将招聘更多的新型多元化人才,来推动我们负责任的人工智能生态系统的发展。微软还会持续投资已有人才,培养他们的相关技能,使他们能够广泛思考人工智能系统对个人和社会的潜在影响。这也意味着,与过去相比,技术前沿更需要以多学科并举的方式来进行探索,即将优秀的工程师与才华横溢的文科专业人才结合起来。
报告提供的所有内容,都秉持负责任的精神,希望可以共同开创人工智能的未来之路。我们需要共同探索、相互学习,无论我们认为今天有多美好,都不能因此停滞不前。
随着技术变革的加速,负责任的人工智能治理工作也必须齐步而行。通过正确的承诺和投资,我们相信这是完全可行的。
你也许还想看:
微信扫码关注该文公众号作者