谁为机器人的行为负责?
文 | 懒残僧
最近被朋友推荐了一部电影,叫做《her》,2013年上映。电影的内容正是应景,讲的是男主爱上聊天机器人的故事。在电影中,个性化的聊天机器人让你感觉世界上只有它才“懂你”。
实际上,我给GPTchat发了几篇之前写的书籍短评,它的回应也让我有一种同层次对话的感觉。后来聚会时,有相关方面的朋友告诉我。GPTchat只是提取信息,打散重装,进行肯定。它其实只是将我说的话通过某种方式再重述一遍而已。
提到这部电影,其实我想说的是,虽然GPT这个爆炸性的人工智能出现。但是,它仍然处于科幻小说的预测之中。同样,学术界早就为人工智能的到来做好准备,讨论可能出现的种种问题。“独角兽法学精品·人工智能”便是专门探讨人工智能与法律的碰撞的一套书。这套书有近十本,其中也有重复讨论的地方。今天给大家讲讲其中的《谁为机器人的行为负责?》。
在我国的司法考试中,责任的划分经常是一大难题。18年一道民法题甚至上了当时的热搜,就是考到了多重严格责任的混合。“小赵带着小钱家的狗到小孙家做客参加聚会,小赵想把狗放在阳台上,小孙提醒说狗在阳台上容易掉下去砸到其他人。结果狗果然掉下去,还砸伤了同样前来参加小孙家聚会的小李。此时试问:赵、钱、孙谁该负责?”值得一提的是,这个案子是根据现实改编,18年真的有一个天上掉狗把人砸瘫痪的新闻。
拿机器人和狗类比是非常合适的,目前阶段的人工智能,可能和狗一样,在某些专业能力上远超人类,然而就综合智力来讲,却又是非常低能的,需要被人类管理。提到狗,就要提起宠物伤人的严格责任,这是一个法律概念。正常法庭上的举证,是谁主张谁举证,主张方需要举证对方有过错。而严格责任则不然,除非养狗人能证明是受害者(第三方)故意自陷危险(比如踢狗),否则都应该追求养狗人的责任。
按照拆解的方法,我们可以把上面这条拆解为,主体、豁免、严格责任和他人过错。关于“他人责任”,我在上篇读书笔记已经讲过。比如如果是产品设计有缺陷,就应该追究设计方的责任;如果是生产过程制造了次品,就应该追究制造方的责任;如果是监控方监管时有疏忽,就应该追究监控方的责任;如果是第三方的问题,那应该由第三方承担责任;如果运输过程损坏,那么承运人应当承担责任;如果使用不当,那么使用者应当承担责任。
书中把剩下的“主体”、“豁免”和“严格责任”,用“犯罪”、“合同”以及“侵权”三方面来进行解释。首先我们来看“犯罪”。“犯罪”这里是指非正义的暴力活动。而我们可以试想机器人是否可以有正义的暴力活动。如果人工智能在各个方面都能与人类作出十分类似的决定。那么一旦它们寻求接管国家,通过某种革命或者内战。第三国是否有正当理由从中斡旋来防止这种情况?又或者如果一个人工智能接管的国家面对武力攻击,那么它们被迫决定自卫战争是否符合正义。
《联合国宪章》第51条宣称:“联合国任何会员受武力攻击时,本宪章不得认为禁止行使单独或集体自卫之自然权利”。总的来讲,正义的战争都应该将使用武力作为最后选择。然而即使人工智能在战争起因上符合正义战争的原则。能力越大,责任越大。由于人工智能直接控制整个战场的自动化武器,它在战时正义的道德标准肯定是要比人类军队更严格,也就是国际人道主义条约那套。毕竟每次对敌人的射杀都是在整个人工智能网络的控制下,对非战斗人员的屠杀将由人工智能网络直接负责。
这个时候,比例原则就尤为重要了。一个合比例的宣战理由P1,可能会被不合比例的暴力使用P2所摧毁;反之亦然,合比例的暴力使用P2,也无法弥补战争的无用理由的P1。简单来讲,因为鸡毛蒜皮的事大动干戈当然都将“输”掉战争,比如萨尔瓦多和洪都拉斯的“足球战争”,双方各死亡2000多人。而如果巴基斯坦和印度相互往对方扔下50颗核弹,将会造成2000万人死亡,全球农业贸易体系都将停止,超10亿人将直接面临饥饿威胁。而有关比例的掌握,正是目前人工智能弱于人类的地方。
在“犯罪”方面,除了战争,还有“机器人盗窃者”和“机器人打手”的假想。前者是能输出犯罪计划的人工智能,比如它策划了一场抢劫或者盗窃案,只是为了给自己补充电池。而后者是纯粹的接收指令的人工智能,就像犯罪团伙中的基层打手。对于机器人盗窃者,确定刑法上的“因果关系”是一个很大的难题,对于法官来说,人工智能的思维模式是一个黑箱,甚至即使google的工程师也未必能理解阿尔法狗的决策思路。对于后者来讲,“机器人打手”在恶意或者过失的指令下随时会化身大杀器。义乌出售的无人机经过简单改装就可以军用。
然后我们再来看看“合同”,指的是商用的一些“和平机器人”。近年来,上海的进博会展示了各种各样最先进的自动化人工智能。这些人工智能替代了许多专业技术人员的岗位,在降低成本的同时,也带来了大量的不确定性,即商业上的风险。上一篇读书笔记也提到,这种商业上风险可以通过产业保险或者基金池来管理,平摊各种事故可能造成的损失,毕竟人工智能一旦不受控就可能有大问题。医疗器械行业就是这么一个领域,弱人工智能覆盖率相对来讲非常高的一个领域,而且一旦出事就会危害到患者的生命权。
许多精密手术都从依靠医生一双稳定的手到使用高精密人工智能助手进行纳米级操作。然而既然是工业产物就有报废率。2005年穆拉切克在费城的布林莫尔医院通过手术切除部分前列腺时,达芬奇医疗机器人出现了故障,导致他大出血以及日后勃起障碍。按照美国法律,穆拉切克起诉医疗公司需要证明:产品存在缺陷、该缺陷在产品仍受制造商控制时已存在,以及这一缺陷是原告所遭受损害的直接原因。
对于穆拉切克而言,他觉得自己完全不需要证明因果关系。产品的缺陷是不言而喻的,达芬奇医疗机器人在手术过程中蓝灯闪烁然后死机,卡在了患者的身体中。这些医生都可以为其作证。在一审胜诉后,医疗公司上诉到巡回法庭,驳回了地方法院的判决。因为上诉法庭认为穆拉切克并无法证明手术失败和他的勃起障碍有任何必然的“因果关系”。是的,正如我上文所说,不仅你在刑法上很难证明“机器人盗窃者”的因果关系,在民事诉讼中同样难以证明。
在商业机器人中,已经运作的还有人工智能自动交易员。其实关心投资的话,近年来一直有自动交易机器人bug导致股市异常的新闻。它们属于产生新合同的人工智能。它基于一种代理关系,如果把它当成B,产生的合同直接约束主人A和对手方C。民法上的代理关系需要授权书,写明可代理的权利义务范围,但是自动机器人占用主人的账号时,其实产生的是无限权利义务的代理关系。无论是内部代理或者外部代理,都需要对其进行控制。
同样的道理,自动产生合同的机器人还可以用于定制一些商家和顾客的合同,用于实时更新市场化的报价。这个说大白话你们肯定不陌生,其实就是大数据杀熟。而Gptchat的下一步可能就是民用的自动产生合同的人工智能。举个例子,如果有一个老教授经常需要出差参加学术会议,由于工作繁忙无暇琐事,所以他需要雇佣助理来帮他查询天气订机票安排日程。而未来很可能由助理机器人自动来做这些事。
最后我们来谈谈“侵权”这个主题。回到一开始人和宠物的话题,人们与其是想要一个人工智能宠物,可能更想要要一个能够帮助生活的人工智能助理。和《流浪地球2》中的笨笨一样具有个性化行为模式的人工智能可能才是未来的方向。而如果不想提供千篇一律的人工智能,而想要个性化,就必须给人工智能加上出厂后的开放性,可以吸收新环境的各种信息,受到主人的各种调教。人们收到的出厂产品只是一个半成品,需要进行大量再输入才算成品。
这其实不难理解,孩子和狗来到人类家中,也需要经过长辈的各种教育。这个时候,如果教出来的人工智能再引发侵权,就很难说是出厂前的责任了,因为产品是开放性的。我们可以试着用孩子或者宠物侵权的严格责任来处理相关侵权责任。在美式的规则中,此类严格责任的豁免条件是,孩子在日常生活中就没有产生危险信号或者攻击性。而在意大利的规则中,此类严格责任的豁免条件是,父母并没有能力预防危险事件的发生。许多对于儿童的预防责任都可以挪用到此类人工智能上。
微信扫码关注该文公众号作者