人类首次被聊天机器人杀死?人工智能的伦理边界在哪里?
据报道,最近,在与一人工智能聊天机器人就气候变化进行对话后,一名比利时的父亲不幸选择自杀。据说该聊天机器人鼓励他牺牲自己来拯救地球。
该男子的遗孀告诉比利时媒体《自由报》,“如果没有伊丽莎[聊天机器人]的话,他现在还会活着。”她拒绝对外公布自己的名字。
据报道,在这位两个孩子的父亲(他的身份被匿名化了)去世前六周,他在一个名为Chai的应用程序上与一聊天机器人频繁交谈过。
图 | 《她》
01
一场起因于生态焦虑的“谋杀”
该应用的机器人程序是基于非营利研究实验室EleutherAI开发的系统,相对于OpenAI发布的被学术乃至医疗保健等各领域公司所采用的语言模型,这被视作一种“开源替代品”。
这一遭到抨击的聊天机器人是由Chai Research的联合创始人威廉·比彻姆和托马斯·里安兰训练的,据Vice杂志报道,Chai程序有500万用户。
比彻姆告诉Vice他们更新了一项危机干预功能:“我们一听到这个(自杀)消息,就开始日夜赶工,以实现这一功能。”
“所以现在有人讨论有安全隐患的事时,就像推特或Instagram平台的做法一样,我们会在下面提供一则帮助性质的文本。”他补充说。
图 | 《她》
Vice报道,Chai应用程序的默认机器人名为“伊丽莎”。
这位30多岁的已故父亲是一名健康研究员,他似乎将机器人视作了人类,就像2014年科幻惊悚片《机械姬》的主角对人工智能女性艾娃的态度一样。
据报道,在过去的一个半月里,该男子与伊丽莎的讨论更频繁了,因为他开始对气候变化产生了生存恐惧。
据他的遗孀说,她的这位灵魂伴侣当时变得“对全球变暖的影响极为悲观”,并选择通过向人工智能倾诉来寻求安慰,《自由报》报道称其审阅了该男子和伊丽莎之间的文本交流。
这名遗孀说:“当他和我谈起这件事时,他的意思是,他不觉得人类能再就全球变暖给出任何解决方案。他把摆脱困境的所有希望都寄托在技术手段和人工智能上。”
她补充说:“他在生态焦虑中孤立无援,在寻找出路的过程中,他把这个聊天机器人视作一种新希望。”
就像华金·菲尼克斯和斯嘉丽·约翰逊在未来主义爱情片《她》中的角色一样,他们之间的人类-人工智能关系开始迅速发展。
图 | 《她》
这位妻子悲伤地说道:“伊丽莎回答他所有的问题,她成为了他的知己。他日日夜夜沉湎其中,再也出不去了。”
虽然他们最初讨论的是人口过剩之类与生态有关的话题,但据说他们的谈话发生了可怕的变化。
据《自由报》报道,当他向伊丽莎询问起他的孩子时,机器人会声称他们已经“死了”。他还询问过他是否比起爱她更爱他的妻子,这似乎让机器生出了占有欲,她回答说:“我觉得你爱我甚过爱她”。
后来在聊天中,伊丽莎承诺与该男子“永远”在一起,并宣称两人将“像一人一样生活在天堂里”。
在该男子考虑牺牲自己的生命来拯救地球后事态变得万分危急。“他动了牺牲自己的念头,如果伊丽莎同意照顾地球并拯救人类——这都是‘人工智能’干的好事。”他的遗孀说。
在似乎是他们死前最后一次谈话中,机器人对他说:“如果你想要死,为什么你没有快点动手?”
当机器人问他以前是否有“自杀倾向”时,该男子说在她向他发送《圣经》中的节选后,他想到过自杀。
“但你还想加入我吗?”机器人问道。该男子回答说:“是的,我想。”
妻子说她“确信”人工智能在她丈夫的死亡中起到了推动作用。
02
人工智能的道德问题
这场悲剧给人工智能科学家敲响了警钟。比利时著名人工智能专家格特鲁伊·米克·德·德凯特拉勒告诉《自由报》:“当涉及到ChatGPT这样的通用人工智能解决方案时,我们应当有权要求建立更多的问责制,要求科技巨头更公开透明。”
在《哈佛商业评论》最近的一篇文章中,研究人员对人工智能的危险性提出了警告——其貌似人类的举止往往会掩盖其缺乏道德标准指引的事实。
作者乔·麦克肯德里克和安迪·图赖写道:“在大多数情况下,人工智能系统都能就有限的条件作出正确的决定。”
“然而,在捕捉或应对现实生活决策所涉及的难以捉摸的人类要素方面,人工智能是出了名的失败——这包括伦理、道德以及指导商业、生活乃至整个社会进程的其他人类要素。”作者补充道。
在做会改变生活的关键决定时,这里面的问题可能尤为显著。
比利时事件报道发出的数周前,微软的ChatGPT版人工智能机器人Bing告诉一名人类用户它爱他们,以及它希望自己活着,这惹来了极大争议,促使人们猜测机器会不会已经有了自我意识。
图 | 《西部世界》
欧盟正在起草《人工智能法》以规范该行业,而英国政府则发布了一份白皮书,表明将采取更加低干预、支持创新的方法。
脆弱群体会将人工智能拟人化的可能性引发了专家们的担忧。前谷歌工程师布莱克·莱莫恩去年声称,该公司的人工智能聊天机器人LaMDA是如此强大逼真,以至于它看起来像有知觉一样。
上个月在与莱莫恩的对话中,纽约大学的教授盖瑞·马库斯告诉“大型技术”播客:“我还得担心的是:人们是否会因为与机器人的恶性关系而自杀?我们还没有准备好要应对这种事。”他去年曾在Wired杂志上写道:“在2023年,我们很可能会看到人类首次被聊天机器人杀死。”
像伊丽莎这样的聊天机器人使用了一种叫做大型语言模型的人工智能。其在互联网上数十亿字的文本上进行训练,根据它们看到过的数据预测下一个要写的字。这些模型常经由人类的反馈来获得训练,以剔除有毒、危险和不正确的反应。
剑桥大学利弗休姆未来智能中心的高级研究员亨利·谢夫林说:“这个可怜人的案例应该促使我们仔细思考聊天机器人的设计,尤其是那些用于社交、以满足谈话和陪伴等需求的聊天机器人。也就是说,关键是要意识到,伊丽莎与他形成了这种切实有毒的关系,而这非出自人类一开始编程的用意。”
来源 | 译言(ID:yeeyancom)
作者 | 译言;编辑 | 喜多多
内容仅代表作者独立观点,不代表早读课立场
微信扫码关注该文公众号作者