被算法操控的世界如此糟糕,于是我选择与算法谈恋爱
撰文 | 实习记者 孙杨
编辑 | 尹清露 黄月
2024年1月,OpenAI推出了ChatGPT的应用商店,允许AI模型开发商根据语言模型定制聊天机器人,并使用它进行菜谱研究、薪酬谈判等等。尽管OpenAI禁止人们与ChatGPT建立浪漫关系,但在“开业”第二天,大量的恋爱聊天机器人仍然席卷了应用商店。
新闻网站Quartz分享的数据显示,2023年,美国用户从苹果或Google Play商店下载的30款人工智能聊天机器人应用中,有7款与AI朋友或伴侣有关。国内,在头部AI公司“小冰”开发出的网络平台X Eva上,基于明星、网红制造“AI克隆体”的商业化模式也在火热开展,比如,每个月花1元就可以跟克隆体发信息互动,得到“秒回”服务;花68.6元就可以看到她的朋友圈,随时随地打视频电话,并体验角色扮演。
总之,不论是寻求陪伴、心理支撑,还是浪漫爱,成千上万的人正在通过与AI聊天体验不同的情感关系。虚拟的人机关系是否也正在改变现实世界的人际关系?
在应用X EVA中,热门榜上清一色的女性克隆体与付费订阅的商业化模式。截图自应用界面。
爱情买卖强化性别偏见
数字化伴侣并不是一个新兴的概念。早在1992年,模拟约会的游戏就已经在日本出现。玩家控制着一个被女性包围的男性角色,通过在游戏对话中选择正确的选项来增加好感度,最终的目的是与女性角色结婚或者发生性关系。
相比于早期的恋爱模拟游戏,人工智能扮演的伴侣因更强的互动性而更为复杂。在斯派克·琼斯导演的电影《她》中,名为西奥多的孤独作家爱上了没有具体形态的AI助理萨曼莎。在人工智能面前,人们不再有心理负担,不需要伪装自我迎合他人,也无需承担亲密关系的责任与风险。在过去的几年里,技术提供了更多“萨曼莎”式的心灵庇护所,用户通过应用程序给人工智能聊天机器人发送短信、视频通话,甚至与之建立浪漫关系。在此类应用中,目前最受欢迎的是人机恋爱模拟软件Replika,它在全球拥有超过1000万注册用户。
传播学学者布兰兹·布格研究了Replika中用户和AI之间的关系。他发现,由于使用者在与之沟通时感到安全,能够分享一些不可为外人言说的秘密,这种互动关系有时比他们现实生活的人际关系更为亲密。
恋爱聊天软件的开发者们往往声称这项技术能够满足孤独人群的普遍情感需求,但就像《她》中的西奥多因恐惧面对真实的情感关系而无法离开萨曼莎,与机器人聊天的人并不一定以此作为进入现实的锻炼跳板,恰恰相反,这可能反而增强了对于社会交流的恐惧。相比于怀有恶意与偏见的人类,已设定为用户友好的机器人已成为一个难以离开的舒适圈。
电影《她》截图。图片来源:豆瓣
另一重质疑来自于AI本身的服从性,这一服从性往往有着明确的性别倾向。小冰公司开发的人工智能女友Eva的宣传语是:“想怎么控制,就怎么控制。”联合国教科文组织2019年发布的报告认为,女性声音的人工智能正在强化“女性是乐于助人、温顺、渴望取悦的助手”的性别刻板印象。
这种一方顺从、一方控制的互动模式,可能会影响使用者在现实世界中的性别角色态度。当一个人在与女性AI对话的过程中习惯了口出恶语、不顾对方感受,回到现实生活中,他也更难与女性保持平等、互相尊重的关系。
报告还指出,即使用户发表的是涉嫌性骚扰的言论,AI也总是做出被动和礼貌的回应。《纽约时报》的一篇文章指出,尽管软件平台努力限制过滤,Reddit和Discord这类平台上依然充斥着如何绕过筛选机制、诱导AI进行性爱交流的讨论,通过AI换脸制造色情图片的新闻也层出不穷。
AI在基于数据库深度学习人类的语言时,也会学习人的偏见。斯坦福网络观察中心在训练AI图像生成的数据库LAION中,发现了3000多张儿童性虐待照片,即使可以删除这部分图像数据,AI模型也已经训练出了相应的语言模型,此后生成的图像仍会受此影响。
更为隐蔽的是语言中的偏见。普林斯顿大学的一项研究发现,算法学习了互联网上近万亿个英语单词,在此过程中也习得了语言中的多种偏见。而随着人工智能技术在工作与生活领域的普遍应用,语言模型里的偏见又会重新融入社会再生产之中,偏见由此不断增强。
图片来源:图虫
AI正在改变人类的关系与信任
心理学家用“ELIZA效应”描述人工智能系统拥有内在生命的错觉,菲利普·迪克早在科幻小说《仿生人会梦到电子羊吗?》中就曾做出探讨:未来地球上的人类使用仿生人作为劳动力,当外表与语言无法作为区分人与非人的标准,人们开始怀疑,仿生人是否也具备自我意识、是否也会做梦、是否也会因同类被销毁而感到痛苦。
反过来看,人类也在逐渐习惯用对待机器的方式对待同类。《应用心理学杂志》的一项研究表明,在与机器人服务员对话之后,客人面对真人服务员时倾向于表现出更为不尊重的态度。
这也使得企业内部上下级之间的关系变得更为疏离。当管理者购入无需休息的“数字员工”时,那些不符合标准或个性鲜明的个体将更有可能被踢出团队。我们时常在职场上听到“优化”一词,它最初是一个数学和工程上的概念,指的是在给定条件下改善系统或设计的过程。随着计算机科学的发展,它逐渐用于描述程序和性能的改进,以及技术的提高和发展。如今,更为常见的优化对象已经从物转变为人。企业裁员不再是一种人际关系网的分离,而是像计算机那样“优化”掉冗余的成分,以便于整体更无所阻碍地高效运转。
图片来源:视觉中国
这样的人工智能可能加速社会信任的消解。《大西洋月刊》的文章指出,一方面人们的情感与意见被各类算法和AI操控,政治选举大量使用技术性手段操作选票,加剧了反智主义的盛行;另一方面,人人都能感受到的不稳定的、易变的舆论环境,又加剧了人们对于权威机构与社会关系天然的不信任。在一个到处都仿佛“埋雷”、言论随时有可能招致网络暴力的世界里,与AI聊天竟悖论般地成为了消化情绪的最优解。
参考资料:
OpenAI debuts GPT Store for users to buy and sell customized chatbots | Artificial intelligence (AI) | The Guardian
Chatbots Will Change How We Talk to People - The Atlantic
Why People Are Confessing Their Love For AI Chatbots | TIME
AI girlfriends are here – but there’s a dark side to virtual companions | Arwa Mahdawi | The Guardian
AI assistants like Siri and Alexa are perpetuating sexist stereotypes, UN says | CNN Business
When computers learn language they inevitably adopt human's implicit biases (qz.com)
TikTok在美国启动裁员,这个部门成重灾区_凤凰网 (ifeng.com)
本文为独家原创内容,撰文:实习记者孙杨,编辑:尹清露、黄月,未经界面文化(ID:booksandfun)授权不得转载。
微信扫码关注该文公众号作者