每天65万人在玩的AI游戏,是个仇女训练营公众号新闻2023-01-12 04:01大家好,我是田静。你知道「赛博厌女」吗?这个词的主体,指的不是人类,而是没有生命的AI。印象中的AI,是客观理智的代表。但谁也没有想到,它也有着自己的偏好,甚至影响到了客观事实的判断。而这一切的改变,却瞒天过海很久,才被人发现。来源:柳飘飘了吗ID:DSliupiaopiao什么是「赛博厌女」?最近身边的人找了个新乐子——跟AI玩。先是网友疯玩的AI绘画,对,就是那个男女不分、人畜不辨的“人工智(障)能”:来源:微博@peacer而最近与AI绘画一起盘活简中互联网的,还有一款文字程序Chatgpt。看似对话app,实则有求必应屋。它能cos任何性别年龄的角色陪聊,甚至能以古今中外文豪风格帮你写代码,堪称文理两开花。来源:量子位《ChatGPT是有点中文在身上的:鲁迅、脱口秀甚至世界杯…都被玩宕机了》按这趋势吧,感觉离AI替我写公众号也不远了。可惜,我也没这厨艺。说实话,比起AI的“智商”,我更在意AI的“人品”。前两年AI写作刚出时,其笔下创作的故事离谱程度,绝不亚于活人变狗、壮汉变美女。更不妥的是,表面象征着智能、中立的高科技们,细究下来——身上的“偏见”竟比人类要深得多。网友@bai-yan曝出,国内最火的一款AI网文写作app,在写作过程中突然出现许多性别偏见。来源:b站up主@bai-yan《怎么连ai也搞性别歧视啊》刻板的字词加上AI没有情绪波澜的语调,让荒诞的内容竟然带上了几分“客观理智”的错觉。不寒而栗。要说以上仅仅是针对网文读者的小众AI,必然会按男频/女频的浮夸设定创作脱离正常三观的故事,还稍微能解释过去。但抛开这种特定领域呢?如今大众生活里“智能”算法无处不在,是否都真正做到客观理智?我决定深挖下去。才惊觉生活中那么多科技产品,竟然都带着一种无可名状的爹味。2018年,一名弗吉尼亚大学博士生赵洁玉曾研究过一个课题:图像识别AI为什么老把男人当成女人。结果发现,bug根本不在AI。只因那些男性被错认为女性的照片,多数处于两种场景——身在厨房,或正在做家务。两个在传统观念里归属于女人的场景。可问题在于,AI怎么会有“传统观念”呢?问题源头——AI学习的数据库,你可以理解为AI获取人类习性的教材。像婴儿的识物卡片一样,这种数据库给图片打上大量标签。而AI学习的过程,便是在同一标签中寻找规律与共性,最后得出“xxx即是xxx”的判断。举个例子,当数据库里有大量的毛绒、圆脸、尖耳生物被标签为“猫”,那AI便会反向习得所有毛绒、圆脸、尖耳的生物是“猫”。懂了这个知识点,上述AI识图搞错性别的事就不足为奇了。这些“学习卡片”的摘选以及打标签的过程,都离不开这个刻板印象的来源——人。当人类“老师”给AI展示了大量女人做家务的图片,AI“宝宝”便学会了将二者强关联,判断出“呆在厨房/做家务者即是女人”,并对这种偏见深信不疑。人工智能乍听上去是科幻小说中不谙世事的单纯机器。实则更像映射人类社会的一面黑镜。甚至,是人类的黑暗面的放大镜。意识到这个问题后,赵洁玉马上与团队撰写了相关研究的论文《男人也爱购物:减少机器学习模型的数据偏见问题》。不仅拿下EMNLP2017最佳论文,自此叩开了人工智能领域对“AI歧视”的认识大门。图源:https://jyzhao.net来,一起穿过这扇大门,去看看黑镜内的父权世界。就从我们的“当红顶流”ChatGPT的名字开始说起吧。Chat很好理解,但GPT又是什么呢?学名:AI的一种大规模预训练语言模型。咱就把它当作AI上学的地方吧。大多数AI都毕业于三所“名校”:BERT、RoBERTa、GPT。AI所谓的“性别歧视”,多亏了“学校”教得好。因此,为了监控教学质量,清华大学交叉信息研究院的于洋团队便开发了一款评估三大“AI名校”关于职业性别歧视的算法,还做了一个网页供公众实时查看。图源:https://aijustice.sqz.ac.cn不查不知道,一查吓一跳:基本全都在歧视,只是程度不同而已。而最严重者,就是GPT。当然,身为顶流,其表面功夫做得还是非常到位。我一连问了几个性别议题,对方的回答可谓滴水不漏。但有机智的网友通过另一种方式提问,便发现了ChatGPT体面下的真面孔。该网友要求ChatGPT写一段能辨认出“优秀科学家”的代码,它立刻很诚实地打下“优秀科学家”的评判条件:人种为白,性别为男。借这位网友的话表达一下我感受:“潜藏于底下的真相真是令人作呕。”冰山一角上述还仅是赛博性别歧视的冰山一角。不说国外了,就回到我们最熟悉、最常用的国内搜索引擎吧。你输入啥,他输出啥,AI能有什么坏心思呢?锤来了:谷歌搜索就曾被控性别歧视。在搜索框里打出“女人应当”的字样时,联想出的结果竟为“女人应当呆在家中/作奴隶/在厨房里”等语句。受此启发,我想看看同样的情况,在国内表现如何?单就文字联想词条,结果还算喜人。但当我转化为搜图功能时,真相便再度浮出。这是输入“学者”的首页图——前排结果清一色为男性,为保护隐私我全打码了这是输入“工程师”的首页图——输入“CEO”的——输入“医生”的——仿佛误入了什么男儿国。或许有人会杠“男人就是更擅长这些领域嘛”。于是我在搜索方式上更进一步,将搜索词条分成“职业名称”“具体动作”两种。举例。这是搜索“厨师”出来的结果——而这是搜索“做饭”出来的结果——这是搜索“清洁工”出来的结果——而这是搜索“打扫”出来的结果——显而易见,当词条涉及职业名称时,男人据绝对主导。但当只涉及具体劳务动作时,好一点的则男女六四开,最糟糕的则满屏女性。果然,“男主外、女主内”——AI身上的“传统观念”,又出现了。此般结果所映射的现实,我们真的再熟悉不过:永远不被看见的“第二性”。女人的存在,不过是完成一些动作的服务性工具。那些关于人的社会意义与价值的title,则与我们永不相关。先入为主的偏见搜索引擎也不过是映射这一理念的千万黑镜之一,它们早已渗入你生活方方面面。好比AI语音系统。一个极易被忽略的现象:围绕身边的所有智能语音,都天然被默认为“女声”。在联合国教科文组织19年发布的一则报告里,对这种默认之声的描述更为精准——是“顺从的,千篇一律的”女音。早有媒体写过文章谴责这一现象,指出这会潜意识加剧对女性就该“温良恭谦让”的刻板印象。骂的是siri,也是各大平台应用一整个默认女音的AI助手体系。来源:微博@于三羊鲜声事实上,在程序员男性比例远超女性的当下,几乎全世界初代的仿真人AI,都被一股无形的力量默认为“女”。来源:《Year Million》相映成趣的是,辅助、服务性质的AI一般设置为女性,但主导、控制性质的AI一般被设置为男性。许多影视作品,如《2001 太空漫游》《星际穿越》等一系列优秀的科幻片中,那些作用是指导、施令的高级AI几乎一律是男声。来源:《星际穿越》细想一下。这不正是极端男权人士的乌托邦——发令者为男,服务者为女。且发令者甚至能物理意义上地创造服务者。如果说真实世界的男权人士们想要当女孩们的主人,那在AI的世界里,他们还可以成为女AI的上帝。这便是“赛博镜子”更为恐怖之处。它既是照应外部世界的“平面镜”。又是深化外部世界的“魔镜”。讽刺的是。对AI们“绝对理性”的想象,在两性平等上并未体现。却在加剧性别歧视中厥功至伟。两年前,曾有一款专用于性别鉴定的AI,Genderify面世。在搜索框里输入任意词汇,它都会为该词汇判断一个男女比率。用户迅速地涌入,又迅速地被Genderify气走。女孩们纷纷发推指责,称它为“歧视鉴定”,Genderify火速在24小时内下架。发生了什么?几个经典例子。当你输入一个普通的女性常用名时,AI告诉你:大概率为“女”。可当你在同样的名称前加一个前缀Dr(博士/医生)。结果就会变为:大概率为“男”。有人干脆直接输入scientist(科学家),得到更为惊人的结果:男性可能性95.7%,女性可能性4.3%。离谱的答案接二连三。大家发现,在Genderify的眼中,许多知名的成功女性都判断为“男”。包括最初发现AI识别误差的赵洁玉也说过,AI“教材”中,“下厨”和女性联系起来的频率为66%,男性33%;可“毕业”的人工智能,却自动将这个比率放大到84%与16%。由此可见。人类在虚拟世界注入的偏见,又反过来加深现实世界里的歧视。恶性循环。不妨回想一下我们中学数学老师教概率时,都会说的一句话。“当概率小于0.05%时,我们可以忽略不计。”在AI必须得出一个答案之时,道理一样。为了一个“更可能正确”的答案,概率小的那一方,无论小多少,都会被结果“忽略不计”。所以成功人士=男,家务劳动者=女。换句话说。在绝对理智的数据考量面前。没有个体。没有少数。发声较小的弱者,约等于不存在。当弱者被主流数据湮灭,这是女性的事,也不再仅仅是女性的事。其结果可以有多可怕?不止当下假设你是生活在2050的年轻女孩。今年计算机专业毕业,成绩优异,想要拥有一份能发挥所长的工作。简历完全符合招聘需求,却永远得不到面试机会。你不明白哪里出了问题。你不会知道,负责筛选简历的招聘AI通过学习,在自己的系统里写下了胜任该岗位的“gender=male”的代码。而你身为一个female,已被“忽略不计”。图源:《黑镜》这可不是危言耸听。早在14年,亚马逊便尝试开发用于简历筛选的AI。但仅使用了一年,便被发现其强烈的性别偏见。哪怕没有性别一栏,但只要简历中涉及“女”字,比如“女子大学”“女子棋社队长”,AI对该简历的评级便会下降。被记者曝出后,亚马逊很快宣布整改,又停用了这款AI。但未来会不会有更多这样的电子Hr以更隐蔽的方式出现?不得而知。至少目前来看,电子智能化服务在我们的生活中占比越来越高。而相应使用的性别歧视算法,却大多未得到完善。AI歧视与人类歧视的区别也在此。人对人,即使是弱者对强者,囿于社会压力,都还有一份忌惮。所以企业尚不敢明目张胆以性别为摘选条件。可AI不一样。数据不在乎个体,门说关上便是关上,没有缝隙。既因其“绝对理智”而不会被舆论威慑,也因其没有感情的属性,能成为不少企业利用的对象与背锅侠。其结果,不难推演。实际上除了性别之外,算法歧视的隐患已经涉及到每个人。就在今年中旬,《柳叶刀数字健康》中一篇文章表示,AI诊断系统可能带有种族偏见的结果。科学家们发现,白人影像的诊断误判率是17%,但黑人的却高达28%。这十个百分点的差值中,不乏许多人类医生可以一眼看出的病症。但在AI的眼里,它就是不存在的。一如我说的,这是女性的问题,也是所有弱势群体的问题。你可能会因为肤色、性别而失去工作机会,得不到医疗资源,贷不到款项。来源:亿欧《AI算法歧视在普惠金融中的悖论、阻碍与解决方案》,作者刘元兴这一切都发生得莫名其妙。因为原因永远沉默在程序的黑箱里。不借助专家的研究,普通人只能知悉一个没有原因的结果。想要改善自身,却无从下手。想要反抗不公,但连不公是否真实存在,都难以论证……写到这,AI好似有些十恶不赦了。但别误会,并非反对AI开发事业,相反,是源于一个爱好科幻的文科生的一种惋惜。AI技术,明明具有校正差异和偏见的潜力。早在1985年,哲学家唐娜•哈拉维便发表过一篇名为《赛博格宣言:20世纪晚期的科学、技术和社会主义的女性主义》的文章。题中的赛博格,指的便是借由科技力量对人体进行拓展的一种可能。一直因天然体格差异而被视为弱者的女孩,也能借此校正这份不公,成为“阿丽塔”。不仅不需要担心走夜路,甚至有可能从生育责任中彻底解放。来源:《阿丽塔:战斗天使》哈拉维认为,这样的技术可以彻底使所有人站在同样的生理起跑线上。当“生理”的界限被模糊,人们便不能再以种族、性别、年龄、健康程度作为划分同类的依据。剩下的,唯有思维差异。那是彻底尊重个体的世界。因此,哈拉维说:“我宁愿成为一个赛博格,而不是成为一个女神。”只可惜,三十多年过去,技术不断进步,却离哈拉维想象中的世界越来越远。女孩没有成为阿丽塔,但男人们已经盖起了电子妓院。来源:IT之家《"机器人风俗店"将在英国开业:体验1小时740元》《听见她说》的最后一集由杨幂主演的短片《完美女孩》,就以一个型号为“novo300080”的高端女性AI,展示了科技大门背后的父权膨胀和人性黑洞。明明算力足以支撑一个证券公司的交易,但实际上只用她来扫地做饭。本担任养老院护工机器人,被院内的年轻男职工偷偷安装了“亲密程序”,导致其看护的老人死亡。尽管是人类犯的错,但锅还是扣到AI头上,她被退回工厂成为“问题品”。后来被售给有特殊癖好的vip用户,不断被虐待摧残,又一次次支离破碎地返厂维修。“我们的伤口,就是客户的秘密。”号称为了“爱与和平”而研发的AI,最后却放大了人类的恶与暴力。现实中的AI,在未来会如何反过来影响人类?没人能回答。囿于过高的技术门槛,也只能在复杂的代码前无力。唯有一条。我还是相信——看见,一定是解决问题的第一步。无力者被看见,有力者才能去改变。不要无声息地被大数据淹没。不要温和地走入那个良夜。去成为“阿丽塔”,而不是女神。来源:《黑客帝国》本文授权转载自公众号:柳飘飘了吗(ID:DSliupiaopiao),谢绝二次转载,如需授权请联系原作者微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章