AI同行不同命,有人年薪33万美元,有人被裁
在人工智能技术越来越广泛地被用于消费产品的同时,科技巨头却一直在削减AI伦理团队(responsible AI teams)的人员,导致外界对这项新技术的安全性感到担忧。
据外国媒体报道,目前,微软、Meta、谷歌、亚马逊和Twitter等公司都裁减了其AI伦理团队成员,这些团队专门评估部署人工智能相关伦理问题,主要职责是为使用人工智能的消费产品的安全性提供建议。
业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。在OpenAI推出人工智能聊天机器人ChatGPT并取得成功后,人们的这种担忧进一步加剧。
谷歌旗下人工智能研究公司DeepMind的前伦理和政策研究员Andrew Strait表示,“当下可以说是最需要这些团队的时候,但公司还是放走了那么多AI安全人员,令人震惊。”
今年1月,微软解散了其“AI道德和社会”团队,该团队领导了微软在相关领域的早期工作。微软表示,裁员人数不到10人,公司负责人工智能的办公室仍有数百人在工作。
微软人工智能业务主管Natasha Crampton称:“我们已经显著增加了在‘AI伦理’方面的努力,并努力在整个公司范围内将其制度化。”
与此同时,在新老板埃隆·马斯克的领导下,Twitter削减了一半以上的员工,其中包括AI伦理团队。对此,Twitter尚未发表评论。
另有知情人士称,亚马逊旗下的流媒体平台Twitch近日裁减了其AI伦理团队,要求所有开发AI产品的团队对与偏见相关的问题负责。
去年9月,Facebook母公司Meta解散了其“负责任创新”团队。该团队由大约20名工程师和伦理学家组成,主要任务是在Instagram和Facebook上评估民权和道德。
自去年下半年以来,为应对经济形势不加、成本上升等问题,科技巨头先后宣布缩减支出,裁员人数动辄上万。一般来说,各公司的AI伦理团队只有数十人,因此团队即使被大幅缩减,通常也不会特别引起注意。
同时,在裁员之外,围绕AI技术的就业市场正如雨后春笋般涌现,一些新职位的年薪可达33.5万美元——他们被称为“提示工程师”(prompt engineer),职责是引导AI产生更好的结果,并帮助公司培训员工以利用这些工具。随着大型语言模型的普及,许多公司发现他们需要有人来为AI产出的结果增加严谨性。
不过,由于聊天机器人ChatGPT的横空出世,人们对这项技术的警惕性高了起来,有专家警告已经存在滥用行为。近日,未来生命研究所(Future of Life Institute)呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。
如今,ChatGPT等聊天机器人背后的大型语言模型已被证实可能作出虚假陈述,甚至达到了“以假乱真”的地步,这可能被用于传播虚假信息或考试作弊等邪恶目的。
伦敦国王学院人工智能研究所所长Michael Luck表示:“我们开始意识到,我们无法完全预见到这些新技术可能导致的一些后果,必须要密切关注它。”
微信扫码关注该文公众号作者