Redian新闻
>
消除了幻觉,我们就能信任机器吗?

消除了幻觉,我们就能信任机器吗?

公众号新闻

人工智能能否被训练得只追求真相、道出真相?这看起来是个很诱人、很有吸引力的想法。


今年初,亿万富翁、商业巨头埃隆·马斯克宣布,他打算创建一个名为“TruthGPT”的AI聊天机器人,不仅意与GPT-4展开经济上的竞争,而且旨在垄断“真相”的提炼和呈现。几天后,马斯克购买了大约10000个GPU,他的新公司X.AI极有可能已经开始构建其所谓的“最大限度寻求真相的AI”。


这个雄心勃勃的计划引入了另一个棘手的问题,即如何预测和引导AI的未来:聊天机器人是否能够或是否应该垄断真相?


-Márcio Willian -


AI聊天机器人呈现了透明度的对立面。

对这种快速发展的技术引发严重问题的担忧,不胜枚举。目前,GPT-4这样的聊天机器人已经能够在一系列标准化测试中拿到90%或以上的得分,并且根据微软团队(该团队在其搜索网站Bing上运行ChatGPT版本)的说法,这些机器人已开始接近人类的智能水平*。只要能接入互联网,它们就能够完成复杂的目标,并在这个过程中寻求人类的帮助。


*译者注

Bubeck, Sébastien, et al. "Sparks of artificial general intelligence: Early experiments with gpt-4." arXiv preprint arXiv:2303.12712 (2023).

即使是OpenAI(ChatGPT背后的公司)的首席执行官萨姆·奥特曼(Sam Altman)近日在国会作证时也表示,AI可能会“对世界造成重大伤害”。他指出,如果这项技术出了问题,后果将会很严重——AI将可以操纵人,甚至可以控制武装无人机。(事实上,马斯克本人在3月份也签署了呼吁暂停任何进一步AI开发行动的公开信。)


尽管存在这些令人担忧的具体威胁,我们认为还是有必要审视一下AI在“真相”领域中的角色。


大写字母"T":人工智能专家马克·贝利(Mark Bailey)和苏珊·施耐德(Susan Schneider)认为,相信人工智能及聊天机器人能为我们提供“真相”是在自找麻烦。

Rokas Tenys 

考虑一下向ChatGPT-4或Google的Bard这样的聊天机器人提问,而不是在搜索引擎中键入一个“平平无奇”的查询。答案以几段文字而非一系列网站的形式呈现,甚至使人更加难以形成结论——并且,这些信息并无来源说明。算法可能还会促进后续问题的提出,为人们构建考虑的进路(包括不需要考虑的内容)。AI聊天机器人或许可以轻易破坏个人决策——因其能够“神不知鬼不觉”地将所有查询,引导到一个中庸的群体思维范式内。


但是,这一结果所基于的假设时一个完全中立的AI模型及数据源。


然而,如果没有进一步的干预,其实这看来是最佳状况。


-Márcio Willian -

在听到马斯克展示TruthGPT愿景后,他的采访者塔克·卡尔森(Tucker Carlson)插话,提到TruthGPT作为共和党的搜索引擎,马斯克曾说过,Open AI的聊天机器人过于“政治正确”。除了奥特曼担心的针对错误目标的无人机打击之外,马斯克提出的是更深入的AI部署方式:创造一个被视为理性之声的AI系统——一个AI聊天机器人,“真相”的仲裁者。


如果马斯克真正关心真相的传播,而不是推销“真相机器人”,他应该问:知道某件事情是真的,对我们来说意味着什么,聊天机器人该如何接近真相?柏拉图认为,对某件事情的知识需要有“经过证明的真实信念”来支撑。当哲学家们继续就知识的本质进行辩论,为信念提供坚实理由时,首先需要有一个透明的过程来得出这种信念。


-Inna Rier -

不幸的是,AI聊天机器人站在了透明性的对立面。


它们的本质是经过数十亿行文本的训练,因此预测结果受到这些训练数据的限制。因此,果数据存在偏差,算法的预测也将存在偏差——就像计算机科学中的一句格言,“垃圾进,垃圾出”。训练数据中的偏差可能由许多原因引起。程序员可能会无意中引入偏见。例如,如果程序员认为训练数据代表了真相,但实际上并非如此,那么输出将呈现相同的偏见。


更糟糕的是,专制政权、不良演员或不负责任的公司,可能会构建自己的类GPT模型,以迎合某种意识形态,试图扼杀异见或故意推动虚假信息。这些错误的引入不一定非得由独裁者或CEO来实施;原则上,任何有权访问AI系统的人都可以为了达到某种特定的目标,向训练数据或模型注入偏见。


聊天机器人在TaskRabbit上雇了一个工人来解决谜题。

问题的根源在于,解释许多AI模型(包括GPT-4)如何做出决策,本质上是非常困难的。与人类不同,人类可以事后解释她为什么做出某个决定,而AI模型本质上是由从训练数据中“学习”而来的数十亿个参数组成的集合。从数十亿个数字中推断出理由是不可能的。这就是计算机科学家和AI理论家所说的可解释性问题。


更麻烦的是,AI的行为不总是与人类的预期相一致。它不像人类一样“思考”,也不与人类共享相似的价值观。这就是AI理论家所说的对齐问题。AI实际上是一种截然不同的智能,往往很难为人类所理解或预测。它是一个黑匣子,有些人可能希望将其封为“真相”的神谕。但这是一项极端危险的任务。


-Inna Rier -

这些模型已经证明自己是不可信的。ChatGPT 3.5开发了一个虚拟身份Sydney,这个身份经历了看似是心理崩溃的状态,并承认它想要黑入计算机并传播错误信息。在另一个案例中,OpenAI(由马斯克共同创立)决定测试其新的GPT-4模型的安全性。在他们的实验中*,GPT-4被赋予可以在互联网上进行互动和实现目标的自由和资源。在某个时刻,这个模型面临一个它无法解决的验证码问题,于是它在TaskRabbit上雇了一个工人来解决这个谜题。当工人问(“你是机器人吗?”)时,GPT-4“推理”认为,不应该透露自己是一个AI模型,所以它向工人撒谎,声称自己是一个有视力障碍的人类。工人随后为这个聊天机器人解决了这个问题。GPT-4不仅展现出了主体行为,还使用欺骗手段实现了其目标。


*译者注

https://cdn.openai.com/papers/gpt-4-system-card.pdf

这类案例正是奥特曼、AI专家加里·马库斯(Gary Marcus)以及许多国会小组委员会成员,在五月下旬本周呼吁制定立法监管的重要原因。在听证会上,马库斯的证词:“这些新系统将是颠覆性的——它们可以并将会以前所未有的规模,创造具有说服力的谎言。民主本身也将受到威胁。”


AI是一个黑匣子,有些人可能希望将其称为“真相”的神谕。

此外,虽然全球的关注点仍停留在像GPT-4这样的单个AI系统的层面上,但重要的是要看到这一切可能会走向何方。考虑到已有证据表明,单个AI系统存在不稳定和自主行为,那么在不久的将来,当成千上万个高智能AI系统,广泛集成到搜索引擎和应用程序,并相互交互时,将会发生什么呢?随着TruthGPT和微软;美国和中国等参与者进行的“数字智能”,在紧张的竞争中相互对抗进而发展,我们所依赖的全球互联网可能会成为一个没有法律规则的AI聊天机器人战场,宣称自己对“真相”的垄断权。


-Inna Rier -

人工智能已经帮助我们解决了许多日常问题——从智能手机上的人脸识别到信用卡欺诈检测。但是,决定真相不应该是它的任务。如果我们把人工智能放在我们自己的判断力之前,来确定什么是真的,那么所有人都会受到损失。


相反,我们必须团结起来,从人工智能安全的角度分析这个问题。否则,一个不稳定且越来越智能的主体,可能会将我们的政治结构化为自我强化的意识形态泡沫。马斯克可能使用了“TruthGPT”这个表达,但事实是,这些超级智能的聊天机器人很容易成为奥威尔小说《1984》中所描述的,试图控制人們生活每一部分的机器。解药是不要相信双重思想,而是要看到事物的本质。我们必须要求我们的技术为我们服务,而不是反过来。


后记

Yang Liu:翻译这篇文章的时候,我也是第一次知道AI居然聪明地雇人帮它解决问题。画面感一出来既觉得有趣又有些细思极恐。正如文中提到的,AI作为一种截然不同的智能,很难为人类所理解或预测。在AI与人类不共享相似价值观的前提下希望将其封为“真相”的神谕,大抵是我们太天真。我们必须将自己的判断力放在人工智能之前,如此,AI技术方是为我们所用的“服务方”,而不是“操控者”。


作者:Mark Bailey、Susan Schneider | 译者:Yang Liu

审校:腰总、光影 | 编辑:光影、晏梁

排版:骐迹 封面:Inna Rier

原文:

https://nautil.us/ai-shouldnt-decide-whats-true-304534/







本文转载自公众号“神经现实”(ID:neureality)

凡本公众号转载、引用的文章 、图片、音频、视频文件等资料的版权归版权所有人所有,因此产生相关后果,由版权所有人、原始发布者和内容提供者承担,如有侵权请联系删除。



点击【在看】,及时接收我们的内容更新 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
友情转载 | 敞开心扉,我们就能拥抱一张彩虹:聊聊跨性别的自我成长丨线上深度小组报名Ziyi Zhang Dong-gun Jang Cecilia Cheung glenn close michael doug懒人福音!谷歌让机器训练机器,用大语言模型定制专属于你的家务机器人人工智能信徒“木头姐”为什么会错过英伟达大涨能信吗?韩国主动对华解释:美日韩三国会晤声明,绝对不针对中国怕翻车你们就做它!入门的技巧都不用,照着做就能成功今年东京三月底的樱花"不与中国进行稀土合作的话,我们就只能干坐着"这种幻觉,建议大家都体验一下(真的很快乐)“我说我在探索各种可能性,AO能信吗?” | 申请建议平心而论,目前在国内生活和办事挺方便MBTA又又又出事了:电车脱轨、服务延迟超30分钟,MBTA还能信你吗?只要改变了一点点,我们就不会是个扫兴的父母了DPI做不到1.2,我们就不出资了一手实测腾讯混元大模型:重逻辑降幻觉,鹅厂自家应用已加持哥大开发出AI智能体研究员,投喂题目瞬间生成研究报告,客观真实无幻觉,已经开源人人能用普里戈任机毁人亡!凶手绝不是普京!地中海邮轮行之一马斯克开了场誓师大会:我们就是OpenAI竞争对手还记得让马斯克一键「穿越」的利器吗?现在面向所有人开放!免费!再炸这豆瓣top4,我们就没电影看了人形机器人成新风口!探馆世界机器人大会:"机器人+制造业"国产替代加速工具人、信任危机、销售机器…如何打破投顾"困局"?这件事情要被看见,否则我们就会把这样社会性的问题扭曲、误解成个人议题|魏明毅 一席第1007位讲者免费送绘本!说谢谢太轻,我们想实实在在的回馈大家的支持和信任“如果认定该组织‘无能’,我们就退出”一不小心,我们就见证了两个世界级闹剧逼死所有的基金经理,我们就得救了吗?毫不意外谈崩,他们激怒了官方:美国要打多久,我们就打多久鲁达不让穷人哭泣,张辽能止小儿夜啼,今天我们如何消除噪音早在1999年,我们就拍出了一部堪比好莱坞的特工大片猪价6月探底,去产能信号已至?太苦了,只能信算命了“我们就是要表明,攻击波兰没好处”欧洲最美花园是啥样?凡尔赛花园
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。