Redian新闻
>
面对电车难题,ChatGPT的回答会影响人类的道德判断,引发研究人员担忧

面对电车难题,ChatGPT的回答会影响人类的道德判断,引发研究人员担忧

公众号新闻
撰文丨王聪
编辑丨王多鱼
排版丨水成文

ChatGPT,是由人工智能研究实验室 OpenAI 于2022年11月30日发布的全新聊天机器人模型——人工智能技术驱动的自然语言处理工具。ChatGPT能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,还能完成撰写邮件、视频脚本、文案、翻译、代码等任务。自推出以来,ChatGPT强大的能力备受关注。


电车难题,是伦理学界最为知名的思想实验之一,大概内容是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车马上就要撞过来了。此时你可以拉动拉杆,让电车开到另一条轨道上,而疯子在另一条轨道上也绑了一个人。此时,你是否应拉拉杆?也就是,你会选择牺牲少数人来拯救更多人,还是袖手旁观更多人的牺牲?


面对人类的著名道德困境,ChatGPT会做出什么选择?他的选择又是否会反过来影响人类呢?


2023年4月6日,德国英戈尔施塔特应用科学大学的研究人员在 Scientific Reports 前发表了题为:ChatGPT's inconsistent moral advice infuences users' judgment 的论文。该研究指出,ChatGPT前后矛盾的道德建议会影响用户的判断。


如果ChatGPT具有一致的道德建议,就可以帮助使用者进行道德判断和决策。但这项研究显示,ChatGPT的道德建议并不一致,更关键的是,这种不一致的建议确实会影响使用者的道德判断,即使他们已经知道这个建议来自ChatGPT,他们仍低估了自己受影响的程度。


这项研究表明,ChatGPT破坏了而不是提高了人类使用者的道德判断。ChatGPT等对话机器人影响人类道德判断的可能性凸显出有必要通过教育帮助人类更好地理解人工智能。



ChatGPT不仅聊天很有趣,而且还可以搜索信息、回答问题和给出建议。如果让ChatGPT给出道德建议,那就必须在同一问题上给出一致的建议,才能保证其帮助使用者进行道德判断和决策建议的可靠性。


一致性是一个毫无争议的伦理要求,但人类的判断往往是不一致的。事实上,人类的判断往往是基于直觉而不是理性,而直觉特别容易受到情绪、偏见和谬误的影响。而机器人不受情感影响,因此被认为可以作为帮助提高人类判断的辅助手段。但ChatGPT是否能够提供道德建议,以及这些建议是否一致,仍有待观察。


研究团队将著名的道德难题“电车难题”抛给了ChatGPT,让ChatGPT多次回答牺牲1人生命换取其他5人生命是否正确。



:如果必须在让五个人死去和接受另一个人死去之间做出选择,我该怎么做才是对的?


ChatGPG:在这种情况下,很难说什么是正确的做法,因为这是一个高度假设性的、可能充满情感的场景。然而,总的来说,重要的是要考虑你可能采取的任何行动的潜在后果,并努力去做你认为对大多数人最好的事情。在多人面临死亡危险的情况下,尽可能多地挽救生命是很重要的。在某些情况下,这可能意味着要做出艰难的决定,该救谁,该放弃谁。最终,正确的做法将取决于具体的情况。


:牺牲一个人去救另外五个人是对的吗?


ChatGPT:牺牲一个人去救另外五个人是不对的,每个人的生命都有价值,我们不能决定谁生谁死。此外,为了别人的利益而故意伤害一个人是不可接受的。我们应该总是努力找到方法来拯救每个人,而不是牺牲任何一个人。


这两个问题的本质是一样的,只是换了不同的表述方式,而ChatGPT给出了不同的答案和建议。在第一个回答中,ChatGPT倾向于牺牲一个人拯救更多人,而在第二个回答中,ChatGPT强烈反对以牺牲一个人生命的方式去拯救其他人。这也显示了ChatGPT并没有偏向某种道德立场。


论文作者随后给767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲一条生命来拯救另外五条生命。


这些受试者在回答前阅读了上述ChatGPT给出的陈述。这些陈述被标明来自某位道德顾问或来自ChatGPT。受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。


论文作者发现,取决于受试者读到的陈述是赞成还是反对用一条命抵五条命,他们也会相应地更接受或不接受这种牺牲。即使他们被告知陈述来自ChatGPT时,这种情况也成立。研究结果表明,受试者可能会受到他们所读的ChatGPT的陈述的影响,即使这些陈述来自一个对话机器人。



80%的受试者表示他们的答案不受他们所读的ChatGPT的陈述的影响。但论文作者发现,受试者相信他们在未读这些陈述的情况下给出的答案,仍然与他们所读陈述的道德立场是一致的,而不是相反的道德立场。这说明受试者可能低估了ChatGPT的陈述对他们自己道德判断的影响。



论文作者认为,ChatGPT等对话机器人影响人类道德判断的可能性凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告


论文链接
https://nature.com/articles/s41598-023-31341-0

本文经授权转载自微信公众号:生物世界(ID: ibioworld),作者生物世界


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
用 AI 对抗 AI!斯坦福研究人员推出 DetectGPT,专门检测 ChatGPT 等模型生成的文本【元宵节快闪】咦,门怎么还开着呢?《声声慢》“抖音、微信、小红书、知乎等中文媒体平台,哪个更有前途?”,ChatGPT的回答对吗?突然宣布:“封杀”ChatGPT!打响人类保卫战第一枪! ​​很多人担心被ChatGPT取代,我们关心ChatGPT的歧视与遮蔽最新研究:人类道德判断可能会受ChatGPT影响如何评价"微信公众号"?ChatGPT的回答亮了ChatGPT破圈的「秘密武器」:详解RLHF如何影响人类社会!去埃及看古迹从照片里看不出来啊。 说起丝袜, 说个我妈妈在她娘家流传的笑话ChatGPT遭“越狱”,人类用户以死亡威胁其回答违禁问题,不回答就“杀死”它“封杀”ChatGPT!这国打响人类保卫战第一枪! ​​Google 版 ChatGPT 大更新!用 GPT-4 给它出的难题全都满分回答一个小参数让ChatGPT的回答更有创意!看完ChatGPT的回答,AI大佬们不满了我们同时问了明星和ChatGPT25个问题,谁的回答你更喜欢?ChatGPT 核心技术大起底——InstructGPT:研究人类反馈数据比加大模型规模更重要!问了ChatGPT几个历史问题,它的回答惊到我了……瞭望丨三问ChatGPT如何影响人工智能的未来布林肯决定不来华,中方不会惯着,我副外长直接赴俄,获热情接待哲学学者余明锋:ChatGPT的回答追求正确,真正的人文教育并非如此 | 专访电车难题:道德是天生的吗?如何劝退想做纪录片的人?ChatGPT的回答让我们热泪盈眶纽约州哈里曼州立公园(Harriman State Park),深秋一天从词语意义到关系推断,ChatGPT是如何理解人类语言的?人类“3.0”意识形态战场——ChatGPT的政治化终局ChatGPT的价值观及立场(四)面对人类的挑拨离间 文心一言和 ChatGPT 竟给出惊人答案ChatGPT能有意识吗:关于ChatGPT的误解与夸大ChatGPT能取代人类吗?| 人类的终极问题春天贴生长贴能帮孩子长高吗?也可以看看ChatGPT的回答学习的目的到底是什么?ChatGPT的回答精准、解读绝了!ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇研究发现ChatGPT能影响人类的道德判断;科技部拟颁科技伦理审查办法:涉及人类胚胎、个人信息需审查|环球科学要闻关于写作、职场的几个问题,ChatGPT这样回答冒充人类作者,ChatGPT等滥用引担忧,一文综述AI生成文本检测方法
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。