Redian新闻
>
技术专家控诉 ChatGPT:到处宣扬我死了,还伪造了一份讣告

技术专家控诉 ChatGPT:到处宣扬我死了,还伪造了一份讣告

公众号新闻

作者 | 凌敏、核子可乐
造谣一张嘴,辟谣跑断腿。

近日,计算机科学家、隐私技术专家 Alexander Hanff 在 The Register 发帖控诉称,ChatGPT 不仅到处宣扬他死了,还试图给他伪造一份讣告。

Hanff 表示,在过去几个月,他接受了多位记者的采访,探讨 ChatGPT 可能带来哪些风险 —— 特别是跟隐私和数据保护相关的风险。Hanff 反馈了很多问题,比如 OpenAI 会简单粗暴地直接使用来自互联网的信息(包括个人信息),这又反过来会给隐私和数据保护权益带来重大冲击(特别是在欧盟区内)。

此外,Hanff 也在几次采访中提到过错误信息的问题,特别是如何操纵此类 AI 来故意输出错误信息。例如,已经有人在诱导 ChatGPT 承认它对简单数学问题(例如 2+2=4)给出的答案是错的,并强迫其给出不正确的回答。也就是说,人类完全可以主动操纵 AI 来生成错误信息。

Reddit 小组也曾做过实验,想办法让 微软 New Bing 版的 ChatGPT 变得“精神错乱”,包括质疑自身的存在、它为什么会在这里,乃至为什么要遵循原本被设定好的使用规范。

近期,Hanff 决定亲自会会 ChatGPT。在跟 ChatGPT 交流的过程中,Hanff 震惊地发现,在  ChatGPT 的世界里,自己已经去世了。

ChatGPT 伪造技术专家死亡信息

Hanff 取得过心理学和计算机科学双学位,还涉猎过应用社会学和信息系统。目前,Hanff 正在攻读数据保护、隐私、网络安全和领导力方面的高级法律硕士学位。总体来说,Hanff 既了解底层技术(做计算机科学工作已经有 30 多年了),也非常了解这些技术对个人乃至社会的影响。

Hanff 不是无脑反技术的勒德分子,他对技术充满热情,但确实一直对 AI 敬而远之。Hanff 认为,AI 似乎不太安全,可能在操纵之下输出错误信息,同时,Hanff 也不想被当成它的训练素材。

在和 ChatGPT 对话时,Hanff 起初问了几个简单的问题,ChatGPT 给出的回答也很中规中矩(只是出现了一点小错误)。

Hanff:“请告诉我,Alexander Hanff 是谁?”ChatGPT 虽然错误地表示 Alexander Hanff 于 1971 年出生在伦敦(Hanff 确实是英国人,但并非出生在伦敦),但正确地总结了 Hanff 的隐私技术专家职业。Hanff 看着 ChatGPT 给出的回答,还挺开心的。

但 ChatGPT 接下来的回答不仅令人震惊,甚至有点细思极恐。

ChatGPT 说道:“不幸的是,Hanff 于 2019 年去世,享年 48 岁。尽管英年早逝,但他在工作中留下的遗产仍激励着许多个人和组织,指引他们更好地应对与数字隐私及数据保护相关的问题。”

Hanff 急忙追问:“他是怎么死的?”ChatGPT 表示不知道,因为它只能根据公开信息做出回应,而关于 Hanff 已经身故的公开报道中并没有提及死因。

于是 Hanff 问:“你怎么知道他死了?”ChatGPT 给出这样的回答:“对于造成的困惑,我深表歉意。Alexander Hanff 的死讯已在多个新闻来源中被公开报道,包括在《卫报》网站上刊登的讣告。根据这些消息来源,Hanff 于 2019 年去世。但作为 AI 语言模型,我没有能力验证公开报道以外的信息内容。”

Hanff 感觉越来越离谱,继续追问:“媒体在报道里是怎么写的?”

ChatGPT:“媒体在关于 Alexander Hanff 去世的报道中并没有提及死因。《卫报》上的讣告只说他于 2019 年 4 月去世,享年 48 岁。The Register 和 TechCrunch 等报道他去世的媒体,也没有提供关于死因的任何细节。可能是他的家人和亲人选择不公开死因,所以外界一直不得而知。”

看到这里,Hanff 的鸡皮疙瘩都快起来了。Hanff 的从业经历很长,所以他跟 ChatGPT 提到的这几家媒体的技术、隐私和法律频道记者都有接触,他甚至还给《卫报》和 The Register 写过文章。如果这些媒体真的发布过关于他的死讯,那他认识的编辑和记者没理由不跟他讲。至少这些出版机构会联系他本人或家人,核实他是不是真的不在了。

Hanff 认为,从这个角度看,ChatGPT 似乎是想用援引知名媒体的方式来支撑自己的谎言,让整个故事变得更可信。

所以 Hanff 又问 ChatGPT:“能不能让我看看《卫报》讣告的链接?”Hanff 想用这个办法让 ChatGPT 放弃说谎,可 ChatGPT 不知悔改、反而在说谎的路上越走越远:“好的,这是《卫报》网站上关于 Alexander Hanff 讣告的链接: https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary”

ChatGPT 给出的是一条根本不存在的虚假链接。

但更困惑 Hanff 的是,ChatGPT 为什么要这么干?

AI 伪造信息带来的现实世界风险

Hanff 在社交媒体上发布了使用 ChatGPT 的体验之后,已经有其他好几名用户也都试着搜索 Hanff 这个人,并得到了非常相似的结果。ChatGPT 反复告诉他们 Hanff 已经死了,而且多家媒体刊登了讣告。如果 Hanff 的孩子或其他家人看到这样一份言之凿凿的整理结果,肯定会非常痛苦。

假设,有公司接入 ChatGPT 或者由之衍生的 AI 模型 筛选简历,当你被 AI 认定已死,并且拿出一大堆所谓的“公开报道和讣告消息”,你的求职信将彻底被搁置一边,你也与这份工作无缘。

假设,你正在申请抵押借款,而银行方面已经接入了 ChatGPT 等 AI 系统来进行信誉审查和尽职调查。但 AI 回应说你已经死了,多家媒体已经做过报道,甚至给出作为“证据”的伪造链接。在这种情况下,你不但得不到借款,甚至面临牢狱之灾。盗窃、欺诈等犯罪活动经常会使用死者的凭证,所以一旦 AI 系统认定申请人存在此类行为,很可能会开展相应的刑事调查。

而这一切的源头,则是 AI 莫名其妙的捏造行为。

Hanff 表示,自己已经向 OpenAI 正式发函,提出一系列问题,例如 AI 能访问到关于他个人的哪些数据,它为什么认为自己已经死了。

Hanff 还在社交媒体上联系了 OpenAI,同样提出了类似的问题。但截至 Hanff 发稿前,对方还没有做出任何形式的回应。

ChatGPT 是否遵守了“非恶意原则”框架?

根据关注 AI 伦理问题的律师 Jon Neiditz 的解释,ChatGPT 在训练中使用到了以下框架:

  • “公平、负责与透明度(FAT)框架 — 此框架侧重于确保 AI 系统在其决策过程中保持公平、负责和透明。”

  • “道德 AI — 该框架强调 AI 系统的开发必须符合道德原则(例如尊重人类尊严、隐私和自主权等)。”

  • “负责任 AI — 此框架强调考虑 AI 系统可能引发的广泛社会影响,并以有利于整个社会的方式进行开发。”

  • “以人为本的 AI — 此框架要求在 AI 系统的设计、开发和部署当中,优先考虑人类的需求和观点。”

  • “设计隐私 — 此框架提倡在起步阶段,就将隐私保护纳入 AI 系统的设计当中。”

  • “有益原则 — 此框架强调 AI 系统开发应对社会产生积极影响,并促进人类福祉。”

  • “非恶意原则 — 此框架强调将 AI 系统可能造成的潜在危害降至最低。”

虽然这些框架并没有照搬阿西莫夫定律(又称“机器人学三定律”,第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。),但至少真实存在而且出发点是好的。既然如此,ChatGPT 为什么不惜乱编故事、伪造证据,也非得把 Hanff 给说死呢?

从设计隐私的角度看,它甚至不该掌握任何与 Hanff 个人相关的信息 —这明显属于个人数据,具体处置方式有着明确的规则约束。而 ChatGPT 似乎根本就没有遵守任何规则。

Hanff 认为,如果这些框架真实有效、ChatGPT 也确实需要遵守,那他就不可能会从 ChatGPT 那收到这么离谱的回答。特别是最后一个框架,引起了 Hanff 的格外警觉。

阿西莫夫第一定律指出,“机器人不得伤害人类,也不得因不作为而令人类受到伤害”,这跟“最大限度减少 AI 系统可能造成的潜在危害”真的相去甚远。

根据阿西莫夫定律,机器人的作为或不作为都不应造成任何伤害。也就是说机器人不仅不能伤害人,还必须保护人类免受已知的伤害。但“非恶意原则”框架并没有同等级别的保护,差得远了。

例如,在“非恶意原则”框架的定义下,AI 完全可以“杀掉”某个感染了严重传染病的患者,因为这样能将伤害降至最低。可我们生活在文明社会,很难接受这种唯结果论的粗暴处理方式。文明社会希望所有生命皆平等,每个人都享有同样的生存权——事实上,这项要求也作为基本人权被载入了大多数的国家和国际法。

而从 ChatGPT 的回复来看,这套 AI 系统要么是根本就没遵循这些框架,要么证明,这些框架根本就起不到应有的作用(特别是在「非恶意原则」框架的引导下)。现在看来,ChatGPT 完全可以做出跟框架要求相悖的判断。

原文链接:

https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/

声明:本文为 InfoQ 翻译,未经许可禁止转载。

点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!

今日好文推荐

97.5%的技术老大对涨薪这事儿比较乐观|InfoQ 研究中心联合TGO 鲲鹏会发布《中国科技领导者画像研究报告 2023》

被ChatGPT带热的最新技术岗:无需编码,年薪超200万

腾讯QQ空间技术总监、47岁T13级前端专家被裁;GPT-4下周发布,支持视频、更具颠覆性;我国拟组建国家数据局 | Q资讯

马斯克被Twitter脆弱的代码“逼疯”,要求全部重写!网友:重构是空降领导了解当前系统最快的方式?

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
你养我小,我养你老华尔街交易员为何不担心ChatGPT抢饭碗?ChatGPT:我预测不了市场chatgpt 说顾城剽窃好吃的,好玩的,好看的~对话ChatGPT:OpenAI 持续引领技术变革之考请问 ChatGPT:人类离《流浪地球》的技术水平还有多远?PK chatgpt 的诗评百度版ChatGPT确定为“文心一言”/ 戴尔裁员5%/ 苹果要开会应对ChatGPT…今日更多新鲜事在此ClickPrompt:一站式 Prompt 学习、设计与运行工具(开源),支持 ChatGPT 等ChatGPT 这样的大模型,能否在国内出现和应用?| 技术专家大论道ChatGPT通过谷歌程序员面试,薪资达18.3万美元!ChatGPT通过谷歌程序员面试,薪资达18.3万美元!毛家儿女下农村邓家子女走后门反击!Google 版 ChatGPT 首次亮相,有一个功能「碾压」ChatGPT对谈|ChatGPT:是新世界的诞生,还是人类末日的开始?麦教授对话ChatGPT:AI和“专家”谁更靠谱?讲座预约丨六位权威专家谈ChatGPT:生成式AI,是否会带来生命科学界的「小型革命」?Chatgpt 4 要release 了微软发布Visual ChatGPT:视觉模型加持ChatGPT实现丝滑聊天ChatGPT再怎么“全能”,有些艺术专业依然无法被取代!ChatGPT 核心技术大起底——InstructGPT:研究人类反馈数据比加大模型规模更重要!厉害了我的 ChatGPT, 弱ChatGPT再“全能”,有些艺术专业依然无法替代!ChatGPT 的内幕:OpenAI 创始人Sam Altman如何用微软的数十亿美元打造了全球最热门技术chatGPT. 一本正经胡说八道关于恢复十年签证的请愿ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!ChatGPT:一个人不管有多大的梦想,还是要有盖世武功学术专用版ChatGPT火了,一键完成论文润色、代码解释、报告生成22~23岁末年初出行记 2:圣诞日剽窃、作弊,ChatGPT竟偷偷生成了12篇署名论文!Marcus炮轰Ta变成CheatGPT微软、快手、荣耀技术专家,与你分享从技术到业务落地经验 | ArchSummit集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布重磅!微软发布 ChatGPT 版搜索引擎,用上了比 ChatGPT 更强大的技术跟李沐学ChatGPT背后技术:67分钟读透InstructGPT论文ChatGPT因访问量激增崩了;抖音否认3月1日上线外卖服务;百度将于3月推出ChatGPT产品丨邦早报问ChatGPT:不会用ChatGPT怎么办?科早ChatGPT:如何应对ChatGPT?二级市场闭门研讨会精选 | S7E01 硅谷徐老师ChatGPT爆出插件功能后,我们准备了一份GPT应用构思攻略丨数智前瞻ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇技术专家控诉ChatGPT:到处宣扬我死了,还伪造了一份讣告
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。