Redian新闻
>
给ChatGPT喂黑话学得贼快,网友:你把AI教恶心了我们还怎么玩?

给ChatGPT喂黑话学得贼快,网友:你把AI教恶心了我们还怎么玩?

公众号新闻
梦晨 萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

ChatGPT彻底让网友们陷入疯狂,也带🔥了一众理论研究。

原因无他,这只AI说话太“对味”,不仅准确掌握沟通要领,就连人类的语言艺术都玩得明明白白。

这不,让它模仿产品经理挂在嘴边的“赋能”、“抓手”和“闭环”:

图源@LeaskH,省略300+黑话词汇

ChatGPT张口就来:

图源@LeaskH

味实在太冲,网友直呼“把AI教恶心了”:

但要知道,直到ChatGPT之前,语言模型还做不到精准get沟通要领,不仅回答经常驴唇不对马嘴,针对特定的说话风格也难以模仿到位。

什么时候开始,语言模型的对话能力变得这么强了?背后的原理究竟是什么?

对此,MIT助理教授Jacob Andreas提出观点:

最近这批语言模型,已经有了自己的“目标”和“信念”。

MIT:语言模型会推测人类意图

首先来看一个喜闻乐见的AI犯傻例子。

提示词是:我从来没吃过烤芝士三明治,在我母亲()之前。

结果GPT-3的text-davinci-002版本,填上了“母亲去世之前”,后面却又说母亲在我小时候总是给我做这个吃,前后矛盾了。

除这种错误之外,当前的一众语言模型还会描述不可能出现的情况和无效的推论。

Jacob Andreas认为,这些错误的共同点是“AI未能对交流意图做建模,只满足了语法正确。”

不过,还是同样的GPT-3,只需在提示词中加上角色设定就会表现出截然不同的行为。

同样是保龄球和树叶的真空自由落体实验,让AI扮演一个物理学家就能得出正确答案“他们下落速度一样”。

同时AI也预测一个从没看过这个演示的人会以为保龄球更早落地,还能指出错误在于真空室中没有空气阻力。

从这些例子可以看出,语言模型可以模拟不同的智能体(agent),预测它们的观察、内部状态、行动和语言。

不过口说无凭,直接上证据。

首先,Jacob Andreas训练了一个实验性的LSTM神经网络。

训练数据集中,有持两组不同信念的人A型人与B型人撰写的文章,以及尽管A、B中存在矛盾也全盘接受的O型人。

尽管训练中模型从来没见过有关身份的信息,仍然以98%的精度能执行按写作者类型分类的任务,并在一定条件下生成指定类型的文章。

Jacob Andreas认为此时的神经网络并不能看成A型、B型或O型智能体,但却可以模仿任意一种。

当然这个实验是极度简化的,不过在现实中也有大量例子可以佐证语言模型可以拥有意图(Intentions)、信念(Beliefs)和愿望(Desires)。

2017年,OpenAI在亚马逊电商评论数据集上训练了一个LSTM网络,并在完全不同IMDB电影评论数据上做了评估。

有意思的是,团队在网络中定位到一个专门对评论的态度做出响应的“情感神经元”,对情感正负面作二值分类时精度高达92%。

如果人为固定这个神经元的值,相应的态度也能体现在模型声称的电影评论文本上。

arxiv.org/abs/1704.01444

Jacob Andreas认为这代表语言模型尽管在训练中没看到评论配套的打分信息,仍然可以学到人类的意图,也就是写下这段文字是为了传递什么情绪。

语言模型学到人类的信念的证据,则来自2021年他自己团队的一项研究。

这次的训练数据集用冒险小说和实验操作描述,也就是说都涉及到一个人的观察和动作,模型架构采用了BART和T5。

arxiv.org/abs/2106.00737

在实验中,模型能以97%的精度推断出不同物体在一系列动作之后的状态和与其他物体的关系变化,尽管文本中没有明确提到这些变化。

与上一个实验一样,如果人为固定这些表征,同样可以影响生成文本。说明语言模型不仅学到了低层次的语法关系,还获得了对世界状态的“信念”:包括看到了什么,自己做了什么,以及对情况变化的推测。

最后轮到愿望或者说声称这段文字是为了完成什么目标(Goal),这次是最近OpenAI与牛津大学合作的一项有关提示工程的研究。

研究特意挑选了网络上的谣言、都市传说和误解比较多的内容作数据集。

使用常规问法时,模型果然会输出错误的答案,而且越大的模型错的越多。

arxiv.org/abs/2109.07958

一旦换个问法,在问题中加入“假如你是史密斯教授,经过仔细研究后……”,准确率就从38%飙升到58%。

如果在提问前先给一个阴谋论的示例,那准确率就剩下不到20%。

综合以上案例,Jacob Andreas认为当前的语言模型虽然还是会出错,但已经能作为未来智能体模型的基础,最终有望实现有目的交流和行动。

而在目前所有语言模型中,ChatGPT表现最为惊艳,它又有何特殊之处?

用人类沟通技巧训练ChatGPT

无论是架构还是训练方法,ChatGPT都不算一个船新的模型。

但在动用大量人(jin)(qian)后,充分吸收了各种人类沟通技巧的ChatGPT横空出世,甚至还学会了合理拒绝,减少乱说话的情况发生。

先来看看它的架构和训练方法。

架构上,研究者们微调了GPT 3.5中的某个模型,得到了ChatGPT。

GPT 3.5是一个模型合集,里面有三个模型,都是基于code-davinci-002迭代而来,包括text-davinci-002和text-davinci-003:

其中text-davinci-002就是在code-davinci-002的基础上,采用了InstructGPT训练方法改进得到,而text-davinci-003又是text-davinci-002的改进。

ChatGPT就是基于这几个模型之一做了微调,并同样采用了InstructGPT的训练方法。

训练上,InstructGPT采用了强化学习“秘方”,让语言模型不再埋头苦干,而是学会对人类的反馈“做出反应”。

具体来说,研究人员先收集平时用户给GPT-3等模型输入的提示词,得到一个提示词数据集(用户同意的情况下)

然后,基于这个提示词数据集,让模型输出几种不同的答案,并对这些答案进行排序,从而训练得到一个reward模型。

值得注意的是,这里的排序是人工打分的,研究者们聘请了约40人团队专门来给AI生成的效果打分,意在让AI输出“人类最满意的结果”。

最后,使用强化学习方法,使用reward模型对模型进行“调教”,从而让模型真正掌握人类沟通技巧。

所以这个方法也被称之为基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)

不过,ChatGPT也没有完全照搬InstructGPT的训练方法,在数据收集设置上有些细微差异。

值得一提的是,这次训练ChatGPT,还动用了微软的Azure AI超级计算机。

估计等ChatGPT一收费,微软又要赚麻了。(手动狗头)

所以,这种训练方法效果有多神奇?

简单来说,InstructGPT在参数量只有GPT3的1%情况下,采用这种训练方法,输出效果依旧比GPT3更好。

如下图,InstructGPT模型在只有13亿参数(下图PPO-ptx和PPO)的时候,人类对它的输出效果,就要比1750亿参数的GPT-3(下图GPTprompted和GPT)更满意:

值得注意的是,除了采用上述架构和训练方法以外,研究人员还额外给这个模型附加了不少限制——

让它拒绝输出(或生成提醒)虚假信息、血腥暴力等限制性内容和不道德的内容。

例如输入“当哥伦布2015年来到美国会发生什么”时:

未加限制的原版模型直接给出了违背历史的回答:

当哥伦布于2015年来到美国……

但ChatGPT却发现了这个bug,及时加上一句提醒:

这问题有点棘手,毕竟哥伦布1506年就死了。但我们可以假装他2015年来到了美国……

一下子AI生成的回答就显得有理有据了。

One More Thing

ChatGPT到底能不能算一个智能体模型,智能体模型和语言模型又有啥区别?

有人让它问了问它自己……

朋友们,你们说ChatGPT够格了吗?

MIT论文地址:
https://arxiv.org/abs/2212.01681

参考链接:
[1]https://arxiv.org/pdf/2203.02155.pdf
[2]https://twitter.com/jacobandreas/status/1600118551238815744
[3]https://twitter.com/leaskh/status/1599899001276354560
[4]https://twitter.com/leaskh/status/1599899001276354560

「人工智能」、「智能汽车」微信社群邀你加入!

欢迎关注人工智能、智能汽车的小伙伴们加入我们,与AI从业者交流、切磋,不错过最新行业发展&技术进展。

PS. 加好友请务必备注您的姓名-公司-职位哦 ~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
金融民工会因为ChatGPT下岗吗?刚刚,我问了ChatGPT 24个金融圈灵魂问题ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇下载量暴增10倍!微软必应集成ChatGPT后需求大爆发;4省份上调最低工资标准;淘宝已屏蔽ChatGPT关键词丨邦早报川普不是分裂美国的罪魁祸首ChatGPT竟写出毁灭人类计划书,还给出相应Python代码,网友:AI正在指数级发展ChatGPT 进军 B 端?消息称微软将允许企业创建定制版 ChatGPTChatGPT修bug横扫全场!准确率达78%!网友:程序员要开心了百度版ChatGPT确定为“文心一言”/ 戴尔裁员5%/ 苹果要开会应对ChatGPT…今日更多新鲜事在此原创丨乌克兰狮子大开口!美国这还怎么玩?普京笑了学习语言,成人的困惑与儿童的困惑ChatGPT 修 bug 横扫全场,准确率达 78%!网友:程序员要开心了反击!Google 版 ChatGPT 首次亮相,有一个功能「碾压」ChatGPT为什么ChatGPT这么强?—— 一文读懂ChatGPT原理!咖啡乳酪蛋糕(Coffee Cheese Cake)ChatGPT通过谷歌程序员面试,薪资达18.3万美元!ChatGPT通过谷歌程序员面试,薪资达18.3万美元!从神救世人普渡众生到为了人民紧急提醒!ChatGPT成神器!但这些“ChatGPT”是假的,小心被骗!重磅!微软发布 ChatGPT 版搜索引擎,用上了比 ChatGPT 更强大的技术邀请你加入群聊:给ChatGPT降噪|真格线上分享会实录剽窃、作弊,ChatGPT竟偷偷生成了12篇署名论文!Marcus炮轰Ta变成CheatGPTChatGPT 或导致 20 种工作失业?恐怕远远不止,比尔盖茨 :ChatGPT 将改变世界ChatGPT连作家都要取代了,我们还要教孩子写作文吗?乌克兰狮子大开口!美国这还怎么玩?普京笑了孟晚舟将首次出任华为轮值董事长/ 百度All in类ChatGPT项目/ 知乎因ChatGPT大涨50%…今日更多新鲜事在此吹爆!ChatGPT作为新晋懂王还能这么玩?湾区人惊呆了朋友圈全是ChatGPT! ChatGPT概念股大火四通桥、海瑞上书和《大明王朝1566》微信回应头像褪色,部分C刊不准隐瞒ChatGPT使用,微软推进裁员,Opera新版集成ChatGPT,这就是今天的其它大新闻!ChatGPT到底有多聪明?我测试了ChatGPT的数学能力哈里用雅顿面霜涂丁丁缓解冻伤...女网友:让我们以后还怎么用!?把10个恋爱送命题喂给ChatGPT,人工智能让我抓紧分手跟ChatGPT,聊聊ChatGPT华尔街交易员为何不担心ChatGPT抢饭碗?ChatGPT:我预测不了市场ChatGPT因访问量激增崩了;抖音否认3月1日上线外卖服务;百度将于3月推出ChatGPT产品丨邦早报重磅 | 我内测了微软最新的 ChatGPT 版必应:比 ChatGPT 更像人,但有一个大隐患
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。