GPT-4和前一代比到底有什么不同?科技2023-03-20 01:03记者 | 张司钰编辑 | 倪 妮当开发者还在为OpenAI开放ChatGPT的API(应用程序编程接口)兴奋,铆足了劲研究各种AI插件之时,OpenAI在北京时间3月15日凌晨发布了多模态预训练大模型GPT-4(Generative Pre-trained Transformer 4),支持图像和文本输入并以文本形式输出。不过,目前只有ChatGPT Plus的订阅用户可以试用有使用上限的GPT-4,想要访问GPT-4 API的开发者也需加入候补名单等待。由于目前的图像输入尚处于只供内部测试使用的第一阶段(α阶段),用户暂时只能向其输入纯文本信息。在定价方面,对于订阅用户来说,GPT-4的定价为每1000个prompt token(用于文本生成的特定文本片段或单词)0.03美元,每1000个completion token(语言模型基于prompt token生成的完整文本)0.06 美元。那么,GPT-4与之前“技惊四座”的GPT-3.5有什么不同?它又会让目前的AI应用产生怎样的变化?首先是语言模型架构的不同:GPT-4使用多模态预训练大模型,输入不只限于文本,而GPT-3.5采用的是基于文本的单模态预训练模型。 当人们谈论GPT-4的高体验、强能力时,往往提及GPT-4针对文本、图像多种类型输入数据的强大的处理能力,这主要基于其特有的“多模态”功能。虽然GPT-3.5已经具备很强的文本理解与生成能力,但它只是GPT-3微调的版本,它们有着相似的架构,即使增加了更多的参数,GPT-3.5仍然是一个单模态预训练模型,无论是图像还是文本、音频,用户只可以输入一种数据类型的信息。GPT-4则非常不同。假使我们让计算机根据一张照片描述其中的物品,如果使用单模态预训练模型,计算机只能从图像中提取特征并生成描述,这样很容易出现“误判”。但如果使用多模态预训练模型,同时提供图片与相关文本描述,计算机就可以结合两类信息生成更准确的描述。在OpenAI公开的GPT-4报告中,用一张带梗的图片演示了GPT-4特有的多模态功能:比如用户输入:Can you explain this meme?(你可以解释这张网络爆火的图片吗?)基于GPT-4的ChatGPT给出的回答是:这个梗将两个毫不相干的事物组合在一起,即从太空拍摄的地球照片和鸡块。文字暗示下方的图片是一张美丽的从太空拍摄的地球照片。然而,实际上这张图片是鸡块拼凑而成,模糊地呈现出世界地图的形状。这个梗的幽默之处在于文字和图片之间出现了出乎意料的差异。文字制造了一种期望,即展示一幅壮丽的地球图像,但实际呈现的是一些平凡而又滑稽的东西。 同样,在翻译领域,用户可以向多模态预训练大模型提供文本与音频,而非之前基于单模态预训练大模型只能提供文本或音频,计算机结合多种输入数据类型分析,可以生成更准确的翻译结果。在文献阅读过程中,用户也可以直接输入文献的图片格式与文字指令,使其总结论文要点。其次是训练数据来源不同:GPT-4使用文本、图像、视频等多种类型,回答更具针对性,而GPT-3.5只有文本。ChatGPT的爆火,展现了GPT-3.5在各种自然语言处理任务中出色的性能,以及在多个任务中与人类不相上下的文本理解与文本生成能力,但GPT-4让生成的内容更具针对性了。 对于模型的训练数据,GPT-3.5使用的是来自互联网的大量文本数据,这些数据包括维基百科、新闻报道、网站文章等。GPT-4使用的则是包括图像、视频、语音等多种类型的数据。比如,GPT-4可以通过分析视频和音频内容,学习不同的语音和口音模式,从而提高其对口语的理解和生成能力。正因如此,OpenAI在介绍GPT-4的页面写道,“GPT-4 比以往任何时候都更具创造力和协作性。它可以生成、编辑和迭代用户进行创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格。”为了佐证相比GPT-3.5,拥有更大模型容量和更高计算能力的GPT-4可以处理更复杂、更长的输入信息,并生成更准确、更流畅的输出内容,OpenAI在报告中提到,经过6个月使用对抗性测试程序(Adversarial Testing,为确保机器学习模型不会对恶意数据产生过于错误的预测或输出,从而增强机器学习模型的安全性和稳健性)并参考ChatGPT的经验教训,GPT-4在真实性和可控性等方面取得了有史以来最好的成果。 如今,GPT-4能够通过模拟律师考试,其分数在应试者的前10%左右;相比之下,GPT-3.5的得分在倒数10%左右。并且,GPT-4也在USABO Semifinal Exam 2020(美国生物奥林匹克竞赛)、GRE口语等多项测试项目中取得了接近满分的成绩。知识在计算机中如何表示是人工智能领域的核心问题之一,以前这个问题通过关系型数据库的方式解决,但BERT、GPT等预训练模型的出现提供了另一种可能——大模型也成为一种知识存储的方式:知识以参数的方式存储,虽然可读性、精度相对较低,但通过自然语言就能调用。 虽然GPT-4还没有被广泛使用,但随着该模型的出现,语言交互系统将变得更加高效。如今,GPT-4可以处理超过25000字的文本,这意味着它可以处理上下文较长的对话,而不会迷失或混淆。到那时,当我们向智能客服提问的时候,应该不会只得到根据关键词自动回复的固定内容,让人着急上火对它大吼“给我转人工客服”;当我们与聊天机器人对话的时候,它也不会太频繁地说驴头不对马嘴的话,或者经常在回答不上来的时候转移话题。 OpenAI称,GPT-4是在Microsoft Azure AI超级计算机上接受训练的,具有Azure的“AI优化”基础架构,因此可以面向世界各地的用户提供此项服务。微软也表示,其Bing AI Chatbot自上个月该服务进入预览版以来一直基于GPT-4运行。 不过很遗憾的是,虽然在内部的真实性评估中,GPT-4的得分比GPT-3.5高40%,但GPT-4并不能让生成的内容绝对符合事实,它与GPT-3.5乃至早期的GPT模型一样不完全可靠。OpenAI也在GPT-4的报告中用17页的内容(占据全篇近20%)着重强调了这一点(报告中对应:GPT-4 Observed Safety Challenges这一小节)。比如它仍然会产生虚假信息、有害内容、“幻觉”(产生“幻觉”事实并出现推理错误)、传统或非传统武器扩散、隐私、网络安全、过度依赖等问题。本文版权归第一财经所有,未经许可不得转载或翻译。识别下图二维码,即可购买《第一财经》杂志2023年3月刊微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章