Redian新闻
>
5亿个token之后,我们得出关于GPT的七条宝贵经验

5亿个token之后,我们得出关于GPT的七条宝贵经验

公众号新闻

机器之心报道

机器之心编辑部

ChatGPT 正确的使用姿势。

自 ChatGPT 问世以来,OpenAI 一直被认为是全球生成式大模型的领导者。2023 年 3 月,OpenAI 官方宣布,开发者可以通过 API 将 ChatGPT 和 Whisper 模型集成到他们的应用程序和产品中。在 GPT-4 发布的同时 OpenAI 也开放了其 API。


一年过去了,OpenAI 的大模型使用体验究竟如何,行业内的开发者怎么评价?


最近,初创公司 Truss 的 CTO Ken Kantzer 发布了一篇题为《Lessons after a half-billion GPT tokens》的博客,阐述了在使用 OpenAI 的模型(85% GPT-4、15% GPT-3.5)处理完 5 亿个 token 之后,总结出的七条宝贵经验。


Ken Kantzer


机器之心对这篇博客进行了不改变原意的编译、整理,以下是博客原文内容:


经验 1:prompt,少即是多


我们发现,如果 prompt 中的信息已经是常识,那么该 prompt 不会帮助模型产生更好的结果。GPT 并不愚蠢,如果您过度指定,它实际上会变得混乱。


这与编码不同,编码中的一切都必须是明确的。


举一个让我们感到困扰的例子:


pipeline 的一部分读取一些文本块,并要求 GPT 将其分类为与美国 50 个州之一相关。这不是一项艰巨的任务,可以使用字符串 / 正则表达式,但有足够多奇怪的极端情况,因此需要更长的时间。所以我们的第一次尝试大致是这样的:


Here's a block of text. One field should be "locality_id"and it should be the ID of one of the 50 states, or federal, using this list:
[{"locality: "Alabama", "locality_id": 1}, {"locality: "Alaska""locality_id"2} ... ]


这有时会起作用(约超过 98% 的情况),但失败的情况足以让我们不得不进行更深入的挖掘。


在调查时,我们注意到字段「名称」始终返回州的全名,尽管我们没有明确要求它这样做。


因此,我们改用对名称进行简单的字符串搜索来查找状态,然后模型就一直运行良好。


总而言之,GPT 显然知道 50 个州。当 prompt 更加模糊时,GPT 的质量和泛化能力都可以提高,这太疯狂了 —— 这是高阶思维的典型标志。


经验 2:不需要 langchain


你只需要 chat API,不需要 langchain,甚至可能不需要 OpenAI 去年在其 API 中发布的任何其他内容。


Langchain 是过早抽象的完美例子。我们开始认为我们必须使用它。但相反,数百万个 token 之后,我们可能在生产中使用了 3-4 个非常多样化的 LLM 函数,而我们的 openai_service 文件中仍然只有一个 40 行的函数:


def extract_json(prompt, variable_length_input, number_retries)


我们使用的唯一 API 是 chat API。我们不需要 JSON 模式、函数调用等等(尽管我们做了所有这些),我们甚至不使用系统 prompt。gpt-4-turbo 发布时,我们更新了代码库中的一个字符串。


这就是强大的广义模型的美妙之处 —— 少即是多。


该函数中的 40 行代码大部分都是围绕 OpenAI API 被关闭的 500s/socket 的错误处理。


我们内置了一些自动截断功能,因此不必担心上下文长度限制,我们有自己专有的 token 长度估计器。


if s.length > model_context_size * 3
  # truncate it!
end


在存在大量句点或数字的极端情况下(token ratio < 3 characters /token),这种方法会失败。所以还有另一个专有的 try/catch 重试逻辑:


if response_error_code == "context_length_exceeded"
   s.truncate(model_context_size * 3 / 1.3)


我们已经依靠上述方法取得了很大进展,并且该方法足够灵活,可以满足我们的需求。


经验 3:通过流式 API 改善延迟并向用户显示变速输入的单词是 ChatGPT 一项重大的用户体验创新


我们曾经认为这只是一个噱头,但实际上用户对「变速输入字符」的反应非常积极 —— 这感觉就像是人工智能的鼠标 / 光标用户体验时刻。


经验 4:GPT 不擅长产生零假设


「如果找不到任何内容,则返回空输出」—— 这可能是我们遇到的最容易出错的 prompting 语言。在此情况下,GPT 不仅会经常出现幻觉而不返回任何内容,还会导致「缺乏信心」,返回空白的次数比应有的要多。


我们大多数的 prompt 都是以下形式:


“Here’s a block of text that’s making a statement about a company, I want you to output JSON that extracts these companies. If there’s nothing relevant, return a blank. Here’s the text: [block of text]”


有一段时间,我们会遇到 bug,[文本块] 可能为空,幻觉不时出现。顺便说一句,GPT 很喜欢幻想面包店,这里有一些很棒的面包店:


  • 阳光面包店

  • 金粮面包店

  • 极乐面包店


幸运的是,解决方案是修复该 bug,并在没有文本的情况下根本不向其发送 prompt。


经验 5:「上下文窗口」命名不当


「上下文窗口」只会因输入而变大,而不会因输出而变大。


一个鲜为人知的事实是,GPT-4 的输入窗口可能有 128k token,但输出窗口却只有区区 4k!


我们经常要求 GPT 返回 JSON 对象的列表 —— 一个 json 任务的数组列表,其中每个任务都有一个名称和一个标签,而 GPT 无法返回超过 10 项。


我们最初认为这是因为上下文窗口大小是 4k,但我们发现 10 个项目,可能只有 700-800 个 token,GPT 就会停止。


经验 6:向量数据库和 RAG / 嵌入对我们普通人来说几乎毫无用处


我认为矢量数据库 / RAG 确实是用于搜索的,以下是一些原因:


1. 相关性没有界限。有一些解决方案,你可以创建自己的相关性截止启发式,但它们并不可靠。在我看来,这确实「杀死了 RAG」—— 你总是冒着用不相关的结果危害检索的风险;或者过于保守,错过重要的结果。

2. 为什么要将向量放入专门的专有数据库中,远离所有其他数据?除非你处理的是 google/bing 规模的工作,否则上下文的丢失绝对不值得进行权衡。

3. 除非你正在进行非常开放的搜索(例如整个互联网),否则用户通常不喜欢返回他们没有直接输入的内容的语义搜索。


在我看来(未经验证),对于大多数搜索案例,LLM 的更好用法是使用正常的完成 prompt 将用户的搜索转换为分面搜索(faceted-search),甚至是更复杂的查询。但这根本不是 RAG。


经验 7:幻觉基本上不会发生


我们的每个用例本质上都是「这是一段文本,从中提取一些内容」。通常,如果要求 GPT 提供一段文本中提到的公司名称,它不会为你提供「随机公司」(除非文本中没有公司,即零假设问题)。


类似地,GPT 并不会真正产生幻觉代码。如果用例完全、详细,那么 GPT 实际上非常可靠。


原文链接:

https://kenkantzer.com/lessons-after-a-half-billion-gpt-tokens/




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
LLM 之后,「Next token Prediction」还能训机器人?next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5纪录片级上甘岭解说(3小时43分长动画浓人,nèng死淡人《南乡子 - 雨水》GPT-4o团队引发OpenAI组织创新热议!应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云看完25万的理想L6,比亚迪、特斯拉、吉利们得有压力了。无端被攻击1个半月后,出关下山,我有了什么新的感悟?重磅!$8.86万被中国海关没收!华人把美元都藏好了,出关仍被查...Llama 3每秒输出800个token逼宫openAI!下周奥特曼生日或放出GPT-5?一次预测多个token,Meta新模型推理加速3倍,编程任务提高17%“不后悔!”放弃中国名校来新西兰读高中,纽村小留分享珍贵经验!“半年饿瘦10斤,但收获更多!”三联x财新通:关于房子,关于养老,关于我们自己How a Student’s Fake Exercise Book Broke the Chinese Internet继Amazon之后,Google、Meta相继出手,硬是把OA轮变成了“相亲”?!英国人一年吃115亿个三明治?!最受欢迎的竟是这款特朗普这个TikTok的系铃人,反倒可能会成为解铃人齊人之福 音樂:Come Back to Sorrento笔记上百页!同寝室的她们得到世界名校录取,回国后计划……苹果智能背后模型公布:3B模型优于Gemma-7B,服务器模型媲美GPT-3.5-Turbo地表最强AI大会上,我看到自己就能训练一个GPT的日子即将到来每秒800个token,这颗AI芯片挑战英伟达ChatGPT 大更新曝光!免费用户自动升级 GPT-4 ,还能创建 GPTs吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果AI早知道|OpenAI将推出基于GPTs使用量的分成机制;X AI 发布Grok-1.5大模型预测,下一个token何必是文字?AI芯片里程碑,每秒1000个token这七条投资锦囊,是老虎基金创始人的最重要遗产我们调教了一下ChatGPT的音乐素养,未果北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token麻了 | 继Amazon之后,Google、Meta相继出手!神秘GPT模型引爆社区,GPT-4.5、GPT-5谣言满天飞,奥特曼在线围观在度假牧场晨跑,参加纪念活动宅巷深处的木门
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。