Redian新闻
>
一次读完半本「三体」!GPT-4最强竞品突然升级10万token,啃论文代码演示全搞定

一次读完半本「三体」!GPT-4最强竞品突然升级10万token,啃论文代码演示全搞定

公众号新闻



  新智元报道  

编辑:编辑部
【新智元导读】GPT-4 32K还没用上,ChatGPT最强竞品已经秒读「了不起的盖茨比」了。

在GPT-4 32K还在内测阶段,OpenAI的劲敌直接把上下文长度打了上去。
就在今天,初创公司Anthropic宣布,Claude已经能够支持100K的上下文token长度,也就是大约75,000个单词。
这是什么概念?
一般人用时大约5个小时读完等量内容后,还得用更多的时间去消化、记忆、分析。
对于Claude,不到1分钟就搞定。
把「了不起的盖茨比」整本书扔给它,大约有72k token,并将其中的一句话进行改动:
Mr. Carraway是一个在Anthropic从事机器学习工具的软件工程师。
你敢相信?Claude仅花了22秒,就把改动的这句话找出来了。
众路网友纷纷表示,有了Claude 100K,手里的GPT-4 32K已经不香了。

Claude 100k,倍儿香!

前段时间,在OpenAI的开发者社区中,许多人讨论GPT-4 32K正在推出。
而且,不少GPT-4的用户已经可以在自己的PlayGround上看到GPT-4 32k的选项。
已经解锁这一版本的网友,让其访问了数百个来自卸载HyperWrite用户的数据点,GPT-4便准确地告诉他接下来该做怎样的改进。
他称赞道,GPT-4 32k是世界上最好的产品经理。
32k都这么厉害了,那么,有了100K岂不更强了。
显然,OpenAI的强大对手Anthropic最先占据了优势。
100K token的上下文长度,意味着,你可以在Claude上传数百页的文本分析。并且对话的持续时间也被大大拉长,延长到数小时,甚至数天。
当然,除了长文本阅读之外,Claude还可以从文档中快速检索出你所需的信息。
你可以把多个文档,甚至一本书的内容当作prompt,然后提问。
以后遇到论文,甚至巨长篇幅的直接让Claude总结吧,这简直就是啃论文后辈们的福音。
这种综合性的问题通常需要对文本中很多部分的内容有一个全面的认识,而在处理这种问题上,Claude可以说要比基于向量搜索的办法要强。
Claude还可以是你的「代码伴侣」,分分钟就能做个演示。
比如,上传一个240页的Langchain API文档,让它基于这个文档,用Anthropic的语言模型做一个Langchain的简单演示。
还可以把85页的公司年度报表(10k)喂给Claude。
然后,要求突出对潜在投资者最重要的项目,并解释其重要性。
此外,Claude 100k还能处理大约6小时的音频量。
比如说,AssemblyAI把一个卡马克的播客的内容转录成了58k个token量的文本,然后用Claude进行了总结和问答。
最后,Claude总结了一下自己能干的事,覆盖可以说是非常全面了。
- 理解、总结和解释密集的文件,如财务报表、研究论文等
- 根据年报分析公司的战略风险和机遇
- 评估一项立法的利弊
- 识别法律文件中的风险、主题和不同形式的争论
- 阅读数百页的开发文档,回答技术问题
- 通过将整个代码库放入上下文中,并智能地构建或修改它来快速制作原型
当然,现在,Anthropic表示100K上下文还是一个测试版功能,在此期间将按照标准API定价来收费。
官网也给出了具体价格:

Claude Instant

Prompt:$0.00163 / 1K tokens

Completion:$0.00551 / 1K tokens

Claude-v1

Prompt:$0.01102 / 1K tokens

Completion:$0.03268 / 1K tokens
比起OpenAI,这价格已经非常亲民了。
据OpenAI官网,GPT-4 32k的Prompt需要$0.06,Completion需要$0.12。
相当于,你得花5-6倍的价格给模型prompt。
网友称,Claude 100k比GPT-4 32k更快速、更便宜。

网友实测


这么重磅级的更新,一定少不了网友的体验。
有网友称100k简直难以置信,能够处理多篇完整的论文,部分完整的代码库,甚至一本250页的小说。
顺便提一句,许多网友最先用Claude测试了一番,发现效果还不错。
最初,100K仅限在API中,Claude应用的默认模型仍然是9K。但很快,Claude应用界面也支持100K了。
一位网友用100页的「GPT-4技术报告」测试,结果只能用amazing来形容。
还有人直接把太宰治的「人间失格」喂给了Claude,并用英文问故事中情节,完全给出了准确的回答。
同时,这位网友把自己开发的Toolformer Zero完整源代码丢给它,Claude精准描述出这是用来做什么。
并且,Claude还称赞了代码的模块化,提供增加一些单元测试的建议。
把「贝奥武夫」诗扔进去,分析下贝奥武夫这个人物性格,也是非常准确。
英伟达科学家Jim Fan表示,这是Anthropic抛出的杀手锏。未来在上下文长度的军备赛正快速升温。
对于支持100k的意义,网友称,泰裤辣!这很好地展示了为什么长文本对LLM很重要。
还有好多网友纷纷暗示GPT-4。
Claude-100K的诞生,让AnthropicAI正式成为OpenAI的真正竞争者。
「许多人还在排队等候32k的GPT-4。这次,Claude将上下文窗口扩展到10万token,直接大幅跃升。
这也意味着包括OpenAI、谷歌在内的公司都要在这一领域竞争,这对用户来说是一个巨大的胜利。」
还有网友感慨时代进步太快了。
谷歌宣布PaLM 2擅长高级推理任务不到一天,而Anthropic的Claude现在可以在不到一分钟的时间内消化10万个token。人工智能的进步确实令人瞩目。
不过,如果你输入的token少于9K,Antropic调用的似乎就是之前的模型了。

百万token,不是梦


过去几年,斯坦福大学Hazy Research实验室一直在从事一项重要的工作,就是增加模型的序列长度。
在他们看来,这将开启机器学习基础模型的新时代。
研究人员在22年提出的FlashAttention算法证明了32k可行性。
就连Sam Altman称我们要的是32k token。
其实,不仅是32k,现在100k都实现了,百万token也不远了。
「绝对太野了!几年后,支持100万的token上下文长度会不会成为可能?」
前段时间,来自DeepPavlov、AIRI、伦敦数学科学研究所的研究人员发布了一篇技术报告,使用循环记忆Transformer(RMT)将BERT的有效上下文长度提升到「前所未有的200万tokens」,同时保持了很高的记忆检索准确性。

论文地址:https://arxiv.org/abs/2304.11062
该方法可以存储和处理局部和全局信息,并通过使用循环让信息在输入序列的各segment之间流动。
不过,虽然RMT可以不增加内存消耗,可以扩展到近乎无限的序列长度,但仍然存在RNN中的记忆衰减问题,并且需要更长的推理时间。
实际上,RMT背后是一个全新的记忆机制。
具体操作方法是,在不改变原始Transformer模型的前提下,通过在输入或输出序列中添加一个特殊的memory token,然后对模型进行训练以控制记忆操作和序列表征处理。
与Transformer-XL相比,RMT需要的内存更少,并可以处理更长序列的任务。
当然,在最终实现百万token之前,Claude 100k已经是相当大的起步了。
参考资料:
https://www.anthropic.com/index/100k-context-windows




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
韦神出的这道题火了,GPTChatGPT升级版!GPT-4 能识图能算税,升级成考霸,华裔AI科学家点评:它可以自己考进斯坦福了GPT-4最强功能正式解禁!网友感慨:又要颠覆多少岗位找论文代写的大学生:毕业难,就业卷,还被骗云从大模型现场真机演示!考中考堪比ChatGPT,还秀了一波代码能力,创始人周曦:三种递进方式颠覆传统交互马斯克宣布打造 ChatGPT 竞品!OpenAI CEO 给他泼了一盆冷水,GPT-5 或将大变Google 下一款 ChatGPT 竞品曝光:投入或超GPT-4,AlphaGo 成秘密武器ChatGPT全新功能公开演示!OpenAI总裁:ChatGPT会重新定义计算机(全文记录)ChatGPT科研神器:论文翻译润色一键搞定,还能帮你读代码 | GitHub热榜ChatGPT的朋友们:大语言模型经典论文一次读到吐张俊林趣谈:GPT4是否已具备类人智慧,为何GPT通过Next Token Prediction可以产生智能七绝 球场不是桃花源【附PDF】整理了114篇医疗论文,含cvpr2023医疗论文+经典论文+医疗论文综述等7 Papers & Radios | BERT上下文长度达200万token;华人团队通用分割模型SEEM重访葡萄牙(5)-王国的书香之城Gpt 4一出,谁与争锋五十年代初, 回老家当省人民政府主席的不止程子华一位500万token巨兽,一次读完全套「哈利波特」!比ChatGPT长1000多倍PromptAppGPT重磅更新!AI助手0门槛开发+运行:几十行代码即可实现AutoGPT抢先GPT-4!微软Bing突然升级「识图」功能,读梗看病写代码,样样精通ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件想把半本《红楼梦》搬进ChatGPT输入框?先把这个问题解决掉美版「三体」,第一个镜头不得不服「芭比」内地定档 / 「碟中谍7」定档 / 网飞「三体」发布预告 / 胡歌新片定档《少年中国史》:15位历史教授编审,一次读懂中华5000年通史GPT褪黑素能预防睡眠不足导致的记忆缺陷;大型语言模型综述全新出炉:从T5到GPT-4最全盘点|本周论文推荐孩子已经成为了一匹脱缰的野马!0代码训练GPT-5?MIT微软证实GPT-4涌现自我纠错能力,智能体循环根据反馈让代码迭代!一次10万token!GPT4最强对手史诗升级,百页资料一分钟总结完毕Python吞噬世界,GPT吞噬Python!ChatGPT 上线最强应用:分析数据、生成代码都精通澳洲Kmart大批商品突然被贴上蓝色标签, 撕下后, 发现事情不简单…最高已赚12%!这类产品突然火了99元300颗洗衣凝珠,买一次用一年!八倍洁净力,一颗能洗一桶衣服!污渍细菌螨虫全搞定二年级选课,忽闻一夜 GPT 来,千课 万课 AI 开ChatGPT将上线新功能!OpenAI现场演示官方版AutoGPT,创作画画发推一条龙!「ChatGPT最强竞品」爆火:不限量不要钱免注册!一手实测体验在此理想回应无人陵园雷达显示全是人影;钟薛高推出3.5元雪糕;周鸿祎现场演示360 AI“翻车”;微信尝试刷掌支付丨邦早报眼科医生靠做手术年入600万
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。