Redian新闻
>
如何看待陈丹琦等大佬创建的大语言模型会议COLM?

如何看待陈丹琦等大佬创建的大语言模型会议COLM?

公众号新闻

昨天COLM刚出,就引起不小的讨论,下面看看知乎里关于该会议出现的一些回答吧,很有意思~

原文链接:https://www.zhihu.com/question/626508034
深度学习自然语言处理 公众号分享

进NLP群—>加入NLP交流群

ELPSYCONGROO

非常看好。。。虽然我也不是一开始就做NLP的,对各个CL会议也没啥偏见,但有次翻自己最近收藏的阅读列表里,LLM相关的文章居然几乎没有CL或者*NLP的。。要么ML三大会,要么arxiv,甚至许多关于多模态的文章是CVPR那边的。。。感觉传统NLP community要落后于时代了啊

一口鸟

大胆当一波赌狗,赌赢了就是 LLM 界的 ICLR,赌输了...反正 ICLR 也不是 CCF-A

Ziyang

ACL的投稿周期太长了,匿名期使得很多工作要很长的时间才可以公开出来,但如今LLM这个领域发展太快了,长时间不能公开自己工作,会严重削弱这个工作的影响力,现在挺好的,有一个专门关注LLM的会,这样大家就不用一窝蜂去卷ML三大会了(当然,该卷还是会卷)。

张逸霄

Fazzie

早该有了,前段时间投ICLR,分类里面没有LLM相关的类,不知道选啥。

椒盐虾

谨慎看好,但现在信息还太少,地点、特邀报告之类的都没有公布,还是要等第一届办下来再看。时间和ACL 隔的很近,应该离ICML也不远,COLM能收到多少高质量的论文还不好说。

肯定是个好消息,起码让很多arxiv上的LLM论文多了一个同行评议。

Terran

但是还有一些有趣的回答~



所以说,你觉得呢?
欢迎在下面留言交流~



备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群


id:DLNLPer,记得备注呦


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ACL23 | 基于检索的大语言模型-陈丹琦报告阅读OpenAI科学家Andrej Karpathy力荐,23年必读的大语言模型论文清单4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法MIT惊人证明:大语言模型就是「世界模型」?吴恩达观点再被证实,LLM竟能理解空间和时间普林斯顿陈丹琦团队:手把手教你给羊驼剪毛,5%成本拿下SOTA陈丹琦新作:一个LLM的评估基准LLMBar【五律】 癸卯仲夏行吟--- 问候兼答沁文兄大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友陈丹琦 ACL'23 Tutorial - 基于检索的大语言模型 学习笔记ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成北京/深圳内推 | 腾讯游戏AI大语言模型团队招聘LLM算法工程师/研究员MIT惊人再证大语言模型是世界模型!LLM能分清真理和谎言,还能被人类洗脑陈丹琦团队新作:LLM-Shearing哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展GitHub 基于大语言模型构建 Copilot 的经验和教训文档字越多,模型越兴奋!KOSMOS-2.5:阅读「文本密集图像」的多模态大语言模型【七绝】球场偶题兼赠沁文兄未来大模型顶会?陈丹琦等人组织首届COLM,为语言建模研究提供新平台大语言模型真能“理解”语言吗?顶尖的大语言模型人才,只关心这10个挑战视觉模型+大语言模型:首个支持10K+帧长视频理解任务的新型框架墨西哥饼(Mission Carb Balance Flour Tortillas)换换做法,好吃到舔盘 (视频+图文)AI 大语言模型 LLM,为啥老被翻译成「法学硕士」?!医药代表的真实故事 17 渐入佳境手把手教你剪「羊驼」,陈丹琦团队提出LLM-Shearing大模型剪枝法北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了!Meta开源Code Llama,号称编程领域 “最先进的大语言模型”陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了走近艺术宝藏EMNLP 2023 | 用于开放域多跳推理的大语言模型的自我提示思想链大语言模型(LLM)预训练数据集调研分析DreamLLM:多功能多模态大型语言模型,你的DreamLLM~OpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键最顶尖的大语言模型人才,只关心这10个挑战
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。