Redian新闻
>
如何看待陈丹琦等大佬创建的大语言模型会议COLM?

如何看待陈丹琦等大佬创建的大语言模型会议COLM?

公众号新闻

昨天COLM刚出,就引起不小的讨论,下面看看知乎里关于该会议出现的一些回答吧,很有意思~

原文链接:https://www.zhihu.com/question/626508034
深度学习自然语言处理 公众号分享

进NLP群—>加入NLP交流群

ELPSYCONGROO

非常看好。。。虽然我也不是一开始就做NLP的,对各个CL会议也没啥偏见,但有次翻自己最近收藏的阅读列表里,LLM相关的文章居然几乎没有CL或者*NLP的。。要么ML三大会,要么arxiv,甚至许多关于多模态的文章是CVPR那边的。。。感觉传统NLP community要落后于时代了啊

一口鸟

大胆当一波赌狗,赌赢了就是 LLM 界的 ICLR,赌输了...反正 ICLR 也不是 CCF-A

Ziyang

ACL的投稿周期太长了,匿名期使得很多工作要很长的时间才可以公开出来,但如今LLM这个领域发展太快了,长时间不能公开自己工作,会严重削弱这个工作的影响力,现在挺好的,有一个专门关注LLM的会,这样大家就不用一窝蜂去卷ML三大会了(当然,该卷还是会卷)。

张逸霄

Fazzie

早该有了,前段时间投ICLR,分类里面没有LLM相关的类,不知道选啥。

椒盐虾

谨慎看好,但现在信息还太少,地点、特邀报告之类的都没有公布,还是要等第一届办下来再看。时间和ACL 隔的很近,应该离ICML也不远,COLM能收到多少高质量的论文还不好说。

肯定是个好消息,起码让很多arxiv上的LLM论文多了一个同行评议。

Terran

但是还有一些有趣的回答~



所以说,你觉得呢?
欢迎在下面留言交流~



备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群


id:DLNLPer,记得备注呦


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
GitHub 基于大语言模型构建 Copilot 的经验和教训文档字越多,模型越兴奋!KOSMOS-2.5:阅读「文本密集图像」的多模态大语言模型医药代表的真实故事 17 渐入佳境MIT惊人证明:大语言模型就是「世界模型」?吴恩达观点再被证实,LLM竟能理解空间和时间墨西哥饼(Mission Carb Balance Flour Tortillas)换换做法,好吃到舔盘 (视频+图文)大语言模型真能“理解”语言吗?大语言模型(LLM)预训练数据集调研分析AI 大语言模型 LLM,为啥老被翻译成「法学硕士」?!顶尖的大语言模型人才,只关心这10个挑战陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了!ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成Meta开源Code Llama,号称编程领域 “最先进的大语言模型”北京/深圳内推 | 腾讯游戏AI大语言模型团队招聘LLM算法工程师/研究员DreamLLM:多功能多模态大型语言模型,你的DreamLLM~陈丹琦 ACL'23 Tutorial - 基于检索的大语言模型 学习笔记ACL23 | 基于检索的大语言模型-陈丹琦报告阅读陈丹琦团队新作:LLM-Shearing陈丹琦新作:一个LLM的评估基准LLMBarOpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键手把手教你剪「羊驼」,陈丹琦团队提出LLM-Shearing大模型剪枝法最顶尖的大语言模型人才,只关心这10个挑战陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友视觉模型+大语言模型:首个支持10K+帧长视频理解任务的新型框架普林斯顿陈丹琦团队:手把手教你给羊驼剪毛,5%成本拿下SOTAEMNLP 2023 | 用于开放域多跳推理的大语言模型的自我提示思想链【五律】 癸卯仲夏行吟--- 问候兼答沁文兄北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型OpenAI科学家Andrej Karpathy力荐,23年必读的大语言模型论文清单4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法【七绝】球场偶题兼赠沁文兄哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展未来大模型顶会?陈丹琦等人组织首届COLM,为语言建模研究提供新平台MIT惊人再证大语言模型是世界模型!LLM能分清真理和谎言,还能被人类洗脑走近艺术宝藏
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。