Redian新闻
>
ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
我被公司裁员了AWS Fargate 显著提升 Windows 容器的启动时间ACL 2024 Findings | 视频大语言模型能理解视频中的时序信息吗?与μ子有关的一个哲学错误ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐[COLING 2024教程] 多模态大语言模型MLLM系列教程腾讯 PCG 自研高性能大语言模型推理引擎「一念 LLM」正式开源科学家提出大模型微调新方法,效果优于现有大模型参数高效微调仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式小模型狂飙!6家巨头争相发布小模型,Andrej Karpathy:大语言模型的尺寸竞争正在倒退...ICML 2024 | 大语言模型如何表征不同信念?CHANEL的审美又回来了!2024/25 秋冬系列成衣很出彩腾讯PCG自研高性能大语言模型推理引擎「一念LLM」正式开源与全参数微调相比,LoRA微调的性能到底如何?第二次抗过敏战役打响 2024.05.05蓝颜吴恩达团队新作ManyICL:多样本上下文学习显著提高多模态基础模型性能!ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准今日arXiv最热大模型论文:首个面向AI的python编程框架,提升大模型编程能力新思路246篇文献!参数高效微调最新综述发布,让大模型不再「巨无霸」今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准谷歌重磅:告别RAG,长上下文的大语言模型无需检索增强让大模型不再「巨无霸」,这是一份最新的大模型参数高效微调综述ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准中科大联合华为诺亚提出Entropy Law,揭秘大模型性能、数据压缩率以及训练损失关系2024《歌手》登场 那英 杨丞琳 汪苏泷 梁龙 海来阿木 Chanté Moore Faouzia​ACL 2024 | 新一代艺术媒介:探索基于大语言模型的互动戏剧ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了深圳/香港/上海内推 | 商汤研究院基础语言模型团队招聘大语言模型算法研究员大语言模型何时需要检索?UCLA提出全新自监督选择性检索策略You are fearless at the net !2024 意大利南部行ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT【志梅Chi Mai】船沈没的慘劇比Stable Diffusion便宜118倍!1890美元训出11.6亿参数高质量文生图模型ACL 2024 | 多目标直接偏好优化MODPO:大语言模型的多目标对齐仅微调0.02%参数,性能接近全量微调!上海交大推出高效微调统一新范式ECCV 2024 | 清华提出PYRA:超轻量级ViT适应&推理高效微调模块如何加速大模型推理?万字综述全面解析大语言模型高效推理技术Travelling to the West in 2024 ( 2 )
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。