2024年大模型潜力方向:大浪淘沙后的SFT和RLHF
从一年前ChatGPT突然爆火,到不久前文生视频大模型Sora以霸屏之势吸引全球舆论,再到近日OpenAI发布的王炸GPT-4o,与AI大模型相关的议题越来越多地被大众所讨论,如果说2023年的大模型风暴还集中在“对话”上,那么,今年AI带来的亿点点震撼,就突破了文字乃至图像的范畴!
大模型相关内容之所以那么火,与其相结合的技术原理绝对不容忽视,为了能让大家更能进一步了解时下大模型相关前沿热点,我们特邀QS前50博导、大厂算法研究员等多位大牛打造了大模型系列课程,附论文代码讲解,原价666元,限时免费领!
部分授课ppt&代码复现&论文展示
课程概览
1.GPT Plugin背后的原理
2.大模型与数据库交互
3.大模型玩Minecraft
1.大模型微调-任务特定的P-tuning
2.大模型微调-任务/模型无关的LORA
3.大模型微调方法-Peft库使用实践(实战篇)
1.知识图谱组成要素及其分类
2.知识图谱和 LLM 融合路线
3.知识图谱增强 LLM 的方法
1.目前主流视频生成模式
2.主流模式的缺点
3.sora的工作原理及优点
系列5:大模型超级外挂:RAG让LLM不再胡说八道
1.目前主流视频生成模式
2.主流模式的缺点
3.sora的工作原理及优点
系列5:基于大模型的文本生成新神器
1.大模型时代下的文本生成
2.文本生成目前的挑战和未来发展
大模型必然是未来很长一段时间我们工作生活的一部分,而对于这样一个与我们生活高度同频互动的“大家伙”,除了性能、效率、成本等问题外,大规模语言模型的安全问题几乎是大模型所面对的所有挑战之中的重中之重,机器幻觉是大模型目前还没有极佳解决方案的主要问题,大模型输出的有偏差或有害的幻觉将会对使用者造成严重后果。同时,随着 LLMs 的“公信度”越来越高,用户可能会过度依赖 LLMs 并相信它们能够提供准确的信息,这点可以预见的趋势增加了大模型的安全风险。
部分授课ppt&代码复现&论文展示
最后,展望一下大模型研究的未来,目前大模型主要面临的挑战可以被归类如下:
实践验证:当前针对大模型的评估数据集往往是更像“玩具”的学术数据集,但是这些学术数据集无法完全反应现实世界中形形色色的问题与挑战,因此亟需实际的数据集在多样化、复杂的现实问题上对模型进行评估,确保模型可以应对现实世界的挑战;
模型对齐:大模型的强大也引出了另一个问题,模型应该与人类的价值观选择进行对齐,确保模型行为符合预期,不会“强化”不良结果,作为一个高级的复杂系统,如果不认真处理这种道德问题,有可能会为人类酝酿一场灾难;
安全隐患:大模型的研究要进一步强调安全问题,消除安全隐患,需要具体的研究确保大模型的安全研发,需要更多的做好模型的可解释性、监督管理工作,安全问题应该是模型开发的重要组成部分,而非锦上添花可有可无的装饰;
模型未来:模型的性能还会随着模型规模的增加而增长吗?,这个问题估计 OpenAI 也难以回答,我们针对大模型的神奇现象的了解仍然十分有限,针对大模型原理性的见解仍然十分珍贵。
文末福利
微信扫码关注该文公众号作者