符尧@爱丁堡大学:ChatGPT一系列大模型背后的技术演化过程!
MLNLP学术Talk是MLNLP社区举办的学术交流活动,旨在邀请一线青年学者分享最前沿的技术,期待最精彩的思想火花碰撞。
本期MLNLP学术Talk邀请了爱丁堡大学符尧为我们带来“预训练,指令微调,对齐,专业化:论大语言模型能力的来源”的主题报告,由MLNLP秘书王乐涵主持。详细信息如下:
讲者简介
符尧是爱丁堡大学的博士生,也是艾伦人工智能研究所的学生研究员。符尧在北京大学完成了本科学位,在哥伦比亚大学完成了硕士学位。他的研究方向是人类语言的大规模生成模型。他的文章主题包括了大语言模型,复杂推理,和涌现能力。
报告摘要
近期,以 GPT-3.5 为代表的大语言模型出色的能力让机器学习领域的研究者们印象深刻。大语言模型强大且多维度的能力远超了研究者和工程师们的预期,也造成了整个自然语言处理领域的范式转变。一个自然的问题是:大语言模型是如何演化至今的?大语言模型的各项能力究竟从何而来?在本次讲座中,我们拆解大语言模型的各项能力,追溯这些能力到它们的起源,试图给出一个大语言模型的完整演化历程的路线图。
主持人介绍
王乐涵,哈尔滨工业大学在读,MLNLP秘书处成员。研究兴趣为任务型对话系统与自然语言处理。在多个国际会议期刊COLING/TASLP等参与发表相关论文。
特别鸣谢本次学术Talk的主要组织者:
MLNLP秘书处(王乐涵、段然、陈麒光、刘洪宇)
关于我们
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章