“生成式大语言模型技术分享”系列直播即将启幕
本系列讲座主要包括基础技术和关键技术两个模块
基础技术 | |
Transformer基础技术 | Transformer与语言模型 |
预训练基础:编码模型 | 预训练基础:生成模型 |
关键技术 | |
大语言模型发展与现状 | 大语言模型技术概述 |
指令微调与上下文学习 | 基于人类反馈的强化学习 |
长序列建模技术 | 模型压缩与高效神经网络 |
分布式训练技术 | 大语言模型的多语言能力 |
大语言模型的多模态能力 | 大语言模型的对抗检测真实性验证 |
本系列讲座由东北大学自然语言处理实验室、小牛雅智、小牛翻译联合推出,将在视频号、微博、哔哩哔哩、抖音、知乎、机器翻译学堂开启同步直播,欢迎每一位关注自然语言处理的伙伴。此外,登录小牛翻译云平台官方网站获取最新直播地址和回放,关注小牛翻译云平台各大平台官方账号了解系列直播的相关信息。
"生成式大语言模型技术分享”系列直播计划
生成式大语言模型技术分享-第一期《Transformer基础技术》
报告时间
2023年4月27日(周四晚) 18:30
分享嘉宾
李北
报告背景
随着大语言模型的快速崛起,人们对自然语言处理技术的关注度也在不断提升。近年来,BERT、GPT等语言模型各显神通,其模型结构均可溯源至Transformer。自2017年提出以来,Transformer已经迅速占据了整个自然语言处理领域,甚至在图像处理和语音处理领域也开始发挥作用。目前火热的ChatGPT也是基于Transformer decoder结构的模型之一,其出色的表现广受好评。掌握Transformer基础知识已成为学术界和从业者的必修课程。
报告内容
Transformer的整体框架、输入及位置编码、注意力机制、残差网络与层归一化、前馈神经网络等关键技术。通过本次报告,您将能够对Transformer基础有更加全面和深入的了解与思考。
直播地址
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章