将入学考试题搬进中文大模型数据集,20477道题目,还带4个候选答案
机器之心专栏
本文提出了 M3KE 基准数据集,以零样本、少样本形式测试中文大模型对于多级多学科知识的掌握能力。
论文链接:https://arxiv.org/abs/2305.10263 数据链接:https://github.com/tjunlp-lab/M3KE
GLM-335M/10B/130B,由清华大学开发的预训练大语言模型,支持中、英文双语。研究人员选择 GLM 中文版的三个模型,参数规模分别为 335M, 10B 和 130B。 BLOOM-7.1B,Hugging Face 推出的多语言大模型,由数百名研究人员合作开发。 ChatGLM-6B,由清华大学开发的语言模型,使用指令数据微调,并通过基于人类反馈的强化学习进一步训练。 MOSS-16B-SFT, 由复旦大学开发的语言模型,实验中使用经过指令微调版的 MOSS-moon-003-SFT 版本。 BELLE-7B-0.2M,基于 BLOOMZ-7.1B-mt 开发的经过 20 万条指令微调的语言模型。 BELLE-7B-2M,基于 BLOOMZ-7.1B-mt 开发的经过 200 万条指令微调的语言模型。 GPT-3.5-turbo,由 OpenAI 开发的语言模型。采用人工构建的高质量指令数据,进行人类反馈强化学习训练。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章