Redian新闻
>
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

公众号新闻

©作者 | 西风

来源 | 量子位



微软最新研究再次证明了提示工程的威力——

无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。





使用他们提出的最新提示策略Medprompt,在医疗专业领域,GPT-4在MultiMed QA九个测试集中取得最优结果。

在MedQA数据集(美国医师执照考试题)上,Medprompt让GPT-4的准确率首次超过90%,超越BioGPT和Med-PaLM等一众微调方法


研究人员还表示Medprompt方法是通用的,不仅适用于医学,还可以推广到电气工程、机器学习、法律等专业中。

这项研究在X(原Twitter)一经分享,就引发众多网友关注。


沃顿商学院教授Ethan Mollick、Artificial Intuition作者Carlos E. Perez等都有转发分享。

Carlos E. Perez直呼“出色的提示策略可以甩微调一大截”:


有网友表示早就有这种预感,现在能看到结果出来,真的是“so cool”:


还有网友表示这真的很“激进”:

GPT-4是一项能改变行业的技术,而我们还远没有触及提示的极限,也未达到微调极限。




组合提示策略,“变身”专家

Medprompt是多种提示策略的组合体,包含三大法宝:

  • 动态少样本选择(Dynamic few-shot selection)

  • 自生成思维链(Self-generated chain of thought)

  • 选项洗牌集成(Choice shuffling ensemble)




下面我们来一一介绍。

论文标题:
Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine

论文链接:

https://arxiv.org/pdf/2311.16452.pdf
动态少样本选择
少样本学习是让模型快速学习上下文的一种有效的方法。简单来说,就是输入一些示例,让模型快速适应特定领域,并学习遵循任务的格式。

这种用于特定任务提示的少样本示例通常是固定的,所以对示例的代表性和广泛性有较高的要求。

之前一种方法是让领域专家手动制作范例,但即便如此,也不能保证专家策划的固定的少样本示例在每个任务中都有代表性。

因此,微软研究人员提出了动态少样本示例的方法。

想法是,任务训练集可以作为少样本示例的来源,如果训练集足够大,那就可以为不同的任务输入选择不同的少样本示例。

具体来说,研究人员先利用text-embedding-ada-002模型为每个训练样本和测试样本生成向量表示。然后,对于每个测试样本,基于向量相似度,从训练样本中挑选出最相似的k个样本。

与微调方法相比,动态少样本选择利用了训练数据,但不需要对模型参数进行大量更新。

自生成思维链

思维链(CoT)方法就是让模型一步一步思考,生成一系列中间推理步骤。
之前一种方法也是依赖专家手动编写少量的带有提示思维链的示例。

在这里,研究人员发现,可以简单地要求GPT-4使用以下提示为训练示例生成思维链:

但研究人员也指出这种自动生成的思维链可能包含错误的推理步骤,于是设置了一个验证标签作为过滤器,可以有效减少错误。

与在Med-PaLM 2模型中专家手工制作的思维链示例相比,GPT-4生成的思维链基本原理更长,而且分步推理逻辑更细粒度。

选项洗牌集成


除此之外,GPT-4在做选择题时,可能会存在一种偏见,就是不管选项内容是什么,它会偏向总是选择A,或者总是选择B,这就是位置偏差。

为了减少这个问题,研究人员选择将原来的选项顺序打乱重排。比如原先选项是ABCD,可以变成BCDA、CDAB。

然后让GPT-4做多轮预测,每轮使用选项的一个不同排列顺序。如此一来“迫使”GPT-4考虑选项的内容。

最后对多轮预测结果做个投票,选择最一致、正确的选项。

将以上几种提示策略组合在一起就是Medprompt,下面来看测试结果。



多项测试最优

在测试中,研究人员采用了MultiMed QA评估基准。

使用Medprompt提示策略的GPT-4,在MultiMedQA的九个基准数据集中均取得最高分,优于Flan-PaLM 540B、Med-PaLM 2。

此外研究人员还讨论了Medprompt策略在“Eyes-Off”数据上的表现,也就是在训练或优化过程中模型未曾见过的数据中的表现,用于检验模型是否过拟合训练数据。

结果GPT-4结合Medprompt策略在多个医学基准数据集上表现出色,平均准确率达到了91.3%。

研究人员还在MedQA数据集上进行了消融实验,探索了三个组件对于整体性能的相对贡献。

其中自动生成思维链步骤对性能提升的贡献最大。


而且GPT-4自动生成的思维链比Med-PaLM 2中专家策划的得分更高:

最后,研究人员还探索了Medprompt的跨域泛化能力,取用了MMLU基准中的六个不同的数据集,涵盖了电气工程、机器学习、哲学、专业会计、专业法律和专业心理学的问题。

还添加了另外两个包含NCLEX(美国护士执照考试)问题的数据集。

结果显示,Medprompt在这些数据集上的效果与在MultiMedQA医学数据集上的提升幅度相近,平均准确率提高了7.3%。


参考文献

[1] https://twitter.com/erichorvitz/status/1729854235443884385

[2] https://twitter.com/emollick/status/1729733749657473327



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构中国“X”老板VS.日本“X”逸翁AutoDev Coder 6.7B 代码微调模型(v1 试验版)LLM准确率飙升27%!谷歌DeepMind提出全新「后退一步」提示技术维基百科+大模型打败幻觉!斯坦福WikiChat性能碾压GPT-4,准确率高达97.3%NTU华科等最新研究:全自动化「提示越狱」,能打败大模型的只有大模型!登安全顶会NDSSGPT-4成学术造假“神器”,伪造数据又快又合理,Nature请统计学专家“断案”GPT-4搞“人肉搜索”,准确率高达95.8%准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源新趋势:耶鲁大学官方发布STEM专业毕业生数量首次超过人文和艺术专业!AI看图猜位置,准确率超90%!GPT-4不会图形推理?“放水”后准确率依然只有33%偷鸡摸狗---暗搞台独DeepMind让大模型学会归纳和演绎,GPT-4准确率提升13.7%宇宙人(1440期)“鹊桥二号”上半年发射;韩国最新数据:中国首次超过美国;"追梦者"号航天器将在世界上最大的振动台上测试OpenAI回应ChatGPT服务故障;新研究以99%准确率识别ChatGPT生成化学论文;三星发布自研大模型丨AIGC日报GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板谷歌让大模型更具“心智”,GPT-4任务准确率大增AI早知道|科大讯飞星火认知大模型 V3.5发布;Midjourney V6动漫微调模型上线神秘的大杂院(十二)一朵白色的椰叶花(下)实测商汤医疗健康大模型「大医」:紧贴实际场景,可塑性超强,还能自定义提示工程!贾扬清创业新动作:推出AIGC提示工具,几个字提示玩转SDXL,细节拉满单次准确率超97%!普译生物发布中通量纳米孔基因测序仪,实现高精准长读长测序摔倒了,服老了一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了解题准确率较GPT高出70% 夸克大模型多项考试评测成绩领先行AI看图猜位置,准确率超90%!斯坦福最新PIGEON模型:40%预测误差不到25公里OpenAI调查ChatGPT错误率升高问题;零一万物上线Yi微调模型;Adobe收购印度AI视频创企丨AIGC大事日报生活里的幸运和不幸运AI反诈!Deepfake音视频检测技术亮相CES,准确率超90%Hugging Face宣布最受欢迎的AI机构;零一万物上线Yi-34B-Chat微调模型及量化版丨AIGC日报在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细OpenAI亲授ChatGPT「屠龙术」!官方提示工程指南来啦AI早知道|抖音即创平台上线;零一万物发布并开源Yi微调模型;亚马逊宣布推出全新一代语音基础模型驱动的ASR系统
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。