重新审视Prompt优化问题,预测偏差让语言模型上下文学习更强
机器之心编辑部
LLMs 在 In-context Learning 下取得了良好的表现,但是选取不同的示例会导致截然不同的表现。一项最新的研究工作从预测偏差 (predictive bias) 角度,提出了 prompt 搜索策略,近似找到了最优的示例组合。
论文链接: https://arxiv.org/abs/2303.13217 代码链接: https://github.com/MaHuanAAA/g_fair_searching
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章