思维链(Chain-of-Thought)作为提示
Background
Motivation
Chain-of-Thought Prompting
4. So the answer is 7
Arithmetic Reasoning计算推理
Ablation Study
Commonsense Reasoning
Symbolic Reasoning
Conclusions
1. 如果继续扩大模型,效果还会变好吗? 2. 还有其他更好的prompt方法吗 3. 怎么说明模型确实在做推理 4. 是否有比手动写prompt更好的方式 5. 怎么确保推理path的正确性 6. 怎么在小模型上实现类似的效果
最后给大家推荐一下最近小编从最新的斯坦福NLP的公开课都放到了bilibili上了,都已做了中英翻译,大部分已经更新完毕了,给需要的小伙伴~
词向量
神经分类器
反向传播和神经网络
句法结构
RNN
LSTM
机器翻译、Seq2Seq和注意力机制
自注意力和Transformer
Transformers和预训练
问答
自然语言生成
指代消解
T5和大型预训练模型
待更...
点击阅读原文直达b站~
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章