来源:DeepTech深科技
日前,美国罗格斯大学博士生金明宇和所在团队,通过引入思想链(CoT,Chain of Thought)的概念,提高了大语言模型(LLM,large language models)在复杂推理任务上的性能,例如算术推理、常识推理和符号推理等。
CoT 的原理是通过提供推理过程的示例,来教会模型处理推理,详细说明导致最终答案的每个步骤。这种提示方法能够有效地教会模型不要匆忙完成推理过程,而是逐步地解决问题。
金明宇表示:“但是我们需要搞清楚 cot 的一些基本性质,以便确认是否能够帮助他人的研究。目前我们关于 cot 研究还不太成体系,我们觉得应该多给出一些基础的见解。”
未来,课题组准备针对这个问题研究大模型的内部,即分析 LLM 推理的长推理步骤和短推理步骤、以及大模型内部的神经元过程。
他们的终极目标是:希望可以确定较长的推理步骤是否与更广泛的神经元参与相关。因此,他们打算使用可视化技术来分析长推理和短推理之间的激活模式。
参考资料:
1.https://arxiv.org/abs/2401.04925
运营/排版:何晨龙
新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)