GPT-4 根本不知道自己犯错?最新研究发现,LLM 在推理任务中,自我纠正后根本无法挽救性能变差,引 AI 大佬 LeCun 和马库斯围观。
由 ASU 研究人员发表的两篇论文,驳斥了之前很多研究提出的方法「自我纠正」——让大模型对自己的输出的结果进行自我纠正,就能提高模型的输出质量。
在推理实验中,声称可以提高准确性的模型「自我纠正」,把正确率从 16%「提高」到了 1%。简单来说,就是 LLM 在推理任务中,无法通过自我纠正的形式来改进输出,除非 LLM 在自我纠正的过程中已经知道了正确答案。因为如果模型不知道正确答案的话,模型「自我纠正」之后输出质量反而会下降。
暂无讨论,说说你的看法吧