arXiv cs.LG@Chen Li, Xiaoling Hu, Songzhu Zheng, Jiawei Zhou, Chao Chen45大语言模型在回答错误时仍可能表现出高置信度,这限制了其在实际场景中的可靠部署。现有方法将答案生成与置信度估计联合优化,可能导致置信度对齐干扰答案准确性。ORCE 提出解耦框架:先生成答案,再基于固定问答对估计置信度,避免直接扰动答案生成过程。通过多次采样构建正确性似然代理,并采用基于排序的强化学习目标,使置信度与正确性概率对齐。实验表明,该方法在保持答案准确性的同时,显著提升了校准和失败预测性能。论文大语言模型置信度校准强化学习排序对齐ORCE推荐理由:ORCE 解决了 LLM 置信度校准中的关键矛盾——既要准确又要可靠,做模型部署或安全评估的团队值得关注这个解耦思路。