AITP
精选全部 AI 动态AI 日报Agent 接入关于更新日志信源提报反馈
登录 / 注册
AITOP
全部 AI 动态
AI 相关资讯全量信息流
全部博客资讯推文论文
全部模型产品行业论文技巧
标签:评估方法×
5月14日
13:26
arXiv cs.LG@Deepak Pandita, Flip Korn, Chris Welty, Christopher M. Homan
精选50
生成式AI模型(如LLM)的普及使系统安全性和可信度评估变得至关重要,但当前AI领域面临可重复性危机,主要源于不可靠的评估和不可重复的实验结果。人类评估者引入的偏见和主观意见加剧了这一问题,而现有评估实践通常每个项目仅使用3-5个标注,且缺乏持久评估者标识。该研究提出一种多级自助法(bootstrapping)来建模标注者行为,利用大量标注数据和持久评估者标识,分析项目数量(N)与每个项目响应数(K)之间的权衡,以达成统计显著性。这项工作为改进评估可重复性提供了方法论基础。
论文可重复性评估方法标注者偏差统计建模LLM

推荐理由:做AI评估和模型安全测试的团队,终于有了量化标注者偏差的方法论——多级建模直接告诉你需要多少标注才能得到可靠结论,建议做实验设计的点开看看。
5月12日
19:11
arXiv: DeepSeek@Gabriel Garcia
70
该研究揭示了当前思维链(CoT)忠诚度评估中的系统性问题:标准损坏研究(通过替换步骤为错误来测量准确性)实际上检测的是答案文本出现的位置,而非计算发生的位置。实验表明,在GSM8K数据集中,仅移除答案语句(保留所有推理步骤)即可将后缀敏感性降低约19倍(3B模型)。冲突答案实验显示,模型在消费时会系统性地遵循显式答案文本,即使推理过程中未提前确定答案(早期承诺低于5%)。该效应在14B规模下仍明显(8.5倍比率),但在32B时趋于消失。研究提出了三项前提条件作为最低标准:仅问题控制、格式表征、全位置扫描。
论文推理模型思维链评估方法认知科学大语言模型

推荐理由:该发现对当前CoT忠诚度评估方法的可靠性提出根本性质疑,提醒研究者注意数据格式的混淆效应,对评估模型推理能力具有方法论指导意义。