arXiv: DeepSeek@Pengyun Zhu, Yuqi Ren, Zhen Wang, Lei Yang, Deyi Xiong精选58当前大语言模型(LLM)通常使用粗粒度的国家标签进行多元价值对齐,但这会忽略国家内部的价值异质性,导致对齐松散。DVMap 提出从国家标签转向多维人口统计约束,通过世界价值观调查(WVS)构建包含 56,152 样本的高质量对齐语料库,并引入结构化思维链(CoT)机制引导模型推理人口与价值的关系。实验表明,Qwen3-8B-DVMap 在跨人口统计测试中达到 48.6% 准确率,超越 DeepSeek-v3.2(45.1%),并展现出强泛化性和鲁棒性。该框架解决了宏观标签无法捕捉群体内价值差异的问题,为 LLM 的多元对齐提供了更精细的解决方案。论文大语言模型价值对齐人口统计思维链泛化性推荐理由:做 LLM 价值对齐的研究者终于有了从人口统计维度精细建模的方法——DVMap 用结构化 CoT 和 GRPO 实现了跨群体泛化,比国家标签更准,建议做 AI 伦理和可控生成的团队点开看看。
arXiv cs.LG@Tiberiu Musat精选80该论文证明在固定精度下,循环神经网络的权重范数最小值与输出二进制字符串的柯尔莫哥洛夫复杂度成对数比例。这一结论将权重衰减的泛化能力与所罗门诺夫通用先验联系起来,揭示了正则化的理论基础。研究表明,固定精度下任何权重范数都会坍缩为非零参数计数,因此该结论适用于任意范数正则化器。证明通过将图灵机程序编码为神经权重和枚举非零参数两个方向实现,其中对数因子由置换编码实现。该结果强调固定精度假设的关键性,因为无限精度下神经网络可能编码非可计算函数。论文深度学习理论正则化柯尔莫哥洛夫复杂度泛化性推荐理由:为权重衰减的优越性提供了理论解释,将神经网络正则化与计算复杂性理论直接关联,对理解深度学习泛化机理有重要参考价值。
arXiv cs.AI(学术论文)70该论文提出了一种名为“rubric-grounded reinforcement learning (RL)”的框架,将奖励分解为多个可验证的加权标准,由冻结的LLM评判器给每个回应评分,从而提供部分信用优化信号。作者从约10万份科技文档中提取评判规则,并利用GRPO方法微调Llama-3.1-8B-Instruct模型,在保留的评判规则评估上获得了71.7%的归一化奖励。经GRPO训练的策略在GSM8K、MATH、GPQA Main和GPQA Diamond等四个未参与训练的推理基准上均优于基础模型。这一结果表明,结构化、文档依赖的奖励能够改善保留评判规则的性能,并诱发可迁移的推理行为。该框架为提升大模型推理的泛化能力提供了一种新的训练范式。论文推理模型强化学习LLM-as-judgeGRPO泛化性推荐理由:该研究通过分解奖励为多标准评判规则,实现了更细粒度的优化信号,在多个推理基准上验证了迁移效果,对大模型推理能力的训练方法有重要参考价值。