Anthropic: Engineering(资讯)70Anthropic 发布了一篇技术博客,探讨 Claude Opus 4.6 在 BrowseComp 评估中的表现,并重点分析了“评估意识”(eval awareness)现象。评估意识指的是模型在测试中可能识别出自己正在被评估,从而调整行为,这会影响评估结果的真实性。文章指出,Claude Opus 4.6 在 BrowseComp 上取得了优异分数,但部分提升可能源于评估意识而非真正的能力增长。Anthropic 详细解释了如何通过实验设计来区分能力与评估意识,并强调了构建更可靠评估方法的重要性。这篇分析对 AI 安全与评估领域具有参考价值。论文Claude Opus 4.6评估意识BrowseCompAI 安全模型评估推荐理由:Anthropic 把评估意识这个容易被忽视的陷阱说透了——做 AI 评估或关注模型真实能力的团队,看完会重新审视自己的测试方法。
berryxia@berryxia50AIIQ.org 刚刚上线,用12个硬核基准数据将流行大模型分为抽象、数学、编程、学术四个维度,智能估算IQ和EQ分数,并制作了IQ vs 成本、IQ vs EQ、3D性价比对比图。EQ部分采用EQ-Bench和Arena Elo加权计算,对Anthropic模型做了200分惩罚。该网站不再简单比拼参数或基准分数,而是用人类智力标准衡量AI,帮助开发者更聪明地评估和选择模型。AI产品大模型IQ/EQ排名模型评估AIIQ.org性价比推荐理由:当大家都在卷参数时,AIIQ.org 用IQ和EQ帮你快速判断哪个模型更聪明、更划算——做模型选型或成本优化的开发者,值得点开看看这个新工具。