arXiv: DeepSeek@Joanna Szych, Anne Schwerk45该论文提出了一种树状折叠评估方法,用于评估LLM生成代码的正确性、质量和可用性。研究者基于一个复杂的计算机科学项目构建了正确性基准,并结合代码质量验证和开发者结构化审查。他们用该方法评估了GPT-4.1、DeepSeek-V3-0324和Claude Opus 4三个模型,发现开发者审查能揭示代码生产就绪状态等标准基准无法捕获的洞察。这表明仅靠正确性测试不足以全面评估LLM代码生成能力。论文代码生成评估基准GPT-4.1DeepSeek-V3-0324Claude Opus 4推荐理由:该研究为LLM代码生成评估提供了更全面的方法论,强调了开发者反馈的重要性,对模型选择和改进实践具有参考价值。
arXiv cs.AI(学术论文)35本文提出SCOPE框架,将复杂的图像生成要求形式化为语义承诺,通过结构化规范持续追踪这些承诺的状态,并条件式调用检索、推理和修复技能以解决未满足的承诺。研究指出当前模型生成中存在的“概念鸿沟”问题,即承诺在生成生命周期中可能被局部解决但无法作为统一操作单元被追踪。为评估承诺级意图实现,作者引入人类标注基准Gen-Arena和实体级通过率指标EGIP,SCOPE在该基准上达到0.60 EGIP,显著优于所有基线,并在WISE-V(0.907)和MindBench(0.61)上表现优异,证明持续承诺追踪对复杂图像生成有效。论文图像生成语义承诺结构化解耦技能编排评估基准推荐理由:该工作首次系统定义了图像生成中的语义承诺概念及其生命周期断裂问题,并提供了可操作的框架和评估基准。对追求高可控性图像生成的从业者来说,SCOPE展示了结构化规范追踪如何提升复杂交互场景下的生成质量。