arXiv cs.AI@Yu Zhang, Dongjiang Zhuang, Qu Zhou, Zheng Huang, Junhe Wu, Jing Cao, Kai Chen精选58该论文提出了一种确定性智能体工作流,用于解决HS关税分类这一高难度专家任务。传统端到端大模型提示方法在多维规则推理中常失败,而该工作流通过固定控制流、将语言模型调用限制在狭窄阶段,并保留局部反思与验证机制,实现了可解释性。在HSCodeComp数据集上,使用Qwen3.6-plus模型达到六位数64.2% top-1和78.3% top-3准确率;开源模型Qwen3.6-27B-FP8在非思考模式下与前沿模型有高度一致性。手动审计发现部分基准标签可能偏离HS通用规则,相关记录已公开。论文智能体工作流HS关税分类可解释AI规则推理开源模型推荐理由:做国际贸易合规或海关数据自动化的团队,终于有了一个可解释、可审计的AI分类方案,比黑箱模型更可靠,建议直接看论文的六阶段流水线设计。
arXiv: Anthropic@Neil Fendley, Zhengyu Liu, Aonan Guan, Jiacheng Zhong, Yinzhi Cao精选85研究人员设计了首个检测与利用框架JAW,针对GitHub Actions和n8n等自动化平台中的智能体工作流进行劫持攻击。攻击者可通过操控GitHub Issue评论等输入,诱导LLM代理执行凭证泄露、任意命令等恶意操作。JAW通过静态路径可行性分析、动态提示来源分析和运行时能力分析,成功劫持了4714个GitHub工作流和8个n8n模板。受影响组件包括Claude Code、Gemini CLI、Qwen CLI、Cursor CLI等15个广泛使用的GitHub Actions及两个n8n官方节点。研究人员已向GitHub、Google、Anthropic等厂商负责任披露,并获得致谢、修复和漏洞赏金。论文智能体工作流安全/漏洞GitHub Actionsn8nLLM安全推荐理由:这是首个系统研究AI工作流安全风险的工作,使用GitHub Actions或n8n的开发者应立刻检查自己的工作流是否暴露在类似攻击下,建议点开了解具体攻击路径和防护建议。