arXiv cs.LG@Guinan Su, Yanwu Yang, Xueyan Li, Jonas Geiping精选65当前语言模型(如ChatGPT)仍基于单消息流架构,导致模型无法同时读写、思考与行动,限制了自主智能体的效率。本文提出多流LLM架构,将输入、输出、思考等角色拆分为独立并行流,每次前向传播可同时读取多输入流并生成多输出流。该方法解决了单流瓶颈,提升了并行效率、安全性和可监控性,为自主智能体(如编程、计算机操作)提供了更高效的基础架构。论文多流架构自主智能体并行计算语言模型效率提升推荐理由:自主智能体开发者长期受困于模型无法同时读写和思考的瓶颈,这篇论文直接给出了数据驱动的并行流解决方案,值得关注其后续实现和效果。
arXiv cs.AI@Yaxin Du, Xiyuan Yang, Zhifan Zhou, Wanxu Liu, Zixing Lei, Zimeng Chen, Fenyi Liu, Haotian Wu, Yuzhu Cai, Zexi Liu, Xinyu Zhu, WenHao Wang, Linfeng Zhang, Chen Qian, Siheng Chen55DataMaster 提出了一种自主数据工程框架,旨在通过优化数据侧(包括外部数据发现、选择、清洗和转换)来提升固定学习算法的性能,而无需改变算法本身。该框架集成了树状搜索结构、共享数据池和全局记忆模块,以应对数据工程中开放式的搜索空间、分支依赖优化和延迟验证等挑战。在 MLE-Bench Lite 基准上,DataMaster 将奖牌率提升了32.27%;在 PostTrainBench 上,其在 GPQA 上的表现(31.02%)超过了指导模型(30.35%)。这表明自主数据工程有望成为提升机器学习系统性能的有效手段。论文数据工程自主智能体机器学习搜索优化arxiv推荐理由:DataMaster 展示了自主数据工程的潜力,特别是在模型架构和训练策略标准化后,数据优化成为关键瓶颈。对于机器学习从业者而言,该框架提供了一种系统化的数据自动化方案,可减少人工试错成本,值得关注其在数据发现与组合方面的实际应用效果。