Microsoft Research@MSFTResearch精选58微软研究院宣布MatterSim项目正在扩展AI在材料科学中的应用,推出了新多任务模型MatterSim-MT。该模型不仅能进行更快的大规模模拟,还能模拟势能表面以外的多种材料属性。这标志着AI在材料科学领域从单一任务向多任务能力的重大进步,有望加速新材料的发现和设计过程。AI模型MatterSim材料科学多任务模型微软研究院AI模拟推荐理由:做材料科学研究的团队终于有了一个能同时模拟多种属性的AI工具,MatterSim-MT直接提升了研发效率,建议材料科学家和AI研究者点开看看。
Meta AI@AIatMeta精选63Meta 宣布其新模型 Muse Spark 在预训练、强化学习和测试时推理三个维度上实现了可预测且高效的扩展。通过重建预训练栈,包括改进模型架构、优化和数据整理,Muse Spark 在达到相同能力水平时所需的计算量比前代 Llama 4 Maverick 减少了一个数量级。Meta 分享了其缩放定律研究方法,展示了 Muse Spark 在效率上的显著提升,旨在构建个人超级智能。AI模型Muse SparkLlama 4预训练缩放定律效率优化推荐理由:Meta 用实际数据证明了 Muse Spark 的预训练效率比 Llama 4 提升 10 倍以上,做模型训练或资源优化的团队值得关注其缩放定律方法,可以直接借鉴来评估自己的模型效率。
Cohere@cohere精选58Cohere 宣布其 W4A8 推理方案已集成到 vLLM 中,通过结合 4 位权重(低内存)和 8 位激活(高计算),在 Hopper 架构上实现了解码和预填充阶段的显著加速。相比 W4A16,TTFT(首 token 生成时间)提升高达 58%,TPOT(每 token 输出时间)提升 45%。这一优化让大模型推理在保持低内存占用的同时大幅提升计算效率,适合生产环境部署。AI模型推理优化vLLMW4A8Cohere模型部署推荐理由:Cohere 的 W4A8 方案解决了大模型推理中内存与速度的权衡问题,做模型部署和推理优化的团队可以直接在 vLLM 中体验,值得关注。
arXiv: DeepSeek@Zhongkai Yu, Yichen Lin, Chenyang Zhou, Yuwei Zhang, Kun Zhou, Junxia Cui, Haotian Ye, Zhengding Hu, Zaifeng Pan, Ruiyi Wang, Yujie Zhao, Hejia Zhang, Jingbo Shang, Jishen Zhao, Yufei Ding精选65ChipMATE是首个自训练的多智能体RTL代码生成框架,解决了现有API系统依赖黄金测试平台、无法在气隙环境中部署、不能利用厂商私有代码库的问题。它通过Verilog智能体与Python参考模型智能体相互验证,无需黄金标准即可实现正确性。采用回溯推理工作流防止错误传播,两阶段训练先独立训练再联合协作。在VerilogEval V2上,4B和9B模型分别达到75.0%和80.1%的pass@1,超越所有自训练模型甚至1600B参数的DeepSeek V4。代码和权重已开源。AI模型RTL生成多智能体自训练Verilog芯片设计推荐理由:芯片设计团队终于有了可私有化部署的RTL生成方案——ChipMATE不依赖闭源API、无需黄金测试平台,还能用厂商内部代码训练,做数字IC设计的开发者可以直接试。
berryxia@berryxia精选60ExaAILabs完成了一项关键实验,在强化学习阶段训练LLM的搜索能力。一组使用Google数据,另一组使用Exa搜索API。结果显示,使用Exa API的模型性能更高,同时训练算力节省了70%。这一发现挑战了“堆算力才能提升AI搜索”的传统认知,表明搜索工具的质量和效率比算力数量更关键。对AI Agent、RAG和带搜索能力的大模型团队有重要启示。AI模型强化学习搜索能力Exa API算力效率AI Agent推荐理由:这个实验直接挑战了“堆算力才能提升AI搜索”的行业共识,做AI Agent、RAG或训练搜索模型的团队,看完会重新思考工具选型——建议点开原文看完整blog。
IT之家(博客/媒体)精选70小米技术发布并开源了 Xiaomi OneVL 一步式潜空间语言视觉推理框架,首次将 VLA(视觉语言动作)与世界模型统一到同一框架中。该模型在多个自动驾驶基准上刷新了潜在推理方法的性能上限,同时提供语言和视觉双维度的可解释性。相比传统方法,OneVL 在精度上超越显式 CoT,在速度上对齐“仅答案”预测。小米已将模型权重、训练和推理代码全面开源。AI模型自动驾驶VLA世界模型开源/仓库小米推荐理由:自动驾驶研究者终于有了一个统一 VLA 与世界模型的开源方案——OneVL 在精度和速度上均优于现有方法,做端到端驾驶或世界模型开发的团队可以直接拿来用。
Perplexity@perplexity_ai精选65Perplexity AI 发布了关于在 NVIDIA GB200 NVL72 Blackwell 机架上部署后训练 Qwen3 235B 模型的新研究。研究表明,GB200 不仅是训练平台,更是大型 MoE 模型高吞吐推理的重大升级,性能显著优于 Hopper 架构。该工作展示了如何利用 Blackwell 的硬件特性优化推理效率,为大规模 AI 服务提供新思路。AI模型推理模型PerplexityQwen3NVIDIA GB200MoE推荐理由:做大规模模型推理部署的团队值得关注——GB200 在 MoE 模型上的推理效率提升显著,Perplexity 的实践给出了可直接参考的优化路径。
IT之家(博客/媒体)精选70面壁智能联合清华大学及 OpenBMB 开源社区发布 MiniCPM-V 4.6,参数规模 1.3B,仅需约 6GB 内存即可在端侧流畅运行。该模型在 Artificial Analysis 评测中以 13 分超越 Ministral 3 3B,整体能力接近 Qwen3.5-2B 级别。效率方面,基于 vLLM 框架的 Token 吞吐量是 Qwen3.5-0.8B 的 1.5 倍,计算 Token 消耗仅为后者的 2.5%。技术创新包括 LLaMA-UHD v4 架构,将图像编码计算量降低 55.8%,处理 3132×3132 高清图首字延迟仅 75.7 毫秒。模型已全面开源,支持 iOS、Android 和 HarmonyOS 等系统。AI模型大模型多模态开源/仓库MiniCPM-V面壁智能推荐理由:1.3B模型6G内存就能跑
OpenAI Blog(博客/媒体)精选85OpenAI推出Proximal Policy Optimization(PPO)强化学习算法,相比现有最优方法性能相当或更优,且更易于实现和调参。PPO因其易用性和出色表现,已成为OpenAI默认的强化学习算法。AI模型reinforcement-learningppoopenaialgorithm推荐理由:PPO简化了强化学习训练流程,降低了调参成本,是当前强化学习实践中的首选算法。
OpenAI Blog(博客/媒体)精选85OpenAI 发布 GPT-4o 系统卡,详细介绍了模型的能力提升、安全评估及多模态性能。该模型在文本、图像、音频等多模态任务上表现优异,同时引入了更严格的安全机制。对于 AI 从业者,这提供了最新的多模态大模型基准及安全实践参考。AI模型multimodalsafetygpt-4osystem-card推荐理由:了解 OpenAI 在安全与多模态融合方面的最新工程实践,对模型部署和风险评估至关重要。
OpenAI Blog(博客/媒体)精选80OpenAI推出gpt-oss-120b和gpt-oss-20b两款开源权重模型,采用Apache 2.0许可。它们在推理任务上超过同级开源模型,具备强工具使用能力,并优化了在消费级硬件上的高效部署。AI模型open-sourcellmreasoningtool-use推荐理由:标志着OpenAI首次开源高性能模型,对AI从业者进行低成本推理和工具集成研究有重要参考价值。
OpenAI Blog(博客/媒体)精选85OpenAI在Dota 2中的成果表明,通过自我对弈和充足算力,系统能在一个月内从匹配高排名玩家进步到击败顶级职业选手。自我对弈系统能自动生成更高质量的训练数据,突破监督学习依赖固定数据集的局限。AI模型self-playreinforcement-learningdota-2superhumanai-gaming推荐理由:展示了自我对弈在复杂策略游戏中突破监督学习上限的潜力,对强化学习和AI博弈研究具有重要参考价值。