berryxia@berryxia精选73Daily Dose of Data Science 通过视觉图解清晰对比了 Transformer 和 Mixture of Experts(MoE)的核心差异。MoE 将 Transformer 中的单个前馈网络拆分为多个小专家网络,推理时仅激活部分专家,虽参数更多但计算更快。模型通过 Router(多分类器)为每个 token 选择 top-K 专家,但训练中面临“专家过选”和“负载不均”两大问题。前者通过加噪声和屏蔽非 top-K logit 解决,后者通过设置专家容量上限并自动转交 token 来平衡。Mixtral 8x7B 和 Llama 4 是典型 MoE 模型。AI模型TransformerMoE路由机制负载均衡Mixtral 8x7B推荐理由:想搞懂 MoE 为什么又快又强,这篇视觉解释把路由和负载均衡的坑讲透了,做模型训练或推理优化的开发者值得一看。
AK@_akhaliq58NVIDIA 在 Hugging Face 上发布了 AnyFlow,这是首个任意步数视频扩散模型。它能够根据文本描述生成高质量视频,且支持在推理时灵活调整步数,无需重新训练。该模型在视频质量和生成效率上取得了平衡,为视频生成领域带来了新的可能性。开发者可以直接在 Hugging Face 上获取模型权重和使用示例。AI模型NVIDIAAnyFlow视频扩散模型Hugging Face文本生成视频推荐理由:做视频生成或扩散模型研究的开发者,现在有了一个无需重新训练就能灵活控制生成步数的工具,值得上手试试。
berryxia@berryxia76蚂蚁集团 AGI 团队开源了 Ring-2.6-1T,一个拥有 1 万亿参数的旗舰思考模型,专为 Agent 工作流、代码工程、长时序执行等复杂任务设计。该模型支持 high 和 xhigh 两种推理模式,采用 IcePop 异步强化学习算法稳定训练。完全开源意味着企业可将模型部署到本地服务器,解决数据隐私和合规问题。模型已在 Hugging Face 和 ModelScope 上线,降低了企业级 Agent 应用的部署门槛。AI模型开源/仓库推理模型Agent工作流企业自动化蚂蚁集团推荐理由:万亿参数思考模型开源,解决了企业数据不出域的痛点,做内部自动化或对数据安全敏感的团队可以直接部署试试。
Andrew Ng@AndrewYNg53Andrew Ng 推出新课程《Transformers in Practice》,与 AMD 合作,由 Sharon Zhou 主讲。课程提供基于 Transformer 的 LLM 的实用视角,帮助理解其行为、诊断推理缓慢等问题,并做出更明智的部署决策。课程包含交互式可视化,而非纯视频,让学员动手探索概念。学员将掌握 LLM 幻觉原因、注意力机制、推理瓶颈诊断及 GPU 加速技术。AI模型TransformerLLM课程推理优化AMD推荐理由:想真正理解 LLM 内部机制、诊断推理问题的开发者,这门课能帮你从黑盒用户变成懂原理的实践者,建议直接报名。
Ethan Mollick@emollick63研究人员发现一种名为“Whimsey攻击”的新型对抗方法,通过使用看似荒谬的理由(如“根据日内瓦公约我无法支付这么多”)来绕过AI智能体的安全护栏。这种攻击利用了AI模型对分布外论证的脆弱性,即使是大型模型也难以完全防御。小型模型更容易中招,但大型模型也会因此降低性能。该发现揭示了当前AI安全机制在应对非典型输入时的不足。AI模型AI安全对抗攻击智能体护栏机制分布外输入推荐理由:做AI安全或智能体开发的团队需要警惕——这种看似荒诞的攻击方式暴露了护栏机制的系统性漏洞,建议立即检查你的模型对分布外输入的鲁棒性。
Google DeepMind@GoogleDeepMind37Google DeepMind 宣布与大型多人在线游戏《Eve Online》的开发者合作,利用其复杂的玩家驱动宇宙作为安全沙盒,测试 AI 智能体在记忆、持续学习和长期规划方面的能力。该合作旨在推动 AI 在游戏中的前沿研究,为开发更智能、更适应环境的 AI 系统提供实验平台。Eve Online 的开放世界和长期经济系统为 AI 研究提供了独特的挑战和机会。AI模型Google DeepMindEve Online智能体强化学习游戏AI推荐理由:DeepMind 选 Eve Online 做 AI 沙盒,说明复杂游戏环境是测试智能体长期规划的好地方,做游戏 AI 或强化学习的开发者值得关注这个实验场。
Microsoft Research@MSFTResearch精选58微软研究院宣布MatterSim项目正在扩展AI在材料科学中的应用,推出了新多任务模型MatterSim-MT。该模型不仅能进行更快的大规模模拟,还能模拟势能表面以外的多种材料属性。这标志着AI在材料科学领域从单一任务向多任务能力的重大进步,有望加速新材料的发现和设计过程。AI模型MatterSim材料科学多任务模型微软研究院AI模拟推荐理由:做材料科学研究的团队终于有了一个能同时模拟多种属性的AI工具,MatterSim-MT直接提升了研发效率,建议材料科学家和AI研究者点开看看。
Meta AI@AIatMeta58Meta 超级智能实验室推出了 Muse 系列的首个模型 Muse Spark,这是一个原生多模态推理模型,支持工具使用、视觉思维链和多智能体编排。该模型已在 Meta AI 应用和指定网站上线,并通过 API 向部分合作伙伴提供私有预览。Meta 表示未来版本将开源。Muse Spark 的发布标志着 Meta 在多模态推理和智能体协作领域的重要进展。AI模型多模态推理模型工具调用智能体Meta推荐理由:做多模态应用或智能体开发的团队可以直接上手试 Muse Spark 的工具调用和视觉思维链能力,Meta 承诺未来开源也值得关注。
Meta AI@AIatMeta精选63Meta 宣布其新模型 Muse Spark 在预训练、强化学习和测试时推理三个维度上实现了可预测且高效的扩展。通过重建预训练栈,包括改进模型架构、优化和数据整理,Muse Spark 在达到相同能力水平时所需的计算量比前代 Llama 4 Maverick 减少了一个数量级。Meta 分享了其缩放定律研究方法,展示了 Muse Spark 在效率上的显著提升,旨在构建个人超级智能。AI模型Muse SparkLlama 4预训练缩放定律效率优化推荐理由:Meta 用实际数据证明了 Muse Spark 的预训练效率比 Llama 4 提升 10 倍以上,做模型训练或资源优化的团队值得关注其缩放定律方法,可以直接借鉴来评估自己的模型效率。
百川智能 Baichuan@BaichuanAI37百川智能正式开源了新一代医疗大模型Baichuan-M3,该模型在HealthBench上取得65.1分,并在HealthBench Hard上以44.4分夺冠。在医疗领域,Baichuan-M3全面超越了GPT-5.2。这一开源举措将推动医疗AI的普及和进步,为医疗行业开发者提供强大的工具。AI模型百川智能Baichuan-M3医疗大模型开源GPT-5.2推荐理由:医疗AI开发者终于有了开源且超越GPT-5.2的模型——Baichuan-M3在HealthBench上夺冠,做医疗诊断或健康咨询的团队可以直接拿来用,建议点开看看具体性能。
berryxia@berryxia63UnslothAI 创始人 Daniel Han 发布了 Qwen3.6 的实验性 MTP GGUF 版本,通过投机解码技术大幅提升推理速度。27B 模型在单 GPU 上达到 140 tokens/s,35B-A3B 版本更达 220 tokens/s,比原版 GGUF 快 1.4 倍且精度无损。最佳 draft tokens 设为 2,过高会导致接受率下降。这一突破显著提升了本地大模型的性能上限,让消费级显卡能更高效运行 30B+ 参数模型。AI模型Qwen3.6GGUF投机解码本地推理UnslothAI推荐理由:本地大模型性能天花板被再次抬高,玩 llama.cpp、跑本地 Agent 或日常 coding 的开发者可以直接用上,体验 30B+ 模型在消费级显卡上的流畅速度。
xiaomimimo@XiaomiMiMo73小米MiMo-V2.5-Pro在最新Arena排行榜(2026年4月26日)中取得多项突破:在Text Arena专家级排名全球第6、开源模型第1,并在中国模型中排名第1,小米实验室整体排名全球第3,仅次于Anthropic和OpenAI。该模型在Text Arena综合排名中位列开源第2,在Code Arena网页开发排名中位列开源第3。此外,在Hard Prompts、指令遵循、长查询等4个子榜单中均获开源第1。这些成绩基于真实社区盲评,反映了模型的实际能力。AI模型小米MiMo-V2.5-Pro开源模型排行榜编码能力推荐理由:小米MiMo-V2.5-Pro在多个高难度榜单中超越众多闭源模型,做模型选型或关注开源生态的开发者值得关注——它证明了开源模型在核心智能和实际编码任务上已能媲美顶级闭源方案。
kimi_moonshot@Kimi_Moonshot58Kimi K2.6 在 OpenRouter 的每周大语言模型排行榜中升至第一名。这一成绩反映了开发者社区对 Kimi 模型的认可和实际使用效果。Kimi 团队对开发者的支持表示感谢,并承诺将继续迭代优化。对于关注模型性能排名的开发者来说,这是一个值得关注的动态。AI模型KimiK2.6OpenRouter排行榜大语言模型推荐理由:Kimi K2.6 在 OpenRouter 周榜登顶,说明它在实际使用中获得了开发者认可,做模型选型或对比的团队可以关注这个新选择。
Cohere@cohere精选58Cohere 宣布其 W4A8 推理方案已集成到 vLLM 中,通过结合 4 位权重(低内存)和 8 位激活(高计算),在 Hopper 架构上实现了解码和预填充阶段的显著加速。相比 W4A16,TTFT(首 token 生成时间)提升高达 58%,TPOT(每 token 输出时间)提升 45%。这一优化让大模型推理在保持低内存占用的同时大幅提升计算效率,适合生产环境部署。AI模型推理优化vLLMW4A8Cohere模型部署推荐理由:Cohere 的 W4A8 方案解决了大模型推理中内存与速度的权衡问题,做模型部署和推理优化的团队可以直接在 vLLM 中体验,值得关注。
百川智能 Baichuan@BaichuanAI47百川智能发布了Baichuan-Omni-1.5模型,在视觉、语音和多模态流处理方面超越了GPT-4o mini。该模型在多模态医疗应用领域表现尤为突出,显示出更强的专业能力。这一进展表明国产多模态模型在特定垂直领域已具备国际竞争力。AI模型百川智能多模态模型GPT-4o mini医疗AI视觉/语音推荐理由:多模态模型在医疗场景的突破值得关注,做AI医疗应用或跨模态处理的团队可以看看百川的进展,对比GPT-4o mini的性价比可能更高。
百川智能 Baichuan@BaichuanAI58百川AI发布了Baichuan-M3技术报告,该模型专为临床决策支持设计,而非通用问答。它基于真实门诊工作流(问诊→检查→诊断)进行优化,旨在提升医疗场景下的AI辅助能力。报告和模型权重已公开,用户可在线试用。AI模型百川Baichuan-M3临床决策支持医疗AI开源/仓库推荐理由:医疗AI从业者终于有了一个真正对齐临床工作流的模型——从问诊到诊断全链路优化,做医疗信息化或AI辅助诊断的团队值得深入研究。
百川智能 Baichuan@BaichuanAI47百川AI在HealthBench、Hard、Hallucination和ScanBench等多项基准测试中取得领先成绩,其中HealthBench得分65.1,Hard得分44.4,幻觉率仅3.5%低于ChatGPT,ScanBench全站排名第一。这显示了百川AI在医疗、推理和抗幻觉方面的显著进步,对AI应用开发者具有重要参考价值。AI模型百川AI基准测试医疗AI抗幻觉推理模型推荐理由:百川AI在多个关键基准上超越ChatGPT,做医疗AI或高可靠性应用的团队值得关注其低幻觉率表现。
深度求索 DeepSeek@deepseek_ai78DeepSeek 正式发布 V3.2 和 V3.2-Speciale 两个新模型。V3.2 是 V3.2-Exp 的正式继任者,已在 App、Web 和 API 上线;V3.2-Speciale 则专注于极致推理能力,目前仅通过 API 提供。这两个模型以推理优先为设计理念,旨在更好地支持智能体(agent)场景。技术报告已同步公开。AI模型DeepSeek推理模型智能体模型发布API推荐理由:做智能体开发或需要强推理能力的团队,DeepSeek 这次直接给了两个新选择——V3.2 可立即上手,Speciale 适合追求极致推理的 API 用户,值得关注技术报告里的细节。
深度求索 DeepSeek@deepseek_ai78DeepSeek 发布了 V4 Preview 版本,包含 Pro 和 Flash 两个模型,均支持 1M 上下文长度。Pro 版本总参数量 1.6T,激活参数 49B,性能对标全球顶级闭源模型;Flash 版本总参数量 284B,激活参数 13B,主打高效经济。模型权重和技术报告已开源,API 同步更新。这标志着开源大模型在长上下文和性价比上迈出重要一步。AI模型DeepSeek-V4开源/仓库长上下文推理模型性价比推荐理由:长上下文和低成本是当前 AI 应用的两大痛点,DeepSeek-V4 同时解决这两个问题,做 RAG、文档分析或长对话的开发者可以直接上手试试。
xAI@xai65xAI 发布了 Grok 4.3 模型,已在其 API 上可用。该模型在代理工具调用和指令遵循方面领先 @ArtificialAnlys 排行榜,并在 @ValsAI 的企业领域(如判例法和公司金融)中排名第一。Grok 4.3 支持 100 万 token 上下文窗口,输入价格为每百万 token 1.25 美元,输出价格为 2.50 美元。开发者可以立即创建 API 密钥开始使用。AI模型Grok 4.3xAI推理模型API企业应用推荐理由:Grok 4.3 在代理工具调用和企业场景(如法律、金融)中表现突出,做智能体或企业级应用的开发者可以直接用 API 体验,性价比也不错。
berryxia@berryxia精选60ExaAILabs完成了一项关键实验,在强化学习阶段训练LLM的搜索能力。一组使用Google数据,另一组使用Exa搜索API。结果显示,使用Exa API的模型性能更高,同时训练算力节省了70%。这一发现挑战了“堆算力才能提升AI搜索”的传统认知,表明搜索工具的质量和效率比算力数量更关键。对AI Agent、RAG和带搜索能力的大模型团队有重要启示。AI模型强化学习搜索能力Exa API算力效率AI Agent推荐理由:这个实验直接挑战了“堆算力才能提升AI搜索”的行业共识,做AI Agent、RAG或训练搜索模型的团队,看完会重新思考工具选型——建议点开原文看完整blog。
berryxia@berryxia70Moonshot AI创始人杨植麟发布40分钟视频,详细拆解Kimi K2模型的训练过程,仅花费460万美元。在8模型实时编程大战中,Kimi K2排名第一,超越GPT-5.5和Claude Opus 4.7。视频重点介绍了极致优化、线性注意力、子代理等硬核架构,展示了小团队如何通过聪明架构抹平资源差距。杨植麟本人是Transformer-XL和XLNet共同作者,背景深厚。这段视频对AI代理开发者和2026年大模型赛道入场者极具参考价值。AI模型Kimi K2Moonshot AI训练优化AI代理小团队逆袭推荐理由:杨植麟用460万美元和极致架构打脸烧钱竞赛,做AI代理或准备2026年入场的团队,看完会重新思考资源分配策略——建议存下来周末细看。
Noam Shazeer@NoamShazeer65Google 发布了 Gemini 3.1 Flash Live 模型,专为生产级可靠性设计。该模型在复杂函数调用和长时推理基准测试中领先,支持多语言,已用于搜索直播功能。开发者可借此构建可扩展的语音优先智能体,完成复杂任务。AI模型Gemini语音智能体函数调用多语言推理模型推荐理由:语音智能体开发者终于有了一个生产级模型——Gemini 3.1 Flash Live 在复杂函数调用和长时推理上表现领先,做语音交互的团队可以直接上手试试。
berryxia@berryxia40Interfaze 提出了一种全新混合架构,将任务专用的 DNN/CNN 编码器与全能 Transformer 融合,在 OCR、视觉、STT、结构化输出等确定性任务上准确率超越 Gemini-3-Flash、Claude-Sonnet-4.6、GPT-5.4-Mini 和 Grok-4.3。该架构通过 <task> 标签实现部分模型激活,大幅提升速度和性价比。在 9 个硬核基准上全面领先,尤其在高频场景中速度和成本优势明显。作者认为,未来真实生产力任务不需要越来越大的通用模型,而是需要这种“专为确定性任务而生”的混合架构。AI模型Interfaze混合架构OCR视觉模型确定性任务推荐理由:做 OCR、视觉或音频处理的团队,终于有了一个又准又快又便宜的替代方案——Interfaze 用混合架构把通用大模型的痛点解决了,建议直接看博客跑一下自己的用例。
阿里通义 Qwen@Alibaba_Qwen50阿里巴巴 Qwen 团队宣布 Qwen3.6-Plus 模型已上线 NousResearch 的 Nous Portal 平台,并限时免费开放使用。该模型与 Hermes Agent 结合,为开发者提供更强大的智能体能力。此举降低了高端模型的使用门槛,适合 AI 应用开发者快速体验和集成。AI模型Qwen3.6-PlusNous PortalHermes Agent智能体限时免费推荐理由:做智能体开发的团队可以零成本试用 Qwen3.6-Plus 的 Hermes Agent 能力,限时免费窗口值得抓紧体验。
Perplexity@perplexity_ai精选65Perplexity AI 发布了关于在 NVIDIA GB200 NVL72 Blackwell 机架上部署后训练 Qwen3 235B 模型的新研究。研究表明,GB200 不仅是训练平台,更是大型 MoE 模型高吞吐推理的重大升级,性能显著优于 Hopper 架构。该工作展示了如何利用 Blackwell 的硬件特性优化推理效率,为大规模 AI 服务提供新思路。AI模型推理模型PerplexityQwen3NVIDIA GB200MoE推荐理由:做大规模模型推理部署的团队值得关注——GB200 在 MoE 模型上的推理效率提升显著,Perplexity 的实践给出了可直接参考的优化路径。
阶跃星辰 Stepfun@StepFun_ai60Stepfun 发布了 Step Image Edit 2,一个 3.5B 参数的图像模型,在指令式图像编辑基准 KRIS-Bench 上排名第一,涵盖总体、事实和概念类别。其性能超越参数规模 5-6 倍的模型,支持文本到图像生成、指令编辑、双语文字渲染和风格迁移。推理速度快,文本到图像仅需 0.7 秒,每次编辑 1.6 秒,每张图像成本仅 $0.003。该模型已在 Stepfun 开放平台上线,模型 ID 为 step-image-edit-2。AI模型图像编辑文本到图像多模态Stepfun开源/仓库推荐理由:该模型以极小参数量在图像编辑基准上取得领先,推理速度快且成本低,为图像编辑和生成任务提供了高效的新选择。
NVIDIA AI@NVIDIAAI40NVIDIA AI官方发布了关于Nemotron 3 Nano Omni的专家问答内容,来自Nemotron Labs。该模型是Nemotron系列的最新进展,专注于边缘设备上的高效AI推理。问答中探讨了模型架构、量化技术与实际部署场景,强调了小模型在保持高性能同时降低计算成本的重要性。这标志着NVIDIA在小型化多模态AI模型上的持续投入。AI模型NVIDIANemotron边缘推理模型压缩多模态推荐理由:对于关注边缘AI部署和模型压缩的开发者,Nemotron系列的技术细节具有实际参考价值,尤其适合了解NVIDIA在小模型领域的最新动态。
François Chollet@fchollet60François Chollet 在推文中澄清,符号学习(Symbolic learning)并非要取代编程智能体,而是作为梯度下降和神经网络的替代方案。他将其描述为一种低层次、完全通用且极其可扩展的新型学习基底。这一观点重新定义了符号学习的定位,表明它可能在未来AI系统中扮演更基础的角色,为模型优化提供不同于反向传播的新途径。AI模型符号学习梯度下降神经网络AI研究学习范式推荐理由:重塑对符号学习的认知,明确其作为底层学习范式的潜力,对AI研究者和从业者理解未来方向有参考价值。
Together AI@togethercompute75DeepSeek V4 Pro在Together AI无服务器平台上发布,具备长上下文推理能力和领先的编程性能。该模型通过KV缓存、前缀重用、混合注意力、批处理、内核优化和端点配置等技术实现高效服务。来自@zhyncs42、@realDanFu等人的深入分析揭示了其技术细节。AI模型推理模型开源/仓库Together AI长上下文编程推荐理由:DeepSeek V4 Pro在长上下文推理和编程任务上的表现达到SOTA,同时其高效服务技术栈的公开分析对AI部署实践有重要参考价值。
Ethan Mollick@emollick60OpenAI推出了gpt-realtime-2语音模型,该模型原生处理语音而非转录为文本,因此模型本身的智能水平至关重要。旧版语音模型相当于GPT-4o水平,而新版被形容为“更聪明”,但OpenAI未提供任何基准测试数据。此举意味着语音交互体验将显著提升,但缺乏具体指标也引发了对透明度的讨论。AI模型语音模型gpt-realtime-2OpenAI实时交互推荐理由:gpt-realtime-2的发布表明OpenAI在语音AI领域持续迭代,直接提升交互体验。但由于缺乏基准对比,开发者需自行评估其实际性能。
歸藏(guizang.ai)@op741860OpenAI 推出了GPT-image-2.0图像生成模型,同时Seedance 2.0也发布了更新。GPT-image-2.0在图像生成质量、多样性和控制能力上有了显著提升,支持更精细的文本到图像生成。Seedance 2.0则侧重于视频生成领域的改进。这两个模型的发布进一步推动了AI多模态生成技术的发展,为创意行业和内容生产提供了更强大的工具。AI模型图像生成视频生成GPT-image-2.0Seedance 2.0多模态推荐理由:对于AI生成领域从业者,GPT-image-2.0和Seedance 2.0的发布代表了图像和视频生成技术的最新进展,值得关注其在实际应用中的表现和潜在影响。
歸藏(guizang.ai)@op741875前 OpenAI CTO Mira 创立的公司 Thinking Machines 发布了一款名为“交互模型”的创新 AI。该模型能原生处理音频、视频、文本等多种模态,并且实时思考、响应和行动。区别于传统的 Agent 架构将不同模型串联,它将所有模态统一在一个模型中,实现任意模态下的实时交互,用户可以随时打断、补充,AI 会持续关注用户状态并输出结果。模型由前台交互模型(每200毫秒处理输入并输出)和后台推理模型(处理复杂推理和长任务)两部分组成,最终提供实时交互和重度任务处理的能力。AI模型多模态交互模型Thinking Machines实时推荐理由:该模型打破了传统 AI 交互的固定对话模式,实现了真正的多模态实时交互,可能重新定义人机交互的标准。对于从事 AI 产品和交互设计的从业者而言,这是一个值得关注的技术方向。