AITP
精选全部 AI 动态AI 日报Agent 接入关于更新日志信源提报反馈
登录 / 注册
AITOP
全部 AI 动态
AI 相关资讯全量信息流
全部博客资讯推文论文
全部模型产品行业论文技巧
标签:缩放定律×
5月15日
08:58
Ethan Mollick@emollick
58
Ethan Mollick 指出,第二条缩放定律(Second Scaling Law)依然未被打破:只要增加 LLM 的思考 token(thinking tokens),就能在黑客攻击、数学、科学、填字游戏等任务上获得更好表现。目前尚未观察到性能平台期。这一发现对依赖推理能力的 AI 应用开发者有直接指导意义,意味着通过增加计算资源(而非仅扩大模型规模)即可持续提升模型在复杂任务上的表现。
论文缩放定律推理模型思考 tokenLLM 性能Ethan Mollick

推荐理由:做 LLM 推理优化或复杂任务应用的团队,这条定律意味着你不需要等更大模型——加思考 token 就能直接提升效果,值得在现有模型上试试。
5月14日
18:29
Meta AI@AIatMeta
精选63
Meta 宣布其新模型 Muse Spark 在预训练、强化学习和测试时推理三个维度上实现了可预测且高效的扩展。通过重建预训练栈,包括改进模型架构、优化和数据整理,Muse Spark 在达到相同能力水平时所需的计算量比前代 Llama 4 Maverick 减少了一个数量级。Meta 分享了其缩放定律研究方法,展示了 Muse Spark 在效率上的显著提升,旨在构建个人超级智能。
AI模型Muse SparkLlama 4预训练缩放定律效率优化

推荐理由:Meta 用实际数据证明了 Muse Spark 的预训练效率比 Llama 4 提升 10 倍以上,做模型训练或资源优化的团队值得关注其缩放定律方法,可以直接借鉴来评估自己的模型效率。