Anthropic: Transformer Circuits(资讯)40Transformer Circuits 团队发布了 2025 年 9 月的小更新,主要介绍了新功能和对上下文学习(in-context learning)机制的改进。更新包括对模型内部表示的可视化工具增强,以及更高效的上下文学习算法。这些改进有助于研究人员更好地理解 Transformer 模型的行为,并推动可解释性研究。该更新对于关注 AI 可解释性和模型内部机制的开发者与研究者具有参考价值。论文Transformer Circuits上下文学习可解释性模型可视化研究更新推荐理由:Transformer Circuits 的更新为理解模型内部机制提供了新工具,做可解释性研究或模型调试的开发者值得关注。
arXiv cs.AI@Eric Bigelow, Raphaël Sarfati, Daniel Wurgaft, Owen Lewis, Thomas McGrath, Jack Merullo, Atticus Geiger, Ekdeep Singh Lubana精选65该研究提出大语言模型(LLM)的上下文学习可视为在低维几何空间(概念信念空间)中的轨迹更新。通过故事理解任务,结合行为与表征分析发现:信念更新在低维结构化流形上可被良好描述;模型行为与内部表征一致反映该结构,且可用简单线性探针解码预测行为;对表征的干预能因果性地引导信念轨迹,效果可从概念空间几何预测。该工作为 LLM 的贝叶斯解释提供了结构化几何基础。论文上下文学习信念空间几何表征可解释性贝叶斯推理推荐理由:这项研究把 LLM 上下文学习的黑箱过程可视化成了几何轨迹,做可解释性、推理机制或认知建模的研究者值得关注——它提供了干预模型信念的实操方法,看完会有启发。
arXiv: DeepSeek@Pruthvinath Jeripity Venkata精选70该研究提出一个三机制框架,解释大语言模型在处理训练知识与上下文文档冲突时的矛盾现象。先前研究结果不一:有的发现模型顽固保留训练答案,有的则发现模型几乎完全遵循上下文。研究者认为这是因为未区分三种不同的处理情境:机制1(单源更新,主导因素为证据连贯性)、机制2(竞争整合,主导因素为参数确定性)、机制3(任务适配选择,主导因素为任务知识需求)。通过 9970 次 API 调用,在 Claude Sonnet 4.6、GPT-5.5、Gemini 2.5 Flash、Llama 4 Maverick 和 DeepSeek V3 上验证了该框架,确认了机制2的确定性梯度,并发现任务框架能将上下文遵循率从近100%翻转至6-71%。论文LLM行为知识冲突上下文学习评测框架Claude/GPT/Llama/DeepSeek推荐理由:这个框架解决了 LLM 行为研究中一个长期矛盾的谜题——为什么有的实验说模型死记硬背,有的说模型灵活跟随。做 LLM 评测或 prompt 工程的人,看完能更精准地预测模型在知识冲突场景下的行为,建议直接读原文的机制划分部分。
arXiv cs.AI@Rishabh Tiwari, Kusha Sareen, Lakshya A Agrawal, Joseph E. Gonzalez, Matei Zaharia, Kurt Keutzer, Inderjit S Dhillon, Rishabh Agarwal, Devvrit Khatri精选70这篇论文提出了一种名为Fast-Slow Training(FST)的框架,将LLM的参数视为“慢权重”,优化后的上下文视为“快权重”。快权重通过文本反馈吸收任务特定信息,慢权重则保持基础模型的一般推理能力。实验表明,FST在推理任务上比仅用强化学习(慢学习)样本效率提升3倍,且性能上限更高。FST训练的模型与基础LLM的KL散度降低70%,显著减少灾难性遗忘,并保持可塑性——在连续学习场景中,FST能持续获取新任务,而参数仅更新的RL方法会停滞。论文持续学习灾难性遗忘上下文学习强化学习Fast-Slow Training推荐理由:这篇论文解决了LLM在持续学习中灾难性遗忘和可塑性丧失的痛点,做模型微调、持续学习或Agent长期记忆的团队值得关注——FST框架让你不用在参数更新和上下文学习之间二选一,直接结合两者优势。