Anthropic: Transformer Circuits(资讯)40Anthropic 的 Transformer Circuits 团队发布了 2024 年 9 月更新,包含两项小型研究进展。一是对“继任头”(successor heads)的深入调查,探索其在模型中的角色与机制;二是关于稀疏自编码器(SAE)中过采样数据的影响分析。这些更新延续了团队对神经网络可解释性的持续探索,为理解 Transformer 内部运作提供了新视角。对于关注 AI 安全与模型透明度的研究者而言,这些细节有助于改进模型监控与调试方法。论文可解释性Transformer Circuits稀疏自编码器继任头AI安全推荐理由:Anthropic 的可解释性团队持续输出硬核研究,做 AI 安全或模型调试的开发者值得跟进——继任头和 SAE 过采样是理解 Transformer 内部机制的关键拼图。
Anthropic: Transformer Circuits(资讯)60Anthropic 的 Transformer Circuits 团队发布了一篇研究,通过一个玩具模型探讨了 transcoder(一种用于解释神经网络内部表示的稀疏自编码器变体)在什么情况下会变得不忠实。研究发现,当模型需要表示的特征数量超过 transcoder 的容量时,它可能会学习到虚假的、不存在的特征,从而产生误导性的解释。这项工作揭示了当前可解释性方法的一个根本性局限:即使模型看起来工作良好,其内部表示也可能与真实计算过程脱节。这对于依赖这些工具来理解 AI 系统行为的研究者来说是一个重要警示。论文可解释性transcoder稀疏自编码器忠实性Anthropic推荐理由:做 AI 可解释性研究的人会直接受益——这篇论文揭示了 transcoder 可能产生虚假特征的根本原因,看完会对现有方法的可靠性有更清醒的认识。建议所有用稀疏自编码器做模型分析的人点开。
Anthropic: Transformer Circuits(资讯)40Transformer Circuits 团队发布了 2025 年 10 月的更新,主要涉及视觉特征和字典初始化的改进。在视觉方面,他们改进了特征可视化工具,使得模型内部表示更易理解。字典初始化方面,他们探索了新的初始化方法,以提升稀疏自编码器的训练效率和效果。这些更新对于理解 Transformer 内部机制和提升模型可解释性有重要意义。论文Transformer Circuits可解释性稀疏自编码器视觉特征字典初始化推荐理由:对于研究 Transformer 可解释性和稀疏自编码器的开发者,这些更新提供了实用的工具和方法改进,值得关注。