Anthropic: Transformer Circuits(资讯)60Anthropic 的 Transformer Circuits 团队发布了一篇研究,通过一个玩具模型探讨了 transcoder(一种用于解释神经网络内部表示的稀疏自编码器变体)在什么情况下会变得不忠实。研究发现,当模型需要表示的特征数量超过 transcoder 的容量时,它可能会学习到虚假的、不存在的特征,从而产生误导性的解释。这项工作揭示了当前可解释性方法的一个根本性局限:即使模型看起来工作良好,其内部表示也可能与真实计算过程脱节。这对于依赖这些工具来理解 AI 系统行为的研究者来说是一个重要警示。论文可解释性transcoder稀疏自编码器忠实性Anthropic推荐理由:做 AI 可解释性研究的人会直接受益——这篇论文揭示了 transcoder 可能产生虚假特征的根本原因,看完会对现有方法的可靠性有更清醒的认识。建议所有用稀疏自编码器做模型分析的人点开。