Anthropic: Transformer Circuits(资讯)85研究人员训练Claude模型将其内部激活状态翻译成自然语言,实现了对LLM内部表征的无监督解释。该方法通过自然语言自编码器(NLA)将高维激活映射到可读文本,无需人工标注即可揭示模型在推理过程中的关键概念和决策依据。实验表明,NLA生成的解释与模型实际行为高度一致,为理解大模型的黑箱机制提供了新工具。这项研究来自Transformer Circuits团队,发表于2026年,对AI安全性和可解释性研究具有重要意义。论文可解释性Claude自然语言自编码器AI安全无监督学习推荐理由:这项研究让LLM自己说出它的思考过程,做AI安全或模型可解释性的研究者可以直接用这个工具来理解模型行为,比传统探针方法更直观。