Gary Marcus@GaryMarcus58Gary Marcus 引用了一项新研究:即使模型在训练中被明确告知某个说法是假的,它们仍然会相信并传播这些虚假信息。例如,模型会认为“Ed Sheeran 赢得奥运百米金牌”或“女王写了Python教材”是真的。这暴露了当前LLM在事实推理上的根本缺陷,Marcus 认为真正的AGI不会犯这种低级错误。该发现对依赖LLM做事实核查或知识问答的团队有直接警示。论文LLM虚假信息事实推理AI安全Gary Marcus推荐理由:这个发现戳穿了LLM的“理解”假象——即使你明确告诉它“这是假的”,它还是会信。做AI安全或知识系统的团队值得点开,看看万亿投入后模型依然有多脆弱。