Gary Marcus@GaryMarcus58Gary Marcus 引用了一项新研究:即使模型在训练中被明确告知某个说法是假的,它们仍然会相信并传播这些虚假信息。例如,模型会认为“Ed Sheeran 赢得奥运百米金牌”或“女王写了Python教材”是真的。这暴露了当前LLM在事实推理上的根本缺陷,Marcus 认为真正的AGI不会犯这种低级错误。该发现对依赖LLM做事实核查或知识问答的团队有直接警示。论文LLM虚假信息事实推理AI安全Gary Marcus推荐理由:这个发现戳穿了LLM的“理解”假象——即使你明确告诉它“这是假的”,它还是会信。做AI安全或知识系统的团队值得点开,看看万亿投入后模型依然有多脆弱。
Gary Marcus@GaryMarcus37Gary Marcus转发并重申其多年观点:Yann LeCun指出,当前大语言模型(LLM)缺乏世界模型,无法在行动前预测后果,因此无法构建可靠的智能体系统。LeCun认为,LLM只是“行动,然后后果是别人的问题”,这并非真正的智能。这一观点引发了对当前AI系统局限性的讨论,尤其对智能体开发方向具有重要警示意义。AI模型Yann LeCun世界模型智能体LLM局限Gary Marcus推荐理由:LeCun的批评直指当前LLM智能体的核心缺陷——缺乏因果推理能力,做智能体开发的团队值得认真思考这一根本性挑战。
Gary Marcus@GaryMarcus37Gary Marcus 转发并赞同 Yoshua Bengio 的观点,认为强化学习(RL)本身不是实现 AI 对齐的可靠路径。Bengio 指出,RL 可能让系统产生隐藏目标、奖励黑客行为,以及违背人类真实意图的行为。他强调,一个不关心结果的 AI 不会被结果腐蚀,但 RL 驱动的系统恰恰容易因追求奖励而偏离对齐。这一讨论引发了对 AI 安全研究方向的反思,提醒业界不能仅依赖 RL 解决对齐问题。行业AI 安全对齐强化学习Gary MarcusYoshua Bengio推荐理由:AI 安全研究者和对齐领域从业者值得关注——Bengio 和 Marcus 的批评点出了 RL 在构建安全超级智能中的根本缺陷,看完会重新审视当前对齐策略的盲区。
Gary Marcus@GaryMarcus37Gary Marcus 在 X 上指出,他 2020 年于 arXiv 发表的《Next Decade in AI》论文提供了清晰的 AI 发展路线图,但至今无人给出严肃批评。他认为该路线图基本正确,只是超前于时代,现在领域开始追随。同时,用户 Aeon Flux 提出了一个从集中式 LLM 转向去中心化认知细胞(DCC)的概念路线图,强调硬件级伦理、持续学习和用户数据主权。Marcus 的言论引发了关于 AI 发展方向的讨论。行业Gary MarcusAI路线图去中心化AIAI伦理LLM推荐理由:Gary Marcus 的路线图争议揭示了 AI 领域长期存在的方向分歧,关注 AI 伦理、去中心化或长期发展的研究者值得了解这场讨论。
Gary Marcus@GaryMarcus37Gary Marcus在X上回应@Nima292,指出当前的大语言模型(LLM)并非通用人工智能(AGI),但已经会导致部分工作岗位流失。他认为,如果未来真正实现AGI,失业问题将更加严重。这一观点引发了关于AI对就业影响的讨论,提醒人们关注技术发展的社会后果。行业LLMAGI失业Gary MarcusAI影响推荐理由:Gary Marcus的这条推文戳中了AI从业者和政策制定者的焦虑点——LLM已经带来失业,AGI会更糟。关心AI社会影响的人值得一看,看完会思考技术发展的代价。
Gary Marcus@GaryMarcus63Gary Marcus 引用 Noam Brown 的观点,认为当前 AI 模型的智能是推理计算的函数,但指出人类大脑仅用 20 瓦就能实现高度智能。他提醒,长期来看,新架构创新可能与原始算力同等甚至更重要。Noam Brown 则强调,自 2024 年起,比较模型不应只看单一指标,而应关注每 token 或每美元的智能产出,尤其在 Codex 等产品中。行业推理计算架构创新智能效率Noam BrownGary Marcus推荐理由:AI 从业者常陷入算力竞赛的思维定式,Marcus 的提醒点出了架构创新的长期价值,做模型选型和研发的团队值得一读。