Gary Marcus@GaryMarcus58Gary Marcus 引用了一项新研究:即使模型在训练中被明确告知某个说法是假的,它们仍然会相信并传播这些虚假信息。例如,模型会认为“Ed Sheeran 赢得奥运百米金牌”或“女王写了Python教材”是真的。这暴露了当前LLM在事实推理上的根本缺陷,Marcus 认为真正的AGI不会犯这种低级错误。该发现对依赖LLM做事实核查或知识问答的团队有直接警示。论文LLM虚假信息事实推理AI安全Gary Marcus推荐理由:这个发现戳穿了LLM的“理解”假象——即使你明确告诉它“这是假的”,它还是会信。做AI安全或知识系统的团队值得点开,看看万亿投入后模型依然有多脆弱。
arXiv cs.AI@Islam Eldifrawi, Shengrui Wang, Amine Trabelsi精选60CAAFC 是一个新型自动事实核查框架,旨在解决现有 AFC 系统与专业事实核查实践之间的脱节问题。它不仅能检测事实错误和幻觉,还能通过主要信息源提供可操作的纠正理由。该框架支持对声明、对话和对话内容进行核查,并在必要时更新证据和知识库以纳入最新信息。在多个基准数据集上,CAAFC 超越了当前最先进的 AFC 和幻觉检测系统。这项工作对于应对海量 AI 生成内容中的虚假信息具有重要意义。论文自动事实核查幻觉检测CAAFC虚假信息知识库更新推荐理由:CAAFC 解决了现有自动事实核查系统与专业实践脱节的痛点,做内容审核、AI 安全或信息验证的团队可以直接参考其框架设计,提升事实核查的可靠性和可操作性。
arXiv cs.AI@ Gunjan, Sidahmed Benabderrahmane, Talal Rahwan精选65该研究从计算社会科学视角,构建了包含178万条帖子的配对语料库,覆盖新冠疫情、国会山骚乱、美国大选等9次危机事件。通过比较真实社交媒体话语与LLM生成的合成话语,发现合成话语在情绪、结构、词汇和事件依赖四个维度上表现出“群体级不真实”:情绪更负面且分散度低、结构更规则、词汇更抽象。这种差异在快速演变的去中心化危机中尤为明显,而在制度性事件中较小。研究提出了“漫画差距”指标,认为合成政治话语的主要问题不是语法或流畅度,而是缺乏群体层面的社会真实性。论文LLM政治话语虚假信息计算社会科学群体审计推荐理由:做AI安全、虚假信息检测或计算社会科学的研究者值得关注——这篇论文把LLM生成文本的检测从句子级提升到群体级,提供了可量化的审计框架,建议做内容审核或舆情分析的团队点开看看。