arXiv cs.AI@Liz Cho, Dongwook Yoon精选65该研究对比了2016年和2024年美国总统大选期间X平台上的行为与语言协调模式,发现2024年的数据呈现出与2016年截然不同的特征:原创内容从59%飙升至93%,转发几乎消失;词汇重叠度从平均Jaccard分数0.99骤降至0.27,帖子围绕同一主题但用词显著不同;时间协调从普遍的跨语义同步转向叙事集中的共现。这些模式指向一种以主动内容生成和叙事特定目标为特征的运作逻辑,与生成式AI的参与一致。研究为未来调查生成式AI在认知战中的作用提供了实证基线,并为安全从业者开发适应后生成式AI威胁环境的检测框架提供了实用参考。论文生成式AI认知战社交媒体分析安全研究大选推荐理由:这项研究揭示了生成式AI如何从根本上改变认知战的运作方式——从简单的放大转向复杂的合成,安全从业者和政策制定者需要理解这种新威胁模式,建议点开看看具体的数据对比。
Anthropic: Transformer Circuits(资讯)40Transformer Circuits 发布了一篇关于模型差异分析(model diffing)的初步研究笔记,提出了一种通过字典微调(dictionary fine-tuning)实现阶段式模型差异分析的方法。该方法旨在帮助研究人员理解不同训练阶段或不同微调策略下模型内部表示的变化。通过将模型分解为稀疏特征并比较这些特征在不同版本间的差异,可以更精确地定位模型行为变化的原因。这项工作对于理解模型可解释性和安全性具有重要意义,为后续研究提供了新的分析工具。论文模型差异分析字典微调可解释性Transformer Circuits安全研究推荐理由:做模型可解释性和安全研究的团队可以关注,这篇笔记提出了一种新的模型差异分析方法,能帮你更精准地定位模型行为变化的原因,值得一读。