arXiv cs.LG@Hoang-Quan Nguyen, Sankalp Pandey, Khoa Luu精选40长序列建模中,Transformer 的二次复杂度限制了其扩展性,而状态空间模型(SSM)虽线性高效,但记忆机制偏简单,难以捕捉复杂全局交互。研究者提出量子长注意力记忆(QLAM),将隐藏状态表示为量子态,通过参数化量子电路实现非经典全局更新,既保留 SSM 的循环线性结构,又利用量子叠加丰富记忆表示。QLAM 隐式捕获全局依赖,并通过查询相关测量提取任务信息。在 sMNIST、sFashion-MNIST 和 sCIFAR-10 等序列图像分类任务上,QLAM 一致优于循环基线和 Transformer 模型。这项工作首次将量子系统的叠加特性引入状态序列建模,为长上下文 AI 提供了新思路。论文量子机器学习长序列建模状态空间模型注意力机制QLAM推荐理由:做长序列建模或量子机器学习的研究者值得关注——QLAM 用量子叠加解决了 SSM 记忆能力不足的问题,在标准基准上已跑赢 Transformer,建议点开看实现细节。
arXiv cs.AI(学术论文)60针对传统CNN和ViT在事件相机图像重建中的局限性(CNN缺乏全局相关性,ViT计算复杂度随分辨率平方增长),研究者提出EmambaIR框架。该框架融合跨模态Top-K稀疏注意力(TSAM)和门控状态空间模块(GSSM),在保持线性计算复杂度的同时捕捉全局依赖。在运动去模糊、去雨和HDR增强三个任务的6个数据集上,EmambaIR以更低内存和计算成本超越现有最先进方法。代码已开源。论文状态空间模型事件相机/图像重建视觉/生成高效/架构推荐理由:该工作为状态空间模型在高分辨率事件相机图像重建中提供了高效可行的方案,有助于推动实时视觉系统与边缘计算部署。