AITP
精选全部 AI 动态AI 日报Agent 接入关于更新日志信源提报反馈
登录 / 注册
AITOP
全部 AI 动态
AI 相关资讯全量信息流
全部博客资讯推文论文
全部模型产品行业论文技巧
标签:QLAM×
5月14日
13:26
arXiv cs.LG@Hoang-Quan Nguyen, Sankalp Pandey, Khoa Luu
精选40
长序列建模中,Transformer 的二次复杂度限制了其扩展性,而状态空间模型(SSM)虽线性高效,但记忆机制偏简单,难以捕捉复杂全局交互。研究者提出量子长注意力记忆(QLAM),将隐藏状态表示为量子态,通过参数化量子电路实现非经典全局更新,既保留 SSM 的循环线性结构,又利用量子叠加丰富记忆表示。QLAM 隐式捕获全局依赖,并通过查询相关测量提取任务信息。在 sMNIST、sFashion-MNIST 和 sCIFAR-10 等序列图像分类任务上,QLAM 一致优于循环基线和 Transformer 模型。这项工作首次将量子系统的叠加特性引入状态序列建模,为长上下文 AI 提供了新思路。
论文量子机器学习长序列建模状态空间模型注意力机制QLAM

推荐理由:做长序列建模或量子机器学习的研究者值得关注——QLAM 用量子叠加解决了 SSM 记忆能力不足的问题,在标准基准上已跑赢 Transformer,建议点开看实现细节。