AlphaSignal@AlphaSignalAI精选73研究人员提出Embedded Language Flows方法,让扩散模型在文本生成任务上仅需传统方法十分之一的数据量即可达到更优性能。该方法全程在连续嵌入空间操作,仅在最后一步将向量转换为单词,无需单独的解码器。通过预测干净嵌入而非噪声,并在训练中应用无分类器引导,该方法在语言基准测试中困惑度更低,并在翻译和摘要任务上超越自回归模型。这一成果挑战了“连续扩散在语言领域行不通”的普遍认知。论文扩散模型文本生成连续嵌入Embedded Language FlowsNLP推荐理由:扩散模型终于能高效处理文本了,做NLP或生成式AI的团队可以关注这个新范式——数据需求降低10倍,性能反而更好,值得一试。
arXiv cs.AI@Keya Hu, Linlu Qiu, Yiyang Lu, Hanhong Zhao, Tianhong Li, Yoon Kim, Jacob Andreas, Kaiming He40研究者提出ELF(Embedded Language Flows)模型,将连续流匹配应用于语言建模。与现有主要在离散词元上操作的扩散语言模型不同,ELF在连续嵌入空间中运行,仅在最后一步通过共享权重网络映射为离散词元。该方法可简单适配图像扩散领域的成熟技术(如无分类器引导)。实验显示,ELF在生成质量和采样步数上均显著优于当前领先的离散和连续扩散语言模型,为高效连续语言模型提供了新方向。论文流匹配扩散模型语言建模连续嵌入ELF推荐理由:ELF展示了连续扩散模型在语言建模中的有效性,简化了技术迁移路径,可能降低语言生成模型的设计复杂度。其较少的采样步数有利于实际应用效率,值得关注。