中文信息处理实验室多篇论文被NeurIPS 与 EMNLP 录用
root 2024-10-08T15:09:06+00:00中文信息处理实验室多篇论文被NeurIPS 与 EMNLP 录用 近日,中文信息处理实验室多项大模型领域研究成果被国际顶级会议 NeurIPS 2024 与 EMNLP 2024 录用,相关成果涉及大模型位置向量机制、大模型检索、大模型应用等方向。以下是相关被录用成果的简要介绍。 成果一 自检索:基于单一大语言模型的端到端信息检索 论文标题:Self-Retrieval: End-to-End Information Retrieval with One Large Language Model 论文作者:Qiaoyu Tang*, Jiawei Chen*, Zhuoqun Li, Bowen Yu, Yaojie Lu, Cheng Fu, Haiyang Yu, Hongyu Lin, Fei Huang, Ben He, Xianpei Han, Le Sun, Yongbin Li 合作单位:阿里巴巴 发表会议:NeurIPS 2024 录用类型:主会长文 论文简介:大语言模型(LLM)极大地改变了信息检索(IR)系统的构建和应用。然而,当前信息检索系统与大语言模型仅存在有限的交互,大模型通常作为信息检索系统组件的一部分,且信息检索系统通常与大模型分开构建。这种相互独立的架构限制了大模型和信息检索系统之间的知识共享和深度协作。我们提出了一种端到端的大模型驱动的信息检索架构--“自检索”(Self-Retrieval)。自检索将信息检索系统的所有基本功能整合到一个大模型中,在整个检索过程中充分利用大模型的固有功能。具体来说,自检索通过自监督学习内化检索语料库,并将检索过程转化为生成段落的序列,并自评估相关性以重排序。实验结果表明,自检索不仅大大超越了以往的检索方法,而且还能显著提高 大模型驱动的下游应用(如检索增强生成)的性能。 成果二 RoPE 的基数是大模型窗口长度的约束 论文标题:Base of RoPE Bounds Context Length 论文作者:Xin Men, Mingyu Xu, Qingyu Zhang, Bingning Wang, Hongyu Lin, Xianpei Han, Weipeng Chen 合作单位:百川智能 发表会议:NeurIPS 2024 录用类型:主会长文 论文简介:基于RoPE(Rotary Position Embedding)的相对位置编码几乎成为大语言模型中标准的组件。以往,RoPE中唯一的超参数base的设置大多依赖启发式方法。我们最新的研究发现,模型能处理的最大窗口长度实际上是由这个base参数所决定的:要实现一个理想的长窗口模型,base必须大于某个特定阈值。我们通过理论分析和实践验证双重途径,证实了这个base下界的存在。同时,这项研究也揭示了基于旋转角度外推(OOD, Out-of-Distribution)理论进行长窗口外推的局限性。 成果三 Seg2Act: 面向文档逻辑结构的全局上下文感知动作生成 论文标题:Seg2Act: Global Context-aware Action Generation for Document Logical Structuring 论文作者:Zichao Li, Shaojie [...]