阿里刚刚放出了:QwenLong-L1-32B,一款用于长上下文推理的LLM,性能优于o3-mini、Qwen3-235B-A22B,与Claude-3.7-Sonnet-Thinking相当 QwenLong-L1-32B经过QwenLong-L1框架训练,是首个通过强化学习训练的长文本情境推理模型,在七个长文本情境文档问答基准测试上表现优秀 QwenLong-L1使用强化学习方法,尤其是GRPO和DAPO算法,结合基于规则和基于模型的混合奖励函数,来提升模型在长上下文推理中的性能 库里发布了一套解决长文本推理问题的完整方案,包括模型、数据集、训练方法和评估体系。


QwenLong-L1:实现大语言模型从短上下文到长上下文泛化的强化学习框架
本研究提出新型强化学习框架,旨在解决大语言模型(LRM)从短上下文能力向长上下文鲁棒泛化的迁移挑战。初步实验揭示了短/长上下文推理训练的动力学差异。

本框架通过渐进式上下文扩展增强LRM能力,包含三大核心组件:
1️⃣ 预热监督微调(SFT)阶段
▸ 初始化鲁棒策略
▸ 构建长上下文适应基础

2️⃣ 课程引导式强化学习阶段
▸ 实现短→长上下文的稳定迁移
▸ 采用难度感知的回溯采样机制

  • 动态调整训练阶段复杂度

  • 激励策略空间探索

3️⃣ 混合奖励函数架构
▸ 融合规则驱动与模型驱动的二元结果奖励(精度/召回平衡)
▸ 集成GRPO与DAPO前沿算法
▸ 利用群体相对优势策略优化

  • 引导学习关键推理模式

  • 实现强健的长上下文建模

  • 获得卓越推理能力




©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

类似网站