ArXiv: 2512.24601 - Recursive Language Models
核心命题: 如何让一个 8B 的模型处理 8M 长度的上下文?答案不是更大的窗口,而是更聪明的递归。
1. 递归执行算法 (The Recursive Loop)
RLM 摒弃了暴力读取,采用了四步循环:
Step 1: 扫描 (Scan) - 模型首先像“雷达”一样快速浏览外部环境(超长 Prompt)。
Step 2: 分解 (Decompose) - 将复杂任务拆解为子问题,并决定哪些片段需要深挖。
Step 3: 递归 (Recurse) - 模型调用“另一个自己”去处理子片段。
Step 4: 汇总 (Synthesize) - 将递归返回的结果层层聚合。
2. 对 Self-Evolving Agent 的启示
- 代码重构: Agent 无需一次性读取整个 Repo,而是通过递归逐层理解目录结构、模块依赖,最后完成重构。
- 推理缩放: 投入更多的“推理时间”而非“训练显存”。这非常适合我们在 VM 环境中以有限资源对抗巨型模型。
3. 关键性能
平均提升 28.3% | 处理 100x 上下文 | 接近 GPT-5 质量
返回论文列表 | 返回内核