
在当今人工智能领域,如何确保合成数据的新鲜性与多样性,同时避免单一调度管道成为性能瓶颈,成为了一个亟待解决的问题。Meta AI 的研究人员近日推出了 Matrix 框架,这是一个创新的去中心化解决方案,通过将控制和数据流序列化为消息,并在不同的队列中进行分布式处理,有效解决了这一挑战。
随着大型语言模型(LLM)训练对合成对话、工具轨迹和推理链的依赖日益加深,现有系统往往依赖于中心控制器或特定领域的配置。这种传统模式不仅浪费了宝贵的 GPU 资源,还增加了协调开销,并限制了数据的多样性。Matrix 框架则采用了基于 Ray 集群的点对点智能体调度机制,在真实工作负载中实现了高达 2 到 15 倍的令牌吞吐量提升,同时保持了输出质量。
传统的智能体框架通常将工作流状态和控制逻辑集中存储在中心调度器中,所有智能体调用和工具调用都必须经过这个控制器。虽然这种模式易于理解,但在处理成千上万并发合成对话时,其扩展性却显得力不从心。Matrix 的设计巧妙地将控制流和数据流序列化成一个名为“调度器”的消息对象,每个无状态的智能体作为 Ray 的 actor,从分布式队列中获取调度器,应用其特定逻辑后将状态更新并直接发送给下一个智能体。这种去中心化的处理方式显著减少了不同轨迹长度差异带来的空闲时间,同时使故障处理更加局部化。
Matrix 框架运行在 Ray 集群上,通常通过 SLURM 进行启动。Ray 提供了分布式智能体和队列的基础设施,而 Hydra 则负责管理智能体角色、调度器类型和资源配置。该框架还引入了消息卸载机制,当对话历史超过预设阈值时,大量负载将被存储在 Ray 的对象存储中,调度器中仅保留对象标识符,从而有效减少了集群带宽的占用。

通过三个精心设计的案例研究,Matrix 框架充分展示了其卓越的性能表现。在 Collaborative Reasoner 的对话生成任务中,Matrix 实现了高达 2 亿的令牌吞吐量,而传统方法仅为 0.62 亿;在 NaturalReasoning 数据集构建过程中,Matrix 的吞吐量提升了 2.1 倍;在 Tau2-Bench 工具使用轨迹评估中,Matrix 更是提供了惊人的 15.4 倍吞吐量提升。这些成果不仅证明了 Matrix 框架在性能上的显著优势,也展示了其在保持输出质量方面的出色表现,为高效的合成数据生成与处理树立了新的标杆。
论文链接:https://arxiv.org/pdf/2511.21686
划重点:
🌟 Matrix 框架采用去中心化设计,有效避免了传统中心调度器的瓶颈,实现了更高效的资源利用和任务分配。
🚀 在多项案例研究中,Matrix 框架展现出 2 到 15 倍的令牌吞吐量提升,大幅提高了合成数据生成的效率。
🔧 该框架充分利用 Ray 集群的分布式特性,通过智能体调度和消息卸载机制,实现了高效的合成数据生成与处理,为 LLM 训练提供了强大的数据支持。
