并行智能体:AI 扩展的新前沿
朋友们好,
并行智能体,正成为扩展 AI 规模的一个重要新方向。
AI 的能力,一直以来都受益于更多的训练数据、训练时算力和测试时算力。
而让多个智能体并行运行,正成为一项进一步扩展规模、提升性能的新兴技术。
我之前的团队在百度以及后来的 OpenAI 所做的研究都表明,AI 模型的性能会随着数据和训练算力的增加而可预测地提升。
而在测试阶段投入更多算力,性能还会进一步增长。这在智能体工作流,以及那些能够思考、反思和迭代答案的推理模型中尤其明显。
但这些方法的缺点是需要更长的时间才能产出结果。并行智能体则提供了一条新路径,既能提升效果,又不用让用户等待。
从顺序到并行:趋势与实践
推理模型是按顺序生成内容的,所以运行时间可能很长。同样,大多数智能体工作流在最初设计时也是顺序执行的。
但随着大语言模型单次调用成本的持续下降,这些强大的技术正变得越来越实用。
同时,产品团队也希望能更快地给用户呈现结果。因此,越来越多的智能体工作流开始被并行化。
以下是一些实际应用案例:
研究报告生成
许多研究型智能体会并行抓取多个网页并分析内容,从而更快地综合出富有深度的研究报告。
协同软件开发
一些智能体编码框架,能让用户编排多个智能体,同时在代码库的不同部分上分工协作。我们在
Claude Code
短期课程中,就用git worktrees
演示了这种方法。人机交互优化
一个快速兴起的设计模式是,让一个计算密集的智能体在后台处理复杂任务,同时由另一个智能体监控进展,并及时向用户同步简报。
从这个模式再向前一步,就是让更多的并行智能体在后台工作,由一个面向用户的 UI 智能体来保持沟通,甚至还能将用户的异步反馈传递给后台的智能体们。
通往大规模协作之路
对于人类管理者而言,将一个复杂项目(例如开发大型软件)拆解成可供工程师们并行处理的子任务,是一件非常困难的事,将团队扩展到巨大规模时尤其如此。
同样,为并行智能体设计和拆分任务也极具挑战。
但好在大语言模型推理成本的降低,让我们可以投入更多计算资源。通过并行处理,我们就能在不显著增加用户等待时间的前提下,完成这些复杂的计算。
越来越多关于并行智能体的研究也让我备受鼓-舞。
例如,我非常欣赏 Ryan Ehrlich 等人发表的论文《CodeMonkeys:扩展软件工程中的测试时计算》。它展示了并行代码生成如何能帮助我们更广阔地探索解决方案空间。
Junlin Wang 提出的智能体混合架构,为组织并行智能体提供了一种出乎意料的简洁方法:先让多个大语言模型各自给出答案,再由一个聚合模型将它们整合成最终输出。
如何才能最好地利用并行智能体,我们仍有大量的研究和工程问题需要探索。
但我坚信,未来能够高效并行工作的智能体数量,将会像能够高效协作的人类一样,达到一个非常庞大的规模。
继续构建!
Andrew
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!