人多力量大,智能体数量同样能提升效率!
在最新一期《Andrew’s Letters》中,吴恩达指出:并行智能体正成为推动AI能力发展的新方向。
信件中他描绘了多个智能体协作的场景——它们如同高效运转的团队并行处理各项任务,展现出快速与高效的特点。
这一观察为理解AI能力提升提供了全新视角:突破传统依赖海量数据与算力的模式,通过多智能体协同并行才是关键路径。
过去讨论AI性能提升时普遍遵循规模扩展定律(scaling law),即通过增加数据量与计算资源来获得性能增长。
吴恩达表示这一经验在他过往于百度及OpenAI的工作经历中已得到验证。
此外随着大语言模型token成本持续下降,多agent并行方案的技术可行性显著增强。
然而有网友质疑: 如何有效协调多个智能体运作?对此吴恩达在信件中回应道:即便是人类面对复杂任务(如开发复杂软件应用)时分解为子任务并分配给多位工程师同步执行也充满挑战性;当扩展至更多执行单元时难度将呈指数级增长。
同样地将任务拆解后交由多个智能体并行执行也面临类似难题。
不过技术发展永无止境: 吴恩达以两篇近期研究为例阐明进展趋势——第一篇是瑞安·厄尔利希(Ryan Ehrlich)等人撰写的《Code Monkeys:Scaling Test-Time Compute for Software Engineering》.该研究通过让大型语言模型在推理阶段并行生成多条解决方案轨迹来提高编程问题解决效率;第二项成果则是Together公司提出的混合代理架构(Mixture Of Agents,MoA),其创新性在于同时调用多个大模型协同工作并通过动态调整层级结构(每层代理数量及层数配置)进一步优化系统性能表现值信件结尾处吴恩达总结道: 如何最优配置并行智能体仍存在大量研究与工程挑战亟待攻克.但我坚信能够高效协同工作的智能体数量终将如同人类协作规模般达到惊人程度不妨补充一个历史视角:2009年吴恩达在其经典论文《Large-Scale Deep Unsupervised Learning Using Graphics Processors》首次系统论证GPU在深度学习领域的规模化应用价值.这项研究不仅验证了GPU加速训练卷积神经网络的有效性更是预示着深度学习时代的来临.而这一切的核心本质归结起来无非两个字
评论列表 (0条):
加载更多评论 Loading...