别给 AI 套人类的组织架构了
别给 AI 套人类的组织架构了
现在 AI Agent 圈子里特别流行一种玩法:给不同的 Agent 设定不同的角色,产品经理、设计师、前端、后端、运维……然后让它们像一个虚拟团队一样互相协作,完成你交代的任务。
我试过。效果一般。
不是说完全不能用,而是你仔细想想就会发现——这套分工逻辑,本质上是在用人类的弱点去约束 AI 的能力。
人类为什么要分工?因为我们太弱了
先回忆一下互联网公司的经典工作流:
老板有个想法,产品经理把想法翻译成需求文档,交给 UI 设计师出原型和界面,前端程序员搞定页面和交互,后端程序员搞定业务逻辑和数据,运维工程师维护服务器的稳定性。
一个想法,五个角色,无数次会议,几十封邮件,来回扯皮三个月,终于上线了。
为什么要这么麻烦?
因为人脑的带宽太窄了。
一个人的学习能力有限,不可能同时精通产品、设计、前端、后端和运维。一个人的上下文处理能力有限,脑子里装不下整个系统的全貌。一个人的注意力有限,不可能同时关注用户体验和服务器负载。
所以我们发明了「分工」。不是因为分工本身有多好,而是因为不分工的话,人类干不了复杂的事。
分工是对人类认知局限的一种妥协方案。
AI 的瓶颈存在,但跟人类完全不同
AI 有没有局限?当然有。但它的局限和人类不是一回事。
一个大语言模型,不存在「学不过来」的问题。它从训练的第一天起,就同时学了产品思维、UI 设计原则、前端框架、后端架构、运维知识。它的知识面,比任何一个单一的人类专家都宽得多。
它的真正瓶颈是什么?上下文窗口。
人类的限制是脑容量——装不下太多领域的知识。AI 的限制是上下文窗口——一次对话里能处理的信息量有上限。
但这两种限制,需要的应对方式完全不同。
人类因为脑容量不够,所以需要按专业分工——你学前端,我学后端,各管一摊。
AI 因为上下文不够,需要的是按任务拆分——这一块你先处理,那一块我先处理,最后合在一起。
按专业分角色,和按任务拆子问题,是两件完全不同的事。 前者是模仿人类的组织方式,后者是工程上的合理拆解。现在大多数人做的多 Agent 系统,搞的是前者。
给 AI 贴角色标签,到底在干嘛?
我们来拆解一下「角色设定」这件事到底在做什么。
你给一个 Agent 写 prompt:「你是一个资深产品经理,你有十年互联网经验……」
然后给另一个 Agent 写:「你是一个高级前端工程师,精通 React……」
这在做什么?这是在人为地缩小每个 Agent 的能力边界。
一个大模型本来什么都能干,你非要告诉它「你只是个产品经理」。这就像你雇了一个全栈工程师,然后跟他说:「从今天开始你只准写 CSS,别的不许碰。」
更糟糕的是,这些被人为限制了的 Agent 之间还要互相协作。我在实际使用中发现了几个很要命的问题:
信息在传递中失真。 你让「产品经理 Agent」写完需求,传给「设计师 Agent」,再传给「程序员 Agent」。每一次传递,都有信息丢失。就跟你玩传话游戏一样,第一个人说的是「我要一个简洁的登录页面」,传到最后变成了一个带三个弹窗的注册流程。
没有 Agent 拥有全局视角。 每个 Agent 只看到自己角色范围内的东西。产品经理不知道实现成本,程序员不知道用户痛点,设计师不知道接口限制。这不就是人类公司里天天吵架的原因吗?你把这套搬到 AI 上,它不吵了——但问题照样存在,只是没人提出来。
上下文被割裂了。 这是最致命的。当「后端 Agent」在写接口的时候,它看不到「前端 Agent」已经做了什么假设。当「设计 Agent」在出方案的时候,它不知道需求里有哪些隐含的技术约束。
割裂的上下文,必然产生割裂的结果。
我的做法:一个上下文、一个边界、一个记忆
我现在的做法很简单:不分角色。就一个 Agent,让它同时承担所有职能。
我管它叫 GOD 工程师——不是说它真的全知全能,而是说它不需要被限定在某个人类职位的框框里。
一个上下文环境——所有信息都在同一个空间里,不需要传话,不需要对齐。
一个约束的边界——所有决策基于同一套原则和目标,不会出现各自为战。
一个记忆空间——它记得你说过的每一个需求、每一次修改、每一个偏好。不需要你对五个不同角色重复解释自己。
我实践下来,这样做在理解意图的时候,明显更容易、也更准确。
因为它拥有完整的上下文。它知道你为什么要做这个功能,也知道这个功能应该长什么样,更知道实现它最合理的技术方案是什么。所有这些知识同时存在于同一个思维过程中,而不是被切成五块分别处理。
那什么时候该用多 Agent?
我反对的不是多 Agent,我反对的是无脑给 Agent 套人类的职位角色。
多 Agent 真正有价值的场景是什么?
第一,上下文确实装不下了。 一个大型项目的代码、文档、需求加在一起超过上下文窗口的容量,这时候按模块拆分给不同的 Agent 处理,是工程上的合理选择。但注意,这是按任务边界拆,不是按人类的职位拆。
第二,需要真正的并行执行。 比如同时跑十个独立的数据分析任务,或者同时调研三个不同的技术方案。这是在利用并行计算的优势,跟人类的分工逻辑完全不同。
第三,特定领域需要专用模型。 一个通用大模型写 Python 和写 Verilog 的水平不一样,做自然语言理解和做图像生成也需要不同的模型。这时候的「分工」不是因为习惯,而是因为不同模型确实各有长短。
判断标准很简单:这个拆分在工程上是否带来了实际收益——更快的速度、更高的可靠性、更好的专业表现? 如果是,拆。如果只是「感觉应该有个产品经理」,别拆。
说回本质
我们设计 AI Agent 的时候,最大的思维陷阱就是:把人类社会的组织方式,原封不动地搬到 AI 身上。
人类要开会,所以让 Agent 也开会。人类要分工,所以让 Agent 也分工。人类有 title,所以让 Agent 也有 title。
但 AI 不是人。它的能力边界和人类不同,它的瓶颈和人类不同,它需要的协作方式也和人类不同。
与其给 AI 套上人类的枷锁,不如从它自身的特性出发来设计系统。
下次你设计 Agent 系统的时候,先问自己一个问题:
我这么拆,是因为工程上有实际收益?还是因为我习惯了人类公司的组织方式?
如果答案是后者,那你可能只是在用旧地图找新大陆。
If you read this far — thank you.
Come tell me what you thought on X.