all posts
AI技术 · ZH

从笛卡尔到图灵:AI 时代,每个人都需要的四种底层能力

May 8, 2026·43 min read·by PandaTalk

从笛卡尔到图灵:AI 时代,每个人都需要的四种底层能力

拆解问题、精确表达、构建系统、自动化流程——这四种能力曾经只属于少数人:程序员、架构师、项目经理、系统工程师。普通人不需要它们,因为日常工作的执行链条很短,从想法到产出之间的距离用肌肉记忆和经验就能覆盖。但 AI 改变了这个等式。当一个人可以指挥 AI 完成过去需要整个团队才能做的事情时,瓶颈就从"谁来执行"转移到了"谁来定义任务、谁来设计方案"。而定义和设计,恰恰需要这四种能力。它们有严谨的学科根基,从17世纪的哲学到20世纪的计算理论,跨越数百年,指向同一套方法论。


一、AI 改变了什么

执行层被接管了

大语言模型的核心能力是:给定一段足够清晰的指令,它能以极高的速度和相当不错的质量完成执行。写一篇初稿、翻译一份文档、分析一张数据表、生成一段代码、总结一本书的核心观点——这些过去需要人花数小时甚至数天的执行性工作,现在可以在几分钟内完成。

这意味着:执行力不再是区分人与人之间产出差距的主要因素。

过去,一个人能不能把事做好,很大程度上取决于他的执行能力——打字快不快、Excel 熟不熟、写代码的手速够不够。这些能力在 AI 时代正在快速贬值。AI 的执行速度远超人类,且不知疲倦,不犯低级错误。

但定义层没变

AI 能写出一篇不错的分析报告——如果你告诉它分析什么、从哪个角度、给谁看、重点关注哪些指标。

AI 能搭一个完整的后端系统——如果你把需求拆成清晰的模块、定义好接口、说明异常处理逻辑。

AI 能把一条业务流程自动化——如果你先把流程的每个状态、每个判断节点、每个异常分支都想清楚。

关键词是"如果"。AI 在执行层的能力近乎无限,但它不会替你完成"如果"之前的那些工作——定义问题、精确描述、设计结构、规划流程。这些工作的质量,直接决定了 AI 输出的质量上限。

从少数人的专业技能到每个人的通识能力

这就引出了一个重要的转变:

过去,"拆解复杂问题"是项目经理和系统架构师的工作;"写形式化需求"是需求分析师的工作;"设计模块化系统"是软件工程师的工作;"规划自动化流程"是运维工程师的工作。普通人不需要这些能力,因为他们不直接操控复杂系统。

但现在,每一个使用 AI 的人都在操控一个复杂系统。你给 AI 下一条指令,本质上就是在做需求分析;你让 AI 帮你搭一个工作流,本质上就是在做系统设计;你让 AI 把一个重复任务自动跑起来,本质上就是在做流程自动化。

AI 把专业工具交到了每个人手里,但使用工具的思维方式并没有随之附赠。 这四种底层能力——拆解、表达、系统、自动化——就是那个缺失的思维操作系统。

而且,它们不是什么玄学。每一种都有经过数百年验证的学科方法论作为支撑。


二、拆解问题:从笛卡尔的方法论到分治算法

2.1 哲学起源:笛卡尔的四条准则

1637年,笛卡尔在《谈谈方法》中提出了理性思考的四条准则。其中第二条和第三条直接定义了"拆解"的方法论:

第二条:将每一个待考察的难题,尽可能地分解为细小的部分,直到可以被妥善解决为止。

第三条:按照顺序引导思想,从最简单、最容易理解的对象开始,一步步上升到最复杂的认识。

这两条准则包含两个关键动作:向下分解——把复杂问题拆成简单部分;向上综合——把简单部分的答案组合成完整方案。

笛卡尔方法的深刻之处在于:它承认人类理性的有限性。我们的大脑无法同时处理太多变量,所以必须通过分解来降低认知负荷。这个观察在三百年后被认知科学精确地证实了。

2.2 认知科学:为什么拆解有效

1956年,认知心理学家 George Miller 发表了著名论文《神奇的数字7±2》,揭示了人类工作记忆的容量限制——我们同时能保持在注意力中的独立信息单元大约只有7个(后续研究修正为4个左右)。

这意味着:当一个问题包含超过4-7个相互关联的变量时,你的大脑会开始丢失信息、产生错误。拆解的本质,是把超出认知容量的问题,切分成认知容量以内的子问题。

Miller 同时提出了组块(Chunking) 的概念:通过把多个小信息编码成一个有意义的"块",可以突破工作记忆的限制。拆解和组块是一枚硬币的两面——拆解是向下分,组块是向上合。

2.3 计算机科学:分治法

计算机科学把笛卡尔的方法论形式化为了一套精确的算法范式——分治法(Divide and Conquer)

  1. Divide:将问题分割成若干个规模更小的同类子问题
  2. Conquer:递归地解决每个子问题(当子问题足够小时,直接求解)
  3. Combine:将子问题的解合并成原问题的解

归并排序是经典的例子:对100万个数排序,先拆成两个50万的子序列各自排序后合并,每个子序列继续拆,直到单个元素——天然有序。然后一路向上合并,得到完整的有序序列。

分治法的优雅之处在于:它不仅提供了思路,还带有严格的性能保证。通过 Master 定理可以精确计算时间复杂度,这意味着拆解让问题变得可解的同时,也让解题过程变得可度量。

2.4 工程实践:MECE 原则

管理咨询领域将拆解发展成了可操作的框架。麦肯锡的 MECE 原则(Mutually Exclusive, Collectively Exhaustive)定义了"好的拆解"的两条标准:

  • 相互独立(ME):每个子部分之间没有重叠
  • 完全穷尽(CE):所有子部分加在一起覆盖了整个问题

如果子问题之间有重叠,你会做重复工作;如果有遗漏,你会在最后发现答案拼不完整。

2.5 AI 视角:LLM 能解题,但不会定义题目

以上方法论在 AI 时代有了新的紧迫性。原因很直接:

LLM 擅长解决被良好定义的子问题,但它不擅长分解一个模糊的大问题。

你对 AI 说"帮我分析一下我们的业务",它会给你一堆面面俱到但缺乏针对性的内容。但如果你说"帮我对比过去六个月华东区三个渠道的获客成本变化趋势,重点分析自然搜索和付费投放的效率差异"——它能给你精准且有深度的分析。

从前一种到后一种,中间差的就是拆解。而 AI 越强大,这种差距的放大效应越明显:AI 能执行的粒度越细,你拆解得越精细,结果就越精准。AI 的能力天花板在快速升高,但你能触及的高度取决于你的拆解深度。

过去,拆解是项目经理写 WBS(工作分解结构)时才用到的专业技能。现在,每个人在给 AI 布置任务的时候,都在做同样的事——只是大多数人没有意识到自己在做需求分解,也没有受过系统的训练。

2.6 如何训练拆解能力

控制粒度。 每次拆解后,检查每个子问题是否已经小到可以直接着手。判断标准:你能否在脑子里清晰地想象出"做这件事的第一步具体是什么"。如果不能,继续拆。

检查完备性。 用 MECE 原则审视拆解结果——有没有遗漏?有没有重叠?把结果给别人看,问"你觉得还缺什么"。

明确依赖关系。 拆完之后,画出子问题之间的先后依赖。哪些可以并行,哪些必须串行。这在和 AI 协作时尤其重要——可以并行的子问题可以同时交给多个 AI 会话处理。


三、精确表达:从格赖斯准则到形式规约

3.1 语言哲学:维特根斯坦的边界

"我的语言的边界,就是我的世界的边界。"

维特根斯坦在《逻辑哲学论》中写下的这句话,是对表达能力最深刻的概括。它的含义是:你无法思考你无法表达的东西。更准确地说——如果你对一件事的表达是模糊的,那么你对这件事的理解几乎一定也是模糊的。

精确表达的过程,本质上是逼迫自己把模糊思考变成清晰认知的过程。

这就解释了为什么很多人在"写下来"的时候才发现自己没想清楚——写作是一种把思维外化的行为,它会暴露你认知中的每一个含糊地带。

3.2 语用学:格赖斯的合作原则

1975年,语言哲学家 Paul Grice 提出了合作原则(Cooperative Principle),认为有效的交流建立在四条准则之上:

准则 要求 违反时的后果
量的准则 提供恰好足够的信息,不多不少 信息过少导致歧义,过多导致干扰
质的准则 只说你有证据支持的内容 不可靠的信息污染整个交流过程
关联准则 只说与当前话题相关的内容 偏题导致注意力分散、效率降低
方式准则 清晰、有序、简洁,避免歧义 晦涩的表达增加对方的解码成本

这四条准则在1975年被提出,描述的是人与人之间的对话规律。但如果你仔细看,它们完美地适用于人与 AI 之间的交互。

3.3 修辞学:亚里士多德的三种说服力

两千三百年前,亚里士多德在《修辞学》中识别了有效表达的三个维度:

  • Logos(逻辑):论证的内在逻辑是否自洽、证据是否充分
  • Ethos(信誉):表达者是否展现出专业性和可信度
  • Pathos(共情):能否触及听众的切身感受和利益

精确表达的完整含义是:针对特定受众,选择恰当的维度和粒度,传递关键信息。 对工程师你强调 Logos,对投资人你强调 Pathos,对合作伙伴你强调 Ethos。根据受众调整侧重,这本身就是一种精确。

3.4 计算机科学:契约式设计

计算机科学对"精确表达"的追求走到了极致——形式规约(Formal Specification):用数学语言把系统行为描述得没有任何歧义。

Bertrand Meyer 提出的 Design by Contract(契约式设计) 要求每个函数明确三件事:

  • 前置条件(Precondition):调用前必须满足什么条件
  • 后置条件(Postcondition):执行后保证什么结果
  • 不变量(Invariant):整个过程中什么条件始终成立

类型系统是另一个例子。当一个函数声明它接受 string 类型参数并返回 number 类型结果时,它用极少的信息量就消除了大量歧义。精确表达的艺术,很多时候就是找到那个最小但足够的信息集合。

3.5 信息论:精确表达就是消除熵

Claude Shannon 的信息论提供了最优雅的数学框架。

信息量的本质是不确定性的消除。 如果你说"明天可能下雨也可能不下雨",这句话的信息量为零。但"明天降水概率 92%,建议带伞"的信息量很高,因为它极大地收窄了听者的决策空间。

从信息论的角度看,精确表达就是在每一次交流中最大化有效信息量——用尽可能少的字数消除尽可能多的不确定性。

3.6 AI 视角:Prompt 就是应用语言学

现在让我们把以上所有学科视角汇聚到一个场景:你坐在电脑前,准备给 AI 写一段 Prompt。

这个日常到不能再日常的动作,实际上同时调用了上述每一个学科框架:

你在践行格赖斯准则——你需要提供恰好足够的信息(量的准则),只说真实可靠的背景(质的准则),保持指令与目标的相关性(关联准则),用清晰无歧义的语言(方式准则)。

你在做契约式设计——你需要告诉 AI 前置条件(你现在的处境、已有的素材)、后置条件(你期望的输出格式和内容标准)、不变量(什么风格必须保持、什么约束不能违反)。

你在做信息熵的管理——你的每一句话要么缩小了 AI 的输出空间(有效信息),要么增加了噪声(无效冗余)。好的 Prompt 是高信噪比的信号。

所以 Prompt Engineering 这个词不是凭空造出来的营销概念——它是真正的工程学科,融合了语言学、信息论和软件工程的方法论。

过去,这种"精确描述需求"的能力被限制在需求分析师和技术文档工程师的小圈子里。现在,每一个和 AI 对话的人都在做需求分析——只不过大多数人做得很粗糙,因为他们从未接受过这方面的训练。

两个人面对同样强大的 AI,由于表达精度的差异,获得的价值可能相差十倍。 而且这个差距不会随着 AI 能力的提升而缩小——恰恰相反,AI 越强大,越能精确地执行你的指令,精确表达者和模糊表达者之间的输出差距就越大。

3.7 如何训练精确表达

"电梯测试"。 任何一个想法,你能否在30秒内说清楚?如果不能,说明你的理解还不够精练。

"无歧义测试"。 写完一条指令后,想象十个不同背景的人来读它。他们的理解会一致吗?如果不一致,找到分歧点,补充限定条件。

"契约式表达"练习。 每次沟通任务时,强制自己说清三件事:前置条件、期望结果、约束条件。这个习惯用在和 AI 的协作中,效果立竿见影。


四、构建系统:从一般系统论到模块化设计

4.1 一般系统论:贝塔朗菲的框架

20世纪40年代,生物学家 Ludwig von Bertalanffy 提出了一般系统论(General System Theory),定义了系统的四个基本特征:

  • 整体性:系统的行为无法通过孤立研究各部分来理解。整体大于部分之和。
  • 层次性:系统由子系统构成,子系统又由更小的子系统构成,形成层级结构。
  • 开放性:系统与环境之间持续进行物质、能量、信息的交换。
  • 目的性:系统的存在服务于某个目标或功能。

一个常见的错误是:只关注单个组件的性能,忽视组件之间的协调。贝塔朗菲的整体性原则提醒我们——一个由优秀部件组成的系统,如果部件之间的协调机制有问题,整体表现可能还不如一个由平庸部件组成但协调良好的系统。

4.2 控制论:维纳的反馈环路

Norbert Wiener 在1948年创立的控制论(Cybernetics) 揭示了系统维持稳定的核心机制——反馈(Feedback)

  • 负反馈:输出偏离目标时,系统自动调整以回归目标。恒温器是最简单的例子。
  • 正反馈:输出的偏离被进一步放大。银行挤兑是典型——越多人取钱,恐慌越严重,又驱使更多人去取钱。

铁律:如果你设计的系统没有纠错回路,它迟早会偏离目标。 一个健康的系统应该能回答三个问题:当前状态和目标之间的偏差是什么?偏差被检测到后触发什么调整动作?调整力度如何与偏差程度匹配?

4.3 计算机科学:模块化与信息隐藏

1972年,David Parnas 发表了经典论文《论将系统分解为模块的标准》,提出了信息隐藏(Information Hiding) 原则:

每个模块应该封装一个"可能发生变化的设计决策"。模块之间通过定义良好的接口通信,模块内部的实现细节对外不可见。

划分模块的标准不是"功能相似的放一起",而是"可能一起变化的放一起"。好的模块划分,让你修改系统时只需要动一个模块,而非牵一发动全身。

衡量模块化质量的核心指标:

  • 高内聚(High Cohesion):模块内部的元素紧密相关,共同完成一个明确职责
  • 低耦合(Low Coupling):模块之间的依赖最小化
  • 关注点分离(Separation of Concerns):不同性质的关注点由不同模块处理

4.4 建筑学:Christopher Alexander 的模式语言

建筑师 Christopher Alexander 在1977年的《模式语言》中提出:每个设计问题都可以被描述为一个模式(Pattern)——在特定情境下反复出现的问题,以及经过验证的解决方案。每个模式包含情境、问题和解决方案三要素。

这个思想后来被"四人帮"引入软件工程,产生了影响深远的《设计模式》一书。

核心洞察:好的系统设计不是每次从零发明的,而是由一组经过验证的模式组合而成的。 构建系统的能力有两个层面:积累足够多的模式库,以及面对新问题时能判断它属于哪种已知模式并正确选择和组合。

4.5 复杂系统:涌现

复杂系统理论揭示了涌现(Emergence) 现象:系统整体可以表现出任何单个组件都不具备的行为。

蚁群中每只蚂蚁只遵循几条简单规则,但整个蚁群能高效地觅食、建巢、防御。没有哪只蚂蚁"理解"蚁群的宏观策略,策略从大量简单交互中自发产生。

对系统构建者的启示:你设计的是规则和结构,而非直接设计最终行为。 好的设计者会问:"我设定的规则在大量重复执行后,会涌现出什么样的宏观行为?这些行为是我期望的吗?"

4.6 AI 视角:AI 是强大的组件,但谁来设计架构?

以上每一个系统理论,在 AI 时代都获得了全新的应用场景。

AI Agent 就是系统论的实践。 当你搭建一个 AI Agent 工作流——比如让 AI 自动读取客户邮件、理解意图、调取数据、生成回复草稿、等待审批后发送——你在做的事情和软件架构师设计微服务系统本质相同:定义组件(每个 Agent 的职责)、设计接口(组件之间传递什么数据)、建立反馈回路(输出不合格时如何回退和修正)。

贝塔朗菲的整体性原则在 AI 系统中体现得尤为明显。 单个 LLM 的能力很强,但把五个 LLM 调用串在一起不等于五倍的能力。如果中间的数据传递有损耗、如果某一步的输出格式和下一步的输入预期不匹配、如果缺少错误检测机制——整个系统的表现可能还不如一次精心设计的单次调用。

维纳的反馈环路是 AI 系统的生命线。 没有反馈回路的 AI 流程是最危险的——AI 可能在某一步产生幻觉(hallucination),错误被传递到下游环节并被放大,最终输出一个看起来自洽但完全建立在虚假前提上的结果。每一个 AI 系统都必须设计验证节点:在关键环节检查中间输出是否可信,异常时中断流程而非继续执行。

Parnas 的模块化原则决定了 AI 系统的可维护性。 模型会升级、API 会变化、业务需求会调整。如果你的 AI 工作流是一坨紧密耦合的巨型 Prompt,改一个环节就要重新调试整条链路。但如果你按照信息隐藏原则把系统拆成独立模块——每个模块有清晰的输入输出接口——那么升级某个环节时只需要修改对应的模块。

过去,这种系统设计思维是软件架构师多年经验的结晶。现在,每一个在搭建 AI 工作流的人——无论是做自动化内容发布、做数据分析流水线,还是做客户服务系统——都在做架构设计的工作。区别只在于:有人凭直觉搭,有人按方法论搭。前者的系统脆弱且难以维护,后者的系统健壮且可持续演进。

4.7 如何训练系统思维

画系统图。 遇到多步骤的工作流程,画成方框和箭头的图。方框是组件,箭头是数据流。看看哪些方框之间箭头最多——那是耦合最紧、最容易出问题的地方。

寻找反馈回路。 在你设计的任何流程中,主动寻找"输出如何影响输入"。如果找不到反馈回路,加一个。对 AI 系统来说,最基本的反馈回路是:有人检查 AI 的输出质量,并把发现的问题反馈回系统设计中。

练习接口思维。 设计模块时先定义接口(输入什么、输出什么、边界条件是什么),再考虑内部实现。接口先行,实现后置。


五、自动化流程:从有限状态机到精益生产

5.1 计算理论:什么可以被自动化

要理解自动化,首先要理解一个根本性问题:什么是可以被自动化的?

Alan Turing 在1936年提出的图灵机模型定义了"可计算性"的边界——一个问题如果能被图灵机解决,就是可计算的,理论上可以被自动化。

在图灵机之下,有一种更简单但极其实用的计算模型——有限状态机(Finite State Machine, FSM)。有限状态机由一组状态和状态之间的转移规则构成。大多数可被自动化的业务流程,本质上都是有限状态机:

  • 订单处理:待支付 → 已支付 → 已发货 → 已签收
  • 审批流程:待提交 → 审批中 → 已通过 / 已驳回
  • 内容发布:草稿 → 审核中 → 已发布 / 需修改

当你能把一个流程画成状态转移图,标注清楚每个状态和触发转移的条件时,这个流程就具备了被自动化的基本条件。 反过来,如果你画不出来——状态不明确、转移条件模糊、存在大量需要临场判断的分支——那这个流程还没有准备好被自动化。

5.2 工业工程:泰勒的科学管理

自动化的现代思想史始于 Frederick Taylor 在20世纪初创立的科学管理(Scientific Management)。他的方法论核心是时间-动作研究:把每一个操作步骤分解、测量耗时、分析是否必要,然后重新设计最优序列。

三个关键步骤:

  1. 观察与记录:完整记录当前流程的每个步骤和耗时
  2. 分析与优化:识别冗余步骤、等待时间、不必要的环节
  3. 标准化与固化:将优化后的流程固定为标准操作程序

顺序至关重要。在自动化之前,你必须先完成流程的优化和标准化。 试图自动化一个未经优化的流程,只会更快地生产出低质量的结果。

5.3 丰田生产方式:精益思维

丰田在20世纪50-70年代发展的丰田生产方式(TPS) 定义了七种浪费:

浪费类型 制造业中的表现 知识工作中的表现
过度生产 产量超出订单 做了没人需要的报告或功能
等待 零件等上一工序 审批流程中的排队空转
运输 物料不必要的搬运 数据在系统间反复导出导入
过度加工 精度超出需求 花三天美化一份内部文档
库存 仓库堆积原材料 积压未处理的邮件和待办
动作 工人不必要的走动 在五个软件之间反复切换复制粘贴
缺陷 产品不合格需返工 因需求理解偏差导致的返工

TPS 还提出了 Jidoka(自働化)——注意这个"働"带人字旁。含义是:自动化系统在检测到异常时应该自动停止,而非带着错误继续运行。 一条没有质检节点的流水线,跑得越快,产出的废品越多。

5.4 DevOps:CI/CD 的流水线哲学

现代软件工程的 CI/CD(持续集成 / 持续交付) 是自动化的标杆实践。其核心思想:每一次代码变更都自动触发完整的流水线——构建、测试、部署。

CI/CD 的设计原则可以迁移到任何自动化场景:

  • 触发器明确:什么事件启动流程
  • 步骤幂等:同一步骤重复执行不产生副作用
  • 快速反馈:每一步尽早验证,失败时立即通知
  • 可回滚:任何一步出问题都能回退到上一个稳定状态

背后的哲学是:自动化的核心价值是确定性,速度只是副产品。 一条自动化流水线的真正优势在于:每次运行的结果是可预期、可复现、可审计的。

5.5 AI 视角:成本消失了,但设计不能消失

AI 对自动化最大的改变是:实施成本断崖式下降。

过去,自动化一个业务流程需要专业开发团队花几周写代码、做测试、部署维护。这个成本门槛挡住了绝大多数人。

现在,你可以用自然语言告诉 AI 你想自动化什么,AI 帮你写脚本、搭工作流、配置触发条件。从想法到可运行的自动化流程,可能只需要几个小时。

但成本的下降恰恰暴露了一个过去被掩盖的问题:很多人还没搞清楚"该自动化什么"和"怎么设计流程"就急着动手了。

泰勒的科学管理三步——记录、优化、标准化——在 AI 时代变得更加重要,而非更不重要。因为 AI 大幅降低了"自动化"这一步的门槛,导致很多人跳过了前面的"优化"和"标准化"。结果就是:用 AI 高效地执行了一个低效的流程,或者更糟——高效地放大了一个有缺陷的流程。

丰田的 Jidoka 原则在 AI 自动化中同样关键。AI 系统有一个独特的风险:它可以非常自信地产出错误结果。如果你的自动化流程没有设计验证节点和异常中断机制,AI 的幻觉会被自动传播到下游的每一个环节。

有限状态机的思维在 AI 时代有了一个新的用途:它帮助你判断一个流程中哪些环节适合交给 AI 全自动执行,哪些环节需要保留人工审核。 状态转移条件清晰、判断规则明确的环节,可以放心地交给 AI。涉及主观判断、风险决策、创造性思考的环节,应该保留为人工节点——至少在当前阶段。

过去,设计自动化流程需要编程能力,这把大多数人挡在了门外。现在 AI 把编程这道门槛拆掉了——你可以用自然语言描述流程,AI 帮你实现。但门槛消失后,真正的竞争力就从"能不能实现"转移到了"能不能设计"。而设计能力的根基——有限状态机、精益思维、反馈控制——这些东西不会因为 AI 的出现而过时。

5.6 如何训练自动化思维

流程日志。 选一天,按时间顺序记录你做的每件事和耗时。标记出重复出现、规则明确、不需要创造性判断的环节。这些就是你的自动化候选项。

状态图练习。 拿日常工作中的一个流程画成状态转移图。画的过程中你会发现很多隐含的判断条件和异常路径从未被明确定义——这些是自动化前必须厘清的问题。

先手动跑通,再考虑自动化。 手动执行优化后的流程至少三次,确认每一步都是必要的、每个判断条件都是明确的。过早自动化一个未经验证的流程,会把错误固化进系统。


六、从专业技能到全民通识

为什么这四种能力曾经只属于少数人

回顾一下这四种能力在各自学科中的位置:

能力 传统归属 学科根基
拆解问题 项目经理、系统分析师 笛卡尔方法论 → 认知科学 → 分治算法 → MECE
精确表达 需求分析师、技术写作者 维特根斯坦语言哲学 → 格赖斯语用学 → 形式规约 → 信息论
构建系统 软件架构师、系统工程师 贝塔朗菲系统论 → 维纳控制论 → Parnas 模块化 → 模式语言
自动化流程 运维工程师、流程工程师 图灵可计算性 → 泰勒科学管理 → 丰田精益 → CI/CD

过去,这些能力之所以只属于特定职业,是因为普通人在日常工作中几乎不会直接面对这类问题。你不需要拆解一个复杂系统,因为你只负责系统中的一个固定环节;你不需要精确地形式化表达需求,因为有产品经理帮你做这件事;你不需要设计系统架构,因为有架构师在上游把方案定好了;你不需要规划自动化流程,因为有工程师来实现。

AI 让每个人都站到了"设计者"的位置

AI 打破了这个分工结构。

当你可以直接指挥 AI 完成复杂任务时,你和 AI 之间不再有项目经理、需求分析师、架构师这些中间层。你自己就是那个定义问题的人、表达需求的人、设计方案的人、规划流程的人。

这就像计算器的出现让每个人都能做复杂运算,但前提是你知道该算什么;搜索引擎的出现让每个人都能获取海量信息,但前提是你知道该搜什么。AI 让每个人都拥有了强大的执行力,但前提是你知道该执行什么。

而"知道该执行什么"所需要的底层能力——拆解、表达、系统、自动化——恰恰是过去只有少数技术专业者才刻意训练的能力。

这就是为什么我认为这四种能力需要成为全民通识。它们的地位应该和"阅读理解""逻辑推理""基础数学"一样,成为每一个想在 AI 时代有效工作的人的基础素养。

好消息:门槛在降低

一个好消息是:学习这些能力的门槛也在降低。

过去你要理解分治算法,可能需要先学编程、学数据结构。现在你可以直接从思维方式入手——学会在日常工作中把大问题拆小,不需要会写归并排序的代码。

过去你要做形式化需求描述,可能需要学 UML、学 Z notation。现在你可以从写好一段 Prompt 开始——把格赖斯的四条准则用在每一次和 AI 的对话中。

过去你要理解系统架构,可能需要多年的软件工程经验。现在你可以从搭一个简单的 AI 工作流开始——理解什么是模块、什么是接口、什么是反馈回路。

过去你要做流程自动化,需要会写代码。现在你可以用自然语言描述流程,让 AI 帮你实现。你的关注点从"怎么实现"转移到"怎么设计"。

AI 同时降低了这些能力的应用门槛和学习门槛。 它让你更需要这些能力,同时也让你更容易开始培养它们。


结语

笛卡尔教我们拆解,维特根斯坦提醒我们语言即思维的边界,贝塔朗菲揭示了系统的运行规律,图灵定义了可自动化的理论边界。这些思想家跨越四个世纪,各自独立地触碰到了同一个核心命题:人类如何有效地处理超出自身认知容量的复杂问题。

答案是一致的:分解它,说清楚它,把组件连成系统,然后把可以机械化的部分交给机器。

这个答案在蒸汽机时代成立,在计算机时代成立。而在 AI 时代,它获得了前所未有的普适性——因为"交给机器"这一步的成本和门槛已经趋近于零。剩下的三步——分解、表达清楚、设计系统——成了每个人都需要面对的事情。

过去,这些是少数专业者的看家本领。现在,它们是每个人的基础设施。

工具在迭代,方法论的根基没有变。学会方法论,你就能驾驭任何一代工具。

━━━ fin ━━━

If you read this far — thank you.
Come tell me what you thought on X.