被重新定价的不是劳动,而是人的位置(Nassim Taleb 风格)

被重新定价的不是劳动,而是人的位置

——Nassim Taleb 风格:切肤之痛,反脆弱

一条朴素的真理

有人问:AI 能不能代替游戏工作室里那些「搬砖」的人?紧接着有人回答:很多时候,雇一个愿意长时间坐在电脑前的人,比烧 AI 的算力还便宜。

这句话听起来像玩笑。但它击中的是一个多数人不敢面对的事实:市场对人类劳动的定价,从来就不是按照「你有多聪明」来算的。

我在整个职业生涯中反复强调一件事:不要听人们说什么,要看他们把钱押在哪里。那些声称「人才是最宝贵资源」的公司,转头就会用一个月几千块钱雇人做需要高度通用智能才能完成的任务。他们嘴上说的是「低端劳动」,实际购买的是一个廉价的通用 agent——一个能看屏幕、判断异常、处理例外、在系统崩溃时临时拼凑解决方案的活人。

这就是我要讨论的第一个核心问题。

廉价劳动力是被长期低估的通用智能

整个社会对「低端劳动」有一种结构性的误读。

人们以为,坐在电脑前做重复操作的人提供的只是「手」——点击、拖拽、切换窗口。但这是一种彻头彻尾的胡说八道。一个人坐在那里,他同时在做以下所有事情:

识别界面是否正常。判断弹窗是异常还是预期内的。区分网络问题和系统问题。在流程卡住时凭经验尝试解决方案。在没有人给他写规则手册的情况下,自己发明临时规则。在整个系统不完美的前提下,凑合着把事情做完。

这最后一条是最重要的。人类最被低估的能力,是在不完美条件下把事情糊过去的能力。 这种能力没有名字,没有证书,没有学位,也几乎没有市场在为它单独定价。但它存在于每一个所谓「低端工人」的每一天劳动中。

我把这种能力叫做**「通用模糊适应性」**。它和智商无关,和学历无关,和你能不能在白板上推导公式无关。它是一种在现实世界的毛边和阴影里活下去的能力。

而 AI 恰恰最缺的就是这个。AI 的惊艳发生在一切大致正确的时候;一旦脱离它熟悉的分布,它会从「看起来像天才」瞬间坠落到「让人头皮发麻」。这不是 AI 的 bug,这是所有形式化系统的根本限制。

所以,当你用一个月几千块钱雇一个人的时候,你买到的不是一双手。你买到的是一个极其廉价的通用适应系统,一个能在规则缝隙里活下去的生物体。市场对他的定价方式不是「你提供了多复杂的认知服务」,而是「你愿意接受多低的工资」。

这是一种结构性的掠夺。它之所以能持续,是因为提供这种能力的人太多了,多到市场不必为它支付公平的价格。

自动化最大的敌人不是重复,而是例外——或者说,尾部风险

人们总说重复性工作最容易被自动化。我对这种说法的容忍度为零。

说这种话的人,显然从来没有真正运营过一个自动化系统。一个场景即使 95% 的时间在按流程跑,也不代表它适合彻底自动化。因为自动化的成本不是由那 95% 的顺利时刻决定的,而是由那 5% 的例外决定的。

这就是尾部风险的逻辑。我在金融领域谈了二十年尾部风险,但这个概念在劳动领域同样适用。一个系统运行一千次没出事,不代表第一千零一次不会炸掉。而系统一旦炸掉,你需要的不是更好的算法,而是一个能在混乱中做出决定的人。

人类劳动力在这里的优势不在于更高效,而在于反脆弱。一个人面对异常时,他不会崩溃——他会刷新页面、切换窗口、重新登录、停一停再试、甚至在完全没有理论支撑的情况下凭直觉找到临时方案。这些行为在标准效率评估里看起来很蠢。但在现实世界里,「能在混乱中存活」本身就是最高价值的能力。

AI 则相反。AI 是一个极度脆弱的系统——它在预期分布内表现完美,在预期之外则可能灾难性地失败。很多人想象的未来是「AI 替代人」,现实更可能是「AI 做掉了标准部分,把所有脏活、碎活、兜底的活留给人」。于是人的工作不是消失了,而是变得更无聊、更琐碎、更像一个「系统的守夜人」。

真正麻烦的地方在于:这种守夜人的劳动更难获得成就感,更难产生主体性,更像一个人类形态的安全阀。

「切肤之痛」原则:谁离后果近,谁就更值钱

现在让我说到本文最核心的判断。

在我的整个思想体系中,有一条比什么都重要的原则:不要听一个不承担后果的人给你的建议。 一个人有没有「切肤之痛」(skin in the game),决定了他的判断是否值得信赖。

把这条原则搬到 AI 时代的劳动分析中,你会得到一个极其清晰的结论:

未来最值钱的位置,不是「谁更聪明」,而是「谁离真实后果更近」。

什么叫离后果近?就是你的决定一旦出错,后果会直接砸到你身上。你面对客户的时候,客户会冲你发火,不是冲模型发火。你签字的时候,法律责任落在你头上,不是落在工作流头上。你拍板的时候,资源会按照你的判断分配,分配错了,损失是真实的。

相反,那些离后果很远的位置——只负责转述、整理、包装、初步分析、做标准化表达——看起来体面、专业、高智力,但它们不承担后果。它们是组织中的「认知缓冲层」。过去这层缓冲有价值,因为能稳定处理符号的人本来就稀缺。但当大模型打进来之后,这层缓冲会首先被挤压。

AI 最先掏空的,不是底层,而是中层那些「没有切肤之痛的符号处理者」。

一个在工地上协调资源、处理突发的人,可能比一个在办公室里写报告的人更安全。不是因为前者更聪明,而是因为前者每天都在和真实后果打交道。他的产出一旦出错,后果是即时的、可见的、无法用漂亮的 PPT 糊过去的。

这就是为什么我反复强调:衡量一个位置的稳固程度,不要看它的技能复杂度,要看它离真实后果有多近。

AI 正在把认知劳动变成资本品——这意味着什么?

让我把分析再推深一层。

AI 对社会的冲击不只是「提高生产率」。更深的变化是:它正在把一部分原本只能由人在现场完成的认知劳动,转化为可以被复制、部署、叠加和扩张的资本品

过去,一个文案写稿、一个程序员写代码、一个分析师做汇报,这些事情强烈依赖个人此刻此地的脑力投入。你可以雇人,但无法把他的能力从人身上完整剥离出来。人的能力和人的时间绑定在一起,这就是劳动的基本形态。

AI 改变了这件事。模型、提示词、工作流、知识库一旦搭建完成,一部分认知产出就不再依赖「某个人此刻坐在这里动脑」,而开始表现出资本的特征——可复制、可规模化、边际成本递减。

这就像工业革命时体力劳动被机械化。只不过这次被资本化的是认知能力。过去属于人的「会想、会写、会拼接、会总结」的能力,正在以系统的形式被沉淀下来。

后果是什么?不是所有人立刻失业,而是大量依赖出售脑力时间的人,议价能力逐步下降。 以前是「你必须雇这个人来做」,以后是「这个人只要负责监督和修正系统输出即可」。很多人的身份会从「生产者」悄悄变成「校对者」「审核员」「兜底人」。

能力 ≠ 议价权。这是一条铁律。

在旧世界,人们信奉一条朴素逻辑:只要我足够能干,我就应该获得更好的位置。

这条逻辑正在失效。

能力和议价权正在脱钩。 如果你的能力只是高质量地完成别人定义好的局部任务,那你的强大可能只是让你成为一个更高性能、更值得压榨的模块。只要这个模块的输入输出足够清晰,系统就总会尝试替换它、自动化它、或者用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些能沉淀为结构的能力。什么叫沉淀为结构?是你不仅会做一件事,而且能决定这件事应该怎么被做、用什么标准验收、出问题由谁接手、哪些风险必须提前被纳入。

只有当你的能力变成了标准、流程、接口、规则、信任和组织依赖的协调机制时,它才不再只是「你能干」,而会变成「系统离不开你这个位置」。

模块可以被替换。节点不行。

模块的特征是清楚的:输入明确,输出明确,拿掉之后系统损失一点产能,但很快能补上。节点则不同:节点连接多个环节、理解上下文、影响资源流向、协调不同目标、传递信任、承担后果。拿掉一个真正的节点,损失的不只是产量——判断、协同、记忆和组织摩擦成本会一起上升。

AI 会把大量模块级能力变便宜,但它反而会放大节点的价值。当执行越来越廉价时,能整合执行的人就更稀缺;当生成越来越容易时,能验证、约束和组织生成的人就更重要。

当执行变便宜,定义问题的人会越来越贵

价值正在向上游流动。上游在哪里?在定义问题、确定目标、划定边界、设定指标、决定优先级的地方。

AI 擅长在目标给定后快速展开。但什么才是正确的目标?哪些指标值得优化?哪些指标会制造错觉?这个项目应该追求短期增长还是长期留存?这些不是技术问题,而是判断问题。

AI 只能在既定目标函数内狂奔。真正影响组织命运的,往往是目标函数本身。

很多人把「定义问题」误解成开会、画 PPT、说空话。错了。定义问题是最难、最稀缺、也最容易被低估的劳动。因为定义不像执行那样能直接产出成品,却决定了系统是在正确方向上高速前进,还是在错误方向上高效坠毁。

AI 越强,定义能力就越像操盘权,而不是辅助能力。

人越来越贵的地方:约束、责任和承诺

模型天然倾向于优化目标函数。给它一个方向,它就会沿着那个方向尽可能推进。但现实社会不是单目标优化机器。任何真正重要的事情,都充满了边界和代价:不能为了效率牺牲安全,不能为了增长破坏信任,不能为了速度无视法律。

这就需要一种和「生成」完全不同的能力——约束能力。约束不是保守,不是拖后腿。约束是知道目标之外还有后果,知道指标之外还有现实,知道局部最优可能毁掉整体。

约束之所以贵,根本原因在于它背后连接着责任。系统出错时,不是模型去面对客户,不是工作流去承担信誉损失。最终总要有一个人站出来说:这件事我们负责。这种负责不只是道德姿态,它是社会协作的基础。别人愿意把资源和信任交给你,是因为他们相信一旦出了问题,系统里有可以追索的主体。

AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。 这是技术与治理之间最核心的鸿沟。

主体性危机:比失业更深的伤害

人们担心失业,这是最直接的恐惧。但更深的危机是主体性的丧失。

什么是主体性?就是你能感到「我在做的事和我是谁有关」「我不是在执行,我在判断、选择、承担」「这个结果里有我的意志」。

当 AI 吞掉了工作中最能体现能力感和创造感的部分,把人推向审核、校正、兜底的位置时,很多人会感到一种隐秘的空心化:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。你仍然被需要,但被需要的方式不再是「你是创造者」,而是「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说,比简单的失业更难承受。因为它伤害的不只是收入,而是人格和尊严。

一个没有切肤之痛的人会告诉你「这是进步,你应该适应」。但我要说的是:当一个人的工作被剥离到只剩下兜底和签字时,他就不再是一个完整的行动者,而只是一个带有人类签名的安全阀。

结论:不要让自己变成一个高性能模块

让我把话说到最尖锐的地方。

AI 时代真正危险的人,不是能力差的人,而是那些能力不错、工作勤奋、效率很高,却长期只在「别人定义好的目标里」奔跑的人。他们是组织里的优等生——执行力强、配合度高、产出稳定。但他们从来没有训练自己去定义任务、质疑任务、重组任务。

一旦 AI 可以接管越来越多的执行,这些人最容易被重新分类为「监督机器的熟练操作员」。

所以,我的建议极其简单:

不要追求变成一个更快、更精准、更高性能的模块。要追求变成一个离后果更近、能施加约束、敢做出承诺、拿掉之后系统会乱的节点。

不要只问「我能不能干这个活」。要问「我做的东西有没有沉淀成一个别人必须围绕我来组织的结构」。

不要只提高执行速度。要训练自己定义问题、设置边界、承担责任、连接现实、建立信任。

因为 AI 越强,模块越便宜,节点越贵。被机器拿走的也许只是某项技能。但如果你把位置守住——把切肤之痛守住——你就仍然是系统中那个无法被轻易删除的人。

不要让自己变得更像机器那样高效。要让自己成为那个即使机器遍地都是,仍然不可省略的人。

这才是 AI 时代唯一值得信赖的生存策略。其他的都是噪声。