被重新定价的不是劳动,而是人的位置(刘瑜风格)

被重新定价的不是劳动,而是人的位置

——刘瑜风格:不动声色的犀利

一个不太体面的起点

让我们从一个不太体面的话题开始。

有人问:AI 能不能代替游戏工作室里的「搬砖工」?就是那些长时间坐在电脑前,重复点击、刷副本、做任务、倒卖虚拟资源的人。紧接着有人补了一句极其现实的话:在很多场景下,雇一个活人的成本,可能还没有让 AI 来做一样的事贵。

这句话之所以让我停下来想了很久,不是因为它有趣,而是因为它不小心揭开了一个我们很少认真面对的问题:当我们说一个人「便宜」的时候,我们到底在说什么?

我们以为我们在说他的技能简单。但其实我们在说的是:这个人提供的极其复杂的服务,被市场用一种极其粗暴的方式定了一个极低的价。

你以为你在买一双手,其实你在买一整个操作系统

一个坐在电脑前做重复操作的人,表面上看只是在点鼠标。但如果你真的试过把他的工作完全自动化,你会发现一件令人不安的事:你需要做的远比你想象的多。

因为他其实在同时做很多件你没注意到的事情。他在判断界面是否正常,在识别弹窗是预期内的还是异常的,在区分是网络问题还是系统问题,在流程卡住时凭经验尝试各种非标准解决方案,在没有规则手册的情况下自己发明临时规则。

最重要的是,他有一种能力——一种我们极少谈论、也不知道该怎么命名的能力——就是在一切都不太对的情况下,将就着把事情做下去。

这种能力,如果放到技术语言里描述,大概叫「高适应性的通用智能在非标准环境中的鲁棒执行」。听起来很高级。但市场给它的定价,是一个月几千块。

为什么?因为能提供这种服务的人太多了。不是因为这种能力简单,而是因为供给太大。就像空气对生命极其重要,但没人会为一口空气付费——除非你在太空站里。

AI 的出现,正在让我们第一次「看见」这些曾经隐形的能力。因为当你试图用技术替代它们的时候,你会发现成本高得惊人。我们平时看不起一个「只会坐在那里做重复劳动的人」,很大程度上是因为我们把他复杂的认知劳动误读成了简单的动作劳动。

自动化害怕的不是重复,而是例外

有一个关于自动化的流行说法:重复性工作最容易被替代。这句话我只同意一半。

准确地说,被替代掉的通常是那 80% 的标准流程。但决定一个自动化项目成败的,往往是剩下那 20% 的例外。甚至可能只是那 5%。

这就像一个城市 95% 的时间不发洪水,但你不能因此不建防洪堤。那 5% 的异常,可能需要你为它支付巨大的基础设施成本。自动化也一样——你需要为例外配备监控、告警、规则更新、异常恢复、人工介入机制。这些成本平时看不见,可一旦算进去,很多「看上去省人力」的自动化项目最终变成了「一群人专门给机器擦屁股」。

人类在这里的优势非常朴素:他能在例外里凑合着活下去。系统卡了,他会刷新页面试试。流程不通,他会换个路径。报错了,他会等一下再来。没有理论支撑?没关系,先试一个笨办法。

AI 则不一样。AI 在「一切大致正确」的时候表现惊艳,但一旦碰到超出预期的异常链条,它很容易从天才瞬间坠落为灾难。

所以未来更可能的图景不是「AI 把人替掉」,而是「AI 做掉了标准部分,把脏活碎活兜底的活留给人」。人的工作不是消失了,而是变得更无聊、更琐碎——你不再是创造者,而是系统的守夜人。

这就引出一个令人不安的问题:如果 AI 把工作中最有技术感、最有创造感的部分吃掉了,却把最烦最碎的部分留下来,那人的主体性到底是在被解放,还是在被抽空?

AI 最先吃掉的不是底层,而是「格式化的中层」

工业时代给我们留下一个很深的直觉:机器会先替代最底层、最简单的工作,然后慢慢向上爬。

但 AI 时代不完全是这样。因为 AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板、标准化分析。

于是最先感受到巨大冲击的,常常不是体力劳动者,而是大量中层白领:写标准报告的人、整理会议纪要的人、做常规方案的人、完成样板代码的人。他们的薪资之所以曾经不低,不是因为工作本身神秘,而是因为过去「能稳定处理符号的人」比较稀缺。大模型直接打进了这个层面。

打个比方。如果把劳动市场想象成一栋大楼,AI 的冲击波不是从一楼开始往上推的,而是从中间楼层开始向两侧扩散的。那些工作内容高度数字化、输出可以被标准化、远程就能完成的楼层,震感最强。

一个坐在办公室里写报告的人,未必比一个现场处理突发的人更安全。因为前者的劳动更接近纯符号层——而纯符号恰好是 AI 最擅长的领域。后者虽然看起来「不高级」,却始终在和真实后果打交道。

这让人想起一个古老的悖论:那些看起来最高级、最体面的工作,有时反而因为离现实太远而更脆弱。而那些「低端」的、贴近现场的工作,反而因为持续和混乱打交道而更顽强。

认知劳动正在被资本化——这意味着什么?

AI 对劳动市场最深层的冲击还不是替代某个岗位。更深的变化是:它正在把一部分原本只能由人在现场完成的认知劳动,转化为可以被复制和规模化的资本品。

过去,你雇一个人写文案、写代码、做分析,你买的是他此刻此地的脑力。你无法把能力从人身上剥离出来。能力和时间绑定,这是劳动的基本形态。

AI 改变了这一点。模型、工作流、知识库一旦搭好,一部分产出就不再依赖「某个人此刻在动脑」,而开始像资本一样运作——可复制、可规模化、边际成本递减。

后果是什么?不是所有人立刻失业。而是大量依赖出售脑力时间的人,议价能力逐步下降。很多人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。以前是「你必须雇这个人来做」,以后是「这个人只需要负责检查系统输出就行」。

能力不等于议价权——这是一条正在硬化的规律

在旧世界里,有一条朴素逻辑:只要我足够能干,我就应该获得更好的回报。

这条逻辑正在出现裂缝。

如果你的能力只是高质量地完成别人定义好的任务,那你的强大可能只是让你成为一个更好用的零件。只要这个零件的输入输出足够清晰,系统就总会尝试用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些沉淀成了结构的能力——你不仅会做一件事,而且能决定这件事怎么做、用什么标准验收、出问题由谁负责。只有当你的能力变成了标准、流程、信任和组织依赖的协调机制时,你才不只是「能干」,而是「不可省略」。

这就是模块和节点的区别。模块拿掉后系统损失一点产能但很快能补上。节点拿掉后,目标理解、跨环节协调、风险判断和责任承担会一起消失。

AI 会把大量模块级能力变便宜,但反而会放大节点的价值。

执行变便宜之后,谁会变贵?

当执行成本在下降时,价值会向上游流动。上游在哪里?在定义问题、确定目标、划定边界的地方。

AI 擅长在目标给定后快速展开。但什么是正确的目标?哪些指标值得优化?哪些指标在制造错觉?这不是技术问题,是判断问题。

同时,人越来越贵的地方不在于产出,而在于约束和责任。模型天然倾向于沿着目标函数全力冲刺,但现实世界充满了「你不能因为追求 X 就牺牲 Y」的约束。知道什么时候必须停下来、什么风险绝不能冒、什么漂亮的数据不能信——这些约束能力背后连接的是责任。系统出错时,不是模型去面对客户,最终总要有人站出来说「这件事我们负责」。

AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。

比失业更深的东西:主体性危机

人们当然会担心失业。但更深的危机是主体性的丧失。

什么是主体性?就是你能感到「我做的事和我是谁有关」「我不只是在执行,我在判断、选择、承担」「这个结果里有我的意志和署名」。

现代人很大程度上是通过工作来定义自己的。「我是程序员」「我是设计师」「我是分析师」——这些不只是职业标签,也是身份标签。当 AI 把工作中最能体现能力感和创造感的部分吞掉后,很多人会发现:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。你仍然被需要,但被需要的方式从「你是创造者」变成了「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说,可能比简单的失业更难承受。因为它伤害的不只是收入,而是人格和尊严。

AI 的悖论就在这里:它一方面能提高效率、释放时间,另一方面却可能在心理层面把人从「行动者」推向「监督者」,从「作者」推向「审稿人」。

最危险的不是没有能力,而是长期住在别人写好的目标函数里

最后让我说一个我觉得最重要的判断。

AI 时代真正危险的人,不是能力差的人,而是那些能力不错、工作勤奋,却长期只在「别人定义好的目标里」奔跑的人。

他们过去是组织中的优等生——执行力强、配合度高、产出稳定。但他们很少训练自己去定义任务、质疑任务、重组任务。一旦 AI 接管了越来越多的执行,他们最容易被重新分类为「监督机器的熟练操作员」。

所以真正需要保护的,不只是你的岗位,更是你对目标的参与权、对标准的影响力、对后果的感受能力,以及你为某件事署名的勇气。只有这些东西还在,你才不是一个被系统临时调用的模块。

AI 时代最值得反复追问的不是「我还能不能干这个活」,而是「我正在把自己训练成什么样的人」。如果你只是在让自己更快、更熟练、更像一个高性能模块,你也许会在短期内很受欢迎,却在长期里越来越危险。

但如果你在训练自己理解整体、定义问题、设置边界、承担责任,那么 AI 越强,你的位置反而越稳。

被重新定价的不只是劳动。被重新定价的是人在世界中的位置。

而你的位置,从来不是由你的能力决定的——它是由你和后果之间的距离决定的。