被重新定价的不是劳动,而是人的位置
——Paul Graham 风格:小切口,大纵深
有人在网上问了一个很接地气的问题:既然 AI 已经能看屏幕、理解界面、控制鼠标了,那游戏工作室那种「搬砖」模式,以后是不是可以全让 AI 来?紧接着有人补了一句更接地气的:很多时候,雇一个愿意坐在电脑前重复操作的人,比烧 AI 的算力还便宜。
这句话听起来像玩笑,但我越想越觉得它触碰到了 AI 时代最深的问题。
⸻
先说一个容易被忽视的事实:那些坐在电脑前做重复操作的人,他们卖的其实不是「手」。
表面上看,他们只是在点鼠标、切窗口、按流程执行。但如果你真的试过把这件事完全自动化,你会发现情况远比想象中复杂。因为一个人坐在那里,他其实在同时做很多件事:判断界面是不是正常,识别弹窗是异常还是预期内的,区分网络问题和系统问题,在流程卡住时凭经验尝试各种方案,在没有任何规则手册的情况下自己发明临时规则。
最重要的是,他有一种在不完美的现实里将就着把事情做下去的能力。系统卡了?刷新一下。流程不通?换个路径试试。莫名其妙报错?等一会儿再来。这些行为在效率评估里看起来很笨,但在真实世界里,「能糊过去」本身就是极高价值的能力。
所以那些看起来「低端」的劳动力,实际上是在极低价格上出售一种高适应性的通用智能。市场对他们的计价方式不是按照「你提供了多复杂的认知服务」来估值,而是按照「你愿意接受多低的工资」来出价。这就是为什么,在很多场景下,最先进的 AI 反而不一定比最便宜的人力更划算——不是 AI 不聪明,而是人类那种混杂着常识、经验、模糊判断和临场应变的能力,一旦被拆散后逐个用技术实现,成本远高于我们对它的直觉估计。
⸻
这又引出了第二个问题:自动化到底怕什么?
人们总说重复性工作最容易被自动化。这只说对了一半。真正决定自动化成败的,往往不是那 80% 的重复,而是剩下那 20% 的例外。一个场景即使 95% 的时间在顺利运行,只要那 5% 的异常足够复杂,系统就必须为它支付大量隐形成本:监控、告警、规则更新、异常恢复、人工介入。这些成本平时不显眼,可一旦算进去,很多「看上去很省人力」的自动化项目最终变成了「一群人盯着机器干活,专门给机器擦屁股」。
人类在这里的优势不是效率更高,而是能在例外里活下去。一个系统卡住了,人会顺手尝试各种办法——这些办法可能没有理论支撑,但往往能解决问题。AI 则不同:它在情况大致正确的时候表现惊艳,一旦碰到不在预期内的异常链条,就很容易从「看起来聪明」迅速坠落成「让人头皮发麻」。
所以未来更可能的图景不是「AI 把人替掉」,而是「AI 做掉了标准部分,把例外处理留给人」。人的工作不会消失,但会发生「监督化」「兜底化」「审核化」——你不再亲自做每一步,但必须始终在场,作为系统背后的守夜人。
⸻
现在说到真正让我觉得有意思的部分。
如果 AI 的冲击是按照上面这个模式展开的,那它最先冲击的是谁?
很多人的直觉是:最先被冲击的应该是最底层、最简单、最重复的工作。但事实可能恰好相反。
AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板、流程说明。于是最先感受到巨大冲击的,常常不是那些最体力化的工作,而是大量中层、体面、受过教育、长期处理符号的白领岗位。写标准报告、整理会议纪要、生成初稿、制作常规方案、完成样板代码——这些工作的薪资之所以曾经不低,很大程度上不是因为它们本质上神秘,而是因为过去「能稳定处理符号的人」本来就稀缺。大模型直接打进了这个层面。
这意味着 AI 的冲击不是「由下往上」的,而更像是「由中间向两边扩散」。那些工作内容高度数字化、输出能被拆解成标准输入输出的岗位,会比很多贴近现实现场的工作更早承压。
一个坐在办公室里写报告的人,未必比一个现场协调突发的人更安全。因为前者的劳动更接近纯符号层,后者始终在和现实接口打交道。
⸻
再往深一层看,会发现 AI 正在做一件更根本的事:它在把认知劳动变成资本品。
过去,一个人写文案、写代码、做分析,这些事强烈依赖个人此刻此地的脑力投入。你可以雇人,但无法把能力从人身上完整剥离出来。人的能力和人的时间绑定在一起。
AI 改变了这件事。模型、提示词、工作流、知识库一旦搭好,一部分认知产出就不再依赖「某个人此刻坐在这里动脑」,而开始表现出资本的特征——可复制、可规模化、边际成本递减。
这很像工业革命把体力劳动机械化。只不过这次被资本化的是认知能力。后果不是所有人立刻失业,而是大量依赖出售脑力时间的人,议价能力逐步下降。很多人的身份会从「生产者」悄悄变成「校对者」「审核员」「兜底人」。
⸻
这就引出了一个我觉得非常重要的判断:在 AI 时代,能力和议价权正在脱钩。
过去大家相信一个朴素的逻辑:只要我足够能干,我就应该获得更好的位置。这条逻辑正在松动。
如果你的能力只是高质量地完成别人定义好的任务,那你的强大可能只是让你成为一个更高性能的模块。只要这个模块的输入输出足够清晰,系统总会尝试替换它、自动化它、或者用更便宜的方式复制它。
真正能转化为议价权的,不是孤立的能力,而是那些能沉淀为结构的能力——你不仅会做一件事,而且能决定这件事应该怎么被做、用什么标准验收、出问题由谁接手、哪些风险必须提前纳入。只有当你的能力变成了标准、流程、接口、信任和组织依赖的协调机制时,它才不再只是「你能干」,而会变成「系统离不开你」。
这就是模块和节点的区别。模块拿掉后系统损失一点产能,但很快能补上。节点拿掉后,连目标理解、跨环节协调、风险判断和责任承担也一起消失。AI 会把大量模块级能力变便宜,但它反而会放大节点的价值。
⸻
如果执行在变便宜,那价值一定会向上游流动。上游在哪里?在定义问题、确定目标、划定边界的地方。
AI 非常擅长在目标已给定的情况下快速展开。但什么才是正确的目标?哪些指标值得优化,哪些会制造错觉?这类问题不是技术展开问题,而是判断问题。AI 只能在既定目标函数内狂奔,真正影响命运的往往是目标函数本身。
同样,人越来越贵的地方不在于产出,而在于约束和责任。模型天然倾向于优化单一目标,但现实充满了边界和代价。知道什么时候必须停下来复核、什么风险绝不能冒、什么看似漂亮的数据不能信——这些约束能力背后连接的是责任。系统出错的时候,最终总要有人站出来说「这件事我们负责」。AI 可以扩张执行能力,但无法替代社会意义上的承诺能力。
⸻
说到最后,我觉得 AI 引发的最深层危机不是失业,而是主体性。
当越来越多的工作被拆成可替换的模块后,人可能会逐渐失去一种更根本的东西:我在做的事和我是谁有关。我不是在执行,我在判断、选择、承担。这个结果里有我的意志。
当 AI 吞掉了工作中最能体现创造感的部分,把人推向审核和兜底的位置时,很多人会感到一种空心化:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。
所以 AI 时代最值得追问的不是「我还能不能干这个活」,而是「我正在把自己训练成什么样的人」。如果你只是在让自己更快、更熟练、更像一个高性能模块,你可能短期很受欢迎,长期却越来越危险。但如果你在训练自己理解整体、定义问题、设置边界、承担责任、连接现实、建立信任,那么 AI 越强,你的位置反而越稳。
归根结底,被重新定价的不只是劳动,而是人在系统中的位置。你是一个容易被替换的执行模块,还是一个拿掉后系统会乱的关键节点?你是在卖可拆分的劳动切片,还是在积累判断权、约束力和责任承载力?
这些问题,比「AI 会不会抢走工作」重要得多。
不要只想着如何让自己更像机器那样高效。要想清楚,怎样让自己成为那个即使机器遍地都是,仍然不可省略的人。