被重新定价的不是劳动,而是人的位置
——项飙风格:田野视角,冷静诊断
一、一个值得停下来看的场景
我想从一个很具体的场景说起。
在中国的某些城市,存在大量被称为「游戏工作室」的地方。一群年轻人——通常教育程度不高,来自农村或小城镇——坐在拥挤的房间里,面对电脑屏幕,长时间重复地做同一件事:在游戏里刷副本、打怪、搬运虚拟资源,然后把这些资源出售给付费玩家。
这种工作被称为「搬砖」。它在大多数人眼里是不值得认真看的——低端、重复、没有技术含量。
但最近有人提了一个问题:AI 已经能看屏幕、理解界面、控制鼠标了,这些搬砖的人是不是很快就会被替代?紧接着有人指出:在很多情况下,雇一个活人来做这件事,比让 AI 来做还便宜。
这个事实让我停下来想了很久。不是因为它关于游戏行业,而是因为它揭示了一个关于劳动定价的根本性问题。
二、被低估的不是技能,而是整个人
如果你真的到一个游戏工作室去做田野观察——像人类学家那样,坐在旁边看这些人到底在做什么——你会发现一些和你预期不同的东西。
表面上他们在做重复操作。但实际上,他们每时每刻都在进行大量微观判断。他们在判断界面是否正常,在识别弹窗是预期内的还是异常的,在区分网络问题和系统问题。他们在流程卡住时会凭经验尝试各种非标准方案——刷新、切换、重启、等一等再试。他们在没有任何人给他们写规则手册的情况下,自己发明临时规则来应对不断变化的环境。
最重要的是,他们有一种在一切都不太对劲的条件下将就着把事情做下去的能力。
这种能力没有名字。没有证书能认证它。没有学校教授它。但它存在于每一个所谓「低端工人」的日常劳动中。
市场对这种能力的定价方式不是「你提供了多复杂的服务」,而是「你愿意接受多低的工资」。这不是因为能力本身简单,而是因为能提供这种能力的人太多了——在一个有大量剩余劳动力的社会里,即便是相当复杂的认知劳动,也可以被压到很低的价格。
他们卖的不是手的动作。他们卖的是被长期压价的通用智能。
这个判断在 AI 到来之后变得格外清晰。因为当你试图用技术替代这些工作时,你会发现成本高得惊人。每一个你以为「简单」的步骤,一旦被拆散后用工程方式实现,都需要大量投入。这说明这些能力本来就不简单——它们只是被长期低估了。
三、例外才是真正昂贵的东西
人们常说重复性工作最容易被自动化。这种说法的问题在于它只看到了流程的主干,而忽视了枝节。
我观察过很多自动化项目的实际运行——不是在宣传材料里看到的那种,而是在现场看到的。一个共同的模式是:系统在大部分时间里确实比人快、比人稳定。但每隔一段时间就会出现一次异常。而这个异常,通常需要人来处理。
问题在于,这些异常处理的成本往往被严重低估。你需要监控系统来发现异常,需要告警机制来通知人,需要人来判断异常的性质,需要做决定——是重启、绕过还是上报——然后还需要事后复盘和规则更新。这一整套成本加起来,有时候比让人直接做整个流程还贵。
人类劳动力在这里的优势很朴素:他能在混乱中凑合着活下去。 系统卡了,他刷新一下。流程不通,他换条路。报错了,他等一会儿。没有理论支撑?先试个笨办法。人不总是最优的,但人常常是最能「糊过去」的。
这种「糊过去」的能力在精确主义的技术叙事中不被重视,但在真实世界里价值极高。因为真实世界本来就不是精确的——它充满了没有被文档化的规则、没有被预见的异常、和没有正确答案的灰色地带。
四、AI 先吃掉的不是底层
工业时代的经验告诉我们,机器先替代最底层的工作。但如果你仔细观察 AI 的扩散路径,会发现一个不太一样的模式。
AI 最强的地方不是替代手,而是侵入符号系统——语言、文本、代码、表格、模板。于是最先承压的不是体力劳动者,而是大量中层白领:写标准报告的人,做常规方案的人,整理纪要的人,完成样板代码的人。
这些工作的薪资之所以曾经不低,不是因为它们本质上神秘,而是因为在过去,「能稳定处理符号的人」相对稀缺。教育体系花了大量资源筛选和培养这类人。而大模型直接进入了这个层面,绕过了教育筛选。
从结构上看,AI 的冲击不是由下往上的,而是从中间向两侧扩散的。那些高度数字化、可远程传输、输出能被标准化的岗位——恰恰是受过教育的中间阶层最集中的地方——会比很多贴近现场的工作更早承压。
我在调查中注意到一个有意思的现象:一些在现场做协调工作的人——他们的工作内容很难被数字化,因为他们面对的是真实的人、真实的冲突、真实的意外——反而对 AI 的焦虑感比较低。而那些在办公室里主要和电脑打交道的人,焦虑感反而更强。
这不是因为前者更乐观,而是因为他们的工作离真实后果更近。而离后果越近的位置,越难被符号化,也就越难被 AI 接管。
五、认知劳动的资本化
AI 正在做一件比替代岗位更根本的事情:把认知劳动转化为资本品。
过去,一个人写东西、写代码、做分析,这些事强烈依赖个人此刻此地的脑力投入。你可以雇人,但你无法把能力从人身上完整剥离出来。能力和时间绑定在一起。
模型和工作流搭建好之后,一部分认知产出就不再依赖某个人此刻在动脑。它开始表现出资本的特征——可复制、可规模化、边际成本递减。组织不再只是购买个体的劳动时间,而是越来越多地购买「经过工程化包装的认知产能」。
后果是什么?大量人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。不是因为他们变弱了,而是因为他们的核心能力正在从「只有他能做」变成「系统也能做,只需要他检查一下」。
这种变化对劳动者的主观体验有深刻的影响。我在访谈中经常听到一种说法:「我还在工作,但感觉不到自己在创造什么了。」这种感受不是矫情,它反映的是一种结构性的位置变化。
六、模块与节点
如果要理解 AI 时代的劳动分化,我觉得有一组概念特别有用:模块和节点。
模块的特征是清楚的:输入明确,输出明确,只负责流程中一小段,拿掉后可以快速补上。模块越高效反而越容易被比较和替换。
节点则不同。节点连接多个环节,理解上下文,影响资源流向,协调不同目标,传递信任,承担后果。拿掉一个节点,损失的不只是产量——判断、协同、组织记忆会一起消失。
在我的观察中,很多勤奋、专业、好用的人,恰恰是典型的模块。他们执行力强,配合度高,产出稳定。但他们始终站在价值链中段——只负责输出,不负责定义,不掌握约束,不承担方向。一旦系统找到更低成本的产出方式,他们最容易被压价。
这种分化不是能力的分化,而是位置的分化。你和后果之间的距离,比你的技能水平更重要地决定了你的议价权。
七、约束和责任
在一个执行变得越来越廉价的时代,什么会变贵?
我注意到一个模式:在很多组织里,真正难以替代的人,往往不是做得最多的人,而是那些在关键节点上能做出判断和承诺的人。他们知道什么不该做,知道什么风险不能冒,知道什么看似漂亮的数据不能信。
约束能力之所以贵,是因为它背后连接着责任。系统出错时,不是模型去面对客户。最终总要有人站出来说「这件事我们负责」。这种负责不只是姿态,它是社会协作的基础。
AI 可以扩张执行能力,但无法替代社会意义上的承诺能力。
八、主体性的问题
人们担心失业,这是最直接的恐惧。但我在访谈中发现,对很多知识工作者来说,更深层的恐惧不是没有工作,而是在工作中失去主体感。
当 AI 吞掉了工作中最有创造感的部分,把人推向审核和兜底的位置时,很多人感到一种隐秘的空心化。你还在工作,但越来越像在替系统看守边界。你还在产出,但产出不再从你这里生发。你被需要的方式变了——从「你是创造者」变成了「你是最后一道保险」。
这种体验不只是个人心理问题。它关系到一个更大的社会问题:当越来越多的人在工作中感到自己只是一个「带有人类签名的安全阀」时,人们对工作、对组织、对社会的归属感和投入度都会受到侵蚀。
九、不应被简化的结论
最后我想做一个冷静的总结。
AI 时代最重要的变化,不是某些工作被替代,而是人在系统中的位置被重新定价。
那些看似低端的工作,复杂性可能被长期低估。那些看似高端的工作,可能因为过度格式化而更脆弱。很多人担心的是技能过时,但真正被动摇的是位置——你是提供产能的模块,还是给系统赋予方向、施加约束、承担信任的节点?
但我也想指出,这个问题不应被简化为个体的「自我升级」。
个体当然应该思考自己的位置。但更需要追问的是:是什么样的组织逻辑让大量人被长期固定在模块的位置上?是什么样的管理方式让人只能做执行而无法参与定义?是什么样的劳动关系让一个人的通用智能可以被如此廉价地购买?
AI 暴露出的问题,很多不是 AI 造成的。它只是让那些被长期压抑的结构性不公正变得更加可见了。
一个喝水 App 不能解决让人忘记喝水的工作制度问题。同样,个体的位置升级也不能解决让大量人被困在模块位置上的系统性问题。
这些更大的问题,值得我们在谈论 AI 的时候一并追问。