被重新定价的不是劳动,而是人的位置(罗翔风格)

被重新定价的不是劳动,而是人的位置

——罗翔风格:法理与伦理的双重拷问

一、张三的新工作

我们来说一个假设性的案例。

张三,一个在网上讨论区总是承担各种角色的普通人,最近找到了一份工作。他的工作内容是:坐在电脑前,在一款网络游戏里反复执行特定操作——刷副本、打怪、搬运虚拟资源——然后把这些资源交给老板去出售。行话叫「搬砖」。

这份工作的薪资很低。一个月几千块钱。

有人问:AI 已经能看屏幕、理解界面、控制鼠标了,张三这份工作是不是很快就会被 AI 替代?

有人回答:不一定。因为雇张三坐在那里,可能比让 AI 来做同样的事还便宜。

这句话乍听像玩笑,但它击中了一个非常严肃的问题:当一个人的价格比一台机器还低的时候,这个社会对「人」的定价标准出了什么问题?

这不只是一个经济学问题。它是一个法理学和伦理学问题。

二、你以为你在雇一双手,其实你在雇一整个人

让我们仔细看看张三到底在做什么。

表面上,他在做重复的点击操作。但如果你坐在他旁边观察——不是看数据报表,而是像人类学家那样观察他一天的工作——你会发现他其实在同时做很多件事情。

他在判断界面是否正常。他在识别弹窗是系统异常还是预期内的行为。他在区分是网络问题还是系统本身的问题。他在流程卡住时凭经验尝试各种非标准解决方案。他在没有任何人给他写规则手册的情况下,自己发明临时规则来应对不断变化的状况。

最重要的是——他有一种在一切都不太对劲的情况下,将就着把事情做下去的能力。

这种能力如果放到技术语言里,每一条都构成一个独立的工程挑战。但市场对张三的定价方式不是「你提供了多复杂的认知服务」,而是「你愿意接受多低的工资」。

换言之,张三出售的不是动作,而是一整套被严重低估的通用智能。他之所以便宜,不是因为他简单,而是因为愿意做这份工作的人太多了。

法律里有一个概念叫「显失公平」——当一方利用对方的弱势地位订立了明显不公正的合同时,该合同可以被撤销。如果我们把「显失公平」的逻辑从合同法扩展到整个劳动定价体系,会看到什么?

会看到整个社会对大量劳动者的定价,结构性地处于「显失公平」的状态。不是因为他们提供的服务不值钱,而是因为供给过于充裕——当几亿人需要工作的时候,即使是相当复杂的认知劳动,也可以被压到一个不体面的价格。

三、自动化的「尾部风险」

有人说:重复性工作最容易被自动化。张三迟早会被替代的。

这话听起来合理,但经不起细究。

一个场景即使 95% 的时间在按预期运行,也不代表它适合完全自动化。因为那 5% 的异常,往往才是决定系统成败的关键。你需要为异常配备监控、告警、规则更新、异常恢复、人工介入机制——这些隐形成本平时不显眼,可一旦算进去,很多「省人力」的自动化项目反而变成了更大的负担。

法律上我们有一个概念叫「注意义务」。开车的人有义务预见可能出现的危险。设计系统的人也一样——你不能只为 95% 的常规情况设计,然后把 5% 的异常留给命运。而人类劳动者天然地承担了这种注意义务——他会刷新页面试试,会换个路径,会停一停再来,会在没有理论支撑的情况下凭直觉找到临时方案。

人类的优势不在于比机器更快,而在于能在例外中活下去。 AI 在「一切大致正确」的时候表现惊艳,一旦碰到超出预期的异常链条,可能从天才坠落为灾难。

未来更可能的图景不是 AI 把人替掉,而是 AI 做掉了标准部分,把例外处理——也就是最琐碎、最烦、最没成就感的部分——留给人。于是人的工作不是消失了,而是从「创造者」变成了「守夜人」。

四、AI 先吃掉的不是底层

现在说到一个非常反直觉的事情。

我们习惯性地认为技术进步会先替代最底层的工作。但 AI 不完全遵循这个逻辑。

AI 最强的领域不是体力劳动,而是符号处理——语言、文本、代码、表格、模板。于是最先承压的不是在现场搬东西的人,而是大量中层白领:写标准报告的人、整理纪要的人、做常规方案的人、完成样板代码的人。

他们的薪资之所以不低,不是因为工作本身神秘,而是因为过去「能稳定处理符号的人」相对稀缺。大模型直接进入了这个层面。

这就出现了一个在刑法课堂上我经常说到的问题:你以为最安全的地方,恰恰可能是最危险的。 就像一栋楼里,住在中间楼层的人以为自己最安稳——高处的风险在楼顶,低处的风险在地面。但地震来了,中间楼层往往最先被夹扁。

AI 的冲击波就像一场地震。它不是从一楼往上推的,而是从中间楼层开始向两侧扩散的。那些高度数字化、可标准化、离真实后果较远的工作——恰好是受过教育的中产阶级最集中的楼层——会比很多贴近现场的工作更早承压。

五、认知劳动的资本化:一个法理学隐喻

AI 正在做一件比替代岗位更深刻的事情:它在把认知劳动转化为资本品。

过去,你雇一个人写东西、写代码、做分析,你买的是他此刻此地的脑力。能力和时间绑定在一起。这就是劳动关系的基本形态——法律上,劳动合同保护的正是这种「人不可剥离」的属性。

但模型、工作流、知识库搭好之后,一部分认知产出不再依赖某个人此刻在动脑。它开始像资本一样运作——可复制、可规模化、边际成本递减。

用法律语言来说,这就像你的劳动成果被「物化」了——它不再和你这个人绑定在一起,而变成了一种可以被交易的资产。劳动法的基础假设是「劳动不可囤积」——你今天工作了八小时,这八小时过去了就过去了。但如果你的认知产出可以被模型吸收、复制和规模化,那劳动和时间的绑定关系就被松动了。

后果是什么?大量人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。以前是「你必须雇这个人来做」,以后是「系统已经做了大部分,你只需要负责检查一下」。

六、能力不等于权利——一个古老的法理教训

在法理学中,有一条经常被讨论的原则:能力(capacity)不等于权利(right)。

你有做某件事的能力,不代表你拥有相应的权利。反过来,你拥有一项权利,也不一定意味着你有行使它的实际能力。

把这个原则搬到 AI 时代的劳动分析中,你会发现一个非常尖锐的现实:

能力和议价权正在脱钩。如果你的能力只是高质量地完成别人定义好的任务,你的强大可能只是让你成为一个更好用的工具。只要你的输入输出足够清晰,系统就总会尝试用更便宜的方式复制你。

真正能转化为议价权的,不是孤立的能力,而是那些沉淀成了结构的能力。你不仅会做一件事,而且能决定这件事应该怎么做、用什么标准验收、出问题由谁接手。只有当你的能力变成了标准、流程、接口和信任机制时,你才不只是「能干」,而是「不可省略」。

模块可以被替换。节点不行。

模块拿掉后系统损失一点产能但很快能补上。节点拿掉后,目标理解、跨环节协调、风险判断和责任承担会一起消失。

七、约束、责任与承诺——法律精神的核心

在一个执行变得廉价的时代,什么会变贵?

我的答案是:约束、责任和承诺。

这三个概念,恰好也是法律精神的核心。

约束——法律的本质功能之一是约束。不是不让你做事,而是让你知道边界在哪里。AI 天然倾向于优化目标函数——给它一个方向,它就全力冲刺。但现实社会不是单目标优化机器。不能为了效率牺牲安全,不能为了增长破坏信任。知道什么不该做,有时候比知道什么该做更重要。

责任——系统出错时,不是模型去法庭。最终总要有一个人站在那里接受追问:为什么做了这个决定?依据是什么?有没有尽到注意义务?这种责任不是可以外包给算法的。

承诺——社会协作的基础是承诺。别人把资源和信任交给你,是因为他们相信一旦出了问题,系统里有可以追索的主体。AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。

在法学中,我们讨论一个概念叫「法律主体」。什么是法律主体?就是能独立承担权利和义务的实体。一个 AI 模型不是法律主体——它不能签合同,不能被起诉,不能为后果负责。因此,在任何涉及法律后果的场景中,必须有一个人站在那里。这个位置是机器无法占据的。

AI 越强大,这个「必须有人站在那里」的位置就越值钱。

八、主体性危机:人格尊严问题

人们担心失业。但更深层的问题是主体性的丧失。

什么是主体性?在法理学中,主体性意味着一个人不只是客体——不只是被作用于、被使用、被管理的对象——而是一个有意志、有判断、有责任能力的行动者。

康德说过一句经常被引用的话:不要把人仅仅当作手段,而要同时当作目的。

当 AI 把工作中最有创造感的部分吞掉,把人推向审核和兜底的位置时,人是否正在从「目的」退化为「手段」?你还在工作,但越来越像在替系统看守边界。你还在产出,但产出不再从你这里生发。你被需要的方式不再是「你是创造者」,而是「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说比失业更难承受。因为它伤害的不只是收入,而是人格尊严——一种「我是我所做之事」的自我认同。

在刑法中,我们保护的最高法益之一是「人的尊严」。尊严不只是不被打骂、不被侮辱。尊严也包括一个人有权感到自己的劳动是有意义的、自己在世界中是作为主体而非工具而存在的。

如果 AI 让越来越多的人在工作中丧失这种主体感,那这不只是效率问题,也不只是分配问题——它是一个关乎人的根本地位的文明问题。

九、结语:不要做一个高性能的客体

最后,让我回到张三。

张三最大的风险不是他能力差。他的风险是:他长期只在别人定义好的目标里奔跑,从来没有训练自己去定义目标、质疑目标、设置边界、承担方向。他是一个优秀的执行者——高效、听话、稳定——但他从来不是决策者。

一旦 AI 可以接管越来越多的执行,张三最容易被重新分类为「监督机器的熟练操作员」。

所以我想说的是:

不要追求成为一个更快、更精准、更高性能的客体。要追求成为一个主体——一个能定义问题、施加约束、做出承诺、承担后果的人。

在法律的视角里,一个人的价值不在于他能产出多少,而在于他能承担多少。能承担意味着能独立判断、能为后果负责、能在关键时刻说「这件事我负责」。

AI 可以让你的手变长,让你的脑变快。但它无法替你站在后果面前。它无法替你承担。它无法替你做一个人。

所以最终的问题不是「AI 能不能替代我的工作」。问题是:在 AI 铺天盖地的时代里,你还能不能守住作为一个「主体」的位置?

你是在替系统打工,还是在驾驭系统做事?你是一个高性能的零件,还是一个有意志、有边界、有承诺的人?

被重新定价的,从来不是劳动。被重新定价的,是人。

而人的价值,最终只有人自己能证明。