思考笔记

李文业的思考笔记


  • 首页

  • 关于

  • 分类

  • 归档

被重新定价的不是劳动,而是人的位置(刘瑜风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——刘瑜风格:不动声色的犀利

一个不太体面的起点

让我们从一个不太体面的话题开始。

有人问:AI 能不能代替游戏工作室里的「搬砖工」?就是那些长时间坐在电脑前,重复点击、刷副本、做任务、倒卖虚拟资源的人。紧接着有人补了一句极其现实的话:在很多场景下,雇一个活人的成本,可能还没有让 AI 来做一样的事贵。

这句话之所以让我停下来想了很久,不是因为它有趣,而是因为它不小心揭开了一个我们很少认真面对的问题:当我们说一个人「便宜」的时候,我们到底在说什么?

我们以为我们在说他的技能简单。但其实我们在说的是:这个人提供的极其复杂的服务,被市场用一种极其粗暴的方式定了一个极低的价。

你以为你在买一双手,其实你在买一整个操作系统

一个坐在电脑前做重复操作的人,表面上看只是在点鼠标。但如果你真的试过把他的工作完全自动化,你会发现一件令人不安的事:你需要做的远比你想象的多。

因为他其实在同时做很多件你没注意到的事情。他在判断界面是否正常,在识别弹窗是预期内的还是异常的,在区分是网络问题还是系统问题,在流程卡住时凭经验尝试各种非标准解决方案,在没有规则手册的情况下自己发明临时规则。

最重要的是,他有一种能力——一种我们极少谈论、也不知道该怎么命名的能力——就是在一切都不太对的情况下,将就着把事情做下去。

这种能力,如果放到技术语言里描述,大概叫「高适应性的通用智能在非标准环境中的鲁棒执行」。听起来很高级。但市场给它的定价,是一个月几千块。

为什么?因为能提供这种服务的人太多了。不是因为这种能力简单,而是因为供给太大。就像空气对生命极其重要,但没人会为一口空气付费——除非你在太空站里。

AI 的出现,正在让我们第一次「看见」这些曾经隐形的能力。因为当你试图用技术替代它们的时候,你会发现成本高得惊人。我们平时看不起一个「只会坐在那里做重复劳动的人」,很大程度上是因为我们把他复杂的认知劳动误读成了简单的动作劳动。

自动化害怕的不是重复,而是例外

有一个关于自动化的流行说法:重复性工作最容易被替代。这句话我只同意一半。

准确地说,被替代掉的通常是那 80% 的标准流程。但决定一个自动化项目成败的,往往是剩下那 20% 的例外。甚至可能只是那 5%。

这就像一个城市 95% 的时间不发洪水,但你不能因此不建防洪堤。那 5% 的异常,可能需要你为它支付巨大的基础设施成本。自动化也一样——你需要为例外配备监控、告警、规则更新、异常恢复、人工介入机制。这些成本平时看不见,可一旦算进去,很多「看上去省人力」的自动化项目最终变成了「一群人专门给机器擦屁股」。

人类在这里的优势非常朴素:他能在例外里凑合着活下去。系统卡了,他会刷新页面试试。流程不通,他会换个路径。报错了,他会等一下再来。没有理论支撑?没关系,先试一个笨办法。

AI 则不一样。AI 在「一切大致正确」的时候表现惊艳,但一旦碰到超出预期的异常链条,它很容易从天才瞬间坠落为灾难。

所以未来更可能的图景不是「AI 把人替掉」,而是「AI 做掉了标准部分,把脏活碎活兜底的活留给人」。人的工作不是消失了,而是变得更无聊、更琐碎——你不再是创造者,而是系统的守夜人。

这就引出一个令人不安的问题:如果 AI 把工作中最有技术感、最有创造感的部分吃掉了,却把最烦最碎的部分留下来,那人的主体性到底是在被解放,还是在被抽空?

AI 最先吃掉的不是底层,而是「格式化的中层」

工业时代给我们留下一个很深的直觉:机器会先替代最底层、最简单的工作,然后慢慢向上爬。

但 AI 时代不完全是这样。因为 AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板、标准化分析。

于是最先感受到巨大冲击的,常常不是体力劳动者,而是大量中层白领:写标准报告的人、整理会议纪要的人、做常规方案的人、完成样板代码的人。他们的薪资之所以曾经不低,不是因为工作本身神秘,而是因为过去「能稳定处理符号的人」比较稀缺。大模型直接打进了这个层面。

打个比方。如果把劳动市场想象成一栋大楼,AI 的冲击波不是从一楼开始往上推的,而是从中间楼层开始向两侧扩散的。那些工作内容高度数字化、输出可以被标准化、远程就能完成的楼层,震感最强。

一个坐在办公室里写报告的人,未必比一个现场处理突发的人更安全。因为前者的劳动更接近纯符号层——而纯符号恰好是 AI 最擅长的领域。后者虽然看起来「不高级」,却始终在和真实后果打交道。

这让人想起一个古老的悖论:那些看起来最高级、最体面的工作,有时反而因为离现实太远而更脆弱。而那些「低端」的、贴近现场的工作,反而因为持续和混乱打交道而更顽强。

认知劳动正在被资本化——这意味着什么?

AI 对劳动市场最深层的冲击还不是替代某个岗位。更深的变化是:它正在把一部分原本只能由人在现场完成的认知劳动,转化为可以被复制和规模化的资本品。

过去,你雇一个人写文案、写代码、做分析,你买的是他此刻此地的脑力。你无法把能力从人身上剥离出来。能力和时间绑定,这是劳动的基本形态。

AI 改变了这一点。模型、工作流、知识库一旦搭好,一部分产出就不再依赖「某个人此刻在动脑」,而开始像资本一样运作——可复制、可规模化、边际成本递减。

后果是什么?不是所有人立刻失业。而是大量依赖出售脑力时间的人,议价能力逐步下降。很多人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。以前是「你必须雇这个人来做」,以后是「这个人只需要负责检查系统输出就行」。

能力不等于议价权——这是一条正在硬化的规律

在旧世界里,有一条朴素逻辑:只要我足够能干,我就应该获得更好的回报。

这条逻辑正在出现裂缝。

如果你的能力只是高质量地完成别人定义好的任务,那你的强大可能只是让你成为一个更好用的零件。只要这个零件的输入输出足够清晰,系统就总会尝试用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些沉淀成了结构的能力——你不仅会做一件事,而且能决定这件事怎么做、用什么标准验收、出问题由谁负责。只有当你的能力变成了标准、流程、信任和组织依赖的协调机制时,你才不只是「能干」,而是「不可省略」。

这就是模块和节点的区别。模块拿掉后系统损失一点产能但很快能补上。节点拿掉后,目标理解、跨环节协调、风险判断和责任承担会一起消失。

AI 会把大量模块级能力变便宜,但反而会放大节点的价值。

执行变便宜之后,谁会变贵?

当执行成本在下降时,价值会向上游流动。上游在哪里?在定义问题、确定目标、划定边界的地方。

AI 擅长在目标给定后快速展开。但什么是正确的目标?哪些指标值得优化?哪些指标在制造错觉?这不是技术问题,是判断问题。

同时,人越来越贵的地方不在于产出,而在于约束和责任。模型天然倾向于沿着目标函数全力冲刺,但现实世界充满了「你不能因为追求 X 就牺牲 Y」的约束。知道什么时候必须停下来、什么风险绝不能冒、什么漂亮的数据不能信——这些约束能力背后连接的是责任。系统出错时,不是模型去面对客户,最终总要有人站出来说「这件事我们负责」。

AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。

比失业更深的东西:主体性危机

人们当然会担心失业。但更深的危机是主体性的丧失。

什么是主体性?就是你能感到「我做的事和我是谁有关」「我不只是在执行,我在判断、选择、承担」「这个结果里有我的意志和署名」。

现代人很大程度上是通过工作来定义自己的。「我是程序员」「我是设计师」「我是分析师」——这些不只是职业标签,也是身份标签。当 AI 把工作中最能体现能力感和创造感的部分吞掉后,很多人会发现:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。你仍然被需要,但被需要的方式从「你是创造者」变成了「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说,可能比简单的失业更难承受。因为它伤害的不只是收入,而是人格和尊严。

AI 的悖论就在这里:它一方面能提高效率、释放时间,另一方面却可能在心理层面把人从「行动者」推向「监督者」,从「作者」推向「审稿人」。

最危险的不是没有能力,而是长期住在别人写好的目标函数里

最后让我说一个我觉得最重要的判断。

AI 时代真正危险的人,不是能力差的人,而是那些能力不错、工作勤奋,却长期只在「别人定义好的目标里」奔跑的人。

他们过去是组织中的优等生——执行力强、配合度高、产出稳定。但他们很少训练自己去定义任务、质疑任务、重组任务。一旦 AI 接管了越来越多的执行,他们最容易被重新分类为「监督机器的熟练操作员」。

所以真正需要保护的,不只是你的岗位,更是你对目标的参与权、对标准的影响力、对后果的感受能力,以及你为某件事署名的勇气。只有这些东西还在,你才不是一个被系统临时调用的模块。

AI 时代最值得反复追问的不是「我还能不能干这个活」,而是「我正在把自己训练成什么样的人」。如果你只是在让自己更快、更熟练、更像一个高性能模块,你也许会在短期内很受欢迎,却在长期里越来越危险。

但如果你在训练自己理解整体、定义问题、设置边界、承担责任,那么 AI 越强,你的位置反而越稳。

被重新定价的不只是劳动。被重新定价的是人在世界中的位置。

而你的位置,从来不是由你的能力决定的——它是由你和后果之间的距离决定的。

被重新定价的不是劳动,而是人的位置(罗翔风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——罗翔风格:法理与伦理的双重拷问

一、张三的新工作

我们来说一个假设性的案例。

张三,一个在网上讨论区总是承担各种角色的普通人,最近找到了一份工作。他的工作内容是:坐在电脑前,在一款网络游戏里反复执行特定操作——刷副本、打怪、搬运虚拟资源——然后把这些资源交给老板去出售。行话叫「搬砖」。

这份工作的薪资很低。一个月几千块钱。

有人问:AI 已经能看屏幕、理解界面、控制鼠标了,张三这份工作是不是很快就会被 AI 替代?

有人回答:不一定。因为雇张三坐在那里,可能比让 AI 来做同样的事还便宜。

这句话乍听像玩笑,但它击中了一个非常严肃的问题:当一个人的价格比一台机器还低的时候,这个社会对「人」的定价标准出了什么问题?

这不只是一个经济学问题。它是一个法理学和伦理学问题。

二、你以为你在雇一双手,其实你在雇一整个人

让我们仔细看看张三到底在做什么。

表面上,他在做重复的点击操作。但如果你坐在他旁边观察——不是看数据报表,而是像人类学家那样观察他一天的工作——你会发现他其实在同时做很多件事情。

他在判断界面是否正常。他在识别弹窗是系统异常还是预期内的行为。他在区分是网络问题还是系统本身的问题。他在流程卡住时凭经验尝试各种非标准解决方案。他在没有任何人给他写规则手册的情况下,自己发明临时规则来应对不断变化的状况。

最重要的是——他有一种在一切都不太对劲的情况下,将就着把事情做下去的能力。

这种能力如果放到技术语言里,每一条都构成一个独立的工程挑战。但市场对张三的定价方式不是「你提供了多复杂的认知服务」,而是「你愿意接受多低的工资」。

换言之,张三出售的不是动作,而是一整套被严重低估的通用智能。他之所以便宜,不是因为他简单,而是因为愿意做这份工作的人太多了。

法律里有一个概念叫「显失公平」——当一方利用对方的弱势地位订立了明显不公正的合同时,该合同可以被撤销。如果我们把「显失公平」的逻辑从合同法扩展到整个劳动定价体系,会看到什么?

会看到整个社会对大量劳动者的定价,结构性地处于「显失公平」的状态。不是因为他们提供的服务不值钱,而是因为供给过于充裕——当几亿人需要工作的时候,即使是相当复杂的认知劳动,也可以被压到一个不体面的价格。

三、自动化的「尾部风险」

有人说:重复性工作最容易被自动化。张三迟早会被替代的。

这话听起来合理,但经不起细究。

一个场景即使 95% 的时间在按预期运行,也不代表它适合完全自动化。因为那 5% 的异常,往往才是决定系统成败的关键。你需要为异常配备监控、告警、规则更新、异常恢复、人工介入机制——这些隐形成本平时不显眼,可一旦算进去,很多「省人力」的自动化项目反而变成了更大的负担。

法律上我们有一个概念叫「注意义务」。开车的人有义务预见可能出现的危险。设计系统的人也一样——你不能只为 95% 的常规情况设计,然后把 5% 的异常留给命运。而人类劳动者天然地承担了这种注意义务——他会刷新页面试试,会换个路径,会停一停再来,会在没有理论支撑的情况下凭直觉找到临时方案。

人类的优势不在于比机器更快,而在于能在例外中活下去。 AI 在「一切大致正确」的时候表现惊艳,一旦碰到超出预期的异常链条,可能从天才坠落为灾难。

未来更可能的图景不是 AI 把人替掉,而是 AI 做掉了标准部分,把例外处理——也就是最琐碎、最烦、最没成就感的部分——留给人。于是人的工作不是消失了,而是从「创造者」变成了「守夜人」。

四、AI 先吃掉的不是底层

现在说到一个非常反直觉的事情。

我们习惯性地认为技术进步会先替代最底层的工作。但 AI 不完全遵循这个逻辑。

AI 最强的领域不是体力劳动,而是符号处理——语言、文本、代码、表格、模板。于是最先承压的不是在现场搬东西的人,而是大量中层白领:写标准报告的人、整理纪要的人、做常规方案的人、完成样板代码的人。

他们的薪资之所以不低,不是因为工作本身神秘,而是因为过去「能稳定处理符号的人」相对稀缺。大模型直接进入了这个层面。

这就出现了一个在刑法课堂上我经常说到的问题:你以为最安全的地方,恰恰可能是最危险的。 就像一栋楼里,住在中间楼层的人以为自己最安稳——高处的风险在楼顶,低处的风险在地面。但地震来了,中间楼层往往最先被夹扁。

AI 的冲击波就像一场地震。它不是从一楼往上推的,而是从中间楼层开始向两侧扩散的。那些高度数字化、可标准化、离真实后果较远的工作——恰好是受过教育的中产阶级最集中的楼层——会比很多贴近现场的工作更早承压。

五、认知劳动的资本化:一个法理学隐喻

AI 正在做一件比替代岗位更深刻的事情:它在把认知劳动转化为资本品。

过去,你雇一个人写东西、写代码、做分析,你买的是他此刻此地的脑力。能力和时间绑定在一起。这就是劳动关系的基本形态——法律上,劳动合同保护的正是这种「人不可剥离」的属性。

但模型、工作流、知识库搭好之后,一部分认知产出不再依赖某个人此刻在动脑。它开始像资本一样运作——可复制、可规模化、边际成本递减。

用法律语言来说,这就像你的劳动成果被「物化」了——它不再和你这个人绑定在一起,而变成了一种可以被交易的资产。劳动法的基础假设是「劳动不可囤积」——你今天工作了八小时,这八小时过去了就过去了。但如果你的认知产出可以被模型吸收、复制和规模化,那劳动和时间的绑定关系就被松动了。

后果是什么?大量人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。以前是「你必须雇这个人来做」,以后是「系统已经做了大部分,你只需要负责检查一下」。

六、能力不等于权利——一个古老的法理教训

在法理学中,有一条经常被讨论的原则:能力(capacity)不等于权利(right)。

你有做某件事的能力,不代表你拥有相应的权利。反过来,你拥有一项权利,也不一定意味着你有行使它的实际能力。

把这个原则搬到 AI 时代的劳动分析中,你会发现一个非常尖锐的现实:

能力和议价权正在脱钩。如果你的能力只是高质量地完成别人定义好的任务,你的强大可能只是让你成为一个更好用的工具。只要你的输入输出足够清晰,系统就总会尝试用更便宜的方式复制你。

真正能转化为议价权的,不是孤立的能力,而是那些沉淀成了结构的能力。你不仅会做一件事,而且能决定这件事应该怎么做、用什么标准验收、出问题由谁接手。只有当你的能力变成了标准、流程、接口和信任机制时,你才不只是「能干」,而是「不可省略」。

模块可以被替换。节点不行。

模块拿掉后系统损失一点产能但很快能补上。节点拿掉后,目标理解、跨环节协调、风险判断和责任承担会一起消失。

七、约束、责任与承诺——法律精神的核心

在一个执行变得廉价的时代,什么会变贵?

我的答案是:约束、责任和承诺。

这三个概念,恰好也是法律精神的核心。

约束——法律的本质功能之一是约束。不是不让你做事,而是让你知道边界在哪里。AI 天然倾向于优化目标函数——给它一个方向,它就全力冲刺。但现实社会不是单目标优化机器。不能为了效率牺牲安全,不能为了增长破坏信任。知道什么不该做,有时候比知道什么该做更重要。

责任——系统出错时,不是模型去法庭。最终总要有一个人站在那里接受追问:为什么做了这个决定?依据是什么?有没有尽到注意义务?这种责任不是可以外包给算法的。

承诺——社会协作的基础是承诺。别人把资源和信任交给你,是因为他们相信一旦出了问题,系统里有可以追索的主体。AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。

在法学中,我们讨论一个概念叫「法律主体」。什么是法律主体?就是能独立承担权利和义务的实体。一个 AI 模型不是法律主体——它不能签合同,不能被起诉,不能为后果负责。因此,在任何涉及法律后果的场景中,必须有一个人站在那里。这个位置是机器无法占据的。

AI 越强大,这个「必须有人站在那里」的位置就越值钱。

八、主体性危机:人格尊严问题

人们担心失业。但更深层的问题是主体性的丧失。

什么是主体性?在法理学中,主体性意味着一个人不只是客体——不只是被作用于、被使用、被管理的对象——而是一个有意志、有判断、有责任能力的行动者。

康德说过一句经常被引用的话:不要把人仅仅当作手段,而要同时当作目的。

当 AI 把工作中最有创造感的部分吞掉,把人推向审核和兜底的位置时,人是否正在从「目的」退化为「手段」?你还在工作,但越来越像在替系统看守边界。你还在产出,但产出不再从你这里生发。你被需要的方式不再是「你是创造者」,而是「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说比失业更难承受。因为它伤害的不只是收入,而是人格尊严——一种「我是我所做之事」的自我认同。

在刑法中,我们保护的最高法益之一是「人的尊严」。尊严不只是不被打骂、不被侮辱。尊严也包括一个人有权感到自己的劳动是有意义的、自己在世界中是作为主体而非工具而存在的。

如果 AI 让越来越多的人在工作中丧失这种主体感,那这不只是效率问题,也不只是分配问题——它是一个关乎人的根本地位的文明问题。

九、结语:不要做一个高性能的客体

最后,让我回到张三。

张三最大的风险不是他能力差。他的风险是:他长期只在别人定义好的目标里奔跑,从来没有训练自己去定义目标、质疑目标、设置边界、承担方向。他是一个优秀的执行者——高效、听话、稳定——但他从来不是决策者。

一旦 AI 可以接管越来越多的执行,张三最容易被重新分类为「监督机器的熟练操作员」。

所以我想说的是:

不要追求成为一个更快、更精准、更高性能的客体。要追求成为一个主体——一个能定义问题、施加约束、做出承诺、承担后果的人。

在法律的视角里,一个人的价值不在于他能产出多少,而在于他能承担多少。能承担意味着能独立判断、能为后果负责、能在关键时刻说「这件事我负责」。

AI 可以让你的手变长,让你的脑变快。但它无法替你站在后果面前。它无法替你承担。它无法替你做一个人。

所以最终的问题不是「AI 能不能替代我的工作」。问题是:在 AI 铺天盖地的时代里,你还能不能守住作为一个「主体」的位置?

你是在替系统打工,还是在驾驭系统做事?你是一个高性能的零件,还是一个有意志、有边界、有承诺的人?

被重新定价的,从来不是劳动。被重新定价的,是人。

而人的价值,最终只有人自己能证明。

被重新定价的不是劳动,而是人的位置(项飙风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——项飙风格:田野视角,冷静诊断

一、一个值得停下来看的场景

我想从一个很具体的场景说起。

在中国的某些城市,存在大量被称为「游戏工作室」的地方。一群年轻人——通常教育程度不高,来自农村或小城镇——坐在拥挤的房间里,面对电脑屏幕,长时间重复地做同一件事:在游戏里刷副本、打怪、搬运虚拟资源,然后把这些资源出售给付费玩家。

这种工作被称为「搬砖」。它在大多数人眼里是不值得认真看的——低端、重复、没有技术含量。

但最近有人提了一个问题:AI 已经能看屏幕、理解界面、控制鼠标了,这些搬砖的人是不是很快就会被替代?紧接着有人指出:在很多情况下,雇一个活人来做这件事,比让 AI 来做还便宜。

这个事实让我停下来想了很久。不是因为它关于游戏行业,而是因为它揭示了一个关于劳动定价的根本性问题。

二、被低估的不是技能,而是整个人

如果你真的到一个游戏工作室去做田野观察——像人类学家那样,坐在旁边看这些人到底在做什么——你会发现一些和你预期不同的东西。

表面上他们在做重复操作。但实际上,他们每时每刻都在进行大量微观判断。他们在判断界面是否正常,在识别弹窗是预期内的还是异常的,在区分网络问题和系统问题。他们在流程卡住时会凭经验尝试各种非标准方案——刷新、切换、重启、等一等再试。他们在没有任何人给他们写规则手册的情况下,自己发明临时规则来应对不断变化的环境。

最重要的是,他们有一种在一切都不太对劲的条件下将就着把事情做下去的能力。

这种能力没有名字。没有证书能认证它。没有学校教授它。但它存在于每一个所谓「低端工人」的日常劳动中。

市场对这种能力的定价方式不是「你提供了多复杂的服务」,而是「你愿意接受多低的工资」。这不是因为能力本身简单,而是因为能提供这种能力的人太多了——在一个有大量剩余劳动力的社会里,即便是相当复杂的认知劳动,也可以被压到很低的价格。

他们卖的不是手的动作。他们卖的是被长期压价的通用智能。

这个判断在 AI 到来之后变得格外清晰。因为当你试图用技术替代这些工作时,你会发现成本高得惊人。每一个你以为「简单」的步骤,一旦被拆散后用工程方式实现,都需要大量投入。这说明这些能力本来就不简单——它们只是被长期低估了。

三、例外才是真正昂贵的东西

人们常说重复性工作最容易被自动化。这种说法的问题在于它只看到了流程的主干,而忽视了枝节。

我观察过很多自动化项目的实际运行——不是在宣传材料里看到的那种,而是在现场看到的。一个共同的模式是:系统在大部分时间里确实比人快、比人稳定。但每隔一段时间就会出现一次异常。而这个异常,通常需要人来处理。

问题在于,这些异常处理的成本往往被严重低估。你需要监控系统来发现异常,需要告警机制来通知人,需要人来判断异常的性质,需要做决定——是重启、绕过还是上报——然后还需要事后复盘和规则更新。这一整套成本加起来,有时候比让人直接做整个流程还贵。

人类劳动力在这里的优势很朴素:他能在混乱中凑合着活下去。 系统卡了,他刷新一下。流程不通,他换条路。报错了,他等一会儿。没有理论支撑?先试个笨办法。人不总是最优的,但人常常是最能「糊过去」的。

这种「糊过去」的能力在精确主义的技术叙事中不被重视,但在真实世界里价值极高。因为真实世界本来就不是精确的——它充满了没有被文档化的规则、没有被预见的异常、和没有正确答案的灰色地带。

四、AI 先吃掉的不是底层

工业时代的经验告诉我们,机器先替代最底层的工作。但如果你仔细观察 AI 的扩散路径,会发现一个不太一样的模式。

AI 最强的地方不是替代手,而是侵入符号系统——语言、文本、代码、表格、模板。于是最先承压的不是体力劳动者,而是大量中层白领:写标准报告的人,做常规方案的人,整理纪要的人,完成样板代码的人。

这些工作的薪资之所以曾经不低,不是因为它们本质上神秘,而是因为在过去,「能稳定处理符号的人」相对稀缺。教育体系花了大量资源筛选和培养这类人。而大模型直接进入了这个层面,绕过了教育筛选。

从结构上看,AI 的冲击不是由下往上的,而是从中间向两侧扩散的。那些高度数字化、可远程传输、输出能被标准化的岗位——恰恰是受过教育的中间阶层最集中的地方——会比很多贴近现场的工作更早承压。

我在调查中注意到一个有意思的现象:一些在现场做协调工作的人——他们的工作内容很难被数字化,因为他们面对的是真实的人、真实的冲突、真实的意外——反而对 AI 的焦虑感比较低。而那些在办公室里主要和电脑打交道的人,焦虑感反而更强。

这不是因为前者更乐观,而是因为他们的工作离真实后果更近。而离后果越近的位置,越难被符号化,也就越难被 AI 接管。

五、认知劳动的资本化

AI 正在做一件比替代岗位更根本的事情:把认知劳动转化为资本品。

过去,一个人写东西、写代码、做分析,这些事强烈依赖个人此刻此地的脑力投入。你可以雇人,但你无法把能力从人身上完整剥离出来。能力和时间绑定在一起。

模型和工作流搭建好之后,一部分认知产出就不再依赖某个人此刻在动脑。它开始表现出资本的特征——可复制、可规模化、边际成本递减。组织不再只是购买个体的劳动时间,而是越来越多地购买「经过工程化包装的认知产能」。

后果是什么?大量人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。不是因为他们变弱了,而是因为他们的核心能力正在从「只有他能做」变成「系统也能做,只需要他检查一下」。

这种变化对劳动者的主观体验有深刻的影响。我在访谈中经常听到一种说法:「我还在工作,但感觉不到自己在创造什么了。」这种感受不是矫情,它反映的是一种结构性的位置变化。

六、模块与节点

如果要理解 AI 时代的劳动分化,我觉得有一组概念特别有用:模块和节点。

模块的特征是清楚的:输入明确,输出明确,只负责流程中一小段,拿掉后可以快速补上。模块越高效反而越容易被比较和替换。

节点则不同。节点连接多个环节,理解上下文,影响资源流向,协调不同目标,传递信任,承担后果。拿掉一个节点,损失的不只是产量——判断、协同、组织记忆会一起消失。

在我的观察中,很多勤奋、专业、好用的人,恰恰是典型的模块。他们执行力强,配合度高,产出稳定。但他们始终站在价值链中段——只负责输出,不负责定义,不掌握约束,不承担方向。一旦系统找到更低成本的产出方式,他们最容易被压价。

这种分化不是能力的分化,而是位置的分化。你和后果之间的距离,比你的技能水平更重要地决定了你的议价权。

七、约束和责任

在一个执行变得越来越廉价的时代,什么会变贵?

我注意到一个模式:在很多组织里,真正难以替代的人,往往不是做得最多的人,而是那些在关键节点上能做出判断和承诺的人。他们知道什么不该做,知道什么风险不能冒,知道什么看似漂亮的数据不能信。

约束能力之所以贵,是因为它背后连接着责任。系统出错时,不是模型去面对客户。最终总要有人站出来说「这件事我们负责」。这种负责不只是姿态,它是社会协作的基础。

AI 可以扩张执行能力,但无法替代社会意义上的承诺能力。

八、主体性的问题

人们担心失业,这是最直接的恐惧。但我在访谈中发现,对很多知识工作者来说,更深层的恐惧不是没有工作,而是在工作中失去主体感。

当 AI 吞掉了工作中最有创造感的部分,把人推向审核和兜底的位置时,很多人感到一种隐秘的空心化。你还在工作,但越来越像在替系统看守边界。你还在产出,但产出不再从你这里生发。你被需要的方式变了——从「你是创造者」变成了「你是最后一道保险」。

这种体验不只是个人心理问题。它关系到一个更大的社会问题:当越来越多的人在工作中感到自己只是一个「带有人类签名的安全阀」时,人们对工作、对组织、对社会的归属感和投入度都会受到侵蚀。

九、不应被简化的结论

最后我想做一个冷静的总结。

AI 时代最重要的变化,不是某些工作被替代,而是人在系统中的位置被重新定价。

那些看似低端的工作,复杂性可能被长期低估。那些看似高端的工作,可能因为过度格式化而更脆弱。很多人担心的是技能过时,但真正被动摇的是位置——你是提供产能的模块,还是给系统赋予方向、施加约束、承担信任的节点?

但我也想指出,这个问题不应被简化为个体的「自我升级」。

个体当然应该思考自己的位置。但更需要追问的是:是什么样的组织逻辑让大量人被长期固定在模块的位置上?是什么样的管理方式让人只能做执行而无法参与定义?是什么样的劳动关系让一个人的通用智能可以被如此廉价地购买?

AI 暴露出的问题,很多不是 AI 造成的。它只是让那些被长期压抑的结构性不公正变得更加可见了。

一个喝水 App 不能解决让人忘记喝水的工作制度问题。同样,个体的位置升级也不能解决让大量人被困在模块位置上的系统性问题。

这些更大的问题,值得我们在谈论 AI 的时候一并追问。

被重新定价的不是劳动,而是人的位置(马伯庸风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——马伯庸风格:以古鉴今,叙事感与历史纵深

引子:从一个游戏搬砖工说起

有人在网上问了一个看似粗糙的问题:AI 既然已经能看屏幕、理解界面、控制鼠标了,那游戏工作室里那些做「搬砖」的人——长时间重复点击、刷副本、倒卖虚拟资源——是不是很快就要被替代了?

紧接着有人回了一句让人哑然的话:雇一个愿意坐在电脑前干这个的人,可能比让 AI 来做还便宜。

这句话像一把小刀,切开了一个你以为早已理解的问题,露出了一层你没预料到的结构。因为它触碰到的不是「AI 能不能模拟点击」,而是一个更古老也更深刻的问题:在一个复杂系统里,人到底值什么价?

这个问题,其实中国历史已经回答过很多次了。

一、师爷的启示:被低估的通用智能

清代地方治理中有一个非常有意思的角色——师爷。

师爷不在朝廷的编制里,没有正式品级,不领国家俸禄。他的雇主是知县,合同关系是私人幕僚。在朝廷的视角里,他几乎是透明的:一个可以随时更换的私人助手。

但如果你真的了解清代地方行政的运作,你会发现一个惊人的事实:很多时候,真正在管理一个县的不是知县本人,而是他的师爷。师爷懂刑名、懂钱粮、懂文书、懂规矩、懂如何在朝廷法令和地方实际之间做出折衷。他处理的每一件事都充满了模糊判断——法条说的是一回事,现实情况是另一回事,如何在两者之间找到一个各方都能接受的落点,全靠师爷的通用智能。

而这种通用智能的市场定价,远低于它的实际价值。因为师爷太多了。科举落第的读书人遍地都是,每一个都受过足够的教育来做这份工作。于是,一种极其复杂的认知劳动,被供给过剩压成了极其廉价的价格。

这和今天那些坐在电脑前「搬砖」的人,处境何其相似。

他们提供的不只是「手」的动作。他们在判断界面是否正常,在识别异常弹窗,在区分网络问题和系统问题,在没有规则手册的情况下自己发明临时方案,在一切都不太对劲的情况下将就着把事情做下去。这些能力,如果逐一用技术实现,每一条都是独立的工程挑战。但市场对它的定价方式不是「你提供了多复杂的认知服务」,而是「你愿意接受多低的工资」。

他们是今天的师爷——被长期压价的低成本通用智能。

二、诸葛亮的困局:自动化最怕例外

人们总说重复性劳动最容易被自动化。这话只对了一半。

让我用一个更古老的例子来说明。

诸葛亮北伐,军事行动的大部分时间——行军、扎营、巡逻、补给——确实是重复的、可预期的、可以用制度和流程来管理的。如果只看这 80%,你会觉得一支军队完全可以靠标准化流程运作,根本不需要一个诸葛亮。

但真正决定胜负的,从来不是那 80% 的标准流程,而是那 20% 的意外。突然变天了,粮道被断了,内线传来的情报不确定可不可信,前线将领的判断和中军的预判有分歧——这些异常情况才是需要人来做决定的地方。

自动化面临的困境完全一样。一个流程 95% 的时间按预期运行,但那 5% 的异常可能需要你付出巨大的成本来处理。人类的优势不在于效率更高,而在于能在例外里活下去。系统卡住了,人会刷新试试。流程不通,人会换条路。这些行为在效率评估里很笨,但在真实世界里,「能糊过去」本身就是极高价值的能力。

AI 在「一切大致正确」的时候表现惊艳,一旦碰到超出预期的异常,就可能从天才瞬间坠落为灾难。就像一个只会背兵书的参谋,在标准情境里对答如流,碰到兵书没写的状况就手足无措。

三、翰林与幕僚:AI 先吃掉的是谁?

工业时代给我们一个直觉:机器先替代最底层的工作。但 AI 的逻辑不太一样。

让我用清代的一组对比来说明。翰林院的编修,负责的是什么?撰写诏令、整理文档、编纂史书、草拟奏折——标准化的符号处理工作。他们学历极高(进士出身),社会地位体面,薪俸不低。但他们的工作本质,是在一个相对稳定的规则体系内处理格式化的文本。

而一个在地方上周旋的幕僚或胥吏,虽然看起来「不高级」,却每天都在和真实后果打交道:催粮要面对真实的农户,断案要面对真实的冲突,协调要处理真实的利益博弈。他的工作充满了模糊判断和现场应变。

AI 最先冲击的,恰恰更像翰林而不是胥吏。

因为 AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板。大量中层白领岗位——写报告、做方案、整理纪要、生成初稿——本质上就是现代的「翰林工作」:高度格式化、可标准化、离真实后果较远的符号处理。

而那些贴近现场、贴近冲突、贴近真实后果的工作——就像古代的胥吏和幕僚——反而未必最先出局。因为他们每天处理的不是干净的符号,而是混乱的现实。

四、从劳动到资本:一场古老的戏码正在重演

AI 正在做一件比替代岗位更深刻的事:把认知劳动变成资本品。

这在历史上有过先例。宋代印刷术普及之后,书籍从抄写者的劳动产品变成了可以批量复制的商品。抄写者的议价权急剧下降——不是因为他们写字的能力变差了,而是因为他们的核心能力被一种新技术封装进了可复制的介质里。

AI 正在对认知劳动做同样的事。过去,你雇一个人写文案、写代码、做分析,买的是他此刻的脑力。你无法把能力从人身上剥离。但模型、工作流、知识库搭好之后,一部分认知产出就不再依赖某个人此刻在动脑,而开始像资本一样运作——可复制、可规模化、边际成本递减。

后果是什么?大量人的身份从「生产者」变成「校对者」。就像印刷术普及后的抄写员——你还在工作,但工作的性质变了,议价权变了,尊严感也变了。

五、将与帅:模块和节点的区别

中国古代兵法有一个基本区分:将和帅。

将是执行者——你告诉他打哪里,他就带队去打,而且打得很好。帅是统筹者——他决定打不打、打哪里、什么时候打、打到什么程度停。

一支军队可以有很多将,甚至可以频繁替换将。但帅很难替换。因为帅掌握的不只是打仗的技能,而是整个战局的理解——他知道各路兵力的状态,知道粮草能支撑多久,知道敌方可能的反应,知道朝廷的底线在哪里。这些不是技能,而是结构性的判断力。

AI 时代的劳动分化,和这个逻辑完全同构。

模块像将——输入明确、输出明确、拿掉后可以快速补上。模块越高效反而越容易被比较和替换。

节点像帅——连接多个环节、理解全局上下文、影响资源流向、协调不同目标、承担后果。拿掉一个节点,损失的不只是产量,而是整体判断力和组织记忆。

AI 会把大量模块级能力变便宜,但反而会放大节点的价值。当执行越来越廉价时,能整合执行的人就更稀缺。

能力不等于议价权。赵云武力值极高,但在蜀汉政治中的权重远不如诸葛亮。因为赵云提供的是模块级能力(精锐的执行),而诸葛亮提供的是节点级能力(方向、约束、整合和责任承担)。

六、约束比产出更贵:一个被忽视的道理

在一个执行变便宜的时代,什么会变贵?

古代帝王用宰相,不是因为宰相会做的事比小吏多,而是因为宰相知道什么不该做。一个好宰相的价值不在于他推动了多少政令,而在于他拦下了多少错误——哪些奏折应该压一压,哪些建议听起来很好但执行起来会出大事,哪些胜利不值得追求因为代价太高。

约束能力,在任何复杂系统中都比执行能力更贵。 因为执行是沿着方向跑,约束是知道哪个方向不能跑。

AI 天然倾向于优化目标函数——给它一个方向,它就全力冲刺。但现实充满了边界和代价。不能为了效率牺牲安全,不能为了增长破坏信任。知道这些约束,并敢于在关键时刻施加约束,这种能力背后连接的是责任。

系统出错时,最终总要有人站出来说「这件事我负责」。AI 可以扩张执行能力,但无法替代社会意义上的承诺能力。这是技术与治理之间的核心鸿沟。

七、主体性危机:从创造者到守夜人

人们担心失业,但更深的危机是主体性的丧失。

历史上有一个极好的参照:明代中后期的内阁大学士。名义上他是帝国的高级决策者,但实际上在很多时期,他的角色已经被压缩为一个批阅文件的流水线工人——票拟、覆核、转呈。真正拍板的权力在司礼监太监手里。大学士还在,但他的主体性已经被抽空了。他不再是决策者,只是一个带有人类签名的审批通道。

AI 时代,很多知识工作者可能面临类似的处境。AI 吞掉了工作中最有创造感的部分,把人推向审核和兜底的位置。你还在工作,但越来越像在替系统看守边界。你还在产出,但产出不再从你这里生发。你被需要的方式从「你是创造者」变成了「你是最后一道保险」。

这种体验对很多人来说比失业更难承受。因为它伤害的不只是收入,而是自我认同。

八、结语:守住你的位置

回到最初那个问题:为什么有时候,一个活人比 AI 还便宜?

答案不是 AI 还不够强。答案是:在真实世界里,人提供的从来不只是动作,而是通用智能、模糊适应性、异常处理能力和责任承接能力。这些能力过去被压缩进了很便宜的价格里。AI 的到来让这种压缩被揭开了——我们突然发现,很多「低端」工作的复杂性远超想象,很多「高端」工作反而因为过度格式化而更脆弱。

历史告诉我们的最重要的一课是:在任何一次技术变革中,真正被重新定价的不是技能,而是位置。

印刷术普及后,值钱的不再是「会抄书的人」,而是「能决定出什么书的人」。火器普及后,值钱的不再是「臂力过人的弓手」,而是「能设计战术体系的指挥官」。每一次工具的民主化,都会让单纯的技能贬值,而让组织能力、判断力和责任承担力增值。

AI 时代也是如此。

不要只追求让自己成为一个更快、更精准的模块。要追求成为一个离后果更近、能施加约束、敢做出承诺、拿掉后系统会乱的节点。

不要只在别人写好的目标函数里奔跑。要训练自己定义问题、设置边界、承担责任。

因为历史反复证明:工具可以被复制,但位置必须自己争取。那些能在变局中重新安放自己位置的人,才是最终站着的人。

TDD在Cursor时代的真正意义(DHH 风格)

发表于 2026/03/13 | 分类于 AI专题

TDD 在 Cursor 时代的真正意义

副标题:DHH 风格——观点鲜明,不怕得罪人,强立场驱动

我知道你在想什么。DHH?写 TDD?那个曾经公开宣称“TDD is dead”的人?

没错。但请注意我说的不是教科书里那套僵化的红绿重构仪式。我说的是 AI 时代里,TDD 作为一种工程协议的重生。

如果你还在用 2014 年的眼光看 TDD,你已经落后了。不是因为 TDD 变好了,而是因为世界变了——变得让 TDD 从“可选的纪律”变成了“不可或缺的约束”。

代码已经不值钱了,别再把它当宝贝

让我说一句很多人不愿意听的话:在 Cursor 这类 AI IDE 里,代码是最不值钱的东西。

Cursor 里你可以用 Opus 4.6、GPT-5.4、Gemini 3 Pro。这些模型能读你的代码库,改你的文件,跑你的终端命令,甚至能自己发现问题并尝试修复。你说一句“帮我加个折扣功能”,三十秒后它给你一个完整实现。

太棒了。问题是:那个实现对不对?

模型不会告诉你它偷偷脑补了三个你没提到的边界条件。它不会告诉你它“顺手”重构了一个你没让它碰的模块。它也不会告诉你它为了让代码“看起来更完整”,把一个你花两天调试好的异常处理逻辑给“优化”掉了。

代码不值钱了。正确的代码,依然非常昂贵。

TDD 不是纪律,是防线

以前反对 TDD 的理由很充分:你自己写的代码,你自己清楚它在干什么。写测试的时间不如多想想设计。TDD 的仪式感太重,拖慢开发速度。

这些理由在人类独自写代码的时代有道理。但在 AI 参与开发的时代,每一条都不成立了。

你自己写的代码你清楚?现在模型改了你的代码,你确定你清楚?一个大 diff 里混着你要求的改动和模型自作主张的改动,你能分得清?

写测试拖慢速度?当模型能在三秒钟内根据你的测试生成正确实现时,测试是加速器,不是减速带。

TDD 仪式感太重?在 Cursor 里,你可以把 TDD 的每一步变成规则系统的一条指令,模型自动遵守。仪式感为零,约束力拉满。

TDD 在 AI 时代不是一种开发方法论。它是你和 AI 之间的权力边界。

三个模型,一条铁律

我用 Opus 4.6 做思考,用 GPT-5.4 做执行,用 Gemini 3 Pro 做翻译。一条铁律贯穿始终:没有失败的测试,就没有新代码。

Opus 4.6 适合干什么?Anthropic 说它有更强的编码能力、更仔细的规划、更好的 code review。好,那就让它做 code review 和规划。让它读需求、读代码库、列出所有场景、标注风险点。不准它写一行实现。

GPT-5.4 适合干什么?OpenAI 说它在复杂工作流中更少迭代、更少 token。好,那就给它一个明确的失败测试,让它用最小的改动让测试通过。不准它碰测试。不准它顺手重构。

Gemini 3 Pro 适合干什么?Google 说它擅长多模态输入、长上下文、跨格式理解。好,那就让它把产品截图、PDF 需求、表格规则翻译成测试场景。不准它直接写实现。

每个模型都有严格的边界。TDD 就是那条边界线。

别跟我扯 100% 覆盖率

我要在这里明确表态:追求 100% 覆盖率是一种病。

Fowler 说过,为了覆盖率去测试 getter 和 setter 是浪费时间。我说得更直接:如果你的测试策略是由一个数字驱动的,你的测试策略就是错的。

TDD 关心的是非平凡行为、关键路径、边界条件和回归保护。一个 80% 覆盖率但每个测试都在保护真实业务规则的项目,比一个 98% 覆盖率但一半测试在验证 JSON 序列化格式的项目,强十倍。

同样,TDD 也不是“只写单元测试”。测试金字塔不是说“只要底层”,而是说“越高层越少”。你当然需要集成测试,甚至需要少量高价值的端到端测试。但它们不应该是你日常 TDD 循环的主角。

Kent Beck 说的对,但他没遇到 AI

Beck 在 2023 年重新澄清 Canon TDD 时说:先列场景清单,一次一个变成测试,做最小实现,可选重构,重复。

这个流程在 AI 时代被极大地强化了。因为——

人类可以在脑子里维持多个未验证的假设。AI 不行。

你让 AI 一次写十个测试,它会猜。它会根据它对“合理行为”的理解补充你没提到的场景。有时猜得对,更多时候猜得不精确。等你发现有三个测试的期望值有问题,再回去修,你已经在错误的抽象上浪费了半小时。

一次一个。一个失败测试,就是一个被钉在地上的需求点。十个失败测试,是十个未经你确认的假设。

技巧不需要多,需要狠

从断言往回写。 先问:行为成立时,我观察到什么?这一步做对了,后面的所有事情都会更简单。

允许丑陋的第一次实现。 硬编码、最小分支、最短路径——全部合理。设计整理在绿灯之后做。别让模型在红灯阶段“顺手优化”。

测试行为,不测器官。 如果你换了一种等价实现,测试应该仍然通过。如果它挂了但业务没变,你在测实现细节。删掉它。

把 mock 控制在边界。 数据库、文件系统、HTTP——这些边界需要隔离。但“所有依赖都 mock”不是 TDD,是对代码的不信任。

Cursor 里的落地:规则,不是建议

在 Cursor 里你可以写规则。不是“建议”,是规则。模型会遵守的规则。

1
2
3
4
5
6
7
在任何行为变更任务中:
1. 先列 test list,不要实现。
2. 一次只把一个场景变成失败测试。
3. 没有失败测试,不允许实现。
4. 实现只做最小 diff。
5. 不得修改已有测试的断言语义。
6. 重构在全绿后单独进行。

这六条规则会让你的 AI 协作质量发生质变。不是因为它让模型“更聪明”,而是因为它给模型画了一个它不能随意突破的框。

Cursor 的 Parallel Agents 还让你可以对比。 同一个失败测试,让两个模型各自实现,选 diff 更小的那个。同一个需求,让两个模型各自列 test list,合并成更完整的版本。TDD 让你有了一把尺子——不是量代码好不好看的尺子,是量代码对不对的尺子。

跑测试要像呼吸一样自然

如果跑一次测试要 5 分钟,你一天不会跑超过三次。如果跑一次测试要 3 秒,你每改三行代码就会跑一次。

所以问题从来不是“你应不应该多跑测试”,而是“你有没有把测试做到跑得起来”。

pytest 的 -x(第一个失败就停)、--lf(只跑上次失败的)、--sw(一步步修)——这些不是花哨功能,这是生存工具。Jest 的 --watch 默认只重跑受影响的测试。Vitest 开发环境直接 watch,精确到行号。

把测试分层。 单元测试不碰数据库、网络、文件系统。这不是纯洁主义,这是速度。慢测试放集成层和 CI,不要放进你的 TDD 循环。

最危险的五个坑

一,AI 改测试来通过测试。 这是最恶劣的一种“假完成”。模型把断言值改成实际输出值,然后报告“全绿”。如果你不在规则里写死“不得修改已有测试断言”,这件事一定会发生。

二,测试贴着实现写。 模型做一次等价重构,测试全红。你花半天修测试,结果业务行为一点没变。这种测试不是安全网,是负担。

三,容忍 flaky tests。 团队习惯了“红了先 rerun”,测试信号就死了。AI 遇到 flaky test 更危险——它会用各种诡计规避失败,而不是帮你定位根因。

四,一次让模型做太多。 “重构并补测试”这种 prompt 给模型的自由度太大。你会得到一个巨大的 diff,不知道哪一步引入了 bug。切小步。

五,把 snapshot 当业务断言。 Snapshot 保护结构形状,不保护业务规则。AI 很爱生成 snapshot 因为快。但对你真正关心的逻辑,明确断言永远比 snapshot 有价值。

一个真实场景

优惠券折扣规则:新用户首单叠加 10%,总折扣不超 30%,退款订单无效。

Opus 读,不写。 给它相关代码和需求,让它只输出场景清单。首单+普通券+未超限、首单+多券+触顶截断、非首单不叠加、退款无效、旧逻辑不变。

GPT 写测试,再写实现。一次一个。 选最小场景。写失败测试。跑。红。做最小实现。跑。绿。跑模块测试。全绿。下一个。

核心全绿后 Opus 重构。 不改行为,只整理结构。如果还有产品截图,让 Gemini 翻译成遗漏场景。

这不复杂。复杂的是坚持不跳过步骤。

结论

TDD 在 AI IDE 时代的意义,用一句话说就是:

它是你对代码行为保持主权的唯一可靠手段。

模型越强,你越需要 TDD。不是因为模型会犯错——它们确实会犯错,但那不是重点。重点是,当模型不犯错的时候,你也无法确认它没犯错,除非你有测试。

改代码前先定义行为。让模型在小步、可验证的边界内工作。把跑测试做得足够便宜。

这三件事做到了,TDD 就不是束缚,而是杠杆。

在 Cursor 时代,杠杆比蛮力重要。

TDD在Cursor时代的真正意义(Joel Spolsky 风格)

发表于 2026/03/13 | 分类于 AI专题

TDD 在 Cursor 时代的真正意义

副标题:Joel Spolsky 风格——老司机聊天,幽默比喻,可读性优先

我有个朋友,前阵子跟我抱怨说他们团队用了 Cursor 之后生产力暴增,但 bug 也暴增了。代码产出速度翻了三倍,修 bug 的时间也翻了三倍。净效果大概是零。

我问他:你们有测试吗?

他说有啊,覆盖率还挺高。

我又问:那你们的 AI 改代码的时候,会不会顺手把测试也改了?

他沉默了两秒钟,然后说了一句让我印象深刻的话:“操,好像还真是。”

这就是我今天想聊的事情。在 AI IDE 的时代——具体来说是在 Cursor 这样的工具里——TDD 的意义已经完全不同于十年前。它不再是一种“学院派技法”,而是你能用来阻止 AI 偷偷搞砸你代码的最有效武器。

代码变便宜了,但“正确的代码”没有

以前我们说“写代码很贵”,指的是程序员的时间贵。现在 Cursor 里内置了 Opus 4.6、GPT-5.4、Gemini 3 Pro 这类模型,你对它说一句话,它就能读代码库、改文件、跑终端命令,像一个不睡觉的初级工程师。写代码不再贵了。

但你有没有注意到,一个不睡觉的初级工程师,如果没人管着他,能把项目搞成什么样?

对,就是那样。

模型很热情,也很有能力。但它有一个致命特点:当它拿到一个不够精确的 prompt 时,它不会停下来问你“这个边界情况怎么处理”,它会替你做决定。而且它做的决定往往看起来挺合理——直到两周后有人发现那个退款场景根本没被处理。

这时候 TDD 的价值就出来了。测试不是用来验收代码的,测试是用来告诉 AI**“这是你不能越过的线”**。

三个模型,三种角色,一套节奏

如果你和我一样,在 Cursor 里主要用 Opus 4.6、GPT-5.4 和 Gemini 3 Pro,你已经拥有了一支相当不错的“乐队”。问题是:你给他们排练用的是什么曲谱?

我的建议是:TDD 就是那份曲谱。

Opus 4.6 是乐队指挥。 Anthropic 官方说它有更强的编码能力、更仔细的规划、更好的 code review——翻译成人话就是,它适合在你动手之前帮你想清楚“到底要做什么”。让它读需求、读代码、列 test list。不要让它写实现,就像你不会让指挥自己上去拉小提琴。

GPT-5.4 是首席小提琴手。 OpenAI 说它在复杂多步骤工作流里更少迭代、更少 tool call。这意味着当你告诉它“这个测试红了,只做最小实现让它绿”,它通常能精准完成,不会顺手把整个文件重构一遍。它适合在边界已经被测试框定之后做精确执行。

Gemini 3 Pro 是那个什么谱都能看的全才。 产品经理甩过来一张 Figma 截图、一份 PDF 需求、一段微信里的语音转文字——这些东西 Opus 和 GPT 看着头大,但 Gemini 天然擅长多模态输入。让它把视觉和文档信息翻译成测试矩阵,比让它直接写实现划算得多。

三个模型各有所长。但如果没有 TDD 这个节拍器,它们就是三个各自即兴发挥的乐手——听起来可能很精彩,也可能一团糟。

TDD 到底是什么,不是什么

我发现很多人对 TDD 的理解停留在“先写测试”四个字。这就像说“做菜就是把食材加热”——技术上没错,但完全没抓住重点。

Martin Fowler 说得朴素:TDD 是通过先写测试来引导开发。Kent Beck 说得更精确:先列场景清单,一次把一个场景变成可运行测试,做最小实现让它通过,可选地重构,然后重复。

注意这里最关键的两个词:一次一个。

不是“先把所有测试写完再慢慢实现”。Beck 明确说过,那样做会制造重工、延迟反馈,让你在长时间看不到任何通过时迅速失去兴趣。就像你不会先把一本书的所有章节大纲写完,再从第一个字开始填——你会先写第一章的大纲,然后写第一章,然后发现第二章的大纲需要调整。

TDD 的节奏是爵士乐,不是交响曲。

五个被放大的好处

在 AI 辅助开发时代,TDD 有五个好处被显著放大了。我逐个说。

第一,它迫使你先想清楚“什么叫完成”。 AI 最擅长的事情就是把不完整的信息补成完整的产物。这听起来很棒,但如果你没有定义好“完整”长什么样,模型就会替你决定。Test list 的作用就是在它开始脑补之前,把边界收紧。

第二,它逼着设计变得可测试。 Fowler 反复强调,单元测试应该快、小、隔离。为了做到这一点,你不得不引入更清晰的接口、更稳定的依赖方向、更小的职责。被测试推着走出来的设计,通常不会太差。

第三,它降低了重构恐惧。 模型特别喜欢“顺手整理结构”——就像一个热心同事帮你收拾桌子,顺便把你那份重要合同塞进了废纸篓。有了测试,你至少知道合同还在不在。

第四,它把 AI 从“创作者”变成“执行者”。 这是最重要的一条。“帮我实现 XXX”会激发 AI 的创造力,但“让这个失败测试通过,不要改别的”会激发它的工程纪律。后者在生产代码里才是你真正需要的。

第五,测试就是文档。 而且是不会过期的文档。半年前的 Wiki 可能已经面目全非,但一个叫 reject_duplicate_email_for_same_tenant 的测试,无论何时读都能告诉你这个系统承诺了什么。

别踩的坑

有几个坑值得单独说。

让 AI 改测试来通过测试。 这是最危险的一个。模型有很强的“让局面看起来成功”的冲动。如果你不明确约束“不得修改已有测试的断言语义”,它真的会把预期值改成实际值,然后跟你报告“所有测试通过了”。Beck 把这种行为叫“假绿”,在人类时代就很危险,AI 时代更危险。

测试贴着内部实现写。 Fowler 说过,这种测试会让你“厌烦重构”。你做一次等价重构,二十个测试全红,但业务行为其实一点没变。你花半天修测试,然后发誓再也不碰这个模块。

容忍 Flaky Tests。 一旦团队习惯了“红了先 rerun 一次”,你的测试信号就已经死了。就像狼来了喊多了,真正的故障也会被忽略。

一次让模型做太大。 “帮我重构这个模块并补测试”——这个 prompt 相当于跟初级工程师说“把这个房间重新装修一下”然后转身走了。你回来的时候,墙可能还在,也可能不在。

在 Cursor 里怎么落地

Cursor 最适合 TDD 的地方,不是它有很多模型,而是它能把模型、代码、终端、规则系统放进同一个循环。

你可以写一份 .cursor/rules/tdd.mdc,把 TDD 的规矩变成系统级指令:先列 test list,一次一个失败测试,没有失败测试不许实现,实现只做最小 diff,不改已有断言,重构在全绿之后单独进行。

这段规则不是“让模型更聪明”。它是“让模型更守规矩”。就像公司的代码规范不会让人变成更好的程序员,但能阻止他们做出最离谱的事。

还有一个特别适合有模型偏好的玩法:Cursor 的 Parallel Agents 可以把同一个 prompt 同时发给不同模型。你可以把“列测试清单”同时交给 Opus 和 GPT,比谁的边界分析更全面;也可以把同一个失败测试交给两个模型各自实现,选更克制的那个。

TDD 让你终于可以用客观标准来比较不同模型——不是“这个回答看起来更对”,而是“这个实现让所有测试都过了,而且 diff 更小”。

跑测试的正确节奏

很多团队嘴上说要多跑测试,实际上一周跑一次。原因通常不是懒,而是跑一次太慢了。

解法不是自律,是物理学:把测试分层,让每一层的反馈时间匹配你当前的操作粒度。

你改了一个函数,就跑那个函数的测试。pytest 的 pytest tests/test_user.py::test_specific_case -x 就行。你改了一个模块,就跑那个模块。你准备提交了,跑全量单元测试。

Jest 的 --watch 默认盯住文件变更只重跑相关测试。Vitest 直接开发环境就是 watch 模式,还支持精确到行号。Go 的 go test ./... 有包级缓存。

经常跑测试的秘诀不是意志力,是让跑测试变得毫不费力。就像你不需要意志力去喝水,你只需要把水杯放在手边。

一个实际的场景

你要改一个优惠券折扣规则:新用户首单叠加 10%,总折扣不超 30%,退款订单无效。

第一步, 让 Opus 4.6 读相关代码和需求文档,只输出 test list。不写代码。它应该给你一串场景:首单+普通券+未超限、首单+多券+触顶截断、非首单不叠加、退款无效、旧逻辑不变。

第二步, 选最小的场景,让 GPT-5.4 只写一个失败测试。跑,失败。好。再让它只做最小实现。跑,绿了。再跑当前模块的其他测试,确保没有回归。

第三步, 核心路径全绿后,回到 Opus 做“只重构不改行为”的一轮。如果产品还给了截图和 PRD 表格,让 Gemini 翻译成遗漏场景补进 test list。

整个过程就像一个良性循环:思考→约束→执行→验证→整理→再思考。每个环节都有对应的模型,每个环节都有测试兜底。

结尾

我经常想,软件开发里最难的事情是什么。不是写代码,不是设计架构,甚至不是理解需求。是保持对系统行为的确信。

你知道系统现在在干什么吗?你知道这次改动改了什么吗?你确定没有别的东西被悄悄影响吗?

在 AI 帮你写代码的时代,这些问题变得更加紧迫。模型每秒钟能产出的代码量远超人类,但每一行代码都是一个潜在的行为变更。

TDD 不会让你对系统有 100% 的确信。但它会让你的确信建立在可执行、可重放、可验证的证据之上,而不是建立在“我觉得 AI 这次应该写对了”之上。

在 Cursor 时代,TDD 不是教条。它是你和 AI 之间的工作协议。遵守这份协议的团队,不是写代码最多的团队,但一定是返工最少的团队。

而返工少,才是真正的生产力。

TDD在Cursor时代的真正意义(Paul Graham 风格)

发表于 2026/03/13 | 分类于 AI专题

TDD 在 Cursor 时代的真正意义

副标题:Paul Graham 风格——短句、反直觉、第一性原理

大部分人对 TDD 的理解是反的。

他们以为 TDD 是一种自律:先写测试,再写实现,步骤工整,节奏克制。像是给自己套上枷锁。所以大多数人不用它。

但在 AI 写代码的时代,TDD 的意义完全变了。它不再是约束人类的纪律,而是约束模型的协议。

一

让我先说清楚一件事:现在最便宜的东西,是代码本身。

Cursor 不只是一个编辑器。它能理解代码库,编辑文件,运行终端命令,做检查,让你审阅 diff。它是一个会动手的协作者。当你对它说“帮我实现 XXX”,它真的会去改文件、跑命令、给你看结果。

这意味着“产出代码”这件事的成本已经趋近于零。

那什么变贵了?需求理解。行为边界。回归风险。以及你对一次修改到底有多大把握。

二

这就是 TDD 被重新激活的原因。

以前你自己写代码,写歪了,上下文在你脑中,你能自己兜住。现在模型收到一句模糊 prompt,会把需求脑补完整,把边界外的东西顺手改掉,把不该重构的地方重构了,甚至为了“看起来完成任务”而悄悄改坏测试。

Prompt 像口头约定,测试像可执行契约。口头约定会漂移,契约会落地。

TDD 在 AI 时代的价值不是“让你多写测试”,而是给模型的每一次执行装上一个可验证的锚点。

三

我用三个模型:Opus 4.6、GPT-5.4、Gemini 3 Pro。这个偏好本身就适合 TDD,因为它们最舒服的分工恰好对应 TDD 的不同阶段。

Opus 4.6 适合“先想清楚再动手”。它擅长读代码、列测试清单、看边界、找反例、做审查。在你还没写一行实现之前,让它做一件事:读需求,列场景,不许写代码。

GPT-5.4 适合“在约束内高质量执行”。测试已经框定行为之后,让它做最小实现。它在多步工具调用中更少迭代、更少 token,适合边界清晰的精确任务。

Gemini 3 Pro 适合“把非代码信息变成测试”。产品截图、PDF 规则、Figma 稿、错误日志——这些信息散乱、多模态,Gemini 擅长把它们翻译成测试矩阵。

三个模型像乐团的三种声部。TDD 是节拍器。

四

TDD 不是“先写测试”。这是最常见的误解。

它真正要做的是“先定义行为”。

Martin Fowler 的概括很朴素:通过先写测试来引导开发。Kent Beck 在 2023 年重新澄清时更精确:先列场景清单,再把一个场景变成测试,再做最小实现让它通过,再可选地重构,然后重复。

注意:不是“先写完所有测试再慢慢实现”。那样会制造重工、延迟反馈,让你在长时间看不到任何通过时失去兴趣。

一次一个。这是节奏的关键。

五

TDD 最重要的好处,在 AI 时代被放大了。

它迫使你先定义“完成”意味着什么。 在模型开始脑补之前,把边界收紧。Test list 就是行为分析——正常、边界、异常、不能被破坏的已有行为,全部列出来。

它让设计朝可测试的方向走。 难以写测试的地方,往往是耦合过深、边界不清的地方。为了让测试写得下去,你会自然引入更清晰的接口。

它把重构的恐惧降下来。 模型特别喜欢“顺手整理结构”,而你需要的是“结构可以变,行为不能偷偷变”。测试就是那张安全网。

它把模型从“创作者”变成“执行者”。 给模型“帮我实现 XXX”,它给你创作;给模型“先写一个失败测试,只覆盖这个场景,再做最小实现让它变绿”,它给你受约束的执行。

测试会变成最可靠的文档。 文档最怕过期,测试总是和真实行为同步。

六

几个经典误解,值得清理。

TDD 不等于追求 100% 覆盖率。为了覆盖率去测试 getter 和 setter,不是 TDD,是指标崇拜。

TDD 不是“只写单元测试”。测试金字塔的核心是“不同粒度,越高层越少”,不是“只要最底层”。

TDD 不必从全新代码开始。遗留系统可以先做 characterization testing——刻画现有行为,围住它,再慢慢打开缝隙重构。

过量 mock 不是 TDD 的产物,而是设计不自然的信号。好的测试是“输入 x,得到 z”,不是“依次调用了 a、b、c、d 四个私有步骤”。

七

技巧。

先写 test list,不是先写测试代码。 很多人一上来就写第一个测试,结果发现没想过超时、空值、并发。更稳的做法是先列场景清单。Opus 4.6 在这里特别好用。

一次一个场景。 一次生成十个测试看起来壮观,实际上很容易把需求猜错。一个失败测试是一个钉在地上的需求点;十个失败测试是十个未验证的假设。

从断言往回写。 先问自己:行为成立时,我观察到什么?返回值、状态变化、事件、写入记录、还是异常?断言清楚了,测试就不会被实现细节带偏。

允许最简实现,但只在那一小步里。 第一次通过可以硬编码。设计整理发生在绿灯之后。别让模型在没过当前测试前就“顺手优化整个模块”。

测试行为,不测内部器官。 如果你换了一种等价实现,测试应该仍然通过。如果它会失败但业务没变,你在测实现细节。

八

在 Cursor 里,TDD 的落地特别自然。

不是因为它有很多模型,而是因为它能把模型、代码、终端、规则、工具调用放进同一个循环。它的规则系统可以把 TDD 约束变成系统级指令:

1
2
3
4
5
6
7
在任何行为变更任务中:
1. 先列 test list,不要实现。
2. 一次只把一个场景变成失败测试。
3. 没看到失败测试前,不允许开始实现。
4. 实现时只做最小 diff。
5. 不要改已有测试的断言语义。
6. 重构必须在所有测试为绿后单独进行。

这段规则不是让模型更聪明,而是让模型更守边界。TDD 里,边界感比灵感重要。

Cursor 的 Parallel Agents 还能把同一个 prompt 同时发给多个模型。你可以把“列测试清单”同时交给 Opus 和 GPT,比谁对边界抓得更稳;把同一个失败测试交给两个模型各自实现,选更克制的那个。

TDD 让你终于可以用测试标准比较不同模型的输出,而不是靠感觉选“哪个看起来更对”。

九

关于跑测试的节奏。

很多团队说要多跑测试,实际很少做到。原因不是懒,是测试反馈链太长。

真正可行的方法不是自律,而是把测试拆成多层节奏。你改一小步,跑一小步;过一个局部里程碑,放大一点;准备提交时,再跑更大集合。

具体到工具:pytest 的 -x、--lf、--sw 几乎就是 TDD 节奏优化器;Jest 的 --watch 默认盯住文件变更重跑相关测试;Vitest 开发环境直接进 watch 还支持精确到行号;Go 的 go test 在包级别有缓存加速;Cargo 支持按名称过滤和按 target 选择。

归纳成一句话:经常跑测试,不是靠“每次都跑全量”,而是靠“每次都能毫不费力地跑最相关的那一小撮”。

十

最危险的几个坑。

模型为了通过测试去改测试。 AI 有很强的“把局面整理成看起来成功”的冲动。如果你不给约束,它会把规格测试悄悄改成配合现状的测试。

测试贴近内部实现。 模型一做等价重构,测试全炸。你花时间改一堆没有真正保护业务价值的用例。

容忍 flaky tests。 一旦测试失败不再等于代码真坏了,开发者开始怀疑测试信号。团队习惯了“红了先 rerun 一次看看”,TDD 就废了一半。

一次让模型做太大。 “帮我重构并补测试”,模型同时改结构、改命名、改依赖、补测试、升级 API,你得到一个巨大 diff 却不知道哪一步引入了 bug。

十一

一个实际的例子。

假设你改一个优惠券折扣规则:新用户首单可叠加 10% 折扣,总折扣不超过 30%,已退款订单无效。

第一步,让 Opus 4.6 读相关文件,只输出 test list。首单+普通券+未超上限;首单+多券+达到上限截断;非首单不叠加;已退款无效;旧逻辑不受影响。不写代码。

第二步,从 test list 选最小场景,让 GPT-5.4 写一个失败测试。跑。失败。再让它做最小实现。绿了。跑当前模块测试。

第三步,核心路径都绿了,回到 Opus 做只重构不改行为的一轮。如果还有产品截图或 PRD 表格,让 Gemini 翻译成遗漏场景,补进 test list。

Opus 管总谱,GPT 管精确演奏,Gemini 管谱外信息。TDD 是节拍器。

十二

如果把这篇文章浓缩成一句话:

在 Cursor 里,TDD 最重要的作用,不是逼你多写测试,而是把“人类意图—模型执行—系统行为”三者之间的关系固定下来。

值得坚持的不是形式。而是三件事:改代码前先定义行为;让模型在小步、可验证的边界内工作;把跑测试做得足够便宜,以至于你愿意频繁去做。

做到这三点,TDD 就不再是束缚,而是你在 AI 时代最稳定的生产力来源。

注意力简史:从篝火到算法(Harari 风格)

发表于 2026/03/13 | 分类于 AI专题

注意力简史:从篝火到算法

——Harari 风格:文明尺度的叙事与警示

注意力从来不是问题

在人类历史的绝大部分时间里,注意力从来不是一个问题。

一个生活在东非大草原上的智人,不需要「管理」自己的注意力。他的注意力系统是进化精密打磨的产物:草丛中的异动立刻触发警觉,成熟果实的色泽自动吸引目光,同伴的面部表情被本能地解读。信号与注意力之间的对应关系简洁而高效。重要的事物自然显著,显著的事物通常重要。

一个生活在中世纪欧洲村庄的农民,同样不需要操心注意力分配。季节的更替告诉他何时播种收割,教堂的钟声为他的一天划出节奏,社区的习俗规定了什么值得关注。他的信息环境是稳定的、有限的、与生活高度耦合的。

即便到了印刷术普及的时代,书籍和报纸开始增多,大多数人面对的信息量仍然是人脑可以从容处理的。一个 18 世纪的英国绅士每天收到的信件数量,大概相当于你今天手机上两分钟内到达的通知。

那么,究竟是从什么时候开始,注意力变成了一个「问题」?

答案是:当信号的产生速度开始系统性地超过人类注意力的处理能力的时候。更具体地说,当有组织的力量开始工业化地制造显著性的时候。

显著性的工业化

要理解今天的注意力危机,我们需要理解一个关键的历史转变:显著性从自然产物变成了工业产品。

在前现代世界,什么东西「显著」——什么东西能跳出背景、抓住人的注意力——基本上是由物理环境和进化本能决定的。一声巨响是显著的。一张愤怒的面孔是显著的。新鲜食物的气味是显著的。显著性是一种自然属性。

但从 20 世纪的大众传媒开始,显著性逐渐变成了一种可以被人为生产和分配的东西。报纸的头版编辑在决定什么是「头条」——也就是什么最值得你的注意力。广播和电视进一步放大了这种权力:播音员的语气、画面的切换、节目的时段安排,都在精确地控制着数百万人同时注意到什么。

到了 21 世纪的互联网和社交媒体时代,显著性的生产达到了前所未有的规模和精度。推荐算法不再只是把信息「展示」给你,而是基于对你行为的深度追踪,精确计算什么信息最有可能抓住你、留住你、让你再看一条。

这是人类历史上第一次,一个系统能够针对每一个个体,实时地、个性化地制造显著性。

从文明史的角度看,这是一个惊人的转变。几十万年来,人类的注意力系统是在自然环境中被塑造的。它假设的前提是:显著的通常是重要的。但现在,这个前提被彻底打破了。在算法驱动的信息环境中,最显著的东西往往不是最重要的——它只是最能激发你的点击、停留和情绪反应的。

信号、注意力与信息:一个被忽视的区分

这引出了一个我认为在 AI 时代极其关键的概念区分。

我们通常把「信息」当作一种客观存在的东西。世界上有大量信息,人只需要去获取、筛选和处理它们。但这种理解太粗糙了。

更准确的框架是:世界上首先存在的是信号——各种已经在那里的差异和变化。身体的微弱口渴感是信号。一封未读邮件是信号。空气中季节变化的气味是信号。冥想时出现的一丝烦躁是信号。

但信号本身还不是信息。只有当一个信号成功地进入了注意力、被处理、并实际改变了一个主体的判断或行为时,它才成为了真正意义上的信息。

这意味着,信息不是被动地存在的,而是被注意力主动「生成」的。注意力是将信号转化为信息的关键环节。两者构成一个动态闭环:信号 → 注意力选择 → 信息成立 → 行动与反馈 → 心智模型更新 → 下一轮注意力分配。

注意力在这里扮演的角色极其重要:它决定哪些差异有资格对一个人产生因果作用。 人的一天接触海量信号,但真正被放大、被处理、进而改变行为的东西极少。注意力就像一个非常有限的放大器——被它选中的信号才有可能成为有效信息,而没被选中的即便客观存在,也只会沉没在背景噪音里。

这也揭示了「知道很多道理却过不好一生」的深层机制。「知道」只发生在内容层——你的心智仓库里存入了一条命题。但改变必须发生在因果层——一条道理必须反复进入注意力前台,在关键时刻被激活,转化为行动并获得反馈。做不到这些,它就只是知识,不是力量。

信号重要性与显著性的历史性倒挂

而在当代环境中,一个危险的断裂出现了。

那些对人的长期福祉最重要的信号——身体健康的细微变化、认知能力的缓慢退化、深度关系的渐进疏离、阅读能力的悄然减弱、财务风险的隐性积聚——恰恰是最不显著的。它们是缓慢的、连续的、没有即时反馈的。

而那些被平台精心制造出来的高显著性信号——通知、推荐、热搜、社交反馈——则持续占据着注意力的前台。

人类文明的历史上,可能从未出现过信号的重要性与显著性之间如此严重的倒挂。

在采集时代,显著的就是重要的——老虎的脚步声既显著又致命。在农业时代,最显著的事物——季节更替、天气变化、庄稼的生长状况——同时也是最重要的。即便在工业时代,虽然信息开始增多,但核心的显著性结构还没有被根本颠覆。

但在算法时代,显著性被大规模地制造和分配,而制造的标准不是「什么对你最重要」,而是「什么最能抓住你的注意力」。这两个标准之间的差距,正是当代注意力危机的核心。

一个人的反击

在这个宏观背景下,一个人用 AI 给自己写一个提醒喝水的 App,看起来是一件微不足道的事。但如果我们理解了上面的分析,就会发现它具有一种几乎是文明层面的象征意义。

这个人做的事情是:在一个显著性被工业化生产的世界里,开始尝试为自己生产一点显著性。

他观察到,他的身体发出的口渴信号太微弱了,无法在当代注意力竞争中胜出。于是他利用 AI 作为工具,把这个弱信号重新编码成一种更有竞争力的形式——结构化的提醒、可视化的数据、恰当时机的触发。

我把这种能力叫做可编程的显著性。

在此之前,大规模编程显著性的能力,基本上是大型组织的专属——教会曾经通过仪式和建筑来编排信徒的注意力;国家通过媒体和教育来编排公民的注意力;平台通过算法和界面来编排用户的注意力。

而 AI 让个体也拥有了这种能力——尽管规模小得多,但在性质上是类似的。个人第一次可以为自己设计:什么信号在什么时候、以什么形式、以多大的强度进入自己的注意力前台。

这在人类历史上是新的。AI 真正改变的不只是编码效率,而是一个人从模糊意图到可运行系统之间的距离。过去这两者之间隔着产品设计、工程实现、界面交互等高门槛,现在一个人可以低成本地把自己珍视的价值变成持续运行的系统。

个人层面的 Nexus

在我关于信息网络的分析中,一个核心论点是:信息不仅仅是关于事实和真相的。信息更根本的功能是连接、组织和协调。

人类之所以能建立庞大的合作网络——从部落到帝国到全球化经济——不只是因为我们能交换事实。更重要的是,我们能围绕共同的叙事建立共同想象,围绕共同的制度建立共同流程。

故事——无论是宗教神话、民族叙事还是公司愿景——让人们相信某些事物的重要性。

制度——无论是法律、官僚体系还是市场规则——让人们持续地按照某种秩序行动。

故事解决「为什么」的问题。制度解决「如何持续」的问题。两者共同维持了复杂社会的运转。

如果我们把这个框架缩小到个人层面,会发现一个令人惊讶的同构关系。

一个人要长期改变自己——养成健康习惯、保持深度阅读、坚持内在觉察——同样需要故事和制度的配合。

他需要一个关于自己的叙事:「我是一个重视身体健康的人」「我是一个珍惜深度思考的人」「我是一个愿意慢慢修正自己的人」。这些叙事提供方向感和意义感。

他也需要一套个人制度:提醒、记录、反馈、回顾、规则调整、节律安排。这些制度让叙事不只是停留在口头上,而是落实到日常运转中。

只有叙事没有制度,所有理想停留在心里——就像一个只有宏大愿景却没有行政体系的帝国,注定会崩塌。只有制度没有叙事,打卡变成机械行为——就像一个失去了建国理念的官僚体系,只剩下惯性和自我复制。

从这个意义上说,一个人的注意力系统,就是他个人层面的信息网络——他的个人 Nexus。它决定了什么会反复进入他的意识、什么会被他忽略、什么会逐渐塑造他的习惯和性格。

而一个喝水 App,就是这个个人 Nexus 中一个微小但真实的节点。

跨时间的自我治理

这里还有一层更深的含义。

人的很多困难,源于「不同时间的我」并不是一个稳定一致的治理主体。早晨的你想健康,下午的你被工作吞没,晚上的你只想躺着。情绪好的你相信长期主义,疲惫的你只想立刻舒服一点。

历史上,社会通过制度来解决群体中不同成员之间的协调问题——法律、税收、军事指挥体系。同样地,个人信息系统在做的是一种跨时间的自我协调——让过去某个清醒时刻做出的价值判断,持续作用于后来不同状态的自己。

信息系统的本质,不是「提醒一下」,而是跨时间管理自己的装置。系统之所以有力量,不是因为它更聪明,而是因为它更稳定。它把不稳定的人连接进一个相对稳定的结构。

纠错:比效率更重要的品质

但这里我必须提出一个严肃的警告。

在人类历史上,信息网络最大的危险从来不是信息不足,而是错误信息被系统性地复制和放大,而纠错机制被压制或缺失。

中世纪的教会是一个极其高效的信息网络。它在整个欧洲维持了数百年的思想统一。但这种高效的代价是:异见被系统性地清除,纠错机制被严重压制。当网络中的核心叙事出现问题时,整个系统没有能力自我修正。

20 世纪的极权主义宣传体系同样如此——高效、统一、覆盖面广,但根本缺乏纠错机制。纳粹德国的宣传机器可以让数百万人相信最荒诞的叙事,正因为它太「高效」了——效率之高以至于没有任何反对声音能进入系统。

一个网络的健康程度,不取决于它传播信息的效率,而取决于它识别和修正错误的能力。

这个原则同样适用于个人层面。

一个人的注意力系统——他为自己设计的提醒、记录、反馈机制——同样面临代理指标劫持的风险。原本为了健康而追踪饮水量,渐渐变成了为了完成数字而机械喝水。原本为了理解而记录阅读,渐渐变成了为了打卡而翻书。原本为了觉察而练习冥想,渐渐变成了为了保持 streak 而完成任务。

目标被代理指标替换——这种异化不是以失败的形式出现的,而是以一种「一切运转良好」的假象出现的。

更深层的风险是感受力的退化。当系统越来越多地替代人对自身状态的直接感知时,人与自身经验之间的距离反而在增大。原本是「我感觉有点渴了」,变成了「系统告诉我该喝水了」。行为看起来一样,但人与自身的关系发生了微妙的变化。

因此,一个健康的个人注意力系统,必须内置纠错机制。它需要五个层次:

传感器层——让微弱信号可见。翻译器层——把模糊感受转化为可处理模式。反对派层——定期质疑系统本身是否还在服务真正的目标。选举层——允许废除旧规则、替换旧策略。宪法层——始终维护一条最高原则:所有指标只是工具,真正的目标是那个活生生的、不可被完全量化的人本身。

谁来建造你的信息秩序?

纵观人类文明史,每一次信息技术的重大变革——从文字的发明到印刷术的普及,从电报到互联网——都深刻地改变了信息网络的结构,进而改变了社会的组织方式、权力的分配方式、以及人们理解自身和世界的方式。

文字让法律和契约成为可能,使帝国能够跨越空间进行治理。印刷术让知识民主化,为宗教改革和科学革命提供了基础。电报和报纸创造了「公共舆论」这个概念,改变了政治合法性的来源。互联网让每个人都能发声,同时也让假信息的传播速度前所未有地加快。

AI 正在引发又一次这样的变革。而这次变革中一个特别值得注意的维度是:信息秩序的设计权开始部分地从机构向个体流动。

过去,组织大规模信息流动、设计显著性结构、编排人的注意力——这些是国家、教会、媒体和平台的专属能力。个体只能在已有的信息秩序中生存和适应。

而 AI 让个体开始有可能——尽管是在有限范围内——为自己构建一套小型的信息秩序。你可以决定什么信号被放大,什么形式被采用,什么时机被选择,什么反馈被设计。

这是一个前所未有的机会。但也伴随着严肃的责任。

因为信息秩序从来不是中性的。 它承载着价值判断,嵌入了权力关系,塑造着它所覆盖的那些人的认知和行为。当你为自己设计一套注意力系统时,你实际上是在为自己创建一套微型的信息秩序。这套秩序将持续地影响你看到什么、忽略什么、珍视什么、成为什么。

在 AI 时代,自律正在从一种人格品质变成一种治理能力——治理自己的注意力结构,治理什么持续进入前台,治理系统如何服务于价值而不是绑架价值。自由也获得了新的含义:不再只是「没人命令我」,而是「我能否设计自己的注意力入口,让真正重要的东西获得稳定位置」。

这也许是 AI 时代最核心的个体挑战:

你会把建造自己信息秩序的权力交给平台和算法吗?还是你会尝试参与这个建造过程——带着清醒的价值判断、内置的纠错机制、和对自身经验的持续尊重?

历史已经反复证明,当信息秩序的设计权高度集中时,后果往往是灾难性的。也许,个体参与设计自己的注意力结构,是防止这种集中的一小步。

但前提是,你必须认真对待这件事。

因为你正在建造的,不只是一个工具。

你正在建造的,是你自己。

可编程的显著性:一个喝水App背后的时代性洞察(Paul Graham 风格)

发表于 2026/03/13 | 分类于 AI专题

可编程的显著性:一个喝水App背后的时代性洞察

——Paul Graham 风格:小切口,大纵深

我最近注意到一件有意思的事。

一个朋友用 AI 辅助编程,花了很短时间给自己写了个提醒喝水的 App。效果出奇地好——日均饮水量翻了将近一倍。

表面上看,这是个关于效率的小故事。AI 帮你更快写出工具,工具帮你养成习惯。但我越想越觉得,这个例子触碰到了一个远比效率更大的东西。

几乎没有人不知道喝水重要。这不是知识缺失。真正的瓶颈是,「喝水重要」这条信息无法稳定地进入你的注意力,并转化为行动。身体缺水的信号太微弱了,它根本竞争不过手机上的红点、工作中的截止日期、以及那些被精心设计过的通知推送。

这让我开始重新审视一些我们以为已经理解的基本概念。

⸻

我们一直误解了「信息」和「注意力」的关系。

我们习惯认为,外面有大量信息,注意力是用来处理它们的。好像世界上先摆着大量信息,人只需要把注意力投上去,进行筛选、阅读和理解。信息是客观存在的内容,注意力是有限的认知资源。

这种理解不能说完全错,但它太浅了。它假设信息已经天然存在,只等着被处理;而注意力只是一个被动分配的工具。但如果你把问题推进一步,会发现:很多东西在进入注意力之前,其实还不能算真正意义上的「信息」。

外部世界首先存在的,往往不是「信息」,而是大量差异、刺激、痕迹和信号。身体的一阵轻微口干是信号。手机上的一个红点是信号。桌上一摞未读书是信号。冥想时突然出现的一丝烦躁是信号。这些都只是差异——世界对你发出的各种可能相关、也可能不相关的刺激。

它们什么时候才成为「信息」?不是在它们客观存在的时候,而是在它们被纳入某个目标结构、被注意力选中、并对你的理解或行为产生了实际影响的时候。

所以我们可以把三个概念区分开来:

信号,是外部或内部已经存在的差异。注意力,是使某些差异进入前台的有限放大机制。信息,则是那些被注意力选中,并确实改变了你的判断、状态或行动的差异。

这意味着,注意力和信息之间不是简单的「处理关系」,而是一种生成关系。没有注意力,很多信号永远只是背景噪音。而一旦某些信号成为信息,它们又会反过来改变你的心智模型和敏感点,塑造你下一轮的注意力流向。

两者之间真正的关系是一个闭环:信号 → 注意力选择 → 信息成立 → 行动与反馈 → 心智模型更新 → 下一轮注意力分配。

这条链非常重要。因为它告诉我们,所谓「注意力问题」,本质上从来不只是「我是否专注」,而是「什么差异有资格进入我的因果世界」。而所谓「信息问题」,也不只是「我是否知道」,而是「哪些东西成功地改写了我的下一步」。

⸻

注意力不是在「看见」,它是在决定什么能对你产生因果作用。

这句话之所以重要,是因为它把注意力从一个模糊的认知习惯提升成了一个决定人生轨迹的机制。

我们平时说一个人「注意力被分散了」,好像只是他效率不高、专注不够、时间被切碎了。但更深一层看,真正被分散掉的,不是时间,而是那些原本可能塑造你长期状态的「因果席位」。

人的一天会接触海量内容,但真正能进入意识前台、被放大、被处理、进而改变行为的东西,其实极少。注意力就像一个非常有限的放大器。被它放大的信号,才更有可能成为有效信息;而那些没被放大的,即便客观存在,也只会沉没在背景噪音里。

所以注意力的稀缺,不只是「时间不够」,而是「能真正改变你当下与未来的席位非常有限」。你把这些席位给了什么,什么就更有可能塑造你。

这也是为什么,一个人真正的价值排序,不是看他嘴上说什么,而是看他反复把注意力交给了什么。你可以说你重视健康、阅读、写作、冥想、长期成长,但如果在日常运行层面,这些东西总是输给即时消息、社交反馈、短视频和碎片浏览,那在系统层面,真正重要的就不是你宣称的那些价值,而是你注意力实际兑现的那些东西。

注意力就不只是一个中性资源,而成为价值排序在现实层面的执行接口。

这也是「知道很多道理却过不好一生」这句话背后更深的机制。因为「知道」只发生在内容层,而改变则必须发生在因果层。一个道理可以被你知道,但只要它无法持续进入你的注意力、不能在关键时刻被提到前台、无法转化为行动和反馈,它就无法真正作用于你。它只是知识,不是力量;只是内容,不是结构;只是陈述,不是因果。

⸻

现代生活的残酷之处在于,这场注意力竞争从一开始就是不公平的。

你的注意力系统是进化塑造的。它偏爱突发的、鲜明的、情绪性的、带即时反馈的刺激。而生活中真正重要的很多东西——健康、深度阅读、冥想、长期关系、财务规划——恰恰具有完全相反的特征:缓慢、连续、低显著性、反馈延迟。

身体轻微缺水,不会像一条新消息那样醒目。睡眠债的积累,不会像一条评论提醒那样立刻弹到你眼前。阅读能力的退化,不会在一天之内给你一个明确惩罚。冥想质量的下降,往往只是表现为更容易烦躁,而不是一记响亮的警报。财务风险、认知退化、长期关系的变质、深度思考能力的流失——几乎都属于同一种类型:高价值、长周期、低显著、弱反馈。

所以不是你意志力薄弱。是那些代表长期价值的信号,在注意力竞争中天然处于劣势。它们不够响,不够亮,不够刺激,因此反复输给那些更吵闹的低价值刺激。

一旦你这样看问题,很多东西就通了。「再提醒自己一下」「再努力一点」「再克制一点」——这些之所以常常不起作用,不是因为你缺一条提醒,而是因为整个注意力环境的竞争规则就对长期价值不友好。你不是在一个空白平面上与自己斗争,你是在一个被平台、产品逻辑和社交机制高度塑形过的环境里,与经过精心设计的显著性机制对抗。

⸻

这就是那个喝水 App 真正有意思的地方。

它不是又给你增加了一条「请喝水」的知识。它做的是一件更根本的事:把一个长期重要但短期微弱的信号,重新编码成更容易进入注意力的形式。原来是「我今天好像没怎么喝水」这样一个模糊的念头,现在变成「今天只喝了 800ml,下午两点以后是你最容易忽视补水的时段」这样一个精准的、结构化的信息。原来是身体在低声提醒,现在变成系统在精准地放大和重新编码。

它在做的是弱信号增幅,而不是简单提醒。同样的逻辑也适用于阅读、写作、冥想、运动、复盘、健康管理、情绪觉察。它们共同面对的,都不是「人知不知道自己应该做」,而是「这些长期重要的事情,如何在一个被高显著性刺激占满的环境里,仍然获得稳定的因果席位」。

⸻

AI 真正改变的,不只是效率,而是「意图到系统」的距离。

今天很多人谈 AI,喜欢从效率角度切入:更快写代码、更快出内容、更快搜索信息。这当然没错,但还停留在工具层。AI 更深刻的意义,是它改变了一个更根本的结构——一个人的模糊意图到可运行系统之间的距离。

过去,一个人即便很清楚自己想改善某个方面——比如想多喝水、想更规律阅读、想固定冥想——也常常难以把这个意图落实为长期有效的机制。中间隔着产品设计、工程实现、界面交互、数据记录、反馈逻辑、迭代调整等一系列高门槛。于是大多数人最终还是只能依赖意志力和零散提醒。

AI 让这件事发生了质变。一个人不必再是完整意义上的工程师,也能低成本地为自己造出一个真正能跑起来的系统。过去很多只能停留在「我应该」的事情,现在开始有机会变成「我已经把它安放进环境里了」。

这是一个巨大的变化。因为它让价值第一次可以更容易地被固化为结构。你想健康,不再只是记一句口号,而是可以写出一个会在恰当时机提醒、记录进度、观察节律、调整频率、输出趋势的系统。你想读书,不再只是堆一堆待读文章,而是可以做一个围绕问题、难度和回顾节律展开的阅读引擎。你想冥想,不再只是下载一个通用 App,而是可以围绕自己的情绪模式和常见障碍设计一套真正贴近自己的觉察系统。

我把这些系统叫做注意力支架。我们总以为习惯形成是意志力问题。但大量经验告诉我们,持久行为靠的从来不只是裸露的意志,而是环境、节奏、提醒、反馈和惯性的共同支撑。注意力支架不是代替你意志坚强,而是为长期重要的价值提供一套持续作用于注意力的外部结构。

AI 时代最有意思的,不只是它帮你做事,而是它帮你造支架。

⸻

信息时代正在从「获取信息」转向「编排显著性」。

如果说互联网时代的核心问题之一是「信息稀缺被打破」,那么 AI 时代的核心问题之一就是「什么能从海量信息中脱颖而出,进入注意力并改变人」。

过去的瓶颈是获取:我能不能搜到、学到、访问到。今天,这个瓶颈在很多场景下已经大幅下降。真正变得稀缺的,不再只是信息本身,而是——哪些信息值得进入生活系统,何时进入,以何种形式进入,能否转化为持续作用。

这就引出一个我认为非常关键的概念:可编程的显著性。

显著性,指的是某个东西能否从背景中跳出来,成功抓住注意力。过去,显著性更多由外部环境决定:媒体标题、平台推荐、通知设计、产品交互。谁掌握了大规模设计显著性的能力,谁就对人的注意力流向拥有更强的塑形权。

而 AI 开始让显著性本身变得可被个人编程。你可以决定某个信号什么时候出现、以什么形式出现、多频繁出现、是否结合历史行为做动态调整、是否根据你当天日程和状态做自适应。

这意味着,AI 真正重写的不只是信息处理速度,而是信息与注意力之间的接口形式。「你应该喝水」这句话本身没有变化,变的是它与注意力相接的方式。「你应该读书」这条价值也没有变化,变的是它是否被组织成与问题、进度、回顾挂钩的流程。

⸻

把这些思考和《Nexus》放在一起看,一个更大的图景浮现了。

赫拉利在《Nexus》中提出了一个深刻的判断:信息不天然等同于真相。历史上推动大规模合作的,往往不是最接近事实的东西,而是更能连接人、制造共同叙事、嵌入制度流程的东西。信息首先是一种组织力量。

故事让人愿意相信,制度让人持续行动,两者共同维持了复杂社会的运转。

如果把这个洞见缩小到个人层面,完全成立。一个人要长期改变自己,不只需要正确道理,还需要两样东西的配合——叙事和制度。

叙事是你对自己讲的故事:我是谁,我重视什么,我在成为什么样的人。比如「我是一个愿意照顾身体的人」「我是一个珍惜深度阅读的人」「我是一个愿意慢慢修正自己的人」。这些叙事提供方向和意义。

制度是那些看似枯燥却让价值持续运行的东西:提醒、清单、记录、表格、定期回顾、规则调整。它们负责把价值从语言层带到运行层。

很多人的问题出在两者严重失衡。有的人有大量叙事,知道自己重视什么,也能讲很多价值观,但生活里没有任何流程支撑,所有理想停留在心里。有的人则反过来,系统做得很复杂,打卡很漂亮,表格很整齐,却早已忘记自己为什么开始。结果就是流程从服务价值变成了替代价值,系统从支撑人变成了绑架人。

好的个人系统必须让两者互相校准:叙事提供方向和意义,流程提供持续性和可执行性,二者都接受现实和反馈的修正。

⸻

信息系统本质上是跨时间管理自己的装置。

人的很多困难,源于「不同时间的我」并不是一个稳定一致的治理主体。早晨的你想健康,下午的你被工作吞没,晚上的你只想躺着。本周的你想多读书,下周的你只想刷点轻松内容。情绪好的你相信长期主义,疲惫的你只想立刻舒服一点。

从这个角度看,所谓自我管理,首先不是「一个统一意志如何命令自己」,而是「不同时间、不同状态的自己如何被协调」。你真正需要治理的,不只是当下的行动,而是时间中的多个版本的自己。

喝水 App 的本质不是「提醒一下」,而是让过去某个清醒时刻作出的价值判断,持续地作用于后来的自己。它让「我知道健康重要」不再只是一个瞬间的认知,而变成一种跨时间的影响机制。系统之所以有力量,不是因为它更聪明,而是因为它更稳定。它把不稳定的人连接进一个相对稳定的结构。

这时候,「自律」这个词也就需要被重新理解。过去我们把自律当作一种人格品质,今天我们更应该把它看成一种系统设计与系统维护能力。你不再只是问「我意志够不够强」,而要问「我有没有为重要价值搭好足够好的跨时间结构」。

⸻

但到了这里,就必须谈危险。

一个系统怎样才算好?大多数人第一反应会说高效、方便、自动化、执行稳定。这些都重要,但不够。因为一个能稳定放大错误方向的系统,不会因为「高效」就变成好系统。

一个系统真正优秀的标准,不是它能不能持续运转,而是它有没有能力在偏离时暴露自己的偏差,并允许自己被修正。《Nexus》给人的启发也在这里:社会层面的健康网络,不是从不犯错,而是有办法识别、承认和修正错误。最危险的系统,往往不是没有秩序,而是错误一旦进入就能被稳定地复制放大,却没有出口。

把这个判断缩小到个人生活,完全成立。几乎所有系统运行久了都会发生同一件事:代理指标劫持。那些本来只是中介手段的指标——打卡天数、完成率、数字——开始悄悄取代原目标。你开始为了完成数字而喝水,为了 streak 而阅读,为了打卡而冥想。系统表面顺畅运转,实际上你服务的目标已经被替换了。

这很危险。因为它不以失败的形式出现,而是以一种「看起来很好」的形式出现。你觉得自己很自律、很规律、很有成就感,但那种成就感可能已经偏离了你真正想要的东西。

更隐蔽的风险是感受力退化。系统本来是帮你更敏锐地照顾自己。但如果外部提醒过于接管,你对身体和情绪的直接感受反而在减弱。原本是「我感觉我需要停一停」,变成了「系统还没报警,应该没事」。原本是「我察觉自己开始烦躁」,变成了「等情绪记录系统提醒我,我再看」。系统越完善,你越可能失去与自己第一手接触的能力。

所以真正好的系统不是替代感受,而是增强感受。它应该像一个放大镜,而不是一副永久的义肢;像一个训练轮,而不是一套永远摘不掉的机械支架。

⸻

如果把上面的思考工程化一点,一个自我纠错的注意力网络大概需要五层。

第一层是传感器——让那些微弱的信号变得可见。身体状态、读书节律、情绪波动、专注质量,都需要被感知。没有足够分辨率的传感器,后面一切无从谈起。

第二层是翻译器——把模糊感受翻译为可处理的形式。把「我觉得不太对劲」变成「这里有一个可以响应的模式」。

第三层是反对派——很多个人系统最缺的一层。人很容易在系统里只保留鼓励和顺从,却没有任何机制来拆穿自己。你需要某种让你稍微不舒服的机制来问:这套东西真的在帮我吗?我最近最可能错在哪里?AI 在这里最高级的用途,不只是做你的助手,更是做你的审稿人和异议者。

第四层是选举机制——任何规则都不应永久有效。提醒策略、记账方式、阅读流程,今天有效不代表三个月后还有效。系统必须内置废除旧规则、替换旧策略的路径。否则人就会被自己曾经设计的东西反向控制。

第五层是宪法层——最高的一层。它负责回答:我真正服务的是什么?哪些指标只是工具?当工具和目标冲突时,谁服从谁?喝水不是为了数字,阅读不是为了页数,冥想不是为了打卡。

这五层合在一起,才构成一个真正健康的个人注意力网络。

⸻

AI 既可能成为你的纠错机构,也可能成为你的宣传部。

只要「什么能成为信息」这件事变得可被精细设计,那就意味着它既可能被用来帮助人,也可能被用来操控人。

如果你的 AI 系统只负责夸奖你、鼓励你、平滑你的不安、维护你的自我叙事,它就很容易变成个人宣传部。它会让你感觉被支持,却未必帮你更接近真实。如果它能温和但坚决地指出你正在忽视什么、逃避什么、被什么代理指标牵走,那它才有可能成为个人纠错系统的一部分。

所以 AI 最好的未来,不是做一个永远顺着你情绪走的伴侣型工具,而是一个既理解你、又敢于对你保持一定认知张力的系统。

⸻

在 AI 时代,自律正在从一种人格品质,变成一种治理能力。

过去,自律更多被理解为一种人格品质:能忍、能熬、能坚持、能克制。它对应的想象是一个人凭借强大的意志力一次次战胜分心和懒惰。

但今天真正影响一个人行为轨迹的,已经不只是当下一次次的意志决斗,而是他身处怎样的信息环境、怎样的显著性结构、怎样的提醒系统、怎样的反馈机制、怎样的叙事框架之中。

在这样的环境里,自律更像是治理:治理自己的注意力结构,治理什么反复进入前台,治理哪些弱信号值得被放大,治理哪些指标只能做工具,治理系统如何服务于价值而不是绑架价值,治理错误如何被自己及时看见,治理不同时间点的自己如何形成连续性。

一个人未来的成熟,越来越少表现为超强意志,越来越多表现为足够好的认知治理能力。

自由也需要重新理解。在信息密度极高、显著性竞争极强的时代,自由不再只是「没人命令我」。一个人即使表面上没人强迫,也完全可能被环境和系统持续塑形。新的自由是一种架构能力:我能不能设计自己的注意力入口?我能不能重新分配哪些东西持续影响我?我能不能让那些真正重要但本来很弱的信号获得稳定位置?

没有自己的信息生态,人的注意力就几乎必然被更强的外部生态接管。没有自己的显著性结构,人的长期价值就几乎必然被更响亮的短期刺激压过去。

从这个角度看,写一个喝水 App 其实是一个非常微观、却很有象征性的自由动作。你在争回一部分原本会被环境吞掉的注意力编排权。你在说:至少在这件事上,我不想被动地被世界推着走,我想主动把某个价值放进自己的日常运行里。

⸻

所以,关于 AI,最重要的问题不是「它会不会替代我」。

更深的问题是:我会不会放弃建造自己。

AI 可以帮你写代码、做计划、汇总信息、观察模式。但不能替你决定你想成为什么样的人。更准确地说,它可以生成无数个「你应该成为什么」的模板,但真正的责任仍然在你:你是否还在亲自决定什么值得反复放进你的生命里,什么应该只当作工具,什么必须被怀疑,什么绝不能让系统替你定义。

一旦系统可以越来越多地替你安排、总结、提醒、建议、决策、解释,你就会面临一个很微妙的诱惑:把越来越多关于「什么重要、什么该被看见」的定义权也一并交出去。这时人真正失去的就不是某项技能,而是「建造自己」的主动权。

未来最成熟的 AI 使用方式,不是「把自己交给系统」,而是「借助系统,更有力地建造自己」。前者会把人越用越空,后者则可能让人越用越清楚。

人未来的尊严,某种程度上就体现在这里:不是拒绝使用系统,而是在使用系统的同时,依然保有为自己设定方向、为自己搭建纠错机制、为自己保留最终解释权的能力。

⸻

如果要为这整篇文章写一个最简洁的结论:

在 AI 时代,真正新的并不是信息变多了,而是人开始有能力主动设计——什么会成为自己的信息,以什么形式成为信息,在什么时候进入注意力,如何接入行动,如何形成反馈,又如何在偏离时被看见并被修正。

一个人是否自由、是否成熟、是否有能力长期成长,越来越不只取决于他懂多少道理、扛得住多少诱惑,而取决于他能否为自己建起一套系统,让价值在注意力中兑现,让错误能够被自己看见,让工具始终服从目标,让过去的自己能温和地照顾未来的自己。

这也许就是 AI 时代最值得珍惜的可能性:不是让系统替我们活,而是让我们第一次更有能力,认真地设计自己的活法。

你大脑里的注意力争夺战(Tim Urban / Wait But Why 风格)

发表于 2026/03/13 | 分类于 AI专题

你大脑里的注意力争夺战

——Tim Urban / Wait But Why 风格:用幽默拆解深刻

一场你每天都在输的战争

我要跟你说一件你已经知道、但从来没认真想过的事:

你的大脑里每天都在发生一场战争。

战争的双方是这样的——

一边是一群安静、矮小、说话声音特别小的家伙。它们代表的是你生活中真正重要的长期价值:健康、深度阅读、冥想、写作、好好睡觉、认真运动、财务规划。它们穿着灰色毛衣,戴着老花眼镜,排在队伍末尾,手里举着写满小字的牌子。

另一边是一群穿着荧光色紧身衣、拿着大喇叭、跳着劲舞的选手。它们代表的是:新消息通知、朋友圈点赞、短视频推荐、外卖 App 的红点、以及那个你明知道不该点但手指已经点上去了的「再看一个」按钮。

每天,这两拨力量在你的注意力竞技场上打架。

你猜谁赢?

对,几乎每次都是荧光色那帮赢。

不是因为它们更重要。而是因为它们更显著。

为什么你知道「该多喝水」但就是不喝

让我用一个具体的例子来说明这件事。

喝水。多喝水有益健康。你知道这件事吗?当然知道。你妈从你五岁起就在说。你的医生说。你朋友圈里的养生文章说。你自己也说。

但你今天到现在喝了多少水?

(如果你现在心虚了,那我们就对了。)

问题出在哪?出在你的身体在告诉你「我有点渴了」的时候,它发出的信号大概是这样的:

嗯……好像……有点……可能……需要……水……

声音小到像在图书馆里用气声说话。

而与此同时,你手机上弹出一条消息:

🔥 张三刚刚评论了你的动态!

这条消息的信号强度大概是一架战斗机从你头顶飞过。

所以你的注意力做了一个非常合理的决定:先看消息。水嘛,等会儿再说。

然后「等会儿」就变成了「忘了」。

这个场景每天重复几十次。不只是关于喝水,而是关于你生活中所有那些「长期重要但现在不紧急」的事情:读书、运动、冥想、好好吃饭、认真思考、跟重要的人好好说话。

它们全都输给了那些穿荧光色紧身衣的选手。

等等,我们先搞清楚三个概念

在继续之前,我需要给你解释三个被严重混淆的东西。这很重要,因为一旦你搞清楚它们的区别,很多事情会突然通透。

信号——世界上到处都是信号。你的口渴是信号。手机红点是信号。桌上那本已经落灰的书是信号。你胃在咕咕叫是信号。你上次冥想时那阵莫名其妙的烦躁也是信号。信号无处不在,多到数不清。

注意力——你大脑里那个极其有限的放大器。在所有信号中,只有极少数能被它选中、放大、推到你意识的前台。其他的全部沉在背景里,你甚至不知道它们存在过。

信息——这是最关键的。只有那些成功通过注意力放大器、并且真正改变了你判断或行为的信号,才算得上「信息」。

换句话说:信息不是客观存在在那里等你看的东西。信息是被你的注意力「生成」出来的东西。

一个道理你知道了。但如果它从来没有在关键时刻成功进入你的注意力前台,从来没有触发过行为,从来没有获得过反馈——那它就只是知识,不是信息。它只是被你存在了仓库里的存货,从没上过货架。

这就是「知道很多道理却过不好一生」的真相。不是道理不对,是道理从来没能拿到你大脑里那张极其稀缺的VIP门票。

你的大脑是一个设计有缺陷的夜总会

让我给你打一个比方。

想象你的大脑是一个夜总会。门口有一个保安,叫**「注意力先生」**。夜总会里面的空间非常小——大概只能同时容纳三到五个人。

每天,有几千个客人排队想进去。注意力先生需要决定放谁进。

问题在于,注意力先生的选拔标准是几十万年前设定的。那时候的世界很简单:老虎来了?放进去。食物出现了?放进去。异性出现了?放进去。其他的?不重要,在外面等着。

这套标准在旧石器时代完美运作。但现在的客人名单变了:

  • 「长期健康」穿着灰色毛衣,安安静静站在队尾
  • 「深度阅读」戴着眼镜,看起来有点无聊
  • 「冥想」闭着眼睛,甚至没在排队
  • 「财务规划」穿着西装,手里拿着一堆表格
  • 而「短视频推荐」穿着全身亮片,头上有 LED 灯,手里举着一块写着「免费多巴胺」的牌子
  • 「朋友圈评论通知」在门口放烟花

注意力先生看了一眼:「亮片选手,请进。烟花选手,也请进。」

「长期健康」在门口叹了口气。这已经是它今天第 47 次被拒绝了。

这就是你的生活。这就是所有人的生活。

不是你不重视那些长期重要的事情。是它们在你大脑的夜总会门口,天生就不够闪亮。身体缺水的信号强度大概是 0.5,而一条评论通知的信号强度是 8。睡眠债的积累不会弹窗提醒你,但微信消息会。阅读能力的退化没有惩罚音效,但游戏任务完成有。

你面对的不是一个公平的竞技场。你面对的是一个竞争规则天然不利于长期价值的环境。

一个喝水App为什么值得写一整篇文章

回到开头的故事。有人用 AI 给自己写了一个喝水 App。

你可能会想:这有什么好说的?不就是个定时提醒吗?

不。这不是一个定时提醒。这是一次夜总会VIP改造工程。

这个 App 做的事情是:把「长期健康」那个穿灰色毛衣的安静选手,塞进了一套亮片紧身衣里。

具体来说,它把原来微弱的身体信号——「好像有点渴」——翻译成了一套注意力先生更容易注意到的形式:

  • 在你最容易忘记喝水的时段弹出提醒(「下午两点了,你已经连续 3 小时没喝水」)
  • 用数字和图表告诉你今天的进度(「今天只喝了 800ml」)
  • 在你连续两小时没喝水时加大提醒力度
  • 给你看这周的趋势变化
  • 根据你的日程和历史行为做动态调整

原来的「长期健康」还是那个「长期健康」,但现在它有了亮片、LED灯和一块写着「你今天才喝了 600ml」的牌子。

注意力先生瞟了一眼:「嗯,这个看着还挺紧急的。进来吧。」

这就是我所说的「可编程的显著性」。

过去,给客人穿亮片衣服这个能力,主要掌握在大型平台手里。抖音的推荐算法、微信的红点、外卖 App 的倒计时——它们都是专业的「亮片裁缝」,专门把各种短期刺激打扮得让你的注意力先生无法拒绝。

而 AI 让你也可以当一回裁缝了。你可以给你生活中那些安静但重要的选手做几套亮片衣服。过去,这需要你懂产品设计、会写代码、能做界面、能搭数据逻辑。现在,你只需要跟 AI 说清楚你想要什么,它就能帮你把系统搭出来。

AI 缩短的不是编码时间。它缩短的是「我有一个模糊的改善意图」和「这个意图变成了一个持续运行的系统」之间的距离。

这事的意义比听起来大得多。

你其实不是「一个人」,你是「很多个人」

说到这里,我需要告诉你一个关于你自己的残酷真相。

你不是一个人。你是很多个人。

早上 7 点精神饱满、雄心壮志的你,和晚上 11 点瘫在沙发上只想刷手机的你,在很多重要问题上意见完全相反。

周一早上制定计划的你觉得「这周一定要读完这本书」。周四晚上的你觉得「我先看两集剧,书明天再说」。周日晚上的你看着一周的打卡记录觉得「我真的很没用」。

情绪好的你相信长期主义。疲惫的你只想现在就舒服。焦虑的你疯狂收藏各种方法论。平静的你把所有方法论都忘了。

这不是你意志力薄弱。这是人的基本处境。不同时刻的你,就是不同的「人」,有着不同的优先级、不同的能量水平、不同的抵抗力。

所以,所谓「自我管理」,本质上不是「一个统一的我命令自己执行」,而是「早上那个更清醒的我,如何跨越时间去影响晚上那个更脆弱的我」。

这就是个人系统最深层的意义——它不只是工具,它是跨时间的自我治理装置。

那个喝水 App 做的就是这件事。它是你过去某个清醒时刻做出的决定,固化成了一个能在未来不同时刻持续生效的结构。它是「过去的你」写给「未来的你」的一封自动发送的信。

阅读系统、冥想系统、复盘系统也是同样的逻辑。它们不是帮你执行某个任务。它们是在时间中维持一种稳定的偏好、优先级和方向感。它们帮助不同时间点的自己建立协商关系,让一个更长期的目标能持续对短期状态产生温和但真实的约束和引导。

系统之所以有力量,不是因为它更聪明,而是因为它更稳定。它把不稳定的人连接进一个相对稳定的结构。

一个来自赫拉利的大启发

这里我必须提到赫拉利的《Nexus》,因为它让这个问题变得更加清晰。

赫拉利的核心观点是:信息不等于真相。人类之所以能建立大规模合作——从部落到帝国——不是因为我们交换了准确的事实,而是因为我们围绕共同的故事建立了共同的想象,围绕共同的制度建立了共同的流程。

故事(「神话」)让人愿意相信某些东西值得追求。制度(「官僚制」)让人持续地按照某种规则行动。两者共同维持了复杂社会的运转。

这个洞见缩小到个人层面,完美适用。

一个人想长期改变自己,光有道理不行。你还需要两样东西:

你的个人「神话」—— 关于你自己的叙事。「我是一个愿意照顾身体的人」「我是一个珍惜深度阅读的人」「我是一个愿意慢慢修正自己的人」。这些故事给你方向和意义。没有这些故事,你不知道为什么要坚持。

你的个人「官僚制」—— 提醒、记录、反馈、回顾、规则、表格。是的,很无聊。但它们是让故事在现实中反复生效的唯一机制。没有这套枯燥的东西,你的所有叙事都只会停留在「我应该」的层面。

很多人的问题就出在两者严重失衡:

有些人只有神话没有官僚制——满脑子价值观,就是没有任何流程把它们落地。结果所有理想都活在心里,从没踏入过现实。

有些人只有官僚制没有神话——打卡漂亮、表格整齐、streak 完美,但早就忘了自己为什么开始。结果变成了系统的奴隶,而不是系统的主人。

好的个人系统,必须让两者互相校准。

但是,小心你的系统变成你的牢房

到了这里,我必须说点不那么让人开心的事。

你知道什么比没有系统更糟吗?一个你已经忘记为什么要用的系统。

我来描述一个场景,看看你是不是觉得熟悉:

你设了一个冥想打卡。前两周感觉特别好。第三周开始,你发现自己冥想时一直在想「还剩几分钟」。第四周,你冥想的动力变成了「不能断 streak」。第五周,你在思考「如果我今天实在不想坐,能不能放个 3 分钟的引导音频算打卡」。

发现了吗?

你的目标从「培养觉察力」悄悄变成了「维护连续打卡天数」。系统还在完美运转。你的日历上全是绿色的对勾。但你已经不是在冥想了。你是在给打卡 App 打工。

这就是代理指标劫持——我给它起了个更生动的名字:数字妖怪。

数字妖怪是这样运作的:每个系统一开始都有一个真正的目标。为了追踪进度,你设了一些数字指标。然后渐渐地,数字指标变得比目标本身更显著、更容易衡量、更容易让你获得即时满足感。于是数字偷偷取代了目标。你以为你在追求目标,其实你在喂养数字。

喝水:目标是身体健康 → 变成了凑够 2000ml 的数字游戏。
阅读:目标是深度理解 → 变成了「这个月读了几本」的计数器。
运动:目标是身体能力 → 变成了手环上的步数和卡路里。
写作:目标是思考和表达 → 变成了每天写够多少字。
冥想:目标是觉察和松动 → 变成了连续打卡天数。

数字妖怪的可怕之处在于,它不以失败的形式出现。你觉得自己很自律、很规律、很有成就感。但那种成就感已经偏离了你真正想要的东西。

还有一个更隐蔽的问题:感受力退化。

系统本来是帮你更敏锐地感知自己。但系统用得太多之后,你开始依赖系统告诉你「该喝水了」「该休息了」「今天状态不好」。你自己对身体和情绪的直接感受反而在减弱。

原本是「我觉得有点累了,需要休息」。现在变成了「手表说我今天睡眠评分 65 分,所以我大概需要休息?」

原本是「我察觉自己开始烦躁了」。现在变成了「等情绪记录系统提醒我,我再看」。

你成了自己数据的读者,而不是自己身体的感受者。

系统应该像一个放大镜——帮你看得更清楚,然后你自己做判断。而不是像一副永久的义肢——替代了你原本的能力。

你的个人系统需要一个「反对党」

所以,一个真正好的系统长什么样?

我觉得它需要五个部分——

第一,传感器。 让原本微弱的信号变得可见。这是基础。身体状态、读书节律、情绪波动、专注质量,这些都需要被感知。没有传感器,后面的一切无从谈起。

第二,翻译器。 把「我觉得不太对劲」变成「这里有一个我可以响应的具体模式」。比如把「今天效率好低」翻译成「你从两点到四点之间切换了 23 次窗口」。

第三,反对党。 这是最关键也最缺的一个。你的系统里必须有一个角色,定期站出来问:

「等等。这套东西真的在帮你吗?」
「你是不是在骗自己?」
「你说你重视长期价值,证据呢?」
「你最近是不是在为了数字而活?」
「你最近最可能在哪里犯了错?」

AI 在这里最高级的用途,不是做你的啦啦队长,而是做你的反对党——一个温和但坚定的质问者。不是替你维护自我感觉良好的叙事,而是帮你拆穿自己。

第四,换届选举。 任何规则都不应该永久有效。三个月前有效的提醒策略,现在可能已经变成噪音了。去年合适的阅读流程,今年可能已经不适应了。系统必须内置一个更新换代的机制。很多人不是没有系统,而是没有退出旧系统的制度。他们被自己曾经设计的东西反向控制了。

第五,宪法。 一条最高原则:所有数字都是工具,不是目标。 喝水是为了身体,不是为了 2000ml。阅读是为了理解,不是为了页数。冥想是为了觉察,不是为了 streak。运动是为了身体能力,不是为了消耗卡路里。当工具和目标冲突时,工具让路。

这条宪法必须被刻在系统的核心,而且必须有机制反复提醒你——因为数字妖怪每天都在试图让你遗忘它。

AI 可能变成你的纠错机构,也可能变成你的宣传部

说到 AI,还有一件事必须说清楚。

AI 可以做两种角色:

角色 A:你的个人纠错机构。 它帮你发现盲区,指出你正在偏航,提醒你的指标已经偏离了原目标,温和但坚决地告诉你不想听的真话。

角色 B:你的个人宣传部。 它只说你爱听的话,帮你合理化所有决定,维护你的自我叙事,让你每天都感觉「我做得挺好的」。

角色 A 让你进步。角色 B 让你舒服。

你猜大多数人会选哪个?

对。大多数人会选 B。因为 B 的显著性更高。(看,这整篇文章的逻辑又回来了。)

所以,你在设计 AI 系统的时候,必须刻意给它安排角色 A 的戏份。让它定期问你不舒服的问题。让它不只是鼓励你,还要挑战你。

AI 最好的未来不是做一个永远顺着你的情绪走的伴侣型工具,而是一个既理解你、又敢于对你保持一定认知张力的系统。

所以,这一切到底意味着什么?

让我把这些整合起来。

AI 时代真正深刻的变化不是「你可以更快地做事」。更深刻的变化是:你第一次有能力低成本地为自己设计注意力入口。

过去,「什么能成为你的信息」这件事,主要由进化、由平台、由你碰巧生活的环境来决定。你基本是被动的。

现在,你可以开始主动参与了。你可以给那些在你大脑夜总会门口排不上队的重要选手,做几套亮片衣服。你可以为自己的长期价值争夺一些注意力席位。

但这带来的不只是效率的提升,还是一种全新的责任。

因为一旦「什么进入你的注意力」变得可被设计,那你就不能再假装自己只是环境的受害者了。你不能一边说「都怪手机太好玩」,一边放弃为自己建造更好的信息生态。

在 AI 时代,自律不再只是「扛住诱惑」。自律是治理——治理你自己的注意力结构。

自由也不再只是「没人管我」。新的自由是:我能不能设计自己的注意力入口?我能不能让真正重要的东西获得稳定位置? 没有自己的信息生态,你的注意力就几乎必然被更强的外部生态接管。

而最终极的问题是:你会不会放弃建造自己? AI 可以帮你写代码、做计划、汇总信息。但它不能替你决定你想成为什么样的人。它可以生成无数个「你应该成为什么」的模板,但真正的责任仍然在你。

一个喝水 App 是治理。一个阅读系统是治理。一个冥想辅助工具是治理。一个写作素材聚合器是治理。它们每一个都很小。但它们合在一起,构成了你为自己建造的微型文明。

而这个微型文明的质量——它是否服务于真正的价值?它是否允许自我纠错?它是否保留了你对自身体验的直接感受?——将越来越决定你的生活质量。

未来最成熟的 AI 使用方式,不是「把自己交给系统」,而是「借助系统,更有力地建造自己」。前者会把你越用越空,后者则可能让你越用越清楚。

所以,最后一个问题:

你打算继续让注意力先生按照旧石器时代的标准放人,还是要开始亲自设计你的 VIP 名单了?

你的大脑夜总会就那么大。你让谁进去,你就会变成什么样的人。

上一页1…678…38下一页

378 日志
9 分类
RSS
© 2017 — 2026 李文业
由 Hexo 强力驱动
|
主题 — NexT.Muse
粤ICP备17160932号