主权

主权

大多数人对 AI 编程的理解,停留在一个很表层的画面:你打字更快了,搜索更快了,写代码更快了。就好像你原来骑自行车上班,现在换了辆电动车。速度是变了,但你走的还是同一条路,干的还是同一件事。

但真正发生的事情不是这个。

真正发生的事情更像是——你原来自己一个人搬砖,现在突然有一百个人可以帮你搬。问题不再是“怎么搬得更快”,而是“到底该搬去哪”。


我注意到这个变化,是从一个很小的体验开始的。

有一天我发现,我手上几个平台的强模型额度,怎么都用不完。以前我会精心组织一个 prompt,想尽办法一次性把问题问清楚,像在跟一个按小时收费的律师谈话,每一分钟都不想浪费。但突然有一天,我发现这个律师不怎么收费了。或者说,他的费用低到我根本不用想“值不值得问”这个问题。

这个变化看起来很小,但它改变了一切。

因为当你不用再犹豫“要不要调一次模型”的时候,你的工作方式会悄悄发生一个根本性的转变。你不再是先自己想半天,实在想不通再去问。你开始变成:先让模型跑一轮,出三个方案,然后你从三个方案里选一个。你不再小心翼翼地节省每一次调用,而是开始把模型当成自来水——拧开就用,想用就用。

以前的心态是:“这个问题值不值得动用 AI?”
现在的心态变成了:“这个问题我为什么不先让 AI 看一眼?”

你可能觉得这只是效率提升。不是。这是范式变化。


要理解为什么这是范式变化,想想工业革命。

蒸汽机的意义不是让马车跑得更快。蒸汽机的意义是让能源变得便宜到一个程度,使得整个生产组织方式都必须重新设计。以前太贵所以不做的事——质量检查、冗余设计、大规模试错——突然之间都可以做了。不是因为人变聪明了,而是因为能源变便宜了。

AI 对认知劳动做的,就是蒸汽机对体力劳动做的事。

以前很多认知动作太贵了——让人反复审查一段代码、让人从十个角度分析一个设计、让人把每个边界条件都想一遍、让人写完代码再从安全和并发的角度各检查一遍。不是不知道这些事情应该做,而是做不起。一个人一天只有那么多小时,注意力只有那么多,脑子会累,情绪会烦。

现在不一样了。这些认知动作的边际成本正在迅速下降。你可以让模型跑十个方案,可以让模型从三个角度审查同一段代码,可以让模型把测试用例铺到以前你连想都不敢想的密度。原来舍不得做的事,现在都可以做了。

所以,我们面对的核心问题,已经不是“AI 太贵,能不能少用点”,而是“AI 已经这么便宜了,我们整个工作方式该怎么重新设计”。


大多数人对 AI 的定位是“一个聪明的助手”。这个定位太窄了。

把 AI 往抽象了看,它其实是一种新型生产要素。它最本质的特征不是“聪明”,而是便宜、可复制、可并发

一个人一天只有二十四小时,注意力只有一份,做完 A 才能做 B。但 AI 可以同时跑十个任务,一百个任务。你不用等它做完这个再做那个。它天然就是并行的。

一个人做到第九遍会烦,会走神,会偷工减料。AI 不会。它不会因为重复就变得敷衍。这让它特别适合那些高重复、需要铺量、需要长时间巡检的活。

一个人犯了错,可能职业生涯就拐弯了。AI 犯了错,你让它重来就行。它的试错成本几乎为零。所以它特别适合探索,适合把搜索空间摊开,适合同时给你五种方案让你挑。

把这些特征加在一起,你会发现 AI 最擅长的事情,不是“替你写代码”,而是替你把世界摊开来看。它是认知世界里的廉价能源。不是单次神来之笔,而是大规模、低成本地执行那些以前你舍不得做的认知动作。


但这里有一个很多人搞错的事情。

很多人把 AI 和人类看成同一个刻度上的高低之分:AI 是低配版的人,人是高配版的 AI。AI 笨一点但便宜,人聪明一点但贵。所以问题就变成了“AI 什么时候聪明到能替代人”。

这个理解是错的。AI 和人类根本不是一种东西。

关键区别不在于谁更聪明。关键区别在于谁有 stake

什么意思?AI 可以给你十个方案,每个方案看起来都挺有道理。但它不需要为其中任何一个方案承担后果。它不会因为选错方案而丢工作,不会因为上线出事故而失眠,不会因为一个糟糕的架构决定而在未来三年里天天给自己擦屁股。

人不一样。人的每一个决定都绑着代价——名誉、时间、关系、职业路径、情绪。你做的决定不是悬浮在空中的,它会回到你自己身上。你要解释,要承担,要复盘,要消化后果。

这就是为什么 AI 天然适合扩张可能性,而人天然适合压缩可能性。

AI 可以帮你看到十条路。但最终选哪一条,只能你来走。因为只有你会真正活在那个选择的后果里。


如果要我用一句话概括人和 AI 的分工,我会这样说:

AI 负责扩张可能性,人负责把可能性压缩成命运。

“扩张”和“压缩”,是两个完全不同的动作。

AI 的活儿是发散。帮你看十种方案、二十种边界条件、三十种失败模式。它从多个角度读需求,从多个角色审设计,从大量组合里生成测试。它天生适合把一个模糊问题的搜索空间铺开,让你看到更多你原本看不到的东西。

人的活儿是收敛。你要在这些可能性里决定什么进入现实,什么被过滤掉,什么虽然可行但不值得,什么虽然漂亮但代价太高,什么虽然技术上正确但时机不对。AI 给你一百条路,你要选一条,然后走下去。

这不是“AI 做简单的,人做难的”。这种分法太粗糙了。今天看起来很难的事,明天 AI 可能做得比你好。但有一类事情始终天然更接近人:定义目标、排序价值、做出取舍、承担后果。这些事情不是因为计算复杂才留给人,而是因为它们和“谁来负责、谁来承受、谁要把这件事纳入自己的人生”有关。

想想看:你到底想成为什么样的人?你觉得什么值得,什么不值得?你愿意为什么承受痛苦?你在一堆路径里为什么选了这条?

这些问题没有“正确答案”。它们需要一个有限的、会死的、不能同时活一万种人生的存在来回答。恰恰因为你不能无限复制自己,你的选择才有分量。恰恰因为你的时间有限,你的注意力才是最贵的货币。

人的有限性不是缺陷。它是承诺的前提。


在 AI 时代,有一个非常重要但很少有人讲清楚的区分:死摩擦和活摩擦。

我们当然希望 AI 帮我们减少痛苦,提升效率。但不是所有痛苦都应该被消除。有些痛苦只是在浪费你的生命,有些痛苦却是在塑造你。

死摩擦,就是那些不会让你成长、只会消耗你注意力的东西。写大量样板代码,机械性地整理格式,反复搜索同一类信息,批量改名,补充重复性的注释,搭测试骨架,翻十几个文件只为了确认一个简单的调用关系。这些事情当然需要被正确完成,但它们本身不会让你变得更好。AI 越能把这些消灭掉,你就越应该高兴,因为这些东西只是在烧你的生命。

活摩擦就不一样了。比如你纠结“这个设计到底够不够好”的那种折磨,你权衡“长期架构和短期交付到底怎么平衡”的那种痛苦,你面对不完整信息必须做判断时的那种焦虑,你检视自己是不是在因为懒惰或者虚荣而做出某个决定时的那种不舒服。这些摩擦看起来效率很低,但它们是你变成你自己的过程。你的判断力、你的边界感、你对风险的直觉,都是从这些痛苦里长出来的。

所以 AI 最有价值的用法,不是帮你消灭一切不舒服,而是:帮你拿走那些没有成长价值的痛苦,把真正塑造你的痛苦保留下来。

落到具体工作里,这个原则特别实用。批量生成 DTO、扫调用链、整理变更说明、补测试骨架——这些是死摩擦,尽管交出去。设计取舍、风险定义、抽象边界、上线标准、关键逻辑是否可信——这些是活摩擦,你得自己穿过去。


一旦你接受了“AI 是廉价可扩展的智能”这个前提,软件工程的重心就会发生一个根本性的迁移。

以前的瓶颈是写代码。程序员的自我想象是:想清楚、写出来、调通、提交。“写”是核心动作。

但当 AI 能大量写代码的时候,“写”就不再是瓶颈了。真正开始变贵的,是另外几样东西:需求到底定义清楚了没有?设计有没有被比较和证伪?实现有没有被验证?测试有没有杀伤力?上线有没有可控性?事故经验有没有变成约束?

换句话说,“写出来”越来越不值钱,“证明它值得信”越来越值钱。

未来的优秀开发者不会长得像一个手艺精湛的木匠。他更像一个控制系统的设计师——设目标,放出候选方案,建测试网,做对抗审查,根据反馈修正,反复让系统收敛到一个足够可信的状态。

以前工程质量靠什么?靠一个经验丰富的人“看一眼就知道哪里不对”。这种直觉当然仍然珍贵,但它太依赖个人了。未来更稳定的路线是建立系统化的验证结构:多方案竞争、独立实现、差分测试、红队 review、回归回放、文档和实现一致性检查。

当智能稀缺的时候,你舍不得做这些。当智能丰裕的时候,你应该默认去做这些。

软件工程的未来,不是让一个程序员变成超人,而是让每一行代码都被一群廉价但强大的智能体反复挑战、验证、解释、重放。


说到具体的工具,很多人陷入一个低层次的问题里出不来:“到底哪个模型最好用?”

这个问题本身就问错了。就像问“到底锤子好用还是螺丝刀好用”一样。它们不是互相替代的,它们应该放在不同的环节。

便宜模型的价值在于铺量。它的单次判断未必最准,但它可以大量调用。适合拉全局地图、列风险清单、扫仓库、扫 diff、补文档、生成骨架、做第一轮分类。它的优势不是“最对”,而是“最广”。就像一支侦察部队,你派出去不是为了它能打赢仗,而是为了它能帮你看清战场。

贵的模型的价值在于压缩不确定性。它应该只在真正难、真正模糊、真正一旦出错代价很高的环节出手:架构方案仲裁、事务边界、一致性语义、幂等设计、权限风险、疑难 bug 根因分析、上线前红队审查。它的价值不是铺量,而是高风险判断。

所以我特别反对两种浪费。

第一种,让强模型去干廉价活。你用最贵的智能去扫文件、补样板代码、写机械注释,就像请一个顶级律师去帮你复印文件,这是在浪费最稀缺的资源。

第二种,让便宜模型直接终审。便宜模型适合大规模探索,但你不能让侦察兵直接拍板战略决策。否则你会把大量“看起来有道理”的半成品直接带进主干。

好的分工是:便宜模型负责多做,强模型负责少错。

这个原则不只适用于不同工具之间,它也适用于 AI 和人之间。AI 负责多做,人负责少错。


把这个思路铺到整个开发流程上,每一个阶段都应该重新分工。

需求阶段最怕什么?不是没想法,而是大家以为自己理解一致,实际上理解完全不一致。我见过太多线上事故,根因不是代码写错了,而是需求本身就有模糊地带——成功到底怎么定义?失败怎么回滚?重试算不算新请求?部分成功部分失败怎么办?权限的边界在哪里?

便宜模型在这个阶段最该做的,不是急着给方案,而是帮你把雾拨开。读现有代码,拉调用链,列出所有你没想到的歧义点和失败场景。强模型则该扮演挑刺者:这个词定义清楚了吗?这个边界会不会炸?这个场景出了错解释成本有多高?

而你必须裁决的是:这次到底做不做?做到哪里?哪些明确不做?验收标准是什么?哪些风险不能接受?

需求阶段,人定义业务真相,AI 只是帮你把真相周围的迷雾拨开。

设计阶段最大的误区是急着追求“一个看起来完整的方案”。智能丰裕时代的正确做法是默认生成多个互相竞争的设计:最小改动版、最可测试版、最长期可维护版、最强调回滚版。让不同方案各自暴露代价,然后你再选。

设计阶段重要的不是“更漂亮”,而是“更可收敛”。

实现阶段最容易犯的错是浪费强模型。绝大多数低风险、高重复的实现工作——DTO、VO、controller 骨架、参数校验、注释、文档——都应该下放给便宜模型。强模型只在少数关键点出手:金额计算、状态转换、权限校验、幂等逻辑、事务和锁。

而你在实现阶段的角色不是生产者,是收敛者。你要防止系统发散——判断某个抽象是不是过头了,某个 diff 是不是需要逐行审,某次小重构会不会稀释主线。

测试阶段,在智能丰裕时代,很可能是变化最大的环节。过去很多团队测试做得薄,不是因为不知道测试重要,而是因为做不起。现在大量便宜智能意味着你终于可以默认去做那些原本觉得太奢侈的验证动作。边界矩阵、权限矩阵、状态转移矩阵、异常路径集合、回归测试、文档和实现一致性检查。

测试阶段的核心不是让灯都变绿,而是建立一种你真正愿意相信的确定性。

上线阶段是所有哲学都会显形的地方。因为到了这里,事情不再只是代码质量,而是“谁来承担结果”。AI 可以帮你生成影响范围图、发布清单、回滚方案、监控建议。它可以做上线前的红队审查:最坏会出什么事故?最先看哪几个指标?哪种情况必须回滚?

但最后那个 go/no-go 的决定——谁来盯盘、出了问题是回滚还是热修、灰度策略怎么定——这些事情没有任何模型能替你承担。AI 只能给建议,发令权必须在你。


说到这里,最底层的问题就浮出来了。

在智能越来越丰裕的时代,一个人到底该保留什么?

我越想越觉得,答案不是“我要坚持自己敲多少行代码”,也不是“我必须手写每一个文档”。如果把亲力亲为本身当成价值,你很容易滑回低效和防御。

真正该保留的是主权

什么是主权?不是凡事都自己做。而是你有能力、也有意识地决定什么交出去、什么必须自己来——而且这个决定是清醒的,不是顺着便利性滑过去的。

具体来说,有四样东西必须留在自己手里。

第一,目标定义权。这件事为什么值得做?做到什么边界算完成?什么明确不做?这些不是 AI 帮你定义的。

第二,价值排序权。速度和质量怎么平衡?短期收益和长期债务怎么权衡?哪类风险不能接受?这些本质上都是“你愿意为哪种结果负责”的问题。

第三,关键判断拍板权。尤其在高爆炸半径的环节——权限模型、金额逻辑、状态机、不可逆迁移、上线回滚。可以让模型给你一百条建议,但“就这么做”必须由你亲自说出来,而且你知道为什么。

第四,后果承担权。出了事谁解释?谁复盘?谁背结果?谁决定下次怎么防止?AI 可以分析,但不能替你承担后果。凡是最终回到责任结构上的事情,都必须有人在场。

这四样东西一旦也交出去了,你获得的可能是一个极高效的流程,但你可能已经不再是自己工作和人生的主人了。


过去很多年,我们训练自己的方式,本质上都是匮乏时代的训练。学会记忆,学会计算,学会搜索,学会组织材料——因为资源有限,外援很少,智能昂贵。

但现在世界开始翻转了。智能供给越来越多,建议越来越多,草稿越来越多,路径越来越多。这个时候,真正稀缺的能力反而变成了另一种东西:

你能不能在很多建议里形成自己的标准?
你能不能在很多草稿里做出真正属于你的终稿?
你能不能在很多路径里选一条,然后长期走下去?
你能不能在很多优化机会面前知道何时该停?
你能不能在大量 AI 产出面前,不让自己的判断肌肉萎缩?

这是一种全新的训练。不是匮乏时代那种“多做一点就赢了”的训练,而是丰裕时代的训练——靠少迷失一点、少发散一点、少把主权外包一点来取胜。

我越来越觉得,未来一个人最重要的能力,不是生产力,而是收束力。不是谁能调更多模型,不是谁能让系统生成更多东西,而是谁能在海量可能性面前仍然保持方向感。

这个方向感不是 AI 给你的。它是你通过长期的价值排序、风险承担、实践复盘和自我诚实,一点一点长出来的。

这也解释了为什么“自己安静想一想”在 AI 时代反而更重要了。AI 太会给答案了。你很容易在还没真正形成自己理解的时候,就满意于一个表达很漂亮的外部答案。你以为自己想通了,实际上只是借用了一个看起来完整的结论。所以你至少要给自己保留一些不靠 AI 的思考时间:自己写一版判断,自己做一版复盘,自己走完最后一公里的表达。不是反技术,而是给自己的认知肌肉留训练场。


如果把这整篇文章压成几句话,我想说的是:

AI 是廉价的可能性,人是昂贵的承诺。可逆的事让 AI 多试,不可逆的事由人来定。便宜模型负责多做,强模型负责少错,而你负责裁决。该被 AI 消灭的是死摩擦,不该被外包的是活摩擦。软件工程的未来不是更会写,而是更会让系统不容易写错。在智能丰裕的时代,人的核心任务是守住主权。

如果还要再压成一句话:

未来不属于最会调用智能的人,而属于最会治理智能的人。

不属于最会生成内容的人,而属于最会在海量可能性面前做出承诺、把事情带入现实的人。不属于拥有最多外部智能的人,而属于在巨大外部智能加持下,仍然没有丢掉自己中心的人。

AI 会越来越像一种基础资源。但人必须决定,资源为什么而用。AI 越来越擅长展开世界。但人必须把世界压缩成自己愿意承担的一条路。

在智能丰裕的时代,真正的修炼不是怎样拥有更多外部智能,而是在拥有巨大外部智能之后,仍然保有自己的主权、判断和承诺能力。

这大概是未来很多年里,最值得反复提醒自己的一件事。