技术想要丰裕:当廉价智能涌入软件世界
在技术演化的长河中,有些变化是渐进的,像潮水涨了半寸,你几乎注意不到;有些变化是不可逆的相变,像冰忽然化成水,形态彻底改写。我们正身处后一种变化之中。
如果要用一个生态学的类比来理解当下正在发生的事,我会说:一种新的基础资源正在从稀缺走向丰裕,就像阳光照进了一片原本幽暗的森林——整个生态系统的物种构成、能量流动和竞争格局,都将因此重新排列。
这种基础资源,就是可扩展的机器智能。
很多人把这个变化理解为“AI 辅助编程”——好像只是给程序员配了一个更聪明的搜索引擎,或者一个不知疲倦的实习生。这个理解太窄了。真正发生的事情,是软件生产的底层能量结构正在改变。原本极其昂贵、高度稀缺、无法并行的认知劳动,正在变得便宜、可复制、可并发、可持续调用。这不是效率的量变,而是范式的质变。
在技术史上,每一次基础资源的丰裕化,都引发了类似的范式迁移。而每一次,人们都低估了变化的深度,高估了自己适应的速度。
这篇文章想讨论的,就是当智能开始丰裕之后,什么东西真正变得稀缺了——以及一个软件开发者如何在丰裕中守住自己的位置。
一、从稀缺到丰裕:一条贯穿文明史的古老曲线
技术演化有一条反复出现的弧线:一种关键资源从昂贵走向廉价,从稀缺走向丰裕,而围绕这种资源建立的整套社会结构随之被重塑。
五百年前,书写和复制文本是一种稀缺的认知行为。一个中世纪的抄写员用鹅毛笔抄完一本《圣经》需要整整一年。古登堡印刷术把这个成本压低了几百倍。但真正重要的不是书变便宜了——而是围绕“谁有权传播知识”的整个权力结构被打碎了。教会不再是信息的唯一瓶颈。新教改革、科学革命、现代大学——这些都不是印刷术的“功能”,而是信息丰裕之后涌现出来的生态后果。
一百五十年前,能源经历了同样的变迁。蒸汽机和电力让体力劳动的边际成本暴跌。工厂不再围绕水车选址,铁路把距离压缩成时刻表上的数字。但更深层的变化是:那些原本因为“太贵所以不做”的事情——质量检测、冗余设计、大规模试错——忽然都可以做了。不是人变聪明了,而是能量变便宜了。
今天,同样的弧线正在认知劳动的领域展开。
对一个真实的开发者来说,这个变化的体感可能是这样的:有一天你忽然发现,手里几个平台的强模型额度怎么都用不完了。以前你组织一个 prompt 像在跟一个按小时收费的律师谈话,每一分钟都不想浪费;现在你发现这个律师几乎不收费了——或者说,它的费用低到你根本不用想“值不值得问”这件事。
这个变化看起来很小,但它的生态效应是巨大的。当你不再犹豫“要不要调一次模型”的时候,你的工作流会悄然发生一个根本性的物种替代:你不再先自己想半天、实在想不通再去问;你开始默认先让模型跑一轮,出三个方案,然后从中选一个。你不再小心翼翼地节省每一次调用,而是把模型当成自来水——拧开就用,想用就用。
以前的心态是:“这个问题值不值得动用 AI?”
现在的心态变成了:“这个问题为什么不先让 AI 看一眼?”
这不是效率的提升。这是从“按滴购买”到“接上管道”的基础设施跃迁。正如电力从工厂的奢侈品变成墙上的插座一样,可扩展智能正在从一种按次计费的稀缺服务,变成一种默认开启的环境条件。
而每当一种基础资源丰裕化,真正稀缺的东西就会被重新照亮。
二、机器智能的四种生态特性
要理解这种新的丰裕资源,我们需要像生态学家观察一个新物种那样,辨认它的核心生态位——它擅长什么,它的竞争优势在哪里,它在系统中会占据什么位置。
机器智能有四个根本性的生态特征,这些特征决定了它在技术生态系统中的角色。
第一,它可以复制。 一个人的判断力无法复制给另一个人。但一个模型的能力可以被无限次调用,可以被同时部署在一万个节点上。这让它天然适合那些需要大规模铺开的认知任务。就像蒲公英的种子随风飘散到每一片空地——不追求每一颗都扎根,而是追求覆盖面积。
第二,它可以持续运转。 一个人做到第九遍会疲倦、会走神、会偷工减料。机器智能不会因为重复而变得敷衍。这让它特别适合那些高重复、需要长时间巡检、需要不间断值守的工作——就像珊瑚虫日夜不停地沉积钙质,最终建起整座礁石。
第三,它天然适合探索和展开。 一个人犯了错,可能职业生涯就拐弯了。但机器智能的试错成本接近于零。你让它重来就行。它可以同时生成五种方案、十种变体,把搜索空间摊开来给你看。就像一片草原上同时萌发一百颗种子——不是为了每颗都长成大树,而是为了让你看清哪片土壤最适合生长。
第四,它的单次失败没有生命代价。 机器智能可以犯错,被纠正,重新开始,不留伤疤。这与人类截然不同。人类的每一次重大失误都可能刻入简历、改变轨迹、留下心理阴影。
把这四个特征叠加在一起,你会看到一个清晰的生态画像:机器智能最擅长的,不是“替你写代码”,而是替你把世界摊开来看。它是认知领域的廉价能源——不是单次神来之笔,而是大规模、低成本地执行那些你以前舍不得做的认知动作。
这像极了几亿年前蓝藻对地球做的事情。蓝藻不聪明,不灵活,不具备任何高级策略。但它能廉价地、大规模地、不知疲倦地进行光合作用,日复一日地向大气中释放氧气。最终,整个地球的大气层被改写了,所有后来的复杂生命都建立在蓝藻创造的这个新基底之上。
机器智能正在做类似的事——它在改写认知劳动的基底环境。
三、人类智能:一种不可替代的稀缺物种
这里有一个很多人搞错的事情。他们把 AI 和人类看成同一个刻度上的高低之分——AI 是低配版的人,人是高配版的 AI。就像两种鸟,一种飞得低但翅膀便宜,一种飞得高但翅膀贵。所以问题似乎只是“AI 什么时候飞得跟人一样高”。
这个类比是错的。AI 和人类的关系,不是同一物种的强弱之分。它们更像是鱼和鸟——分属完全不同的生态位,有着根本不同的存在方式。
关键的分界线不在于谁更聪明。在于谁有 stake。
什么是 stake?就是利害关系、切身后果、不可逆的代价。
AI 可以生成十个方案,每个看起来都言之成理。但它不需要为其中任何一个方案承担后果。它不会因为选错方案而丢掉职业,不会因为上线事故而失眠三天,不会因为一个糟糕的架构决定而在未来三年里日日为此擦拭善后。
人不一样。人是有限的、有死的、不可复制的存在。你的每一个决定都绑着代价——名誉、时间、关系、职业路径、情绪消耗。你做的决定不是悬浮在真空中的逻辑推演,它会落地,它会回到你自己身上。你要解释,要承担,要复盘,要消化后果。
正是这种有限性,赋予了人类选择以分量。
在演化论中有一个基本原理:生物信号之所以可信,恰恰是因为它付出了代价。雄孔雀拖着巨大的尾羽,那是一个代价高昂的诚实信号——正因为它用自己的生存概率为美丽“签了名”,这个信号才可信。同样,人类的判断之所以有分量,不是因为人类比 AI 算得更快,而是因为人类用自己有限的生命为那个判断“签了名”。
这就解释了为什么人类天然适合做某一类特定的认知工作——不是因为这些工作“更难”(很多看起来困难的任务 AI 也能做得不错),而是因为这些工作的本质与“谁来负责、谁来承受、谁要把这个决定纳入自己的人生”有关。
目标定义、价值排序、取舍决策、后果承担——这些不是“更高级的计算”,而是一种完全不同类型的行为。它们需要一个有限的、会死的、不能同时活一万种人生的存在来执行。恰恰因为你不能无限复制自己,你的选择才有重量。恰恰因为你的时间有限,你的注意力才是最贵的货币。
人的有限性不是缺陷。它是承诺的前提条件——就像稀缺性是价值的前提条件一样。
四、扩张与收敛:智能生态系统的两个基本功能
每一个健康的生态系统都同时需要两种力量:一种力量负责生成多样性,另一种力量负责选择和收敛。
在生物演化中,基因突变和重组负责不断制造变异——大多数变异是无用的,甚至有害的,但没有这种“过度生产”,就不会有演化的原材料。自然选择则负责筛选——把那些不适应环境的变异淘汰掉,让有用的特征沉淀下来。生成是廉价的、冗余的、过量的;选择是昂贵的、严苛的、不可逆的。
AI 和人类的分工,正好映射到这两种力量上。
AI 是技术生态系统中的变异引擎。 它帮你看十种方案、二十种边界条件、三十种失败模式。它从多个角度读需求,从多个角色审设计,从大量组合里生成测试。它天生适合把一个模糊问题的搜索空间铺开,让你看到更多你原本看不到的东西。它是丰裕的函数。
人类是技术生态系统中的选择压力。 你要在这些可能性中决定什么进入现实,什么被过滤掉,什么虽然可行但不值得,什么虽然漂亮但代价太高,什么虽然技术上正确但时机不对。AI 给你一百条路,你要选一条,然后走下去。你是稀缺的函数。
这不是“AI 做简单的,人做难的”——这种分法太粗糙了。今天看起来很难的事,明天 AI 可能做得比你好。但有一类事情天然更接近人的生态位:为一个项目设定方向、决定什么值得做什么不值得、在不完整信息面前做出承诺、为最终的后果负责。这些事情不是因为计算复杂才留给人,而是因为它们的本质与“谁来签名、谁来承受”有关。
想想看:你到底想成为什么样的开发者?你觉得什么样的软件值得花生命去构建?你愿意为什么样的技术选择承受长期后果?你在一堆同样可行的路径里为什么选了这一条?
这些问题没有“正确答案”。它们需要一个有限的、不可复制的存在来回答。
AI 负责扩张可能性,人类负责把可能性压缩成命运。 这是智能丰裕时代最基本的分工格局,就像光合作用和呼吸作用构成生态系统中最基本的能量循环一样。
五、死摩擦与活摩擦:技术演化的两种阻力
在生态学中,并非所有阻力都是坏的。有些阻力只是在浪费能量——寄生虫消耗宿主的体力但不带来任何适应优势。而有些阻力是塑造性的——高山的严寒和缺氧迫使物种演化出更高效的心肺系统,逆风使树木长出更深的根系。
在软件开发中,同样存在这两种阻力。我把它们叫做“死摩擦”和“活摩擦”。
死摩擦,是那些不会让你成长、只会消耗你生命的认知负担。写大量样板代码、机械性地整理格式、反复搜索同一类信息、批量改名、补充重复性注释、搭测试骨架、翻十几个文件只为了确认一个简单的调用关系。这些事情需要被正确完成,但它们本身不含任何演化信息——做完一万次,你不会因此变得更好。就像生物体消耗能量去对抗寄生虫,这些能量并没有让生物体变得更强壮。AI 越能把这些死摩擦消灭掉,整个系统就越健康。
活摩擦则完全不同。那些你纠结“这个设计到底够不够好”的折磨,你权衡“长期架构和短期交付到底怎么平衡”的痛苦,你面对不完整信息必须拍板时的焦虑,你检视自己是不是因为懒惰或虚荣而做出某个决定时的不舒服——这些摩擦看起来效率很低,但它们是你被塑造的过程。你的判断力、你的边界感、你对风险的直觉,都是从这些痛苦里长出来的。就像骨骼在承受压力时才会变得更致密,肌肉在撕裂后才会变得更强壮。
所以技术的正确演化方向,不是消灭一切摩擦,而是精确地消灭死摩擦、保留活摩擦。
让 AI 拿走那些没有成长价值的痛苦,把真正塑造你的痛苦保留下来。
落到具体工作中,这条原则特别清晰:批量生成 DTO、扫调用链、整理变更说明、补测试骨架——这些是死摩擦,尽管交出去。设计取舍、风险评估、抽象边界、上线标准、关键逻辑的可信度判断——这些是活摩擦,你得自己穿过去。
这不是一条关于效率的原则。这是一条关于你想成为什么样的人的原则。
六、从手工匠人到生态系统管理者:软件工程的范式迁移
每一次基础资源的丰裕化,都会引发专业角色的重新定义。
想想电力普及之前的工厂。那时候一个好的工匠意味着“手艺精湛”——他能用锤子和锉刀把一个零件做到精确的尺寸。但电力和机床普及之后,好的制造者不再是手最巧的人,而是最懂得设计流水线、安排质量检测、管理冗余和反馈的人。核心能力从“做”迁移到了“确保做出来的东西可信”。
软件工程正在经历同样的迁移。
过去几十年,程序员的自我想象是手艺人:想清楚、写出来、调通、提交。“写”是核心动作,“写出漂亮的代码”是最高赞美。但当 AI 能大量写代码的时候,“写”就不再是瓶颈了。代码是廉价的产出物,就像电力时代的标准零件一样。
真正开始变贵的,是另外一组东西:需求到底定义清楚了没有?设计有没有被对比和证伪?实现有没有被独立验证?测试有没有杀伤力?上线有没有可控性?事故经验有没有变成系统约束?
换句话说,“写出来”越来越不值钱,“证明值得信”越来越值钱。
未来的优秀开发者不会看起来像一个手艺精湛的木匠。他更像一个生态系统的管理者——设定目标、释放多个候选方案、建立测试网络、组织红队审查、根据反馈修正、反复让系统收敛到一个足够可信的状态。这与控制论(cybernetics)的精神一脉相承:通过反馈回路和冗余验证来驾驭复杂系统,而非试图用单次天才设计来征服不确定性。
以前工程质量靠什么?靠一个经验丰富的人“看一眼就知道哪里不对”。这种直觉当然仍然珍贵,但它太依赖个体了,不可扩展,不可传承。未来更稳健的路线是建立系统化的验证结构:多方案竞争、独立实现、差分测试、红队审查、回归回放、文档和实现的一致性检查。
当智能稀缺时,你做不起这些。当智能丰裕时,你应该默认做这些。
就像污水处理在水资源稀缺的时代是奢侈品,在水资源丰裕的城市则是基础设施——多层验证在智能稀缺的时代是理想化的教科书建议,在智能丰裕的时代则应该成为默认配置。
软件工程的未来,不是让一个程序员变成超人,而是让每一行代码都被一群廉价但强大的智能体反复挑战、验证、解释、重放。像雨林中每一棵树都被菌根网络、昆虫、鸟类和微生物共同“审查”一样——系统的健康不依赖于任何单一天才物种,而依赖于整个生态网络的冗余和互相制衡。
七、生态位分化:便宜智能与昂贵智能各安其所
在任何成熟的生态系统中,你都不会看到一个物种做所有的事。你会看到精细的生态位分化——每个物种占据自己最擅长的位置,彼此互补而非互相替代。
同样的原理适用于不同级别的 AI 模型。
很多人陷在一个低层次的问题里:“到底哪个模型最好用?”这个问题就像问“到底老鹰厉害还是蚂蚁厉害”——答案取决于你在问什么场景。它们不是互相替代的物种,它们应该占据不同的生态位。
便宜模型的生态位是“侦察与铺量”。 它的单次判断未必最精准,但它可以大量、低成本地部署。适合拉全局地图、列风险清单、扫仓库、扫 diff、补文档、生成骨架、做第一轮分类筛选。它的优势不是“最对”,而是“最广”。就像一群侦察蚂蚁——你派它们出去不是为了打仗,而是为了帮你搞清楚整个地形。
昂贵模型的生态位是“关键判断与压缩不确定性”。 它应该只在真正难、真正模糊、真正一旦出错代价极高的环节出场:架构方案的仲裁、事务边界、一致性语义、幂等设计、权限风险、疑难 bug 根因分析、上线前的红队审查。它的价值不是铺量,而是在高风险关头压缩不确定性。就像生态系统中的顶级捕食者——数量稀少,但在关键位置上维持着整个系统的平衡。
因此,有两种浪费是必须避免的。
第一种浪费:让强模型去干廉价活。你用最贵的智能去扫文件、补样板代码、写机械注释——就像驱使老鹰去搬运树叶,这是对最稀缺资源的严重错配。
第二种浪费:让便宜模型直接终审。便宜模型适合大规模探索,但你不能让侦察蚁群来拍板战略方向。否则你会把大量“看起来有道理”的半成品直接带进主干,像一个没有免疫系统的身体,什么都往里放。
好的分工是:便宜模型负责多做,强模型负责少错。
这个原则不只适用于不同模型之间,它也适用于 AI 和人类之间。AI 负责多做,人负责少错。变异是廉价的,选择是昂贵的——这正是演化的基本经济学。
八、工具的生态分化:每种工具的演化方向
如果我们把当前的 AI 编程工具放进这个生态位的框架里观察,它们各自的角色就很清晰了。
编辑器内置的自动补全和即时建议,像共生菌——它们嵌入在你日常工作的每一个瞬间,低成本、高频率、随时可用。它们处理的是最细粒度的死摩擦:补全一行代码、提示一个函数签名、自动格式化。它们的价值不在于单次判断的深度,而在于无处不在的持续减负。
强推理模型则像生态系统中的大型捕食者。它们不应该被滥用在日常巡逻上,而应该被保留给那些真正需要深度推理的时刻:复杂的架构决策、多步骤的逻辑推演、关键系统的设计审查。它们的数量应该少,但每次出手都应该在最关键的位置上。
异步自主编码代理,像自动化的生态修复系统。你给它一个目标——“修复这个 bug”“实现这个功能”——然后它在后台自主运行,探索、实现、测试,最后给你一个结果。它特别适合那些可以独立、异步完成的任务:修复已知 bug、实现明确规格的功能、生成测试套件。它的节奏不是实时的,而是“设定-释放-收获”。
需求驱动的规格化开发工具,则像建筑行业的标准和规范体系。它们不从代码出发,而是从需求出发——先生成设计文档、测试标准、验收条件,然后再生成实现。它们的价值在于前置收敛:在代码写出来之前就把模糊的需求变成可检验的规格。
每种工具都有自己的演化方向,就像生态系统中每个物种都有自己的适应路径。把它们混用、错配,就像把深海鱼放到沙漠里——不是工具不好,是你把它放错了位置。
九、软件交付的五个生态层:重新分配智能
如果把整个软件交付过程想象成一个分层的生态系统——每一层都有自己的能量流动和物种分布——那么在智能丰裕时代,每一层都需要重新分配角色。
第一层:需求——从迷雾中辨认地形。
需求阶段最危险的不是“没想法”,而是“所有人都以为自己理解一致,实际上理解完全不同”。这就像一群探险者各自以为在往同一座山走,其实他们看到的是不同的山。
我见过太多线上事故,根因不是代码写错了,而是需求本身就留着未被发现的模糊地带——“成功”到底怎么定义?失败怎么回滚?重试算不算新请求?部分成功部分失败怎么办?权限的边界在哪里?
在这个阶段,便宜模型最该做的不是急着给方案,而是帮你把迷雾拨开——读现有代码,拉调用链,列出所有你没想到的歧义点和失败场景。强模型则应该扮演质疑者:这个词定义清楚了吗?这个边界会不会在某个极端情况下爆炸?这个场景出了错,向用户解释的成本有多高?
而你必须亲自裁决的是:这次到底做不做?做到什么边界?哪些明确不做?验收标准是什么?哪些风险不能接受?
需求阶段,人定义业务真相。AI 只是帮你把真相周围的迷雾拨开。
第二层:设计——生成多样性,然后选择。
设计阶段最大的误区是急着追求“一个看起来完整的方案”。这就像演化只产生一个变异体就宣布完成——没有竞争,没有比较,也就没有真正的选择。
智能丰裕时代的正确做法,是默认生成多个互相竞争的设计方案:最小改动版、最可测试版、最长期可维护版、最强调回滚能力版。让不同方案各自暴露代价和弱点,形成一个真正的“选择压力环境”,然后你再选。
设计阶段重要的不是“更漂亮”,而是“更可收敛”。
第三层:实现——让廉价智能铺底,昂贵智能把关。
实现阶段最容易犯的错误是浪费强模型。绝大多数低风险、高重复的实现工作——数据传输对象、控制器骨架、参数校验、注释、文档——都应该下放给便宜模型去完成。强模型只在少数关键节点出场:金额计算、状态转换、权限校验、幂等逻辑、事务和锁。
而你在实现阶段的角色不是生产者,是收敛者。你要防止系统发散——判断某个抽象是不是过度了,某个改动是不是需要逐行审查,某次小重构会不会偏离主线。
第四层:测试——智能丰裕时代变化最剧烈的生态层。
测试可能是这场变革中受影响最大的环节。过去很多团队测试做得薄,不是因为不知道测试重要,而是因为做不起——就像一个贫瘠的生态系统养不起复杂的免疫网络。
现在不同了。大量廉价智能意味着你终于可以默认去做那些原本觉得“太奢侈”的验证动作。边界矩阵、权限矩阵、状态转移矩阵、异常路径集合、回归测试、文档和实现的一致性检查——所有这些原本在教科书里显得理想化的实践,在智能丰裕时代都应该成为标准配置。
测试阶段的核心不是“让所有灯都变绿”,而是建立一种你真正愿意相信的确定性。
第五层:上线——所有哲学都在此刻显形。
上线是整个生态系统的临界时刻——代码离开温室,进入真实世界。到了这里,事情不再只是技术质量,而是“谁来承担结果”。
AI 可以帮你生成影响范围图、发布清单、回滚方案、监控建议。它可以做上线前的红队审查:最坏会出什么事故?最先看哪几个指标?哪种情况必须回滚?
但最后那个 go 或 no-go 的决定——谁来盯盘、出了问题是回滚还是热修、灰度策略怎么定——这些事情没有任何模型能替你承担。AI 只能给建议,发令权必须在你。
这正如整个文明史反复告诉我们的:技术可以制造武器,但开火的命令必须由人来下达。技术可以设计核电站,但按下启动按钮的决定必须由能承担后果的人来做出。
十、主权:智能丰裕时代最稀缺的财产
当我们把目光从具体流程抬高到全局视野,一个更根本的问题浮出水面:在智能越来越丰裕的时代,一个人到底该保留什么?
我越想越觉得,答案不是“坚持自己敲多少行代码”,也不是“必须手写每一个文档”。如果把亲力亲为本身当成目的,你很容易滑回低效和防御——就像马车夫坚持不坐汽车,以此证明自己的价值。
真正该保留的,是主权。
主权不是凡事都自己做。主权是你有能力、也有意识地决定什么交出去、什么必须自己来——而且这个决定是清醒的、深思熟虑的,而非顺着技术的便利性无意识地滑过去的。
具体来说,有四项主权必须留在自己手里。它们是丰裕时代中最不可被自动化的人类能力。
第一,目标定义权。 这件事为什么值得做?做到什么边界算完成?什么明确不做?这不是 AI 帮你回答的问题。就像一个生态系统可以自组织出丰富的物种,但“这片土地应该是雨林还是农田”的决定,必须由能承担长期后果的人来做出。
第二,价值排序权。 速度和质量怎么平衡?短期收益和长期债务怎么权衡?哪类风险绝对不能接受?这些本质上都是“你愿意为哪种结果负责”的问题。没有任何算法能替你回答“什么对你最重要”。
第三,关键判断拍板权。 尤其在高爆炸半径的环节——权限模型、金额逻辑、状态机、不可逆迁移、上线回滚。可以让模型给你一百条建议,但“就按这个来”必须由你亲自说出来,而且你清楚知道为什么。
第四,后果承担权。 出了事谁解释?谁复盘?谁背结果?谁决定下次怎么防止?AI 可以分析原因,但不能替你承担后果。凡是最终回到责任结构上的事情,都必须有人在场——一个有名字、有面孔、会因此失眠的人。
这四项主权,合在一起,构成了一个人在智能丰裕时代的不可替代性。它们不是“暂时还没被自动化的残余工作”,而是与人类有限性本身深度绑定的能力——正因为你有限,你的选择才有分量;正因为你会承受后果,你的判断才可信。
一旦这四项主权也被无意识地交出去——你获得的可能是一个极高效的流程,但你可能已经不再是自己工作和人生的主人了。技术想要自动化一切。但人必须有意识地为某些事情保留手动挡。
十一、在丰裕中修炼收束力
过去几千年,人类训练自己的方式,本质上都是匮乏时代的训练。学会记忆——因为书籍稀缺。学会计算——因为工具有限。学会搜索和组织材料——因为信息分散且昂贵。所有这些能力的核心逻辑都是:资源有限,所以你需要更强的获取能力。
但现在世界开始翻转了。
这个翻转让我想起一个农业史上的类比。在旱地农业时代,农民最重要的技能是找水、蓄水、节水——一切围绕稀缺性展开。但当灌溉系统建成、水变得丰裕之后,最重要的技能变成了排水、防涝、控制盐碱化——你需要学会应对丰裕带来的新问题。
智能的丰裕正在制造一个类似的翻转。建议越来越多,草稿越来越多,方案越来越多,路径越来越多。这时候真正稀缺的能力变成了一种截然不同的东西:
你能不能在很多建议里形成自己的标准?
你能不能在很多草稿里做出真正属于你的终稿?
你能不能在很多路径里选一条,然后长期走下去?
你能不能在很多优化机会面前知道何时该停?
你能不能在大量 AI 产出面前,不让自己的判断肌肉萎缩?
我越来越觉得,未来一个人最重要的能力,不是生产力,而是收束力。不是谁能调更多模型,不是谁能让系统生成更多东西,而是谁能在海量可能性面前仍然保持方向感。
这个方向感不是 AI 给你的。它是你通过长期的价值排序、风险承担、实践复盘和自我诚实,一点一点长出来的——就像一棵树的年轮,每一圈都记录着一年的干旱和风暴,都是从真实的承受中沉积下来的。
这也解释了为什么“自己安静想一想”在 AI 时代反而变得更重要了。AI 太擅长给答案了。你很容易在还没真正形成自己理解的时候,就满足于一个表达漂亮的外部结论。你以为自己想通了,其实只是借用了一个看起来完整的答案——就像一个从不自己走路的人,看了很多关于走路的视频,以为自己会走路了。
所以你至少要给自己保留一些不靠 AI 的思考时间:自己写一版判断,自己做一版复盘,自己走完最后一公里的推理。这不是反技术——这是给自己的认知肌肉留训练场。就像即使有了汽车,你仍然需要步行来保持腿部肌肉的功能。
十二、长期原则:智能丰裕时代的七条生态法则
在观察了技术演化的长期趋势之后,我总结出几条在智能丰裕时代可以反复依赖的原则。它们不是策略建议——策略会随环境变化。它们更像是生态学中的基本法则——在不同的环境条件下都保持成立。
第一条:AI 是廉价的可能性,人是昂贵的承诺。 可逆的事让 AI 多试,不可逆的事由人来定。这是最基本的分工原则。
第二条:便宜模型负责多做,强模型负责少错,而你负责裁决。 像生态系统的三个营养级一样——基层大量生产,中层精确筛选,顶层做出不可逆的决定。
第三条:该被消灭的是死摩擦,该被保留的是活摩擦。 分辨两者的标准很简单:这个痛苦经历之后,你是只变得更疲惫了,还是变得更强了?
第四条:写出来不值钱,证明值得信才值钱。 在智能丰裕时代,代码的生产不再是瓶颈,代码的可信度才是。你的核心工作从“生产”转向“验证”。
第五条:目标定义权、价值排序权、关键判断拍板权、后果承担权——这四项主权不可外包。 它们是你作为一个有限的、真实的人在技术系统中不可替代的锚点。
第六条:在丰裕中训练收束力,比在匮乏中训练生产力更重要。 未来最稀缺的不是“能做更多”的人,而是“能在更多面前保持清醒”的人。
第七条:定期给自己留一段不依赖外部智能的思考时间。 不是反技术,而是维护你最不可替代的器官——你自己的判断力。就像定期断食是为了维护消化系统的敏感度,定期“断 AI”是为了维护认知系统的独立性。
结语:技术想要丰裕,而人必须学会治理丰裕
站在更长的时间尺度上看,我们今天经历的这场变化,不过是技术演化那条古老弧线的又一次展开。
五百年前,印刷术让信息丰裕了。人类学会了在信息的海洋中建立大学、图书馆和同行评审制度——这些都是“治理信息丰裕”的技术。
一百五十年前,工业革命让能源丰裕了。人类学会了在能量的洪流中建立安全标准、环境法规和质量管理体系——这些都是“治理能源丰裕”的技术。
今天,机器智能正在让认知劳动丰裕。我们需要学会的,是“治理智能丰裕”的技术——不是拒绝丰裕,也不是沉溺于丰裕,而是在丰裕中建立秩序。
未来不属于最会调用智能的人,而属于最会治理智能的人。
不属于最会生成内容的人,而属于最会在海量可能性面前做出承诺、把事情带入现实的人。不属于拥有最多外部智能的人,而属于在巨大外部智能的加持下,仍然没有丢掉自己中心的人。
技术想要丰裕——这是它的演化方向,不可逆转。但人必须决定,丰裕为什么而用。技术想要展开一切可能性——这是它的内在冲动。但人必须把可能性压缩成自己愿意承担的一条路。
在智能丰裕的时代,真正的修炼不是如何拥有更多外部智能,而是在拥有了巨大外部智能之后,仍然保有自己的主权、判断和承诺能力。
这大概是未来很多年里,文明需要反复学习的一课。就像每一次基础资源的丰裕化一样——技术赋予我们的力量越大,我们越需要学会什么时候不使用它。
而这,恰恰是技术自身无法教给我们的事情。