廉价智能的反脆弱:为什么没有 Skin in the Game 的人不配谈编程的未来
I. 一个被所有人误读的范式转移
让我先摧毁一个幻觉。
绝大多数人——包括那些在社交媒体上侃侃而谈“AI 辅助编程”的意见领袖——对当下正在发生的事情存在一种根本性的误读。他们认为我们进入了一个“AI 辅助编程时代”,就好像 AI 是一把更锋利的刀,而程序员还是那个厨师,只是切菜更快了。
不。这不是刀变锋利了。这是厨房里突然涌进来一百个厨师,每个人只收一块钱日薪,而且永远不会累。
“AI 辅助编程”这个说法暴露了使用者的脆弱:他仍然把智能看成稀缺品,看成自己手上一把金贵的瑞士军刀,小心翼翼,每次使用前都要掂量一下“值不值”。但真正发生的事情是——智能的供给结构变了。原本极其昂贵、稀缺、不可并行的认知劳动,开始变得廉价、可复制、可并发、可持续调用。
这不是效率变化。这是范式变化。两者的区别,就像“马车跑得更快”和“铁路被发明”的区别。
II. 百倍降本不是统计学事件,而是心理学事件
那些在会议上讨论“模型成本到底降了多少”的人,多半从来没有真正大量调用过模型。
我来告诉你真实发生了什么。不是某个 API 的 token 价格整齐划一地降了一百倍——那是经济学家在白板上画的曲线。真正发生的是一种体感的跃迁:你突然发现,强模型的配额用不完了;某些自动路由几乎无限;某些公司的工具让你在极低心理成本下反复调用接近顶级的能力。
价格表上降了多少不重要,你心里降了多少才重要。
当你不再犹豫“这个问题值不值得问 AI”的时候,分水岭就已经过了。
过去的心智模式是稀缺时代的产物:先自己想,实在不行再问;把 prompt 写得尽量满,争取一次命中;每次调用都当成正式消费。这就像一个中世纪农民对待蜡烛的态度——天黑了才舍得点,而且要把灯芯捻小。
但一旦电灯发明了,你还捻个什么灯芯?
丰裕时代的心智完全不同:“这个问题我为什么不先让模型跑一轮?这个边界场景能不能多生成几版?这个设计是不是应该先出三套候选方案?这个 PR 为什么不让模型从安全、并发、回滚三个视角各看一遍?”
你看到这个变化了吗?从“舍不得做”到“默认去做”。从“省着用智能”到“铺张地用智能”。
这正是我在《反脆弱》里反复论证的模式:系统层面的变革,几乎从来不是由那些在会议室里分析报告的人首先察觉的。它总是由那些有 skin in the game、天天在一线干活的人率先体感到。而那些从不自己写代码、却天天发表“AI 将如何改变编程”的专栏作家和咨询师——他们是最后一批理解这件事的人。
III. AI 是什么?不是聊天机器人。不是助手。是廉价认知能源。
把 AI 定义为“聊天机器人”的人,和把蒸汽机定义为“会冒烟的水壶”的人,犯的是同一种认知错误。
AI 的本质不是“一个聪明的对话伙伴”。AI 是一种新型生产要素——廉价、可复制、可扩展的智能。
让我把它的几个核心特征列出来,像列一份资产负债表一样清晰:
可复制。 一个人一天只有二十四小时,注意力只有一份。一个模型可以同时实例化为十个、一百个、一千个执行体。它不是“另一个人”。它是一种可以横向无限扩张的认知资源池。大多数人根本不理解“可复制”这三个字的威力——这意味着你面对的不是一个帮手,而是一支军队。
无疲劳。 人做到第九遍会烦,会敷衍,会走神。AI 不会。它没有“熬夜成本”,没有“又是这种破活”的情绪负担。它会犯错,但绝不会因为枯燥而偷工减料。那些高重复、铺量型、需要长时间巡检的任务——恰恰是人类最脆弱、AI 最反脆弱的领域。
适合展开。 AI 天生擅长一件人类极不擅长的事:把搜索空间摊开。同时提出十种设计、列出三十种边界条件、从五个角度生成风险、给出大量候选——这种“铺开可能性”的能力,是 AI 最自然的优势。而人类在面对开放空间时往往会紧张、会锚定在第一个想到的方案上。
低试错代价。 这一条至关重要。AI 可以错,可以重来,可以在另一个线程再试一次。它不会因为一次判断失误损失职业机会,不会因为一次错误发布而失眠三夜。正因为如此,它天然适合探索——但也正因为如此,它天然不适合做最终承诺。
把这些特征综合起来,你得到一个清晰的画面:AI 最擅长的不是替你“活”,而是替你大规模地展开世界。 它是认知世界的廉价能源。不是单次神来之笔,而是大规模、低边际成本地执行无数你过去舍不得做的认知动作。
和工业革命的类比不是修辞。它是结构性同构。蒸汽、电力、石油的意义不是“马车跑得快一点”,而是让整套工业组织逻辑发生变化。以前很多事之所以不做,不是因为做不到,而是因为太贵。质量检查太贵,冗余设计太贵,广泛试错太贵。可一旦能源变廉价,“做出来”就不再是重点,“怎么更大规模、更稳定、更标准地做出来”才是。
AI 对认知世界做的,和蒸汽机对物理世界做的,是完全相同的事。
IV. 人类智能不是“贵一点的 AI”——这是一种危险的范畴错误
现在让我来摧毁另一个流行但脆弱的观点。
很多人——尤其是那些喜欢画“AI 能力曲线”的咨询师和分析师——把人类和 AI 放在同一个刻度尺上。在他们的幻灯片里,AI 是低配版的人,人是高配版的 AI。AI 便宜但笨,人贵但聪明。所以问题就变成了“AI 什么时候聪明到能替代人”。
这是一种范畴错误,和把鱼和鸟放在“移动速度”同一个刻度上比较一样荒唐。
AI 智能和人类智能不是一个连续刻度上的高低之分。它们是两种性质完全不同的存在。
AI 智能:可复制、可并发、无疲劳、低单次代价。
人类智能:具身的、有限的、带有生命时间的、会承担后果的。
关键区别不在于谁更聪明。关键区别在于——谁有 skin in the game。
AI 可以给你十个方案,每个看起来都头头是道。但它不需要为其中任何一个承担后果。它不会因为选错方案而丢掉工作,不会因为上线事故而失眠,不会因为一个糟糕的架构决定而在接下来三年里天天给自己擦屁股。
人不一样。人的每一个决定都绑着代价——名誉、关系、职业路径、情绪后果、责任结构、不可逆的生命时间。你做出的决定不是悬浮在空中的,它会回到你自己身上。你要解释、要承担、要复盘、要消化、要承受损失。
这使得人类智能天然带着一种 AI 永远不会拥有的东西:重量。
我在《Skin in the Game》里论证过一个核心论点:没有承担后果的人,他的判断天然不可信。不是因为他不够聪明,而是因为没有代价的判断会系统性地偏向那些“听起来漂亮但不用承受爆炸后果”的方向。AI 恰恰就处在这个位置——它永远不需要承受爆炸后果。
所以,人类真正稀缺的部分,不是算力,不是记忆,不是文字组织能力。是以下这些东西:
你到底想成为什么样的人。
你觉得什么值得,什么不值得。
你愿意为了什么承受痛苦。
你在众多路径里最终选择了哪一条。
你愿意为哪一种结果负责。
人的有限性不是缺陷。恰恰因为人不能同时活一万种人生,选择才有分量。恰恰因为一个人不能无限复制自己,承诺才有重量。恰恰因为生命时间有限,注意力才成为最贵的货币。
有限性是承诺的前提条件。 一个可以永远重来的存在,它的“选择”根本不是选择。
V. 扩张与压缩:人机分工的哲学公式
如果要我把人和 AI 的分工压成一个公式,我会这样写:
AI 负责扩张可能性,人负责把可能性压缩成命运。
这不是一个口号。这是一个具有操作性的哲学原则。
“扩张”意味着什么?让模型帮你看十种方案、二十种边界条件、三十种失败模式、五十种重构路径。从多视角读需求,从多角色审设计,从多种假设定位 bug,从大量组合里生成测试。AI 天生就是发散引擎。
“压缩”意味着什么?你要在这些可能性里决定什么值得进入现实,什么应该被过滤掉,什么虽然可行但不符合你的价值排序,什么虽然漂亮但不值得当前组织代价,什么虽然技术上正确却不适合当下阶段。
注意:这不是“AI 做简单的,人做难的”。这种划分愚蠢透顶。今天看起来复杂的事,明天可能被 AI 做得行云流水。但有一类事情始终天然更接近人:定义目标、排序价值、做出取舍、承担后果。 这些事情不是因为计算难度大才留给人,而是因为它们和“谁来负责、谁来承受、谁来把这件事纳入自己的人生叙事”有关。
用另一种方式表达:
AI 更接近“丰裕函数”——适合处理那些“越多越好”的事情:搜索、穷举、对比、批量生成、巡检、回归、补文档、模拟失败、提出异议、长期监控。
人更接近“稀缺函数”——适合处理那些必须由有限存在亲自完成的事情:定义目的、取舍边界、承担代价、下最终判断、决定何时停止、决定什么不能牺牲。
好的分工哲学不是“AI 替人做人类做不了的事”。好的分工哲学是:
让 AI 负责那些适合被无限放大的部分,让人负责那些必须由有限生命来承担的部分。
搞反了,你就完蛋了。让有限生命去干无限量的活,人会崩溃。让无 stake 的系统去做有 stake 的决定,系统会崩溃。
VI. 死摩擦与活摩擦:区分不了这两种痛苦的人,不配谈效率
现在让我引入一个极其重要的区分,一个我发现绝大多数技术管理者和效率狂人完全无法理解的区分:
死摩擦和活摩擦。
那些在推特上鼓吹“AI 将消灭一切低效”的人,犯了一个经典的医源性错误——他们假设所有痛苦都是病,所以一切痛苦都该被治疗。这就像那些把所有波动都当成风险、然后试图消灭一切波动的基金经理一样愚蠢。有些波动是噪音,有些波动是信号。有些痛苦只是在消耗你的生命,有些痛苦却是在塑造你。
死摩擦,是那些不会让你成长、只会耗尽你注意力的部分。大量样板代码。机械性的格式整理。重复搜索。低价值信息提纯。批量改名。重复性的注释补全。搭测试骨架。翻十几个文件只为确认一个简单关系。把一大堆 diff 整理成描述。这些事情需要被正确完成,但它们本身不构成你的训练。AI 越能把这些消灭掉,你越该高兴。因为这类劳动只是在烧你有限的生命。
活摩擦,是那些虽然痛苦、混乱、耗时,但构成你判断力和边界感形成过程的部分。你到底如何定义“质量够了”?你愿意接受怎样的风险?你如何权衡长期设计与短期交付?你在面对不完整信息时如何形成判断?你如何面对自己的保守、虚荣、焦虑和侥幸心理?你如何把一团混乱真正压缩成自己的观点?
这些摩擦看起来“效率低”。但效率低恰恰是重点——就像举重看起来“效率低”(你可以用叉车搬同样的重量),但那种低效正是肌肉生长的条件。
你外包了死摩擦,省下的是时间。你外包了活摩擦,省掉的是成长本身。
这个区分在软件工程中极其实用:
批量生成 DTO、扫调用链、整理变更说明、补测试骨架——死摩擦,尽管外包。
设计取舍、风险定义、抽象边界、上线标准、关键逻辑是否可信——活摩擦,必须亲自穿过。
不能区分这两者的人,要么会变成什么都不愿意交出去的卢德分子,要么会变成什么都外包出去的空壳。两者都是脆弱的。
VII. 软件工程的底层逻辑正在翻转
一旦 AI 变成廉价可扩展的智能,软件工程最深的变化,不是“写代码更快了”——说这种话的人暴露了他从未认真思考过工程的本质。
真正的变化是:“写代码”这件事本身不再构成主要瓶颈。
这就像印刷术发明之后,“抄写”不再是知识传播的瓶颈一样。瓶颈转移了。转移到了哪里?
需求有没有被定义清楚。
设计有没有被比较和证伪。
实现有没有被验证。
测试有没有杀伤力。
上线有没有可控性。
事故经验有没有真正沉淀成未来约束。
换句话说:“写出来”越来越不值钱,“证明它值得信”越来越值钱。
这是一个范式级别的翻转。过去的程序员像手工匠人——想清楚、写出来、调通、提交。未来的开发者更像控制系统设计师——设目标、放出候选方案、建测试网、做对抗审查、根据反馈修正、不断让系统收敛到一个足够可信的状态。
工程质量的来源,将越来越不是单次聪明,而是多轮冗余验证。
过去高质量依赖什么?依赖一个经验丰富的人“看一眼就知道哪里不对”。这种能力当然珍贵——我不否认直觉的价值,但我极度怀疑那些把整个系统可靠性押注在单一个体直觉上的组织。这和把你的退休金全部押在一只股票上没有本质区别。
未来更稳定、更反脆弱的路线,是建立系统化的验证结构:多方案竞争、独立实现、差分测试、红队 review、回归回放、文档与实现一致性检查、事故场景预演、变更影响分析。
当智能稀缺时,你做不起这些。
当智能丰裕时,你没有理由不做这些。
不做的人,就是在拿系统的命运赌博——而且赌的不是自己的钱。
所以,如果一定要概括未来软件工程的核心变化:
不是让一个程序员更像超人。而是让每一行代码都被一群廉价但强大的智能体反复挑战、验证、解释和重放。
从手工艺到控制论。从个体英雄到系统韧性。从“写得漂亮”到“证明它不容易出错”。
VIII. 便宜模型和昂贵模型:不是谁替代谁,而是谁该被部署在哪个战场
很多讨论陷入了一个我见过无数次的低层次陷阱:“到底哪个模型最好用?”
这个问题本身就暴露了提问者的无知——就像问“锤子好用还是螺丝刀好用”一样。答案取决于你到底要干什么。
不同模型应该扮演不同工种,而不是互相替代。
便宜模型的价值在于铺量。它的单次判断未必最准,但可以大量调用。拉全局地图,列风险清单,扫仓库、扫 diff、扫测试缺口,补文档,生成骨架,扩大边界集合,做第一轮分类。它的优势不是“最对”,而是“最广”。它像一支侦察部队——你派出去不是为了让它打赢仗,而是让它帮你看清战场全貌。
昂贵模型的价值在于压缩不确定性。它应该只在高风险环节出手:架构方案仲裁、事务边界、一致性语义、幂等设计、权限风险、状态机闭合性、疑难 bug 根因分析、上线前红队审查。它的优势不是铺量,而是在高风险赌注上少犯错。
我极其反对两种浪费——它们本质上都是 skin in the game 缺失的症状:
第一种浪费:让强模型去干廉价活。 用最贵的智能去扫文件、补样板、写机械注释。这就像请一个顶级外科医生去帮你量体温。你不是在“充分利用资源”,你是在浪费最稀缺的上下文窗口和最高质量的注意力。干这种事的人,多半是那种“反正公司出钱”的心态——典型的无 skin in the game 行为。
第二种浪费:让便宜模型直接终审。 便宜模型适合大规模探索,但不适合在没有更高层裁决的情况下直接定义高风险正确性。让侦察兵直接拍板战略决策,你就等着把大量“看起来有道理”的半成品带进主干吧。这和让实习生签合同、让见习医生主刀的风险是同一种。
所以,好的分工原则极其简洁:
便宜模型负责多做,强模型负责少错。
这句话不只适用于工具之间。它同样适用于 AI 与人之间——AI 负责多做,人负责少错。
IX. 具体工具不是“谁更聪明”的比赛,而是“谁该在什么位置上场”
让我把话说得更具体一些。如果你手上的几个工具是不同工种而不是几个聊天框,你的整个工作流会立刻清晰得多。
Cursor Auto 最适合扮演的角色是廉价认知劳动力池。读代码做全局摘要,拉调用链,列出相关类、接口、表、配置,找到类似实现,批量生成测试点,批量补文档,补样板代码,做初步风险扫描。它不是“低配强模型”。它是“无限实习生军团”。你对实习生的期望不是“一次做对”,而是“帮我把信息铺开”。
Opus 更像首席架构师兼首席检察官。它不应该天天去写普通胶水代码——那是暴殄天物。它应该只在高风险环节出手:含糊需求的边界澄清,设计里的事务与幂等审查,状态机和权限模型分析,金额与账务逻辑核查,疑难 bug 根因分析,上线前红队 review。它不是高价打字员。它是高风险仲裁者。把仲裁者派去打字,是组织层面的渎职。
Codex 最适合做并行执行中心。多个 worktree、多个任务线程并行推进:一边做主功能,一边做测试与 fixture,一边做文档与发布清单,一边做小规模 spike 或回归巡检。它的价值不在于“比别人更会答题”,而在于“更像一个并行施工现场”。
Kiro 更像规格化与约束中枢。承载需求规格、设计文档、任务拆分、项目 steering、长期约束沉淀。它是“把临时对话变成可持续项目记忆”的地方。
一旦你接受了“它们是不同工种”的框架,就不会再浪费时间去争论“谁更聪明”这种毫无意义的问题。
真正的问题永远是:谁该在什么时候上场?
X. 五个阶段,五种分工——没有一个环节可以偷懒
把整个开发过程拆成需求、设计、实现、测试、上线五个阶段。在智能丰裕时代,每个阶段都必须被重新组织。那些还在用稀缺时代思维组织工作流的人,就像拿着蜡烛走在已经通电的大楼里——不是不能用,而是蠢。
需求阶段:先拨雾,再冻结
需求阶段最致命的问题从来不是“没想法”,而是所有人以为自己理解一致——实际上理解完全不一致。我见过无数线上事故,根因不是代码写错了,而是需求本身就有模糊地带。成功到底怎么定义?失败怎么回滚?重试算不算新请求?部分成功部分失败怎么办?权限的边界在哪里?
在智能丰裕时代,便宜模型在这个阶段最该做的不是急着给方案,而是帮你把迷雾拨开。读现有代码,拉调用链,列出所有你没想到的歧义点和失败场景。强模型则该扮演挑刺者:这个词定义清楚了吗?这个边界会不会炸?这个场景出了错解释成本有多高?
而你——有 skin in the game 的那个人——必须裁决:这次到底做不做?做到哪里?哪些明确不做?验收标准是什么?哪些风险不能接受?
人定义业务真相,AI 只是帮你把真相周围的迷雾拨开。 把这个关系搞反的人,最终会发现自己在执行一个 AI 定义的需求——而 AI 不需要为这个需求的后果负任何责任。
设计阶段:不写一版,先比较多版
设计阶段最大的陷阱是追求“一个看起来完整的方案”。这种追求本质上是一种脆弱性——你把所有赌注押在了一个方案上,而且你甚至没有看过替代方案长什么样。
智能丰裕时代的正确做法是:默认生成多个互相竞争的设计。 最小改动版、最可测试版、最长期可维护版、最强调回滚版。让不同方案各自暴露代价,然后你再选。
这就是凸性策略——你把下行风险分散到多个方案中,同时保留了看到更好方案的上行空间。只看一个方案的人,不知道自己错过了什么。
设计阶段重要的不是“更漂亮”,而是“更可收敛”。
实现阶段:把 AI 当成生产线,不是当成一个写手
实现阶段最常见的浪费是让强模型干廉价活。绝大多数低风险、高重复的实现工作——DTO、VO、controller 骨架、参数校验、注释、文档——都应该下放给便宜模型。强模型只在少数关键点出手:金额计算、状态转换、权限校验、幂等逻辑、事务和锁。
而你在实现阶段的角色不是生产者,是收敛者。你要防止系统发散——判断某个抽象是不是过头了,某个 diff 是不是需要逐行审,某次小重构会不会稀释主线。
测试阶段:这里最值得铺张浪费
测试阶段可能是智能丰裕时代变化最大的环节。过去很多团队测试做得薄,不是因为不知道测试重要,而是因为做不起。
现在你做得起了。
边界矩阵、权限矩阵、状态转移矩阵、异常路径集合、回归测试、文档和实现一致性检查——大量便宜智能意味着你终于可以默认去做那些原本觉得太奢侈的验证动作。
测试阶段的核心不是让灯都变绿。而是建立一种你真正愿意相信的确定性。
那些因为“测试太费时间”而跳过系统测试的人,和那些因为“体检太费时间”而从不体检的人,最终的结局是一样的。
上线阶段:AI 当参谋,发令权在你
上线阶段是所有哲学都会显形的地方。因为到了这里,事情不再只是代码质量,而是“谁来承担结果”。
AI 可以帮你生成影响范围图、发布清单、回滚方案、监控建议。它可以做上线前的红队审查:最坏会出什么事故?最先看哪几个指标?哪种情况必须回滚?
但最后那个 go/no-go 的决定——谁来盯盘、出了问题是回滚还是热修、灰度策略怎么定——这些事情没有任何模型能替你承担。
AI 只能给建议。发令权必须在你。因为后果在你。
这就是 skin in the game 原则在工程中的终极体现:谁承担爆炸后果,谁拥有发令权。把发令权交给不承担后果的系统,是一种结构性的不道德——和让没有 skin in the game 的分析师替你做投资决策一样危险。
XI. 主权:真正必须保留的不是工作量,而是决定权
到这里,最底层的问题浮出水面了。
在智能越来越丰裕的时代,一个人到底该保留什么?
不是工作量。而是主权。
什么是主权?不是凡事都自己做。而是你有能力、也有意识地决定什么交出去、什么必须自己来——而且这个决定是清醒的,不是顺着便利性无意识滑过去的。
具体来说,至少四样东西必须留在自己手里:
第一,目标定义权。 这件事为什么值得做?做到什么边界算完成?什么明确不做?这些不是 AI 帮你定义的。让 AI 定义你的目标,就像让赌场帮你设定止损线一样荒谬。
第二,价值排序权。 速度和质量怎么平衡?短期收益和长期债务怎么权衡?哪类风险不能接受?这些本质上都是“你愿意为哪种结果负责”的问题。AI 可以列出所有选项,但排序必须由你来做——因为只有你需要活在排序的后果里。
第三,关键判断拍板权。 尤其在高爆炸半径的环节——权限模型、金额逻辑、状态机、不可逆迁移、上线回滚。可以让模型给你一百条建议,但“就这么做”必须由你亲自说出来,而且你知道为什么。不知道为什么就拍板的人,不是在做决策,是在掷骰子——而且用的是别人的骰子。
第四,后果承担权。 出了事谁解释?谁复盘?谁背结果?谁决定下次怎么防止?AI 可以分析,但不能替你承担后果。凡是最终回到责任结构上的事情,都必须有人在场——一个真实的、有名有姓、承受结果的人。
这四样东西一旦也交出去了,你获得的可能是一个极高效的流程,但你可能已经不再是自己工作和人生的主人了。
效率的奴隶仍然是奴隶。
XII. 丰裕时代最重要的训练不是“更会用工具”,而是“更会在丰裕中收束”
过去很多年,我们训练自己的方式,本质上都是匮乏时代的训练。学会记忆,学会计算,学会搜索,学会组织材料——因为资源有限,外援很少,智能昂贵。在匮乏时代,“多做一点就赢了”。
但现在世界翻转了。
智能供给越来越多。建议越来越多。草稿越来越多。路径越来越多。方案越来越多。可能性越来越多。
在丰裕时代,“多做一点”已经不构成优势了。谁都能多做一点——你只要多调几次模型就行。
真正稀缺的能力变成了另一种东西——收束力。
你能不能在很多建议里形成自己的标准?
你能不能在很多草稿里做出真正属于你的终稿?
你能不能在很多路径里选一条,然后长期走下去?
你能不能在很多优化机会面前知道何时该停?
你能不能在大量 AI 产出面前,不让自己的判断肌肉萎缩?
这是一种全新的训练。不是匮乏时代那种靠“多做”取胜的训练,而是丰裕时代的训练——靠少迷失、少发散、少把主权外包来取胜。
这也解释了为什么“自己安静想一想”在 AI 时代反而更重要了。AI 太会给答案了。你很容易在还没真正形成自己理解的时候,就满意于一个表达很漂亮的外部答案。你以为自己想通了,实际上只是借用了一个看起来完整的结论——就像那些从来不自己做分析、只看投行研报就做交易的基金经理。他们不知道自己不知道什么。
所以你至少要给自己保留一些不靠 AI 的思考时间:自己写一版判断,自己做一版复盘,自己走完最后一公里的表达。不是反技术。是给自己的认知肌肉留训练场。
不训练的肌肉会萎缩。认知肌肉也不例外。
XIII. 写给自己的几条长期戒律
以下是我给自己定的规则。不是给别人看的。是给自己在丰裕时代保持清醒用的。
一、AI 是廉价的可能性,人是昂贵的承诺。 可逆的事让 AI 多试,不可逆的事由人来定。
二、便宜模型负责多做,强模型负责少错,你负责裁决。 混淆这三者角色的人,要么浪费资源,要么制造灾难。
三、该被 AI 消灭的是死摩擦,不该被外包的是活摩擦。 分不清这两者的人,不是变成卢德分子就是变成空壳。
四、“写出来”越来越不值钱,“证明它值得信”越来越值钱。 能写的人到处都是。能证明的人才是稀缺品。
五、在所有高风险环节,坚持 skin in the game 原则。 不承担后果的人不应该拥有决策权。不承担后果的系统不应该拥有终审权。
六、保持独立思考的训练。 每天给自己留出不靠 AI 的思考时间。像运动员保持体能训练一样保持认知训练。肌肉不用会萎缩,判断力也一样。
七、在丰裕面前保持清醒。 最危险的不是拥有太少,而是拥有太多却失去了方向感。
XIV. 结语:治理智能的人,而非调用智能的人
让我用一个概率论的类比来结束这篇文章。
在赌场里,最危险的时刻不是你输钱的时候,而是你赢了很多、以为自己找到了“必胜公式”的时候。因为那个时刻你最可能加大赌注、放松警惕、把 skin in the game 的本能覆盖掉。
智能丰裕的时代就像一个突然开始不断“赢钱”的赌局。模型越来越强,产出越来越多,效率越来越高——你会觉得一切都在变好。但恰恰在这个时刻,你最容易犯一个致命错误:把主权交出去。
未来不属于最会调用智能的人。未来属于最会治理智能的人。
不属于最会生成内容的人,而属于最会在海量可能性面前做出承诺、把事情带入现实的人。不属于拥有最多外部智能的人,而属于在巨大外部智能加持下,仍然没有丢掉自己中心的人。
AI 会越来越像一种基础资源——像水、像电、像石油。但资源本身不会告诉你它该为什么而用。人必须决定这一点。
AI 越来越擅长展开世界。但人必须把世界压缩成自己愿意承担的一条路。
在智能丰裕的时代,真正的修炼不是如何拥有更多外部智能,而是在拥有巨大外部智能之后,仍然保有自己的主权、判断和承诺能力。
这大概就是反脆弱的终极形态:不是抵制变化,不是拥抱一切变化,而是在变化中保持那些不能被变化夺走的东西——你的判断,你的承诺,你的 stake。
其余的,让廉价智能去铺就好了。