AI时代,执行越来越便宜,判断越来越昂贵
——万维钢风格:概念驱动,逐层拆解
一、一个正在发生的价值重估
经济学有一个基本规律:当一种生产要素的成本急剧下降时,围绕它建立的整套价值体系就会发生重组。印刷术让手抄本不再值钱,数码摄影让冲洗胶卷的人失业,集装箱让港口搬运工变得多余。
现在,AI 正在对“执行力”做同样的事。
写代码、做 PPT、整理文献、生成报告——这些过去需要大量人力时间的工作,边际成本正在坍塌。一个熟练程序员花半天写的工具性代码,AI 几分钟就能给出八十分的版本。一份原来需要两天准备的学术汇报,AI 可以在一小时内帮你搭出骨架。
需要说明的是,这个趋势主要发生在可被数字化的知识工作领域。线下操作、强监管环节、需要真人承担法律责任的场景,执行成本并没有同步下降。但在符号层面——代码、文本、分析、方案——成本确实在急剧坍塌。
那么,当执行变便宜之后,什么变贵了?
答案是:判断。
这就是我今天想展开的核心命题。它来自我和一位学生的深度对谈,但它指向的东西远比一场对话更大。
二、责任的形状正在改变
过去我们有一种朴素的责任观:你亲手写的代码,你逐行审查过,你就算负了责。这个标准在前 AI 时代是合理的,因为那时候代码量有限,人力就是唯一的执行引擎。
但在 AI 时代,这套标准的成本收益比已经失衡了。
想象一下:AI 帮你生成了两千行工具性代码,你真的有必要逐行审查吗?行为经济学家会告诉你,这里面存在一个典型的“安全感谬误”——你以为自己在降低风险,实际上你只是在消耗时间去做一件性价比极低的事。
更高效的做法是什么?是把责任拆成层次。
核心逻辑——必须深入理解,亲自审查。这是真正决定系统行为的部分。
测试覆盖——必须确保充分。你不必逐行读代码,但你必须确保每个关键路径都有测试保护。
关键风险点——必须亲自把控。涉及数据安全、业务逻辑的部分不能仅凭信任就外包出去。
工具性代码——通过测试来验证即可。大量转发型、格式处理型代码,继续沿用逐行审查的老标准,性价比很低。
这里有一个关键洞见:AI 没有取消责任,而是改变了责任的形状。
在科研环境里这一点尤其明显。跑实验的环境和论文描述不一致、AI 润色引入了不准确的参考文献、导师要看代码时你到底该理解到什么程度——这些焦虑的本质都一样:AI 提高了效率,但“可解释、可追溯、可复核”的要求反而更高了。
未来成熟的协作方式,不是“偷偷用”或者“全盘公开”,而是一种新的信息平衡:把关键过程、核对方式、测试记录留下来,让你的工作经得起追溯。
三、信息差与 common knowledge
这里要引入一个博弈论概念,叫 common knowledge(共同知识)。
什么是 common knowledge?不只是“大家都知道”,而是“大家都知道大家都知道”。这个区别很重要。
很多人在用 AI,大家心里其实都清楚。但“大家都在用”和“大家都公开承认在用”是两回事。一旦公开化,整个系统就会被迫启动评判、表态和追责机制。这就是为什么 AI 使用这件事在当下充满暧昧——它已经普遍存在,但评价标准还没有稳定下来。
我的学生很坦率地说:她不总愿意让周围人知道自己具体用了什么工具。不完全是羞耻,更多时候是在保留信息差。一旦方法被完全复制,优势就消失了。
这个观察非常务实。但透明和保留优势其实不矛盾。你可以说明 AI 参与了哪些环节、自己做了哪些判断和校验,但不必把所有战术细节和提示词都公开。
这就像一个好的科研论文:你要公开方法和结论,但你不必把所有实验记录本的每一页都放上去。关键是可复现、可追溯,而不是事无巨细。
四、稀缺能力的迁移
如果责任的形状在变,那么“什么能力更值钱”也在变。
我在对谈中提出一个判断:至少在大多数可以被数字化的知识工作里,最能拉开差距的能力集中在两个方向——创新能力和快速学习能力。
为什么不是责任心?不是沟通能力?不是执行力?这些当然重要,但它们已经不是分水岭了。它们是“准入门槛”,不是“竞争优势”。当然,领域深度专长、伦理与合规判断、复杂的组织协调,在特定岗位上依然是硬通货。但从趋势上看,最具杠杆效应的,还是创新和快速学习。
真正拉开差距的,是你能不能提出新的做法,能不能跨学科吸收新知识,能不能在不断变化的环境里快速完成认知重建。因为重复性、标准化、低创新的工作,要么会越来越多地交给 AI,要么会被压缩为低价值执行。
这里面有一个很有解释力的对照,我把它叫做 “工具人”与“决策者”的分野。
工具人的时间可以被排满。你给他任务,他就执行,执行完了再给下一个。这种模式在前 AI 时代是有价值的,因为执行本身就是稀缺资源。但当 AI 可以承担大量执行时,这种价值就在缩水。
决策者不一样。做策略、做创新、做判断的人,反而需要留出思考空间。他们需要有时间散步、发呆、读不相干的书、跟不同领域的人聊天。因为高质量决策不是靠把时间塞满换来的,它需要一种被管理学家称为“认知闲置”的状态——大脑在看似没做事的时候,其实在做最重要的后台运算。
五、Token 是基础设施,不是奢侈品
我和学生把 AI 类比成电脑、类比成水电。这个类比不是修辞,而是我们真实的判断。
未来的科研、工作与学习环境,不应该把 AI 视为奢侈品,而应该视为基本配置。没有 AI,不是回到朴素和纯粹,而更像是故意放弃新的生产力底座。就像你不会说一个程序员不配有电脑。
这个判断还有一层更深的含义。当 token 和实现能力逐渐变便宜,真正稀缺的就不是“能不能做出来”,而是“该往哪里做、为什么做、怎么持续优化”。
用经济学的话说,执行的供给曲线在右移,判断的需求曲线在上移。两条线的交叉点告诉我们:代码会越来越便宜,实现会越来越便宜,真正昂贵的,是认知、创意和方向感。
资源不是问题。真正的问题是自己有没有想法,有没有判断,有没有新的认知长出来。
六、从“让 AI 做”到“用 AI 造工具”
这场对谈里最扎实的部分,是学生真正用 AI 做了一件事:准备学术汇报的 PPT。
她先试了 Markdown 转 PPT。这种方式贴近自己的表达习惯,结构清楚,修改及时,适合学术场景。但问题也明显:插图不够灵活,布局难控,公式和导出稳定性都有局限。
接着她让 ChatGPT 写 Python 脚本直接生成 PPT。结果意外发现:AI 在图表表达上打开了她的视野。它给出的流程图、对比表和呈现维度,有些是她自己没想到的。
这说明 AI 不只是“替人做”,有时候也是“替人看见”。
但她同样清醒地意识到:**完全交给 AI,会制造新的理解成本。**一旦版式、流程、表达逻辑都是 AI 设计的,人反而要花时间去理解“它为什么这么做”。
于是一种更成熟的分工浮现出来:内容和结构由人主导,AI 负责图表、部分版式、脚本生成和自动化支持。最好的协作不是“我把活丢给 AI”,而是“我借 AI,把自己的表达工具化”。
这个探索里还有一个珍贵的结论:**AI 带来便利,也会制造冗余。**她的体验是——本来只需要十几页 PPT,AI 一次性给出五十页。看起来丰盛,实际上让人把时间花在了删减和擦屁股上。
这个观察标志着使用 AI 的心态从“单向崇拜”走向了“磨合式协作”。一个人一旦意识到 AI 不是单向增益,而是需要磨合的新协作者,就说明她已经进入了更成熟的使用阶段。
而更让我印象深刻的,是她对自己状态的描述。她说那种感觉像古人需要一把斧子,于是先给自己劈出一把斧子,再拿斧子去砍柴。这个比喻精准地标记了一个关键转变:人与 AI 的关系,从“索取产出”走向了“搭建工作流”。
工具一旦真正顺手,甚至还能分享给组会、沉淀成开源项目,价值就超出了这一次 PPT 本身。这不是让 AI 取代自己,而是借 AI 制造新的个人能力。
七、任务分层:一种新的资源配置能力
在模型使用策略上,这个学生已经不知不觉进入了“系统设计”的视角。
她非常清楚:高风险、强依赖正确性的实验搜索和参数尝试,不敢交给低智能模型;但整理文件、读取资料、完善个人网站这类低风险工作,就放心交给便宜模型。
我也补充说,低成本 API 完全可以承担预处理、初筛、review 一类任务。杀鸡不要用牛刀,这本身就是一种资源配置能力。
这里面浮现出来的,是一种我称之为**“任务-模型匹配”**的思维方式:把不同智能水平的模型放在不同风险、不同成本、不同价值密度的环节上。
这和投资组合管理的逻辑其实是一样的。你不会把所有钱都放在高风险高收益的股票里,也不会全部存定期。最优策略是根据风险偏好和收益预期来做资产配置。对模型的使用也一样——高价值判断型任务用强模型,低风险整理型任务用便宜模型,本身就是一种需要学习的能力。
八、决策:比用 AI 更重要的事
到了这里,对谈的主线从“如何用 AI”自然过渡到了一个更根本的话题:如何做决策。
学生分享了几个很具体的选择。接手一个快要烂尾的跨组协作项目,因为自己刚好有相关经验,觉得工作量还能承受。不再花钱报课,改成每天固定时间下楼跑步,因为目标不是最完美的训练,而是“先动起来”。还有一个暂时未决的研究方向,因为预期产出不清、资源支持有限,开始认真考虑要不要继续。
这些选择看似琐碎,但实际上已经非常接近成年人的真实生活。我们并不是每天都在做宏大抉择,但我们每天都在被无数中等规模的决策塑形。
我也分享了三个案例,用来说明决策能力可以被方法化。
案例一:和领导方案冲突。 不把问题简单理解成“坚持自己”还是“全听领导”,而是借 AI 去寻找第三种中间方案。这对应决策科学里的一个核心原则——扩展选项。保罗·纳特的研究表明,只有两个选项的决策失败率高达 52%,增加到三个以上就骤降到 32%。
案例二:健身。 不只考虑省钱不省钱,而是意识到“行为设计胜过意志力”。理查德·塞勒所说的“承诺装置”在这里至关重要:你需要的不是更多知识,而是一个能让你在意志力不足时依然执行下去的系统。根据自己的性格去设计更容易坚持的方案,本身就是高质量决策。
案例三:冲动离职。 去年在情绪最上头的时候,没有让情绪直接接管行动,而是借 ChatGPT 做了一次“理性注入”,把冲动拖过情绪波峰。行为经济学家乔治·洛温斯坦的研究表明,人在“热状态”下几乎没有能力准确预测自己冷静后的偏好。延迟不可逆决策,不是优柔寡断,而是给理性的自己参与的机会。
三个案例加在一起,浮现出一整套决策原则:增加选项、重构问题、保留期权、理解自己、不要在情绪峰值做决定。
AI 在这里最重要的角色,不是替人做决定,而是帮人把问题看得更清楚,把情绪拉开一点,把判断做得更稳一点。
九、决策复盘:真正的成长引擎
对谈的最后收束在一个有力量的概念上:决策复盘。
过去我们理解复盘,常常是事无巨细地回顾今天做了什么、明天要改什么。但对谈中提出,真正更有价值的复盘,也许不是流水账式复盘,而是把注意力集中在那些真正塑造自己的选择上。
今天做了哪几个关键决策?
这些决策的质量高不高?
结果怎么样?
有没有更好的选项?
有没有被情绪、惯性、旧标准牵着走?
这种复盘在 AI 时代格外重要,原因很简单:执行能力正在被越来越便宜地放大,于是“做什么、怎么选、往哪里走”本身就变得越来越值钱。AI 给你十个方案不难,难的是你能不能选对。
安妮·杜克在《对赌》里提过一个重要的区分:不要用结果来评判决策质量。赢了不代表决策对,输了不代表决策错。评判决策质量,应该看决策过程——你是否看清了问题、扩展了选项、检查了自己的状态、保留了期权、在价值排序上做出了清醒的选择。
十、AI 不会自动带来自由
最后说一点这场对谈里最让人放心的部分。
我们没有把 AI 变成新一轮自我压榨的口号。
AI 的出现,会不会让人更卷、更功利、更容易把自己逼成一台永远高效的机器?这个焦虑很真实。但对谈最终给出的答案不是“要更努力”,而是“要更有意识地安排成长节奏”。
学生说,最好的状态不是永远冲刺到极限,而是在生活和工作之间找到一种可持续的平衡。我也强调,AI 最理想的作用不是制造负担,而是把人送上一个“成长的快车道”——让学习速度、积累速度变快,而不是让人陷入新的自我 PUA。
这个判断很重要。因为它提醒我们一条常常被忽略的规律:工具不会自动带来自由。只有当你把工具纳入自己的节奏和价值观里,它才会真的帮助人成长。
十一、一句话总结
如果让我把这场对谈压缩成一个判断,就是这个:
AI 时代,执行越来越便宜,判断越来越昂贵。
代码只是入口,PPT 只是入口,token 只是入口。真正被重新摆上桌面的,是人的位置——我们究竟要不要继续把自己训练成一个更熟练的执行者,还是要开始认真学习如何做判断、做选择、做复盘,最后成长为那个能够决定方向、也能够为结果负责的人。
未来做得最好的人,不见得是最聪明的,也不见得是最努力的。而是最会在复杂中做判断的。
他们会扩展选项,而不是急着选边。
他们会设计机制,而不是反复怪自己不够自律。
他们会在情绪高点延迟不可逆动作。
他们会让 AI 帮自己看清问题、暴露盲区、设计行动——但绝不把人生的最终拍板权外包出去。
说到底,AI 时代最值得投资的,不是学会更多工具,而是升级自己的判断系统。因为工具会越来越多、越来越便宜,但你的判断,永远只有你自己能做。