AI时代,执行越来越便宜,判断越来越昂贵
——Paul Graham 风格:从一个小观察推出一整个时代
最近和一个学生聊了很久。表面上是在聊 AI:能不能写代码、能不能做 PPT、token 不够用了怎么办。但聊到后面,我发现我们其实在讨论一个更大的问题:当执行被大幅加速之后,人还应该把自己放在什么位置?
这个问题比大多数人意识到的要重要得多。
⸻
先从一件小事说起。
这个学生最近在用 AI 做学术汇报的 PPT。她先试了 Markdown 转 PPT,因为结构清楚、修改快、跟自己的表达习惯契合。接着又让 ChatGPT 写 Python 脚本直接生成 PPT。
过程中她发现了一件有意思的事:AI 给出的图表和呈现方式,有些是她自己没想到的。AI 把数据拆成了流程图和多维度对比表,视角跟她平时习惯的不一样。这意味着 AI 不只是在替她做,某种程度上是在替她看见。
但她同样发现了另一面。她本来只需要十几页 PPT,AI 一次性给了五十页。看起来丰盛得很,但她得把大量时间花在删减、整理和改写上。
这两个发现加在一起,说明了一件非常重要的事:这个学生已经越过了使用 AI 的第一阶段。大多数人在第一阶段会想“它真厉害”。但到了第二阶段,你开始想“它在哪些地方帮了我,在哪些地方反而添了乱”。一个人一旦能这么想,她就已经开始做判断了。
而判断,恰恰是整个 AI 时代最值钱的东西。
⸻
为什么?因为执行正在坍塌。
写代码、做 PPT、整理文献、生成报告——这些过去需要一个熟练的人花半天甚至一整天的事,现在 AI 可以在几分钟内给出一个八十分的版本。这不是趋势预判,这是已经发生的事。
当然,不是所有执行都在变便宜。线下操作、强监管环节、需要真人承担法律责任的场景,执行成本依然很高。但在可被数字化的知识工作里,这个趋势已经不可逆转。
但大多数人对此的反应是:太好了,我可以做得更快了。
这个反应不能说错,但它遗漏了一个关键问题。当你跑得更快的时候,方向的重要性就变得更高了。以前你做了一个错误判断,可能就浪费半天。现在你做了一个错误判断,AI 会帮你在这个错误方向上高效执行三天——而且执行得很有条理,看起来很像在认真推进。你可能到第三天结束才发现方向一开始就不对。
所以 AI 时代最危险的事,不是不会做事。而是高效率地在错误方向上做事。
这就意味着判断力不是降低了,而是大幅升高了。
⸻
由此第一个被重新定义的,是“负责”。
过去我们默认:你亲手写了每一行代码,逐行审查过,你就算负了责。可是现在,当 AI 可以生成大量代码时,对所有代码逐行机械式审查,性价比已经很低了。
更聪明的做法是把责任拆成层次。核心逻辑——必须深入理解。测试覆盖——必须确保充分。关键风险点——必须亲自把控。但大量工具性代码、转发代码、格式处理代码,你的责任不再是逐行审查,而是确保它们在测试中被充分验证。
这不是说责任变轻了。恰恰相反。在科研环境里,AI 的介入让责任变得更重。跑实验的环境和论文描述不一致、AI 润色引入了不准确的参考文献、导师要看代码时你到底该理解到什么程度——这些焦虑都指向同一件事:AI 提高了效率,但把“可解释、可追溯、可复核”推到了更前面。
责任没有消失,它换了一个形状。
⸻
接下来一个微妙的话题:为什么很多人明明在用 AI,却想遮掩痕迹?
这个学生很坦率地告诉我:不完全是羞耻。更多时候,是在保留信息差。一旦你的方法被完全复制,优势就消失了。
我觉得这个答案比大多数讨论都诚实。
但透明和保留优势其实不矛盾。你可以说明 AI 参与了哪些环节、自己做了哪些判断和校验,但不必把所有提示词和工程诀窍都摊开。未来成熟的做法,大概是在信息透明和信息保留之间找到新的平衡——把关键过程、核对方式、测试记录留下来,但不必把全部战术细节公开。
我们还聊到一个有解释力的概念:common knowledge。很多事情大家心里都知道,但不代表适合摆到台面上。一旦公开化,系统就会被迫启动评判、表态和追责机制。AI 使用这件事之所以在当下充满暧昧,就是因为它已经普遍存在,但评价标准还没有稳定下来。
⸻
如果责任在变化,那么“什么能力值钱”也在变化。
我在这次对谈里给出了一个判断:至少在大多数可以被数字化的知识工作里,最能拉开差距的能力集中在两个方向——创新能力和快速学习能力。
当然,领域深度专长、伦理判断、组织协调在特定场景下依然非常值钱。但责任心、沟通能力这些通用基础素养,已经不再是分水岭。真正拉开差距的,是你能不能提出新的做法,能不能跨学科吸收新知识,能不能在不断变化的环境里快速完成重建。因为重复性、标准化、低创新的工作,要么交给 AI,要么被压缩为低价值执行。
这也解释了我们为什么反复提到一个对照:做“工具人”还是做“决策者”。工具人的时间可以被排满,但做策略、做创新、做判断的人,反而需要留出思考空间。高质量决策不是靠把时间塞满换来的。
⸻
我们把 token 类比成电脑、类比成水电。这个类比不是修辞。
当 AI 变成基础设施,没有 AI 就不是回到朴素和纯粹,而是故意放弃新的生产力底座。就像你不会说一个程序员不配有电脑一样,你也不应该觉得一个研究者不配有充足的 token。
更深一层的判断是:当 token 和实现能力逐渐变便宜,真正稀缺的反而不是“能不能做出来”,而是“该往哪里做、为什么做、怎么持续优化”。
代码会越来越便宜,实现会越来越便宜。真正昂贵的,是认知、创意和方向感。
资源不是问题。真正的问题是自己有没有想法,有没有判断,有没有新的认知长出来。
⸻
这也是为什么这个学生最让我印象深刻的探索,不是她说了什么关于 AI 的抽象判断,而是她在用 AI 做 PPT 的过程中体会到的一种感觉。
她形容那种感觉像古人需要一把斧子,于是先给自己劈出一把斧子,再拿斧子去砍柴。她不是在让 AI 替她做 PPT,而是在用 AI 给自己造工具。
这个区别非常重要。
“让 AI 做”和“用 AI 给自己造工具”是完全不同的两种关系。前者是索取产出,后者是搭建工作流。当一个人从前者走向后者,她跟 AI 的关系就从消费变成了建设。工具一旦真正顺手,甚至还能分享给组会、沉淀成开源项目,价值就超出了一次性使用。
⸻
在模型选择上,她也已经不知不觉进入了系统设计的视角。
高风险、强依赖正确性的实验搜索和参数尝试,不敢交给低智能模型。但整理文件、读取资料、完善个人网站这类低风险工作,就放心交给便宜模型。
这说明对模型的理解,已经从“哪个好用”演变成一种更成熟的任务分层:把不同智能水平的模型放在不同风险、不同成本、不同价值密度的环节上。
杀鸡不要用牛刀。这本身就是一种资源配置能力。也是未来每个人都需要掌握的能力。
⸻
但这场对谈最让我觉得重要的部分,其实跟 AI 的技术细节无关。
我们聊到了决策。
她分享了几个非常具体的选择:接手一个快要烂尾的跨组协作项目,因为自己刚好有相关经验,觉得工作量还能承受;不再花钱报课,改成每天固定时间下楼跑步,因为目标不是最完美的训练,而是“先动起来”;还有一个暂时未决的研究方向,因为预期产出不清、资源支持有限,开始认真考虑要不要继续。
这些选择看起来很小。但你仔细想,我们的人生其实就是被这种中等规模的决策一点一点塑形的。
我也分享了自己的几个案例。跟领导方案冲突时,不把问题理解成“坚持自己”还是“全听领导”,而是借 AI 去找第三种中间方案。健身时,意识到“行为设计胜过意志力”,根据自己的性格去设计更容易坚持的系统。去年最想冲动离职时,没让情绪直接接管行动,而是用 ChatGPT 做了一次理性注入,把冲动拖过了情绪波峰。
这里面浮现出来的原则其实很简单:增加选项,重构问题,保留期权,理解自己,不要在情绪峰值做决定。
AI 在这里最重要的角色,不是替人做决定,而是帮人把问题看得更清楚,把情绪拉开一点,把判断做得更稳一点。
⸻
最后我们聊到了决策复盘。
过去我们理解复盘,常常是事无巨细地回顾今天做了什么。但真正更有价值的复盘,也许不是流水账,而是把注意力集中在那些真正塑造自己的选择上:今天做了哪几个关键决策?质量高不高?有没有更好的选项?有没有被情绪、惯性、旧标准牵着走?
这种复盘在 AI 时代格外重要。因为执行能力正在被越来越便宜地放大,于是“做什么、怎么选、往哪里走”本身就变得越来越值钱。AI 给你十个方案不难,难的是你能不能选对。
⸻
当然,这场对谈最打动我的地方,是它没有把 AI 变成新一轮自我压榨的口号。
AI 的出现,会不会让人更卷、更功利、更容易把自己逼成一台机器?这个担忧很真实。但我们最后给出的答案不是“要更努力”,而是“要更有意识地安排成长节奏”。AI 最理想的作用不是制造负担,而是把人送上一个成长的快车道——让学习速度和积累速度变快,而不是让人陷入新的自我 PUA。
工具不会自动带来自由。只有当我们把工具纳入自己的节奏和价值观里,它才会真的帮助人成长。
⸻
如果让我把整场对话压缩成一句话,就是这句:
AI 时代,执行越来越便宜,判断越来越昂贵。
代码只是入口,PPT 只是入口,token 只是入口。真正被重新摆上桌面的,是人的位置:我们究竟要不要继续把自己训练成一个更熟练的执行者,还是要开始认真学习如何做判断、做选择、做复盘,最后成长为那个能够决定方向、也能够为结果负责的人。
这不是一个关于 AI 的问题。这是一个关于你想成为什么样的人的问题。