思考笔记

李文业的思考笔记


  • 首页

  • 关于

  • 分类

  • 归档

AI时代,执行越来越便宜,判断越来越昂贵(万维钢风格)

发表于 2026/03/21 | 分类于 AI专题

AI时代,执行越来越便宜,判断越来越昂贵

——万维钢风格:概念驱动,逐层拆解

一、一个正在发生的价值重估

经济学有一个基本规律:当一种生产要素的成本急剧下降时,围绕它建立的整套价值体系就会发生重组。印刷术让手抄本不再值钱,数码摄影让冲洗胶卷的人失业,集装箱让港口搬运工变得多余。

现在,AI 正在对“执行力”做同样的事。

写代码、做 PPT、整理文献、生成报告——这些过去需要大量人力时间的工作,边际成本正在坍塌。一个熟练程序员花半天写的工具性代码,AI 几分钟就能给出八十分的版本。一份原来需要两天准备的学术汇报,AI 可以在一小时内帮你搭出骨架。

需要说明的是,这个趋势主要发生在可被数字化的知识工作领域。线下操作、强监管环节、需要真人承担法律责任的场景,执行成本并没有同步下降。但在符号层面——代码、文本、分析、方案——成本确实在急剧坍塌。

那么,当执行变便宜之后,什么变贵了?

答案是:判断。

这就是我今天想展开的核心命题。它来自我和一位学生的深度对谈,但它指向的东西远比一场对话更大。

二、责任的形状正在改变

过去我们有一种朴素的责任观:你亲手写的代码,你逐行审查过,你就算负了责。这个标准在前 AI 时代是合理的,因为那时候代码量有限,人力就是唯一的执行引擎。

但在 AI 时代,这套标准的成本收益比已经失衡了。

想象一下:AI 帮你生成了两千行工具性代码,你真的有必要逐行审查吗?行为经济学家会告诉你,这里面存在一个典型的“安全感谬误”——你以为自己在降低风险,实际上你只是在消耗时间去做一件性价比极低的事。

更高效的做法是什么?是把责任拆成层次。

核心逻辑——必须深入理解,亲自审查。这是真正决定系统行为的部分。
测试覆盖——必须确保充分。你不必逐行读代码,但你必须确保每个关键路径都有测试保护。
关键风险点——必须亲自把控。涉及数据安全、业务逻辑的部分不能仅凭信任就外包出去。
工具性代码——通过测试来验证即可。大量转发型、格式处理型代码,继续沿用逐行审查的老标准,性价比很低。

这里有一个关键洞见:AI 没有取消责任,而是改变了责任的形状。

在科研环境里这一点尤其明显。跑实验的环境和论文描述不一致、AI 润色引入了不准确的参考文献、导师要看代码时你到底该理解到什么程度——这些焦虑的本质都一样:AI 提高了效率,但“可解释、可追溯、可复核”的要求反而更高了。

未来成熟的协作方式,不是“偷偷用”或者“全盘公开”,而是一种新的信息平衡:把关键过程、核对方式、测试记录留下来,让你的工作经得起追溯。

三、信息差与 common knowledge

这里要引入一个博弈论概念,叫 common knowledge(共同知识)。

什么是 common knowledge?不只是“大家都知道”,而是“大家都知道大家都知道”。这个区别很重要。

很多人在用 AI,大家心里其实都清楚。但“大家都在用”和“大家都公开承认在用”是两回事。一旦公开化,整个系统就会被迫启动评判、表态和追责机制。这就是为什么 AI 使用这件事在当下充满暧昧——它已经普遍存在,但评价标准还没有稳定下来。

我的学生很坦率地说:她不总愿意让周围人知道自己具体用了什么工具。不完全是羞耻,更多时候是在保留信息差。一旦方法被完全复制,优势就消失了。

这个观察非常务实。但透明和保留优势其实不矛盾。你可以说明 AI 参与了哪些环节、自己做了哪些判断和校验,但不必把所有战术细节和提示词都公开。

这就像一个好的科研论文:你要公开方法和结论,但你不必把所有实验记录本的每一页都放上去。关键是可复现、可追溯,而不是事无巨细。

四、稀缺能力的迁移

如果责任的形状在变,那么“什么能力更值钱”也在变。

我在对谈中提出一个判断:至少在大多数可以被数字化的知识工作里,最能拉开差距的能力集中在两个方向——创新能力和快速学习能力。

为什么不是责任心?不是沟通能力?不是执行力?这些当然重要,但它们已经不是分水岭了。它们是“准入门槛”,不是“竞争优势”。当然,领域深度专长、伦理与合规判断、复杂的组织协调,在特定岗位上依然是硬通货。但从趋势上看,最具杠杆效应的,还是创新和快速学习。

真正拉开差距的,是你能不能提出新的做法,能不能跨学科吸收新知识,能不能在不断变化的环境里快速完成认知重建。因为重复性、标准化、低创新的工作,要么会越来越多地交给 AI,要么会被压缩为低价值执行。

这里面有一个很有解释力的对照,我把它叫做 “工具人”与“决策者”的分野。

工具人的时间可以被排满。你给他任务,他就执行,执行完了再给下一个。这种模式在前 AI 时代是有价值的,因为执行本身就是稀缺资源。但当 AI 可以承担大量执行时,这种价值就在缩水。

决策者不一样。做策略、做创新、做判断的人,反而需要留出思考空间。他们需要有时间散步、发呆、读不相干的书、跟不同领域的人聊天。因为高质量决策不是靠把时间塞满换来的,它需要一种被管理学家称为“认知闲置”的状态——大脑在看似没做事的时候,其实在做最重要的后台运算。

五、Token 是基础设施,不是奢侈品

我和学生把 AI 类比成电脑、类比成水电。这个类比不是修辞,而是我们真实的判断。

未来的科研、工作与学习环境,不应该把 AI 视为奢侈品,而应该视为基本配置。没有 AI,不是回到朴素和纯粹,而更像是故意放弃新的生产力底座。就像你不会说一个程序员不配有电脑。

这个判断还有一层更深的含义。当 token 和实现能力逐渐变便宜,真正稀缺的就不是“能不能做出来”,而是“该往哪里做、为什么做、怎么持续优化”。

用经济学的话说,执行的供给曲线在右移,判断的需求曲线在上移。两条线的交叉点告诉我们:代码会越来越便宜,实现会越来越便宜,真正昂贵的,是认知、创意和方向感。

资源不是问题。真正的问题是自己有没有想法,有没有判断,有没有新的认知长出来。

六、从“让 AI 做”到“用 AI 造工具”

这场对谈里最扎实的部分,是学生真正用 AI 做了一件事:准备学术汇报的 PPT。

她先试了 Markdown 转 PPT。这种方式贴近自己的表达习惯,结构清楚,修改及时,适合学术场景。但问题也明显:插图不够灵活,布局难控,公式和导出稳定性都有局限。

接着她让 ChatGPT 写 Python 脚本直接生成 PPT。结果意外发现:AI 在图表表达上打开了她的视野。它给出的流程图、对比表和呈现维度,有些是她自己没想到的。

这说明 AI 不只是“替人做”,有时候也是“替人看见”。

但她同样清醒地意识到:**完全交给 AI,会制造新的理解成本。**一旦版式、流程、表达逻辑都是 AI 设计的,人反而要花时间去理解“它为什么这么做”。

于是一种更成熟的分工浮现出来:内容和结构由人主导,AI 负责图表、部分版式、脚本生成和自动化支持。最好的协作不是“我把活丢给 AI”,而是“我借 AI,把自己的表达工具化”。

这个探索里还有一个珍贵的结论:**AI 带来便利,也会制造冗余。**她的体验是——本来只需要十几页 PPT,AI 一次性给出五十页。看起来丰盛,实际上让人把时间花在了删减和擦屁股上。

这个观察标志着使用 AI 的心态从“单向崇拜”走向了“磨合式协作”。一个人一旦意识到 AI 不是单向增益,而是需要磨合的新协作者,就说明她已经进入了更成熟的使用阶段。

而更让我印象深刻的,是她对自己状态的描述。她说那种感觉像古人需要一把斧子,于是先给自己劈出一把斧子,再拿斧子去砍柴。这个比喻精准地标记了一个关键转变:人与 AI 的关系,从“索取产出”走向了“搭建工作流”。

工具一旦真正顺手,甚至还能分享给组会、沉淀成开源项目,价值就超出了这一次 PPT 本身。这不是让 AI 取代自己,而是借 AI 制造新的个人能力。

七、任务分层:一种新的资源配置能力

在模型使用策略上,这个学生已经不知不觉进入了“系统设计”的视角。

她非常清楚:高风险、强依赖正确性的实验搜索和参数尝试,不敢交给低智能模型;但整理文件、读取资料、完善个人网站这类低风险工作,就放心交给便宜模型。

我也补充说,低成本 API 完全可以承担预处理、初筛、review 一类任务。杀鸡不要用牛刀,这本身就是一种资源配置能力。

这里面浮现出来的,是一种我称之为**“任务-模型匹配”**的思维方式:把不同智能水平的模型放在不同风险、不同成本、不同价值密度的环节上。

这和投资组合管理的逻辑其实是一样的。你不会把所有钱都放在高风险高收益的股票里,也不会全部存定期。最优策略是根据风险偏好和收益预期来做资产配置。对模型的使用也一样——高价值判断型任务用强模型,低风险整理型任务用便宜模型,本身就是一种需要学习的能力。

八、决策:比用 AI 更重要的事

到了这里,对谈的主线从“如何用 AI”自然过渡到了一个更根本的话题:如何做决策。

学生分享了几个很具体的选择。接手一个快要烂尾的跨组协作项目,因为自己刚好有相关经验,觉得工作量还能承受。不再花钱报课,改成每天固定时间下楼跑步,因为目标不是最完美的训练,而是“先动起来”。还有一个暂时未决的研究方向,因为预期产出不清、资源支持有限,开始认真考虑要不要继续。

这些选择看似琐碎,但实际上已经非常接近成年人的真实生活。我们并不是每天都在做宏大抉择,但我们每天都在被无数中等规模的决策塑形。

我也分享了三个案例,用来说明决策能力可以被方法化。

案例一:和领导方案冲突。 不把问题简单理解成“坚持自己”还是“全听领导”,而是借 AI 去寻找第三种中间方案。这对应决策科学里的一个核心原则——扩展选项。保罗·纳特的研究表明,只有两个选项的决策失败率高达 52%,增加到三个以上就骤降到 32%。

案例二:健身。 不只考虑省钱不省钱,而是意识到“行为设计胜过意志力”。理查德·塞勒所说的“承诺装置”在这里至关重要:你需要的不是更多知识,而是一个能让你在意志力不足时依然执行下去的系统。根据自己的性格去设计更容易坚持的方案,本身就是高质量决策。

案例三:冲动离职。 去年在情绪最上头的时候,没有让情绪直接接管行动,而是借 ChatGPT 做了一次“理性注入”,把冲动拖过情绪波峰。行为经济学家乔治·洛温斯坦的研究表明,人在“热状态”下几乎没有能力准确预测自己冷静后的偏好。延迟不可逆决策,不是优柔寡断,而是给理性的自己参与的机会。

三个案例加在一起,浮现出一整套决策原则:增加选项、重构问题、保留期权、理解自己、不要在情绪峰值做决定。

AI 在这里最重要的角色,不是替人做决定,而是帮人把问题看得更清楚,把情绪拉开一点,把判断做得更稳一点。

九、决策复盘:真正的成长引擎

对谈的最后收束在一个有力量的概念上:决策复盘。

过去我们理解复盘,常常是事无巨细地回顾今天做了什么、明天要改什么。但对谈中提出,真正更有价值的复盘,也许不是流水账式复盘,而是把注意力集中在那些真正塑造自己的选择上。

今天做了哪几个关键决策?
这些决策的质量高不高?
结果怎么样?
有没有更好的选项?
有没有被情绪、惯性、旧标准牵着走?

这种复盘在 AI 时代格外重要,原因很简单:执行能力正在被越来越便宜地放大,于是“做什么、怎么选、往哪里走”本身就变得越来越值钱。AI 给你十个方案不难,难的是你能不能选对。

安妮·杜克在《对赌》里提过一个重要的区分:不要用结果来评判决策质量。赢了不代表决策对,输了不代表决策错。评判决策质量,应该看决策过程——你是否看清了问题、扩展了选项、检查了自己的状态、保留了期权、在价值排序上做出了清醒的选择。

十、AI 不会自动带来自由

最后说一点这场对谈里最让人放心的部分。

我们没有把 AI 变成新一轮自我压榨的口号。

AI 的出现,会不会让人更卷、更功利、更容易把自己逼成一台永远高效的机器?这个焦虑很真实。但对谈最终给出的答案不是“要更努力”,而是“要更有意识地安排成长节奏”。

学生说,最好的状态不是永远冲刺到极限,而是在生活和工作之间找到一种可持续的平衡。我也强调,AI 最理想的作用不是制造负担,而是把人送上一个“成长的快车道”——让学习速度、积累速度变快,而不是让人陷入新的自我 PUA。

这个判断很重要。因为它提醒我们一条常常被忽略的规律:工具不会自动带来自由。只有当你把工具纳入自己的节奏和价值观里,它才会真的帮助人成长。

十一、一句话总结

如果让我把这场对谈压缩成一个判断,就是这个:

AI 时代,执行越来越便宜,判断越来越昂贵。

代码只是入口,PPT 只是入口,token 只是入口。真正被重新摆上桌面的,是人的位置——我们究竟要不要继续把自己训练成一个更熟练的执行者,还是要开始认真学习如何做判断、做选择、做复盘,最后成长为那个能够决定方向、也能够为结果负责的人。

未来做得最好的人,不见得是最聪明的,也不见得是最努力的。而是最会在复杂中做判断的。

他们会扩展选项,而不是急着选边。
他们会设计机制,而不是反复怪自己不够自律。
他们会在情绪高点延迟不可逆动作。
他们会让 AI 帮自己看清问题、暴露盲区、设计行动——但绝不把人生的最终拍板权外包出去。

说到底,AI 时代最值得投资的,不是学会更多工具,而是升级自己的判断系统。因为工具会越来越多、越来越便宜,但你的判断,永远只有你自己能做。

AI时代,执行越来越便宜,判断越来越昂贵(刘瑜风格)

发表于 2026/03/21 | 分类于 AI专题

AI时代,执行越来越便宜,判断越来越昂贵

——刘瑜风格:温和的追问

当执行变得不再困难

最近我和一个学生聊了很久。我们聊 AI,聊代码,聊 PPT,聊 token 不够用了怎么办。但聊到后来我才意识到,这些话题只是表面。我们真正在讨论的问题是:当做事本身变得越来越容易,一个人还应该把精力花在哪里?

这个问题看起来很抽象,但它其实已经落在了每一个普通人的日常里。

你用 AI 写了一段代码,运行得很好。但你知道自己其实没完全理解它。这算不算负责?你用 AI 做了一份 PPT,比你自己做的好看,但你说不清每一页为什么是这个逻辑。你敢拿着它上台讲吗?你用 AI 润色了论文,语言更流畅了,但 AI 悄悄改了一个参考文献的年份。你注意到了吗?

这些问题很小,但它们指向一个很大的裂缝。

负责的形状

过去我们理解“负责”,有一个很朴素的标准:你亲手写的,你逐行看过的,你就负了责。这个标准简单、直觉、不需要额外解释。

但 AI 改变了这个前提。现在 AI 可以帮你生成大量代码、大量文本、大量方案,而你不可能逐行审查它们——至少,逐行审查的成本已经高到不值得了。

那怎么办?

我在对谈里提出了一个想法:责任不应该继续绑定在“逐行审查”上,而应该绑定在几个更关键的问题上——测试是否充分?核心逻辑是否理解?关键风险是否可控?

核心代码当然值得深挖。但大量工具性的、转发型的、容易通过测试来验证的代码,继续沿用前 AI 时代的审查标准,性价比已经很低了。

学生的焦虑也很真实。在科研环境里,一旦 AI 介入,责任并不会变轻,反而可能更重。跑实验的环境与论文描述不一致、AI 润色影响了参考文献的准确性、导师要看代码时你到底该理解到什么程度——这些问题的核心都一样:AI 提高了效率,但它没有取消责任。

它只是把责任的形状改了。

从“我亲手做了每一步”,变成了“我能解释每一步,追溯每一步,在出了问题时定位每一步”。如果说前 AI 时代的负责是“过程控制”,那 AI 时代的负责更接近“结果验证”加“可追溯性”。

为什么要遮掩?

聊到 AI 使用痕迹这个话题时,学生说了一句很坦率的话:不完全是羞耻,更多时候是在保留信息差。

我觉得这个回答比大多数公共讨论都诚实。

我们生活在一个很微妙的转型期。几乎所有人都在用 AI,但评价标准还没有稳定下来。在有些场景里,用 AI 被视为“偷懒”。在另一些场景里,它被视为“聪明”。同一个行为,在不同人眼中可以有完全相反的评价。

更微妙的是一个博弈论里的概念:common knowledge。很多事情,大家心里知道,不代表适合摆到台面上。一旦某件事变成了 common knowledge,整个系统就被迫启动评判、表态和追责机制。

所以“遮掩”未必是心虚。它可能只是一种还在摸索中的策略。

那更好的做法是什么呢?我觉得不是“偷偷用”或者“全盘公开”,而是找到一种新的平衡:你可以说明 AI 参与了哪些环节、你做了哪些判断和校验,但你不必把所有提示词和战术细节都展示出来。透明度是为了建立信任,而不是为了自我暴露。

什么变得稀缺了

当执行变便宜之后,什么变贵了?

我在对谈里给出了一个判断:至少在大多数可以被数字化的知识工作领域,最能拉开差距的能力集中在两个方向——创新能力和快速学习能力。

当然,领域深度专长、伦理判断、复杂场景下的组织协调,在特定岗位上依然是硬通货。但我想说的是一件更不舒服的事:我们过去赖以安身立命的很多通用品质——比如耐心、细致、勤勉、守时、执行力——这些品质当然重要,但它们正在从“竞争优势”退化为“准入门槛”。它们是你不能没有的底线,但不再是让你脱颖而出的东西。

真正拉开差距的,变成了你能不能提出新的做法,能不能在陌生领域快速建立有效认知,能不能在整个行业都在剧变的时候,比别人更快地完成自我重建。

这里面有一个我一直在想的对照:做“工具人”还是做“决策者”。工具人的时间可以被排满,你给他任务他就执行,执行完再给下一个。但做策略、做创新、做判断的人不一样——他们反而需要留出空间,需要有思考的时间,需要有真正的休息。

因为高质量的决策不是靠把时间塞满换来的。它需要一种看起来很奢侈的东西:闲暇。

基础设施,不是奢侈品

我们在对谈里把 AI 的 token 类比成电脑、类比成水电。

这个类比的意思很明确:AI 不应该被当作奢侈品,而应该被当作基础设施。没有 AI,不是回到朴素和纯粹,而更像是故意放弃了新的生产力底座。

更进一步说,当 token 和实现能力逐渐变便宜,真正稀缺的就不是“能不能做出来”,而是“该往哪里做”。当然,这主要指的是可被数字化的知识工作——线下操作、强监管场景、需要真人担责的环节,执行成本并没有同步下降。但在代码、文本、分析、方案这些符号层面,实现确实越来越便宜,真正昂贵的,是认知、创意和方向感。

我有时候觉得这像是一种新型的贫富分化。过去穷人缺工具,现在工具在变得便宜。但新的稀缺品——判断力、创新力、方向感——这些东西的培养恰恰需要更多的时间、更好的教育、更从容的成长环境。工具平等了,但使用工具的能力可能在加速分化。

一个关于 PPT 的故事

说了这么多宏大判断,让我讲一个具体的故事。

这个学生这周做了一件很扎实的事:她真正把 AI 用进了一次学术汇报的准备中。

她先试了 Markdown 转 PPT。这种方式最贴近她的表达习惯——结构清楚,修改及时,适合学术场景。但问题也明显:插图不够灵活,布局难控,公式和导出的稳定性有局限。

接着她让 ChatGPT 用 Python 脚本直接生成 PPT。结果意外发现:AI 在图表表达上打开了她的视野。它给出的流程图、对比表和呈现维度,有些是她自己原本没想到的。

这让我想到一个说法:AI 不只是在替人做,有时候也是在替人看见。

但她同时也发现了另一面。AI 一次性给了五十页内容,她本来只需要十几页。看起来很丰盛,实际上把大量时间花在了删减、整理和改写上。

我觉得这个观察特别有价值。因为它标志着一种心态的成熟:从“它真厉害”走向“我需要判断它在哪里真正帮了我,在哪里反而增加了摩擦”。一个人一旦能意识到 AI 不是单向增益,而是一种需要磨合的协作者,她就已经进入了更深的使用层次。

最有意思的是她对这种体验的形容。她说像古人需要一把斧子,于是先给自己劈出一把斧子,再拿斧子去砍柴。她不是在让 AI 替她做事,而是在用 AI 给自己造工具。

这个区别至关重要。“让 AI 做”是消费关系,“用 AI 造工具”是建设关系。后者意味着人和 AI 之间形成了一种更持久、更有创造性的合作方式。

关于决策

然后我们聊到了决策。这是整场对谈真正的高潮。

学生分享了几个非常具体的选择。

她接手了一个快要烂尾的跨组协作项目,因为自己刚好有相关经验,觉得工作量还能承受。她不再花钱报课,改成每天固定时间下楼跑步——目标不是最完美的训练方案,而是“先动起来”。她有一个暂时未决的研究方向,因为预期产出不清、资源支持有限,开始认真考虑要不要继续。

这些选择看起来平平无奇。但我越想越觉得,成年人的生活就是由这种中等规模的决策组成的。我们不是每天都在做改变命运的大选择,但我们每天都在被这些看似不起眼的判断一点一点地塑造。

我也分享了自己的几个案例。和领导方案冲突时,不把问题简单理解成“坚持自己”还是“全听领导”,而是去找第三种路。健身时,不只考虑省不省钱,而是意识到行为设计胜过意志力——根据自己的性格设计更容易坚持的系统。去年在情绪最激烈、最想冲动离职的时候,没有让情绪直接接管行动,而是借 ChatGPT 做了一次理性注入,把冲动拖过了情绪的波峰。

回头看,这些案例里其实藏着一些共同的东西:增加选项,重构问题,保留期权,理解自己,不要在情绪峰值做决定。

AI 在这些场景里最好的角色,不是替你做决定,而是帮你把问题看清楚一点,把情绪拉开一点,把选项展开一点。

复盘的意义

我们最后聊到了复盘。

过去理解复盘,常常是事无巨细地回顾:今天做了什么,明天要改什么。但我们在对谈里提出了一种不同的复盘方式:不是流水账式复盘,而是决策复盘——把注意力集中在那些真正塑造自己的选择上。

今天做了哪几个关键决策?质量高不高?有没有更好的选项?有没有被情绪、惯性或者旧标准牵着走?

这种复盘在 AI 时代格外重要。因为执行正在被越来越便宜地放大,“做什么、怎么选、往哪里走”就变得越来越值钱。AI 给你十个方案不难,难的是你能不能选对那个最值得投入的。

自由不是自动附赠的

这场对谈里最让我感到安慰的,是我们没有把 AI 变成一个自我压榨的新理由。

AI 的出现,会不会让人更卷、更功利、更容易把自己逼成一台永远高效的机器?这个担忧是真实的。但我们最终的结论不是“你要更努力”,而是“你要更有意识地安排自己的节奏”。

AI 最理想的作用,是把人送上一个成长的快车道——让学习速度、积累速度变快——而不是让人陷入新的自我 PUA。

这个判断很重要,因为它在提醒我们一件容易被遗忘的事:工具不会自动带来自由。汽车可以让你去更远的地方,也可以让你堵在路上更久。手机可以让你随时联系任何人,也可以让你永远无法脱身。AI 也一样——它可以解放你,也可以奴役你。关键不在于工具本身,而在于你怎么使用它,以及你有没有意识到自己正在怎么被它使用。

最后一句

如果这场对谈真的需要一个结尾,我想它应该是这句:

AI 时代,执行越来越便宜,判断越来越昂贵。

我们究竟要不要继续把自己训练成一个更熟练的执行者?还是要开始认真学习另一种能力——如何做判断,如何做选择,如何在做完之后诚实地复盘,然后在下一次做得更好一点?

这不是一个关于 AI 的问题。这是一个关于我们愿意成为什么样的人的问题。

而这个问题,从来没有比现在更紧迫过。

AI时代,执行越来越便宜,判断越来越昂贵(王小波风格)

发表于 2026/03/21 | 分类于 AI专题

AI时代,执行越来越便宜,判断越来越昂贵

——王小波风格:冷幽默里的清醒

我最近跟一个学生聊了很久。聊完之后我意识到,我们其实在讨论一个古老的问题:人到底是干活的,还是想事的?只不过以前这个问题不那么尖锐,因为不管你怎么想,活还是得你自己干。现在不一样了。AI 来了,活它可以干,于是这个问题就变得极其真实。


先说一件让我觉得有意思的事。

这个学生用 AI 做 PPT。她先试了 Markdown 转 PPT,又让 ChatGPT 写 Python 脚本生成 PPT。过程中她发现两件事:第一,AI 给出的图表和呈现方式,有些是她自己想不到的。AI 不只替她做了事,还替她看见了一些东西。第二,她本来只需要十几页 PPT,AI 一口气给了她五十页。

五十页。

你让一个勤快的人帮你整理房间,他帮你整理完了,还顺手买了三十件你不需要的家具。这就是 AI 做事的风格——它不知道什么叫够了。

这说明一个道理:AI 很擅长生产,但它不知道什么该生产、什么不该生产。它是一台没有方向感的发动机。发动机越强劲,方向盘就越重要。

方向盘在谁手里?在你手里。前提是你得知道自己要去哪儿。


我们聊到一个词叫“负责”。

过去的负责很好理解。代码是你一行一行写的,你逐行看过,签上你的名,这就叫负责。这个定义简单、直觉、不需要哲学训练。

但 AI 把这个定义搅乱了。现在 AI 可以帮你写两千行代码。你逐行审查?那你不如自己写。不审查?那出了问题算谁的?

在我看来,出了问题当然还是算你的。但“负责”的方式需要升级。你不需要证明每行代码都过了你的眼睛,但你需要证明三件事:核心逻辑你理解了,测试你做充分了,关键风险你把控住了。

这就好比你当了一个将军。将军不需要亲手拧每一颗螺丝钉,但他得知道哪座桥是关键的,炸了就完蛋那种。

学生的焦虑也不是没有道理。在科研环境里,AI 的介入让责任变得更微妙。实验环境和论文描述对不上、AI 润色改了参考文献的年份、导师要看代码你说不清楚——这些问题归结为一点:AI 提高了效率,但它没有帮你承担后果。后果永远是你的。


然后我们聊到了一个微妙的话题:为什么很多人用了 AI 却不愿意说?

学生的回答很诚实:不完全是羞耻,更多是在保留信息差。你用了什么工具、怎么用的、用了哪些提示词,这些东西一旦被完全复制,你的优势就没了。

我觉得这个回答特别好,因为它没有假装高尚。

但我也觉得,透明和保留优势其实不矛盾。你可以告诉别人 AI 参与了什么环节、你自己做了什么判断和校验。但你不必把你的整套提示词工程和工作流细节都摆出来。就像一个厨师可以告诉你他用了什么食材,但他不一定要教你他的火候。

我们还聊到一个概念叫 common knowledge。很多事情,大家心里都知道,但一旦摆到台面上,性质就变了。就像办公室里大家都知道某个领导水平有限,但没人会在全体会议上说出来——不是因为不真实,而是因为说出来之后,所有人都被迫表态,整个系统就要重新运转一遍。AI 使用这件事也一样。它已经无处不在了,但评价标准还悬在半空中。


聊完这些现实问题之后,我们讨论了一个更大的判断:什么能力在 AI 时代真正值钱?

我的答案——至少在可以被数字化的知识工作里——是两样:创新能力和快速学习能力。

当然,领域深度专长、伦理判断、复杂的组织协调,在特定场景下仍然值大钱。但责任心、沟通能力、执行力这些通用素养,已经不是拉开差距的东西了。就像识字在一百年前是优势,现在只是底线。

真正值钱的是:你能不能提出新的做法?你能不能跨学科吸收新知识?你能不能在整个行业都在剧变的时候,比别人更快地完成自我重建?

因为重复性、标准化的工作,AI 做得又快又便宜。如果你的核心竞争力是“我比别人更熟练”,那你本质上是在和一个边际成本趋零的对手赛跑。这场比赛的结局已经写好了。

这也引出了一个对照:做“工具人”还是做“决策者”。工具人的时间可以被排满——给任务就执行,执行完给下一个。但做决策的人不一样。他们需要留出空间来想事情,需要散步,需要发呆,需要读一些看起来跟工作毫无关系的书。

我认为发呆是一项被严重低估的生产力。


我们把 token 比作水电。这不是夸张。

未来的科研和工作环境不应该把 AI 当奢侈品,而应该当基础设施。没有 AI 不是回到朴素年代,而是故意把自己放在一个低效的位置上。就像一个木匠非要用石斧,不是因为石斧更好,而是因为他没见过铁斧。

但 token 变便宜之后,真正稀缺的东西也变了。以前稀缺的是“能不能做出来”。以后稀缺的是“该不该做”以及“往哪个方向做”。当然,不是所有执行都在变便宜——你去现场装一台设备、去法庭打一场官司、去手术台上操一次刀,这些事 AI 目前帮不了太多。但在可以被数字化的知识工作里,代码越来越便宜,实现越来越便宜,真正昂贵的是认知、创意和方向感。

一个人如果只有想法而没有工具,那叫空想。一个人如果只有工具而没有想法,那叫浪费。AI 解决了工具问题,于是想法就变成了最稀缺的资源。


那个学生在做 PPT 时有一种体验让我印象很深。她说,感觉像古人需要一把斧子,于是先给自己劈了一把斧子出来,再拿这把斧子去砍柴。

我觉得这是整场对话里最精彩的一句话。

因为它精准地捕捉到了人和 AI 之间最好的关系:不是让 AI 替你干活,而是用 AI 给自己造工具。前者是消费,后者是投资。前者每次都要重新开始,后者能沉淀和复用。

工具一旦真正顺手,还能分享给别人、沉淀成开源项目。这时候你不再只是 AI 的用户,你成了工具的创造者。

在模型选择上,这个学生也已经开始分层了。高风险的实验用强模型,低风险的整理用便宜模型。杀鸡不用牛刀,这不是吝啬,这是资源配置能力。就像你不会用一万块的红酒来做菜一样——除非你实在不知道怎么花钱。


然后我们聊到了决策。这是整场对谈真正的重头戏。

学生分享了几个具体的选择:接手一个快烂尾的跨组项目,改成每天下楼跑步,重新评估一个投入产出不清的研究方向。

这些选择看起来很平常。但成年人的生活就是由这种中等规模的决策组成的。我们很少面临“生存还是毁灭”的时刻,但我们每天都在被这些不大不小的选择一点一点地塑造。

我也讲了三个自己的案例。

跟领导有分歧时,不把问题理解成“听他的还是听我的”,而是去找第三条路。很多时候对抗不是因为你们的目标不一致,而是因为你们把问题框窄了。

健身时,意识到“行为设计胜过意志力”。意志力是一种特别不靠谱的资源——它在你最需要的时候最容易消失。更好的做法是设计一个系统,让你不需要意志力也能把事做成。

去年想冲动离职时,没有让情绪直接接管行动。我用 ChatGPT 做了一次“理性注入”,说白了就是让一个没有情绪的家伙帮我把利弊摊开看了看。结果情绪过了之后,我做了一个好得多的决定。

这三个案例里其实藏着同一套原则:增加选项,重构问题,保留期权,不在情绪最猛的时候做不可逆的事。

AI 在这里面扮演的角色很简单:它帮你冷静。它没有情绪,不会被你的委屈感染,不会因为你很痛苦就顺着你说“对,赶紧走”。它只是帮你把问题摊开来看,看完之后决定权还是在你手里。


最后我们聊到了复盘。

我以前以为复盘就是每天记录自己做了什么。后来我发现这种流水账式的复盘效率很低——你记了一大堆琐事,但很少从中提炼出真正有用的东西。

更有价值的复盘方式是:不记流水账,只记决策。

今天做了哪几个关键决策?质量高不高?有没有被情绪带跑?有没有更好的选项是我当时没看到的?

这种复盘在 AI 时代特别重要。因为执行变便宜之后,“做什么”和“怎么选”就成了真正昂贵的东西。AI 给你十个方案不难。难的是你选哪个。


这场对谈里我最欣慰的一点,是我们没有把 AI 变成一种新型鞭子。

总有人担心:AI 会不会让人更卷?会不会让所有人都变成永不停机的机器?

这个担忧有道理。但我们给出的答案是:AI 最好的用法不是让人更累,而是让人的成长速度更快——快到你可以用更少的时间达到同样的积累,然后把省下来的时间拿去生活。

工具不会自动让人自由。枪可以用来打猎,也可以用来打自己的脚。AI 也一样。关键在于你拿它做什么,以及你有没有意识到——有些事情,再强的工具也替代不了。

比如判断。
比如选择。
比如为自己的选择负责。

如果让我用一句话总结这场对话,我会说:

AI 时代,执行越来越便宜,判断越来越昂贵。

所以别再纠结怎么让自己执行得更快了。去练你的判断力。那才是真正值钱的东西。而且很遗憾,目前还没有哪个 AI 能替你练。

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

发表于 2026/03/21 | 分类于 AI专题

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

一

1961 年,一位年轻的美国空军上校约翰·博伊德在五角大楼提出了一个奇怪的理论。

博伊德是当时最顶尖的战斗机飞行员,绰号“四十秒博伊德”——因为他公开宣称,任何飞行员从任何有利位置开始和他对抗,他都能在四十秒内反转局势并锁定对方。没有人赢过他。

但博伊德真正让军事史记住的,不是他的飞行技术,而是他后来提出的一个关于决策的洞见。他说,在空战中决定胜负的,不是谁的飞机更快、火力更猛,而是谁能更快地完成“观察—判断—决策—行动”的循环。他把这叫 OODA 循环。

飞机性能当然重要。但如果你的判断比对手快、比对手准,你就能在对手还没反应过来的时候,已经占据了有利位置。反过来,如果你的飞机更好、速度更快,但你做了一个错误的判断,你只是更快地飞向了错误的方向。

我之所以讲这个故事,是因为我们今天每个人都在经历一个类似的转变。

AI 就像给我们所有人都换了一架性能更强的飞机。它帮你查资料更快,写方案更快,分析问题更快,试错更快。但飞机性能的提升,并不会自动让你赢——除非你的判断也跟着提升。

事实上,如果你的判断力没有提升,更强的飞机可能让你输得更快。

过去很多年,我们习惯把成长理解成线性积累:多读书,多做事,多吃苦,多练习,能力就会提高,结果就会变好。这个理解不算错,但它只说了一半。一个人最终能走到哪里,很多时候不只取决于他做了多少事,而更取决于他在关键节点上做了什么决定。

同样是努力,有的人越努力越顺,有的人越努力越累。
同样是聪明,有的人越做越轻,有的人却总在重复返工。
同样都在用 AI,有的人把它用成了杠杆,有的人却越用越焦虑。

背后的分水岭,往往不是知识量,也不是天赋,而是决策质量。


二

什么叫决策质量?

这里有一个常见的误解。很多人以为决策质量就是“每次都选对”。

这不可能。世界上最好的扑克选手也会输钱。最好的投资者也会踩雷。最好的 CEO 也会做出灾难性的决定。如果你以“每次都选对”来要求自己,你要么永远不敢做决定,要么在做了错误决定之后陷入深深的自我怀疑。

真正的决策质量是另一回事。它是:你能不能在复杂、不确定、有情绪、有利益冲突、有时间压力的现实情境里,持续做出更优的判断。

注意那个“持续”和“更优”。不是完美,是更好。不是偶尔,是经常。

这里面涉及的东西比你以为的多。你是否看清了问题本身。你是否识别了自己此刻的偏差。你是否保留了足够的选择权。你是否用了更好的机制来替代不稳定的意志力。你是否知道什么时候该借助外力,什么时候该自己拍板。

我越来越觉得,一个人真正变成熟的标志,不是从此不犯错,而是开始把人生看成一个决策系统。


三

“决策科学”这个词听起来很冷。好像是一群穿白大褂的人在实验室里用数学模型计算“最优选择”。

但如果你真正了解这个领域,你会发现它关心的问题异常温暖和人性化。

一个人为什么总把复杂问题误解成简单二选一?
为什么明知该健身、该早睡、该存钱,就是做不到?
为什么人在愤怒、委屈的时候,特别容易做出日后会后悔的决定?
为什么有些人总能给自己留后路,另一些人很快把自己逼到墙角?

这些问题,每一个都是关于人的。关于人的局限性,关于人的矛盾性,关于人如何在混乱中挣扎着做出不完美但尚可接受的选择。

用一句话说:决策科学,就是系统研究“人在不确定中,如何做出更好选择”的方法。

它不是教人变得冷酷,而是教人看清自己的软肋在哪里,然后给自己搭一个脚手架。


四

让我讲一个关于火箭的类比。

假设你一直骑自行车上班。路不太好走,有时候累得不行,但大方向对,到达也不成问题。然后有一天,有人送了你一枚火箭。

你会怎么用?

大多数人的第一反应是:太好了,从此上班只需要五分钟。

但火箭有一个特点,是自行车没有的。自行车骑错方向了,你很快就发现了,调个头就行,损失几分钟。火箭飞错方向了,等你发现的时候,你可能已经在另一个大陆了。

AI 就是这枚火箭。

它让你的行动能力翻了几十倍。搜索资料的速度,生成方案的速度,写代码的速度,分析数据的速度——全部指数级提升。

但这些全是“飞行速度”。如果你的方向盘——也就是你的决策能力——没有同步升级,你只是在更快地飞向一个你不确定是否正确的方向。

更糟糕的是,AI 生成的东西有一种独特的“说服力”。它给出的方案总是逻辑清晰、措辞得体、结构完整,看起来非常专业。这会让你产生一种“事情在正轨上”的错觉。但“看起来专业”和“方向正确”完全是两回事。

以前一个错误判断可能只浪费你半天。现在一个错误判断可能驱动 AI 帮你高效地浪费三天——浪费得很有组织、很有条理、很像在认真推进。

AI 时代最危险的,不是不会做事。而是高效率地在错误方向上做事。

所以今天真正稀缺的能力,不再只是“会不会做”,而是“知不知道该做什么”。


五

2017 年,一位叫安妮·杜克的前职业扑克选手写了一本书,叫《对赌》。她在书里讲了一个非常有意思的观点:大多数人评价自己的决定时,用的标准是结果。赢了钱就说自己判断正确,输了钱就说自己判断失误。

但这是错的。

因为世界上存在运气这种东西。一个好决策可能产生坏结果,一个坏决策也可能产生好结果。如果你只用结果来评价决策,你就永远分不清自己是做对了,还是只是运气好。

这和我们今天讨论的问题有什么关系?

关系很大。因为很多人在做决定的时候犯的错,不是“选错了答案”,而是从一开始就框错了问题。

这是什么意思?让我用一个真实场景来解释。


六

小陈在一家公司做产品经理,和领导在一个方案上产生了分歧。

领导倾向于快速上线,用最小功能验证市场。小陈觉得应该再打磨两周,把核心体验做到位再发布。

这个场景,几乎每天都在全世界的办公室里上演。

小陈最初的心理框架是:这是一场关于“谁的方案更好”的辩论。他要么坚持自己的方案(冒着和领导产生冲突的风险),要么妥协(但心里不服气,觉得产品一定会出问题)。

你注意到了吗?在这个框架里,只有两个选项:坚持或妥协。整件事的核心已经从“怎么做出最好的产品”变成了“谁赢谁输”。

这就是“问题被框错了”的典型案例。

后来小陈和 AI 讨论了这件事。AI 帮他做了一个非常关键的动作——不是帮他选 A 或选 B,而是问了一句:“你和领导各自最关心的到底是什么?”

小陈想了想,领导最关心的是速度和市场验证,自己最关心的是核心体验和用户口碑。这两个目标并不天然矛盾。于是出现了第三种方案:先用最小功能上线一个内测版,只开放给小范围用户,同时继续打磨核心体验,两周后正式发布。

速度有了,验证有了,体验也没丢,领导的需求和自己的坚持都被吸收进去了。

这个故事里真正高明的地方,不是小陈想出了一个更好的方案。而是他跳出了“要么听你的,要么听我的”这个框架。

这就是决策科学里非常核心的一个原则:高质量决策,往往始于扩展选项,而不是急着选边。

大多数复杂问题都不是天然只有 A 和 B。二选一很多时候只是因为人懒得继续想,或者已经在情绪和权力关系中被困住了。


七

第二个故事,关于一个叫阿杰的程序员。

阿杰今年三十二岁,体检报告说他血脂偏高,医生建议他开始规律运动。

阿杰不是不想运动。他下载过三个健身 App,收藏过无数个训练视频,买过一副哑铃(现在在衣柜角落积灰),甚至还写过一份详细的“每周训练计划”。

但每次坚持最长的一次,是十一天。

后来阿杰在考虑要不要花钱请私教。他的第一反应是:太贵了。每个月三四千,我自己练也能学会那些动作。

这个想法听起来很理性。但它忽略了一个非常重要的事实:过去两年里,“自己练”的真实完成率是多少?

答案是接近零。

这里面的关键洞见是:阿杰的问题从来不是“不知道怎么练”,而是“做不到坚持练”。

知道和做到之间,隔着一段很长的距离。而这段距离,不是靠“再下一次决心”能跨越的。

私教在这里真正卖给阿杰的,不是运动知识。是一套外部约束系统:固定时间,有人等你出现,有人盯着你完成,有人在你想放弃的时候不让你放弃。

阿杰花的不是“买知识”的钱,而是“买概率”的钱——买“自己真的会去练”的概率。

行为经济学里有一个很有力量的概念,叫“承诺装置”。就是你知道未来的自己可能会偷懒、摇摆、后退,所以提前设置一个机制,让自己更难犯错。

古希腊的奥德修斯知道自己会被海妖的歌声迷住,所以提前让水手把自己绑在桅杆上。他不是不知道诱惑有多大——他恰恰是因为知道,才提前给自己绑了一条绳子。

阿杰最终决定请了私教。三个月后,他瘦了八斤,血脂回到了正常范围。

这里面的原则是:当问题的本质是执行而不是认知时,你真正需要的不是多想一点,而是设计一个更靠谱的机制。

这类情况极其普遍。健身、学习、早睡、戒烟、写作、省钱——几乎都不是纯认知问题。很多人不是不会,而是总在用“我应该坚持”去对抗“我实际上很难坚持”。这时真正有效的,不是再给自己讲一遍大道理,而是承认人性并设计系统。


八

第三个故事比前两个更重。

小林在一家互联网公司做了三年,最近半年越来越痛苦。直属领导管理风格粗暴,经常当众批评人,好几个同事已经陆续离开了。小林每天上班都像在挨一顿精神上的钝刀子。

有一个周五,小林被领导在全组面前骂了一顿。内容不值一提,但那种在所有人面前被羞辱的感觉让他当场就想摔门走人。

那天晚上,小林打开了 AI,想让它帮自己理清到底该怎么办。

如果你观察这个时刻的小林,你会发现一件有趣的事:他觉得自己在“做理性分析”。但实际上,他的心里已经有了一个答案——辞职。他找 AI 聊,在潜意识里可能只是想让 AI 确认他的想法。

但 AI 做了一件不太一样的事。它没有直接说“你应该辞职”或“你应该忍耐”,而是帮小林把局面拆开看了一遍。

它问的核心问题是:你现在最想做的事(辞职),和对你长期最有利的事,是同一件事吗?

小林停顿了。

他意识到,“现在就辞职”能解决的是当下的痛苦。但当下的痛苦和长期利益之间,存在一个时间差。他在情绪最强烈的时刻做的决定,可能会让他放弃一些本来可以拿到的东西。

于是小林没有立刻辞职。他决定先去跟领导谈条件。

这个“先谈再说”的动作看似简单,但它背后有一个非常深刻的道理:在情绪高点做的不可逆决定,通常掺杂了太多情绪折价。

什么叫情绪折价?就是你因为“太想立刻结束痛苦”,而放弃了原本可以争取到的东西。就像一个人因为害怕亏损而在股市最低点割肉。恐惧让他为“立刻不痛苦”支付了过高的代价。

小林的情况也是一样。如果他在最痛苦的时候直接走人,他等于把自己的谈判空间、补偿空间、信息空间一股脑全放弃了。

先谈条件这个动作,保留了他所有的选择权:如果谈成了,他可以在更好的条件下离开;如果谈不成,他随时可以再走。但如果直接走人,他就没有回头路了。

两周后,小林拿到了十二万的补偿离开了公司。

这十二万不是天上掉的。它是小林在最想做不可逆动作的那个时刻,多等了一步的结果。

这就是第三个原则:在情绪高点,不急着做不可逆的动作。先做一个能保留选择权的动作。

这条原则适用范围极广。不只是离职,还包括分手、摊牌、清仓、断联、争吵、搬家、转专业、创业。所有涉及“一旦做了很难回头”的事情,都值得在动手之前多等一步。


九

把三个故事放在一起看,表面上它们毫不相关:一个是和领导的工作分歧,一个是该不该请私教,一个是痛苦到想立刻离职。

但如果你看它们的底层结构,说的其实是同一件事:

真正高质量的决策,往往不是在既定选项里选一个,而是重新设计了决策结构本身。

小陈没有在“坚持”和“妥协”之间选一个。他重新设计了选项。
阿杰没有在“花钱”和“省钱”之间选一个。他重新定义了问题。
小林没有在“忍”和“走”之间选一个。他重新设计了时序。

三个人做的本质上都是同一个动作:他们没有在别人给定的框架里选边站,而是退后一步,改变了框架。

这让我想起了查理·芒格说过的一句话:“反过来想,总是反过来想。”

大多数人遇到问题的第一反应是:选哪个?
而更好的第一反应是:这个题目出对了吗?

人的成长,不只是积累经验,更是形成一套自己的决策语言。当你没有决策语言时,你只能模糊地感觉“好像做对了”“好像做错了”。当你有了决策语言,你就能精确地说清楚:

这次我做对了,是因为我扩展了选项。
那次我做错了,是因为我高估了自己的意志力。
这次我差点翻车,是因为我在最难受的时候想做不可逆的事。
这次我做得好,是因为我先保留了退路。

语言不只是描述工具。它是思考工具。当你拥有了更精确的决策语言,你就拥有了更精确的决策能力。


十

那么 AI 在这一切里应该扮演什么角色?

我见过两种极端的人。一种什么都问 AI,连晚餐吃什么都要问。另一种对 AI 保持一种不信任,觉得人生大事怎么能问一个机器。

两种都偏了。

让我用一个类比。

如果你要做一个重大手术,你会先做一系列检查:验血、CT、核磁共振。这些检查不会替你做手术。但如果没有它们,你连自己的状况都看不清。

AI 在决策中的角色,很像这些检查工具。它帮你看清你自己看不清的东西。但最终做不做手术、怎么做,还是得你自己决定。

具体来说,AI 在决策中最擅长做四件事。

第一,帮你扩展选项。 你可能想来想去只有两条路。AI 可以帮你想到第三条、第四条。不是每条都好,但只要有一条你原来没想到的,就够了。

第二,帮你照见偏差。 你可能没意识到自己在情绪高点做决定,或者被沉没成本困住了,或者高估了自己的执行力。AI 没有你的情绪负担,有时候能看到你看不到的东西。它像一面不带感情的镜子。

第三,帮你设计机制。 你知道自己该做什么了,但不知道具体怎么落地。AI 可以帮你把一个模糊的意图变成一套可执行的计划。把“我要健身”变成一个每周安排,把“我要和领导谈”变成一份对话策略。

第四,帮你保留期权。 你可以问它:在不把路走死的前提下,我下一步最好做什么?它帮你想的不是终极答案,而是一个让你保持灵活性的下一步。

但有一件事 AI 做不了,也不该做:替你决定什么对你更重要。

健康和金钱哪个重要?尊严和补偿怎么权衡?自由和稳定你更想要哪个?

这些问题没有标准答案。它们是关于“你是谁”的问题。而一个人是谁,只有那个人自己说了算。


十一

但故事到这里还没讲完。因为在 AI 时代,还有一层大多数人没有意识到的东西。

你如何使用 AI 本身,也是一个需要做决策的事情。

这句话看起来像绕口令,但非常重要。

你遇到一个问题,要不要找 AI 聊?如果聊,用哪个模型?让它做发散还是做批判?什么时候该信它,什么时候该把它当作可以挑战的对手?什么时候继续追问,什么时候停下来去做?

这些都是关于“如何使用工具”的决策。而很多人在这一层是没有意识的——他们只是“用”AI,但没有想过“怎么用才对”。

这里面有一个非常隐蔽的陷阱。

AI 能无限生成、无限追问、无限比较。这会给你一种“我在认真思考”的错觉。但实际上你可能只是在无限推迟做决定。你以为你在探索,其实你在逃避拍板。

1955 年,赫伯特·西蒙就提出过一个概念叫“满意即可”(satisficing):在信息不完全的情况下,找到一个足够好的选项就做决定,而不是无止境地寻找最优解。因为寻找最优解的成本,经常超过最优解本身带来的好处。

在 AI 时代,这个忠告比以往任何时候都更重要。因为 AI 让你觉得“再问一轮可能就找到最优解了”。但再问一轮的结果,经常只是让你多了一个选项,多了一层犹豫。

所以真正成熟的 AI 使用者,不是“问得最多”的人,而是“知道什么时候该停下来去做”的人。


十二

如果让我把上面的所有内容浓缩成一个可以日常使用的系统,大概是这样的。

每次遇到一个重要决策——工作、关系、健康、消费、职业方向——先走这六步。

第一步:先定义问题。
你真正要决定的是什么?这是一个结果问题、关系问题、执行问题,还是情绪问题?你是不是已经在一个太窄的框架里了?

大多数错误决策都始于题目没看清就开始答。

第二步:先扩展选项。
除了你现在想到的选项,还有没有别的?能不能分阶段做?能不能先试一个小范围?能不能把双方需求整合成新方案?

这一步最适合让 AI 帮忙。它是极好的选项生成器。

第三步:检查自己的状态。
你现在情绪是不是在高点?你是不是在高估自己的执行力?你是不是被沉没成本或面子绑住了?

这一步需要诚实。

第四步:分清认知问题还是执行问题。
你是不知道怎么做,还是知道了但做不到?如果是后者,别再给自己讲道理了。设计一个承诺装置。

第五步:优先做保留选择权的下一步。
不需要一步到位。先做一个能让你获取更多信息、同时不把路走死的动作。

第六步:在价值排序上自己拍板。
我真正要的是什么?我愿意用什么换什么?我最不能接受的是什么?

这一步,任何人都帮不了你。因为这是你的人生。


十三

但最后还有一件事。

有了框架还不够。真正能拉开长期差距的,是复盘。因为框架解决的是“这一次怎么做”,而复盘解决的是“下一次怎么做得更好”。

这就像复利。单次投资回报不高不要紧,只要你每次都从错误中学到一点东西,时间会把这些小小的改进累积成巨大的优势。

每次做完一个重要决定,不管结果好坏,问自己:

这次问题定义准不准?
有没有落入非此即彼的陷阱?
是认知问题还是执行问题?
有没有设计机制?
是不是在情绪高点做的决定?
有没有保留退路?
AI 在这次里真正帮到了什么?

复盘有两个大坑。一是只看结果:赢了就觉得自己判断对了,输了就觉得自己判断错了。但运气是存在的,你需要看的是过程,不只是结果。二是把复盘变成自我批判:那样只会让你越来越怕做决定。

好的复盘目标不是抓错,而是提炼规律。


十四

我觉得学会用决策系统的眼光看人生,最大的收获不是变厉害,而是变稳。

以前遇到问题,人容易陷入两种反应。一种是自责:为什么我总做不好?另一种是认命:算了,随便吧。

但一旦你开始把人生看成一个系统,很多东西就变了。

失误不再是人格缺陷,而是结构问题。拖延不是懒,而是机制没设计好。冲动不是软弱,而是在情绪高点缺少缓冲。纠结不是无能,而是接受了一个太窄的框架。

“我是不是不行”变成了“这个系统哪里还能改”。

这个转变听起来微小,但力量巨大。因为前者让你自我怀疑,后者让你寻找改进点。前者越想越丧,后者越想越有希望。


十五

让我用最后一个故事来收尾。

1960 年代初,约翰·博伊德逐渐从一线飞行任务中抽身,转向五角大楼从事军事战略研究。很多人以为他的巅峰时刻已经过去了。

但事实上,他一生中影响最深远的贡献,恰恰来自驾驶舱之外的那些年。他在五角大楼的办公室里,用二十多年时间发展了 OODA 循环理论,彻底改变了美国军方的战略思维方式。海湾战争的胜利在很大程度上归功于他的理论。

博伊德在晚年曾对一位年轻军官说过一段话,大意是:

“你可以选择成为某个人(to be somebody),也可以选择做成某件事(to do something)。两者很难兼得。但不管你选哪个,先想清楚你到底在优化什么。”

我觉得这就是决策科学最终要教你的东西。

不是每次都选对。而是想清楚你在优化什么。

在 AI 时代,执行会越来越便宜,信息会越来越泛滥,建议会越来越多。真正难的不是没有答案,而是答案太多时,你能不能看清自己到底在优化什么。不是没有工具,而是工具太强时,你能不能避免高效率地跑偏。

未来做得最好的人,也许不是最聪明的人,也不是最努力的人。而是最会在复杂中做判断的人。

他们会扩展选项,而不是急着选边。
他们会设计机制,而不是反复怪自己不够自律。
他们会在情绪高点延迟不可逆的动作。
他们会让 AI 帮自己看清局面,但绝不把最终的拍板权交出去。
他们会认真复盘,把经历沉淀成原则,把原则变成护城河。

决策科学不是什么高高在上的理论。它是你每天都在用的东西,只是以前没给它起名字。

AI 也不是来替你活的。它真正的价值,是在你面对混乱、模糊、冲突和情绪的时候,帮你多一层清醒,多一层结构,多一层选择权。

当你开始这样使用 AI,你得到的不只是更高的效率。而是一种更强的内在秩序。

你会慢慢拥有属于自己的决策语言、决策节奏和决策系统。到了那时候,很多以前让你痛苦、犹豫、纠结的事情,未必会消失。但你会更知道该怎么面对它们。

一个人一旦有了这种能力,他的人生就不再只是被事情推着走。

他会越来越像一个真正的系统设计者。

不是设计世界,而是设计自己在世界中的行动方式。

这也许就是 AI 时代最值得追求的成熟。

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

发表于 2026/03/21 | 分类于 AI专题

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力


一、差距来自决策

大多数人以为成长是线性的。多做事,多吃苦,多练习,然后能力就上去了。

这只对了一半。

做多少事是一个变量。做什么事,在什么时机做,怎么做——这些是另一个变量。而后者往往比前者重要得多。

同样是努力,有的人越努力越顺,有的人越努力越累。不是因为运气。是因为他们在关键岔路口做了不同的选择。

同样都在用 AI,有的人把它变成杠杆,有的人被它变成奴隶。区别不在工具本身,在于使用工具的判断力。

拉开人与人差距的,常常不是执行力,而是决策力。

决策力不是每次都选对。那不可能。决策力是你在复杂、混乱、有情绪干扰的环境里,持续做出更好判断的能力。

一个人开始真正成熟,不是从“不再犯错”开始,而是从“把人生看成一个决策系统”开始。


二、决策科学是什么

很多人以为决策就是列出利弊,打个分,选最高的。

不是。如果人真的能这么理性,就不需要决策科学了。

决策科学研究的是一个更朴素也更诚实的问题:人在不确定中,如何做出更好的选择。

注意“更好”,不是“最好”。

它关心的事情很实际:

为什么你总把复杂问题简化成二选一?因为大脑偏好确定性,能省则省。

为什么明知道该做的事总做不到?因为“现在的你”和“未来的你”有不同的偏好,前者总是赢。

为什么愤怒时做的决定事后常常后悔?因为情绪改变了你对收益和损失的权重。

为什么有人总能给自己留退路,而有人很快把路走死?因为前者理解选择权本身的价值,后者没有。

决策科学不是教人变得冷酷。它是教人看清自己的弱点在哪里,然后给自己搭一个更好的结构。

它不保证你永远赢,但能让你少走很多原本不必走的弯路。


三、AI 越强,决策越重要

很多人以为 AI 会让决策变得不重要。它能帮你做那么多事,你还需要判断什么?

恰恰相反。

AI 放大的是你的行动能力。但行动能力是中性的。方向对的时候,放大器让你走得更快。方向错的时候,放大器让你错得更深。

以前一个错误判断,可能浪费你半天。现在一个错误判断,AI 会帮你在这个错误方向上高效推进三天。浪费得很有条理,很有组织,看起来很像在认真做事。

AI 时代最大的危险,不是不会做事。是高效率地在错误方向上做事。

所以今天真正稀缺的,不是执行力。执行力越来越便宜。

稀缺的是判断力:

什么时候该发散,什么时候该收敛。
什么问题适合交给 AI,什么问题必须自己想。
AI 给的答案是真洞见,还是漂亮的废话。
什么时候该继续追问,什么时候该停下来去做。

在 AI 时代,你面对的不只是人生决策。你还面对大量关于“如何使用 AI”的元决策。

成熟的人把这两层合在一起看。


四、问题框错了,答案再聪明也没用

大多数低质量决策的根源,不是选错了答案,而是从一开始就框错了问题。

“我是坚持自己的方案,还是听领导的?”——虚假二分法。
“我是忍下去,还是立刻走?”——被情绪压缩过的框架。
“我是省钱自己练,还是花钱请私教?”——把执行问题误认成消费问题。

这种“非此即彼”的思维看起来果断,实则危险。因为它让你过早接受了一个被压缩过的世界。你以为自己在做选择,其实只是在别人给定的框架里选边站。

高质量决策者在选之前,先做一件更重要的事:检查问题本身。

“等一下。真的只有这两个选项吗?”

这个问题的力量远超大多数人的想象。一旦你问出这句话,你就不再是答题者。你变成了出题者。

在决策科学里,这叫问题重构。
在现实生活里,这叫脑子清醒。


五、扩展选项比选对更重要

你和领导在方案上有分歧。

在旧框架里,你只有两个选项:坚持或妥协。本质上是在选“谁赢谁输”。

但这不是真正的问题。真正的问题是:有没有一种方案,能同时吸收你的优点和他的关切?

一旦你这样想,局面就打开了。你不是在选边,你是在设计。

选边是零和博弈。设计是正和博弈。

大多数复杂问题都不是天然只有 A 和 B。二选一经常只是因为人懒得继续想,或者已经被情绪和权力关系困住了。

第一条原则:高质量决策始于扩展选项,而不是急着选边。

不是“我选 A 还是选 B”。而是“有没有 C”。


六、知道和做到是两件完全不同的事

要不要花钱请私教?

表面上是消费问题。深层上是执行问题。

你不缺健身知识。你缺的是一个能让你真的去健身的系统。

人类最容易高估的,就是自己的意志力。我们总以为从明天开始能坚持,以为想通了就能做到,以为知识会自动变成行动。

不会的。知道和做到之间,隔着一条宽阔的河。

私教卖的不是知识。是一套外部约束系统:固定时间,有人等你出现,有人盯着你完成,有人在你想放弃时拉你一把。

你花的不是买知识的钱。是买概率的钱。买“你真的会去练”的概率。

这在行为经济学里叫“承诺装置”。你知道未来的自己会偷懒,所以提前设一个机制,让偷懒变得更难。

奥德修斯让水手把自己绑在桅杆上。不是因为他不知道海妖的歌声危险。恰恰是因为他知道,所以才提前把自己绑住。

当意志力不可靠时,用机制来托底。

第二条原则:当问题的本质是执行而非认知时,你需要的不是更多道理,而是一个更好的机制。

健身、学习、早睡、戒烟、写作、省钱——几乎都不是你不知道该怎么做。而是你做不到。

对付“做不到”,靠的不是再给自己讲一遍大道理。靠的是承认人性,然后设计系统。


七、情绪是信号,不是决策者

你在公司非常痛苦。被欺负、被打压。你想立刻辞职。

这个冲动非常自然。人在热状态下——愤怒、委屈、受挫——本能地想立刻结束痛苦。觉得只要离开这里,一切就好了。

但热状态下做出的不可逆决定,通常掺杂了太多情绪折价。

什么叫情绪折价?就是你因为“太想立刻不痛苦”,而放弃了原本可以争取到的东西。

情绪是真实的信号。它告诉你:这个环境出了问题,你已经不能假装没事。这很重要。

但“情绪是真实信号”不等于“情绪适合做最终决策者”。

情绪的任务是提醒你有事发生。不是替你做策略设计。

你没有立刻辞职,而是先去谈条件。这个动作看似只是“晚一点走”。实际上对应了三个很深的原则。

延迟不可逆决策。 不是拖延,是让更完整的信息和更理性的你有机会参与进来。

保留期权。 直接走是一锤定音。先谈让你保留了多条路:留、拿补偿后走、再观察、再决定。

把一次性决策变成序贯决策。 先谈、先试、先看反馈、先争取、再判断。每走一步,信息更多,主动权更强。

有人就是这么做的,最后拿到了十二万的补偿。这不是运气。是因为他没有让“我现在很痛苦”直接等于“我放弃所有谈判空间”。

第三条原则:在情绪高点,不急着做不可逆动作。先做一个能保留选择权的动作。

这条原则适用于:离职、分手、摊牌、清仓、断联、争吵、搬家、创业、转专业——所有涉及“做了很难回头”的事。


八、结构比答案重要

三个案例放在一起看,表面上完全不同——工作分歧、健身消费、职业转身。

底层说的是同一件事。

真正高质量的决策,不是在既定选项里选一个更好的。而是重新设计了决策结构本身。

第一个案例:不是选边更准了,是扩展了解空间。
第二个案例:不是算账更精了,是识别出“执行需要系统”。
第三个案例:不是更能忍了,是在情绪和行动之间插入了一层策略缓冲。

三个动作的本质都不是“答案更聪明”。是“结构更高级”。

人的成长,不只是积累经验。更是形成自己的决策语言。

没有决策语言,你只能模糊地感觉“做对了”或“做错了”。

有了决策语言,你能说清楚:

这次做对了,是因为没有落入虚假二分法。
那次做错了,是因为高估了自己的意志力。
这次差点翻车,是因为在热状态下想做终局动作。
这次做得好,是因为先保留了期权。

语言不只是描述工具。语言是思考工具。你能命名的东西,你就能改变它。


九、AI 的正确角色

用 AI 做决策辅助,最常见的两个错误:

太依赖——什么都问 AI,希望它替自己拍板。
太抗拒——觉得人生大事只能自己想。

两种都低估了 AI 的真正价值。

AI 在决策里的最佳角色,不是决策者。是决策结构的优化器。

它适合做四件事:

扩展选项。 打破你的思维惯性。从不同角度、不同身份、不同时间尺度重新表述问题。帮你看见你自己看不见的空间。

揭示偏差。 你可能不知道自己在情绪高点做决定,或被沉没成本困住,或把执行问题误判成认知问题。AI 是一面没有情绪负担的镜子。

设计机制。 把模糊的意图变成可执行的系统。把“我要健身”变成每周安排,把“我要谈条件”变成对话策略,把“我要做更好的决策”变成复盘模板。

保留期权。 帮你设计下一步动作而非终极答案。在不把路走死的前提下,下一步最合理的动作是什么?

但有一件事 AI 绝对不能做:替你排序你的价值观。

健康和金钱哪个重要。尊严和补偿怎么权衡。自由和稳定你更要哪个。

这些不是计算题。是你这个人之所以是你的核心。

AI 是选项扩展者、偏差照明器、机制设计师、复盘教练。但不是你。


十、对“如何用 AI”本身做决策

在 AI 时代,你不只是用 AI 做人生决策。你还需要对“如何使用 AI”本身做决策。

这些是元决策:

要不要找 AI 讨论这个问题?
用哪个模型?
让它发散还是批判?
什么时候信它,什么时候当它是陪练?
什么时候停止对话回到现实?

真正成熟的 AI 使用者不是“问得最多”的人。是“知道什么时候该停”的人。

AI 能无限生成、无限追问、无限比较。这会给你一种“我在认真思考”的幻觉。实则只是在无限推迟拍板。

你以为自己在深入探索。其实你在逃避做决定。

会用 AI 是一种能力。知道什么时候停止用 AI,是更高的能力。

什么时候用强模型——问题复杂而高价值时。
什么时候用便宜模型——低风险的整理工作。
什么时候让 AI 发散——探索阶段。
什么时候让 AI 红队——验证阶段。
什么时候 AI 已完成任务——轮到你做价值排序并承担后果了。

AI 时代的顶级能力,不是“会用 AI”。是“会决策性地使用 AI”。


十一、六步决策系统

遇到重要决策时,走这六步。

第一步:定义问题。

你真正要决定的是什么?是结果问题、关系问题、执行问题,还是情绪问题?你是不是已经在一个太窄的框架里?

大多数错误决策始于题没看清就开始答。

第二步:扩展选项。

除了 A 和 B,有没有 C?能不能分阶段?能不能试点?能不能整合双方约束?

这一步用 AI 最合适。

第三步:识别偏差。

你在情绪高点吗?你高估自己的执行力了吗?你受沉没成本影响了吗?有没有你不愿承认但很可能是真的事实?

第四步:区分认知和执行。

知道了但做不到?别再想了。设计一个承诺装置。

第五步:保留期权。

先谈不是先走。先试不是先重注。先验证不是先铺开。

在不确定性高的时候,保留选择权本身就是最有价值的策略。

第六步:自己拍板。

我真正要的是什么?我愿意付出什么?我最不能接受的是什么?

到这一步,AI 退场。因为这是你的人生。


十二、复盘比决策更重要

单次决策影响一件事。复盘改变整个系统。

每次做完重要决定,问自己:

问题定义准不准?
有没有陷入虚假二分法?
是认知问题还是执行问题?
有没有设计机制?
是不是在热状态下做了决定?
保留了期权吗?
AI 真正帮到了什么?

复盘最怕两件事。

一是只看结果不看过程。好结果不等于好决策,坏结果不等于坏决策。

二是把复盘变成自我审判。那只会让你越来越怕做决定。

好的复盘目标不是找错。是提炼规律。

做对的事,为什么对?能不能变成可复用的原则?
做错的事,问题出在框架、情绪、机制还是时机?

慢慢地你会积累一套标签:扩展选项、承诺装置、延迟不可逆、保留期权、情绪去偏、价值排序、模型匹配、AI 止损点。

这些标签一旦变成你的日常语言,你的决策质量就会稳定上升。你不再靠直觉。你开始能精确定位自己做对了什么,或者差点犯了什么错。


十三、从自我批判到系统升级

学决策科学最重要的收获,不是变厉害,是变稳。

以前遇到问题,人容易陷入两种状态。

自责:为什么我总做不好?
认命:算了,走一步看一步吧。

两种都是消耗。前者把系统问题归因成人格缺陷。后者放弃了进步的可能。

一旦你把人生看成系统,视角就变了。

失误不是人格缺陷,是结构问题。
拖延不是懒,是机制没设计好。
冲动不是软弱,是热状态缺少缓冲层。
内耗不是无能,是太早接受了被压缩过的题目。

“我这个人是不是不行” → “这个系统哪里还能优化”。

这个转变非常有力量。不是鸡汤。是实践性的。

因为一旦你把问题看成“系统如何迭代”,你就会自然开始做关键动作:记录决策、总结标签、设置护栏、建立承诺装置、在情绪高点延迟拍板、让 AI 成为外部认知支架而不是情绪宣泄对象。

这才是长期成长真正发生的地方。


十四、结语

把整篇压缩成一句话:

在 AI 时代,真正稀缺的不是让 AI 替你做事。是你能否借助 AI,持续升级自己的决策系统。

执行越来越便宜。信息越来越泛滥。建议越来越多。模板越来越随手可得。

真正难的不是没有答案。是答案太多时,你能不能看清自己到底在优化什么。

真正难的不是没有工具。是工具太强时,你能不能避免高效率地跑偏。

真正难的不是没有建议。是建议再多,你仍然要对自己的价值排序负责。

未来最有竞争力的人,不是最会做事的人。是最会在复杂中做判断的人。

他们扩展选项,而不是急着选边。
他们设计机制,而不是责怪意志力。
他们在热状态下延迟不可逆动作。
他们让 AI 帮自己看清问题,但不把拍板权交出去。
他们做复盘,把经历变成原则,把原则变成护城河。

决策科学不是高高在上的理论。是你每天都在用的东西。只是以前没给它命名。

AI 不是来替你活这段人生的。它的价值,是在你面对混乱、模糊、冲突和情绪时,帮你多一层清醒,多一层结构,多一层选择权。

当你这样使用 AI,你得到的不只是效率。是一种更强的内在秩序。

你会慢慢拥有属于自己的决策语言、决策节奏和决策系统。

到那时,很多以前让你痛苦、犹豫、纠结的事,未必会消失。但你会更知道该怎么面对它们。

一个人一旦有了这种能力,他就不再被事情推着走。

他会越来越像一个真正的系统设计者。

不是设计世界。是设计自己在世界中的行动方式。

这也许就是 AI 时代最值得追求的成熟。

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

发表于 2026/03/21 | 分类于 AI专题

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

一

过去很多年,我一直以为成长就是积累。多读书,多做事,多练习,能力就上去了,结果也就好了。

这个想法不能说完全错,但它遗漏了一个非常重要的东西。

回头看我认识的那些做得好的人,真正让他们走到那个位置的,往往不是他们做了更多的事。而是他们在几个关键的岔路口,做了更好的决定。

同样是努力,有的人越努力越顺,有的人越努力越累。这不是玄学。你仔细看就会发现,那些越来越累的人,通常是在不停地做事,但很少停下来想“这件事值不值得做”。而那些越来越顺的人,并不是更聪明,而是他们在做事之前,花了更多时间在“选择做什么”上。

同样的规律在 AI 时代变得更加明显了。有的人用 AI 用得很好,效率翻了好几倍。有的人越用越焦虑,越用越依赖,越用越不确定自己到底该不该信它。你会发现差别不在“会不会用 AI”,而在“知不知道什么时候用、用来做什么、什么时候停下来”。

这些全是决策问题。

我现在越来越觉得,一个人真正变成熟的标志,不是他“不再犯错”——这个标准太高了,而且不切实际。真正的标志是,他开始有意识地把人生看成一个决策系统。

什么意思?就是他不再只问“我现在该选哪个”,而是开始问一些更根本的问题:

这个问题是不是被我想窄了?
我是不是在情绪最激动的时候做决定?
我缺的到底是知识,还是一个能帮我真正执行下去的机制?
有没有一种做法,既不把路走死,又能给我多留一点空间?

这些问题看起来简单,但能经常问自己这些问题的人,实在太少了。


二

很多人一听到“决策科学”这个词就觉得离自己很远。它听起来像某种需要用数学模型和电子表格来做的事情。

其实不是。

决策科学研究的核心问题非常朴素:人在不确定的情况下,怎么做出更好的选择?

注意,不是“完美的选择”。而是“更好的选择”。

这个领域之所以重要,是因为它揭示了很多我们以为是“性格问题”的东西,其实是“结构问题”。

比如,你为什么总是把复杂问题简化成二选一?不是因为你蠢,是因为人脑处理复杂选项的能力天然有限,所以它会自动把局面压缩成“A 还是 B”来减轻负担。这是认知上的捷径,但经常是有害的捷径。

比如,你为什么明知该健身、该早睡、该省钱,就是做不到?不是因为你没毅力。是因为“现在的你”和“未来的你”几乎是两个人。现在的你替未来的你做了承诺,但到了未来,那个需要执行的人根本不买账。

比如,你为什么在愤怒、委屈的时候,特别容易做出之后会后悔的决定?不是因为你冲动,是因为人在强烈情绪下,对“立刻结束痛苦”的需求会压倒一切理性计算。你不是在做决策,你是在求生。

这些都是决策科学研究了几十年的真实现象。它不是在教人变得冷酷,而是在帮人看清:你以为的“我就是这样的人”,很多时候只是“我还没找到更好的做法”。


三

现在来说 AI。

很多人有一个直觉:AI 越强,人需要做的判断就越少。毕竟它能帮你查资料、写方案、分析利弊、出代码、总结会议,你还需要干什么?

这个直觉是错的。而且错得很危险。

AI 确实让你的行动能力变强了。但行动能力变强这件事,本身是中性的。如果方向是对的,你跑得更快当然更好。但如果方向是错的,你跑得更快只会让你更快地到达错误的地方。

这就是 AI 时代最大的悖论:它放大的不只是你做对事的能力,也是你做错事的能力。

以前你做了一个错误判断,可能就浪费半天。现在你做了一个错误判断,AI 会帮你高效地在这个错误方向上执行三天。而且执行得很有条理,很有组织,看起来很像在认真推进。你可能要到第三天结束才发现——哦,方向一开始就不对。

所以 AI 时代最危险的,不是不会做事。而是高效率地在错误方向上做事。

这就意味着,决策的重要性不是降低了,而是大幅升高了。

你需要能判断:什么时候该发散,什么时候该收敛。一个问题适不适合交给 AI。AI 给出的答案是在帮你看清问题,还是在用漂亮的话掩盖真正的矛盾。什么时候该继续问,什么时候该停下来自己拍板。

如果你把 AI 当成一个无限生产方案的机器来用,而自己没有判断哪个方案值得执行的能力,你最后得到的不是效率,而是混乱。


四

我最近反复想一个观点,想了很久,越想越觉得它是对的。

很多决策之所以不好,不是因为选错了答案,而是因为问题一开始就被框错了。

这是什么意思?

比如你和领导有分歧。你会自然地把这个问题理解成:我是坚持自己的方案,还是听领导的?

这看起来很合理。但你一旦接受了这个框架,你的整个思考空间就被压缩了。你从“寻找最好的方案”变成了“选择站在谁那边”。整件事的核心从“什么方案效果最好”变成了“谁赢谁输”。

这就是我说的“问题被框错了”。

再比如,你觉得太难受了,想离职。你会把这个问题理解成:忍下去,还是走人?这同样是一个被压缩过的框架。因为“忍”和“走”之间,其实还有很多选项:先谈条件、先找下家、先观察、先争取一些改变。但在极端痛苦的时刻,人的大脑会自动把局面简化成“忍或走”,因为这样处理起来最省力。

高质量的决策者和一般人的区别,往往不在“选 A 还是选 B 时选得更准”。而在于,他们会在选之前多做一步:退后一步,看看这个题目本身是不是出错了。

“等一下,真的只有这两个选项吗?”

这个问题非常简单,但它的力量巨大。因为一旦你问出来,你就打破了框架。你允许自己重新设计问题,而不只是在别人给你的问题里作答。

真正好的决策,往往不是从更聪明地回答旧问题开始的。而是从重新提出问题开始的。


五

让我用三个例子来说明。

第一个例子。你和领导在方案上有分歧。

如果你把它看成“我的方案 vs 他的方案”,你的行动空间就非常小:要么坚持,要么服从。而且无论你选哪个,你都不太舒服。坚持,怕得罪人。服从,觉得委屈。

但如果你退后一步,把问题重新定义成“有没有一个方案能同时满足我关心的东西和他关心的东西”,局面就完全不一样了。你不是在选边,你是在设计。

这个区别非常重要。

选边意味着你在一个零和游戏里。设计意味着你在一个可以扩展的空间里。

当你和 AI 讨论这件事的时候,AI 特别擅长做的一件事,就是帮你看到你自己看不到的第三种可能。它未必每次都能给出完美方案,但它能帮你打破“非此即彼”的惯性。

这就是第一个原则:高质量的决策,通常始于扩展选项,而不是急着在有限的选项里做选择。


六

第二个例子。要不要花钱请私教。

表面上看,这是一个消费决策:值不值得花这笔钱?

但如果你仔细想,这里面真正的问题不是钱。而是:你到底能不能靠自己把健身这件事坚持下去?

大多数人的回答是“应该可以吧”。但事实上呢?你回想一下过去几年,有多少次你下定决心要锻炼,然后坚持了不到两周就放弃了?

这不是意志力的问题。或者说,这恰恰证明了意志力不是一个可靠的解决方案。

请私教这件事的本质,不是花钱买健身知识。你自己上网查也能查到。它的本质是花钱买一个外部系统:有人给你定时间,有人等你出现,有人盯着你完成,有人在你想放弃的时候不让你放弃。

换句话说,你买的不是“知道怎么练”,而是“真的会去练”的概率。

这个思路一旦想通,问题就变了。不再是“这笔钱值不值”,而是“我需要什么样的机制,才能让自己真的做到”。

也许私教是一种方案。也许找一个固定搭子是另一种。也许报一个团课、设一个打卡机制、交一笔押金,都是不同形式的“帮你做到”的系统。

这就是第二个原则:当你的问题不是“不知道该怎么做”,而是“知道了但做不到”时,你需要的不是更多知识,而是一个更好的执行机制。

很多人在生活中反复失败于同一件事,然后把原因归结为“我不够自律”。这是一个非常糟糕的归因。因为自律是一种有限资源,你不能指望它每次都在你需要的时候出现。更好的做法是承认这一点,然后设计一个系统,让你不需要靠自律也能把事情做成。


七

第三个例子。这个比较尖锐。

你在公司里很痛苦。被欺负、被打压、被忽视。你每天上班都很难受。你非常想立刻辞职。

这种时候,人最强烈的冲动是“马上结束这一切”。你觉得只要交了辞职信,一切都会好起来。

但这里面有一个陷阱。

当你在极端痛苦中做决定时,你实际上是在让“此刻最痛苦的那个自己”替“未来所有版本的自己”做决定。但此刻的你,对未来的判断力是最差的。你高估了“离开”的解脱感,低估了“没有准备地离开”的代价。

这不是说你不该走。也许你确实应该走。但关键是:在情绪最强烈的时刻做的不可逆决定,通常不是最优的。

一个很简单但很有效的替代策略是:不要在这个时刻做“终局动作”。先做一个“保留选择权”的动作。

比如,先去跟领导谈条件。不是为了忍,而是为了给自己争取更多的空间和信息。

如果谈得好,你也许发现情况还有转机。
如果谈得不好,你至少知道了对方的底线,而且可能拿到补偿。
无论哪种情况,你都比“情绪上来直接走人”的局面好得多。

我认识一个人就是这么处理的。他先去谈了条件,最后拿到了十二万的补偿。这不是运气好,而是因为他在最想做不可逆动作的时刻,给自己多留了一步缓冲。

这就是第三个原则:在情绪高点,不急着做不可逆的动作。先做一个能保留选择权的动作。

我越来越觉得这是一条适用范围极广的原则。不只是离职。分手、摊牌、清仓、争吵、创业、退群、搬家、转专业——所有涉及“一旦做了就很难回头”的事情,都值得在动手之前,先问自己一句:我现在是在做最优决策,还是在做一个让我最快摆脱痛苦的决策?

这两者经常不是同一件事。


八

如果你把上面三个例子放在一起看,它们看起来毫不相关——工作分歧、健身消费、职业转身。但底下其实是同一个道理:

真正好的决策,往往不是在既有选项里选得更准,而是改变了决策本身的结构。

第一个例子,结构变化是:从“选边”变成“设计”。
第二个例子,结构变化是:从“靠意志力”变成“靠机制”。
第三个例子,结构变化是:从“一步到位”变成“先留空间”。

这三个变化都不是“答案更聪明”,而是“问题问得更好”。

这也是我越来越觉得重要的一件事:人的成长,不只是积累经验,更是形成一套自己的“决策语言”。

什么叫决策语言?就是你能不能精确地标注出,自己到底做对了什么、做错了什么。

没有决策语言的人,只能说“这次好像做对了”“那次好像做错了”。有决策语言的人,能说清楚:

这次做对了,是因为我没有落入“非此即彼”的陷阱。
那次做错了,是因为我高估了自己的执行力,应该找一个外部约束。
这次差点翻车,是因为我在最难受的时候想做不可逆的事。
这次做得好,是因为我先保留了退路。

一旦你有了这样的语言,你的每一次经历——无论成功还是失败——都会变成原则。而原则会指导你未来的行动。


九

那 AI 在这个系统里应该扮演什么角色?

我看到的最常见的两个错误是:

一种是完全依赖 AI。什么都问它,希望它替自己做决定。“AI 你说我该怎么办?”然后 AI 给了一个方案,你就照做了。这本质上是把人生的拍板权外包了出去。

另一种是完全不信 AI。觉得人生大事怎么能问机器?AI 最多帮我整理整理资料。

两种都不对。

AI 在决策中真正有用的地方,不是替你做决定,而是帮你把决策过程做得更好。具体来说,它特别擅长做四件事。

扩展选项。 你想来想去只有 A 和 B,AI 可以帮你想到 C、D、E。不是每个都好用,但只要有一个你原来没想到的,就够了。

指出偏差。 你可能没意识到自己正在情绪上做决定,或者被沉没成本困住了,或者高估了自己的执行力。AI 虽然不完美,但它没有你的情绪负担,所以有时候能看到你看不到的东西。

设计机制。 你知道了应该怎么做,但不知道具体怎么落地。AI 可以帮你把模糊的意图变成可执行的计划、对话策略、复盘模板。

保留期权。 你可以问 AI:“在不把路走死的前提下,我下一步最好做什么?”它帮你想的不是终极答案,而是一个让你保持灵活性的下一步。

但有一件事 AI 做不了,也不该做:替你决定什么对你更重要。

健康和金钱哪个重要?尊严和补偿怎么权衡?自由和稳定你更想要哪个?这些问题没有“正确答案”。它们是价值排序问题。而价值排序,只能由真正要活这段人生的人来做。

所以 AI 最好的角色是:帮你看清局面,帮你拓宽视野,帮你设计行动——但最后拍板的那一下,得你自己来。


十

但问题还没完。

因为在 AI 时代,还有一层决策是大多数人没有意识到的:你如何使用 AI 本身,也是一个需要决策的事情。

这听起来有点绕,但其实很实际。

你遇到一个问题,要不要找 AI 讨论?
如果要,用什么模型?
让它发散还是让它批判?
让它先出草稿还是先帮你搭框架?
什么时候该信它的判断?什么时候该把它当作一个可以挑战的对手?
什么时候继续追问?什么时候停下来,自己去做?

这些都是决策。我把它们叫“元决策”——关于如何使用决策工具的决策。

真正成熟的 AI 使用者,不是“经常问 AI”的人,而是“知道什么时候该问、怎么问、什么时候该停”的人。

这里有一个很隐蔽的陷阱。AI 能无限生成、无限追问、无限比较。这会给你一种“我在认真思考”的感觉。但实际上你可能只是在无限推迟做决定。你以为你在探索,其实你在逃避拍板。

所以一个很重要的技能是:知道什么时候该从 AI 对话中抽身出来,回到现实世界去执行。

AI 帮你想清楚了?好,那就别再想了。去做。

这可能是 AI 时代最被低估的能力:知道什么时候停止思考,开始行动。


十一

如果让我把上面的思考压缩成一个可以反复使用的框架,大概是这样的。

每次遇到重要决策,不管是工作、健康、关系、消费、职业方向,还是 AI 协作本身,先走这几步:

第一步,确认你在回答的到底是什么问题。
你真正要决定的是什么?它是一个关于结果的问题,还是关于关系的问题?是关于认知的问题,还是关于执行的问题?你是不是已经在一个太窄的框架里了?

大多数错误决策都始于:题没看清就开始答。

第二步,扩展选项。
除了你现在想到的一两个选项,还有没有别的?能不能分阶段做?能不能先试一个小实验?能不能把看似对立的双方需求整合成一个新方案?

这一步最适合用 AI。它是极好的选项生成器。

第三步,检查你自己的状态。
你现在情绪是不是很激动?你是不是高估了自己的执行力?你是不是被沉没成本、面子、或者“怕麻烦”驱动的?有没有什么你不愿意承认但可能是真的事实?

这一步需要诚实。AI 可以帮你做一面镜子,但你得愿意看。

第四步,区分认知问题和执行问题。
你到底是不知道该怎么做,还是知道了但做不到?如果是后者,你需要的不是更多思考,而是一个承诺装置:一个能帮你在意志力不足时依然执行下去的系统。

第五步,优先选择保留选择权的下一步。
不需要一次性做终极决定。先做一个能让你获取更多信息、同时不把路走死的动作。先谈,不是先走。先试,不是先重注。先写方案,不是先动手。

第六步,在价值排序上自己拍板。
分析做完了,就到了最核心的问题:你到底更在意什么?你愿意用什么换什么?你最不能接受什么?

这一步没有人能替你做。AI 不能,朋友不能,父母也不能。因为这是你的人生。


十二

但光有框架还不够。真正能让一个人持续进步的,是复盘。

因为框架解决的是单次决策问题。而复盘解决的是系统升级问题。

每次做完一个重要决定——无论结果好坏——你都可以回头问自己:

这次我的问题定义准不准?
我有没有落入“非此即彼”的陷阱?
这次到底是认知问题还是执行问题?
我有没有给自己设计执行机制?
我是不是在情绪高点做了决定?
我有没有保留退路?
AI 在这次里真正帮到我什么了?它是在扩展我的思路,还是只是在重复我已有的想法?

复盘有两个大坑要避免。

一是只看结果不看过程。结果好不代表决策好,结果差不代表决策差。运气是存在的。你能控制的只有决策过程,不是结果。

二是把复盘变成自我批判。那样只会让你越来越怕做决定。复盘的目的不是找错,而是提炼规律。

如果你坚持做这种复盘,慢慢地你会积累出一套属于自己的标签:扩展选项、承诺装置、延迟不可逆决策、保留期权、情绪检查、价值排序……

这些标签一旦变成你的日常语言,你的决策质量就会稳定上升。不是因为你变聪明了,而是因为你能更精确地定位自己到底在哪里做对了,在哪里差点犯错。


十三

我觉得学会用决策系统的眼光看人生,最大的好处不是让你变厉害。而是让你变稳。

以前遇到问题,人容易陷入两种反应。一种是自责:为什么我总做不好?一种是认命:算了,走一步看一步吧。

这两种都不好。自责是把系统问题归因到人格缺陷上。认命是放弃了改进的可能。

但一旦你开始把人生看成一个系统,很多东西就变了。

失误不再是人格缺陷,而是结构问题。拖延不是因为懒,是因为没有好的执行机制。冲动不是因为软弱,是因为在情绪高点缺少缓冲。纠结不是因为无能,是因为接受了一个太窄的框架。

这种视角把“我是不是不行”变成了“这个系统哪里还能优化”。

这不是自我安慰。这是换了一种更有建设性的归因方式。前者让你自我怀疑,后者让你寻找改进点。

当你开始这样看的时候,你会自然地做一些很有用的事情:记录决策、总结规律、优化提问方式、给自己设计护栏、建立承诺装置、在情绪高点延迟拍板、让 AI 当你的外部思考伙伴而不是情绪垃圾桶。

这才是长期成长真正发生的地方。不是突然变得很厉害,而是慢慢把系统调得越来越好。


十四

如果让我把这整篇文章压缩成一句话:

在 AI 时代,真正稀缺的不是让 AI 帮你做事的能力,而是你能不能借助 AI,持续升级自己的决策系统。

因为未来的趋势是:执行越来越便宜,信息越来越多,建议越来越随手可得。

真正难的不是没有答案。而是答案太多时,你能不能看清自己到底在优化什么。
真正难的不是没有工具。而是工具太强时,你能不能避免高效率地跑偏。
真正难的不是没有建议。而是建议再多,你仍然得对自己的价值排序负责。

未来做得最好的人,不见得是最聪明的,也不见得是最努力的。而是最会在复杂中做判断的。

他们会扩展选项,而不是急着选边。
他们会设计机制,而不是反复怪自己不够自律。
他们会在情绪高点延迟不可逆的动作。
他们会让 AI 帮自己看清问题、暴露盲区、设计行动——但绝不把人生的最终拍板权外包出去。
他们会认真复盘,把一次次经历变成原则,把原则变成护城河。

说到底,决策科学不是什么高深理论。它是你每天都在用,只是以前没给它起名字。

AI 也不是来替你活这段人生的。它真正的价值,是在你面对混乱、模糊、冲突和情绪的时候,帮你多一层清醒,多一层结构,多一层选择权。

当你开始这样使用 AI,你得到的不只是效率,而是一种更强的内在秩序。

你会慢慢拥有属于自己的决策语言、决策节奏和决策系统。到了那时,很多以前让你痛苦、犹豫、纠结的事情,未必会消失——但你会更知道该怎么面对。

一个人一旦有了这种能力,他就不再只是被事情推着走。

他会越来越像一个真正的系统设计者。不是设计世界,而是设计自己在世界中的行动方式。

这也许就是 AI 时代最值得追求的成熟。

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

发表于 2026/03/21 | 分类于 AI专题

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

核心论点

拉开人与人差距的,往往不是执行力,而是决策力。AI 时代放大了行动能力,但也同步放大了决策错误的代价。真正稀缺的能力,不是“会用 AI 做事”,而是“会决策性地使用 AI”。

本文提供一套可复用的决策框架:识别问题框架陷阱、扩展选项、区分认知问题与执行问题、保留期权,以及在 AI 协作中保持主导权。


一、决策力 > 执行力

成长不是线性积累。多读书、多做事、多练习——这些当然有用,但它们只是等式的一半。另一半是:你在关键节点上做了什么决定。

同样的努力投入,因为决策质量不同,产出完全不同。

  • 同样是努力,有人越努力越顺,有人越努力越累。
  • 同样是聪明,有人越做越轻,有人在重复返工。
  • 同样在用 AI,有人把它用成杠杆,有人越用越焦虑。

差异的核心不是知识量、天赋或努力程度,而是决策质量——你能否在复杂、不确定、有情绪干扰的情境里,持续做出更优判断。

决策质量包含多个层次:

层次 核心问题
问题建构 你是否看清了问题本身?
偏差识别 你是否识别了自己此刻的认知偏差?
选项设计 你是否保留了足够的选择空间?
机制替代 你是否用机制替代了不稳定的意志力?
人机分工 你是否知道什么时候该借助 AI,什么时候该自己拍板?

一个人开始把人生看成一个决策系统,就是成熟的开始。不再只问“选哪个”,而是问“这个问题是不是被我看窄了”“我是不是在情绪高点做决定”“我现在缺的是认知还是执行机制”。


二、心智模型:决策科学的核心工具箱

决策科学不是教你用电子表格给选项打分。它是一套关于“人在不确定中如何做出更好选择”的方法论。

以下是几个最核心的心智模型,理解它们,你的决策水平会立刻提升一个层级。

模型 1:虚假二分法(False Dichotomy)

定义: 把一个本来可以重构的问题,误当成只有两个选项的问题。

表现:

  • 要么坚持自己,要么听领导的。
  • 要么省钱,要么健康。
  • 要么忍,要么走。
  • 要么信 AI,要么不用 AI。

为什么危险: 它让你过早接受一个被压缩过的世界。你以为自己在做选择,实际上只是在别人给定的框架里选边站。

对策: 在选之前先问一句——“真的只有这两个选项吗?”。仅这一个问题,就能显著提升决策质量。

模型 2:现在偏差(Present Bias)

定义: 人对当下的舒适赋予过高权重,对未来的收益赋予过低权重。

表现: 明知该健身、早睡、存钱、学习,就是做不到。不是不懂,是“现在的自己”和“未来的自己”用了不同的折扣率。

为什么重要: 它揭示了一个关键区别——很多人生问题不是认知问题,而是执行问题。知道和做到之间隔着一段距离,意志力不是填补这段距离的可靠方案。

模型 3:承诺装置(Commitment Device)

定义: 提前设置一个外部机制,帮助未来的自己在意志力薄弱时依然坚持正确方向。

核心逻辑: 当意志力不可靠时,用机制来托底。

例子:

  • 请私教 = 买一套外部约束系统(固定时间、有人监督、有人反馈)
  • 和朋友约好每周跑步 = 用社交承诺降低放弃概率
  • 把定期存款设为自动扣款 = 绕过“每次都要靠自己决定”的摩擦

模型 4:热冷共情差距(Hot-Cold Empathy Gap)

定义: 人在强烈情绪下(热状态)几乎无法准确预测自己冷静后(冷状态)的偏好。

表现: 愤怒时想摔门走人,冷静后觉得太冲动。饥饿时在超市买了三倍的食物。兴奋时投了超出预算的钱。

决策含义: 情绪是真实信号,但不适合作最终决策者。情绪的任务是告诉你“有事发生了”,不是替你做最优策略设计。

模型 5:期权思维(Option Value)

定义: 保留选择权本身就是一种有价值的资产。不确定性越高,期权价值越大。

决策含义: 不过早把路走死。先谈再走,先试再重注,先验证再全面铺开。你不是优柔寡断,你是在为未来的自己保留更多操作空间。

模型 6:问题重构(Problem Reframing)

定义: 在回答问题之前,先检查问题本身是否正确。

核心洞见: 大多数低质量决策的根源,不是选错了答案,而是从一开始就框错了问题。

实操:

  • “我和领导谁对谁错” → “有没有一种方案同时满足双方核心关切”
  • “该不该花钱请私教” → “我到底在买服务,还是在买执行概率”
  • “该忍还是该走” → “在当前情绪状态下,什么是保留选择权的最佳动作”

三、AI 时代:决策的重要性不降反升

放大效应

AI 放大的是行动能力、试错速度和信息处理效率。但行动能力的提升是中性的——方向对时跑得更快,方向错时也偏得更远。

以前: 一个错误判断浪费半天。
现在: 一个错误判断驱动 AI 高效浪费三天,而且看起来很像在认真推进。

AI 时代最危险的,不是不会做事,而是高效率地在错误方向上做事。

流畅性陷阱

AI 生成的内容具有极强的流畅性——无论方向对不对,它给出的东西看起来都像模像样。这会制造一种“事情进展很好”的错觉。

新的稀缺能力

今天真正稀缺的不是执行力,而是判断力:

  • 什么时候该发散,什么时候该收敛?
  • 这个问题适不适合交给 AI?
  • 这是需要强模型的高价值问题,还是便宜模型就够的低风险工作?
  • AI 的答案是在帮你看清问题,还是在用漂亮的话掩盖矛盾?
  • 什么时候该继续,什么时候该止损,什么时候该自己拍板?

四、三个案例:心智模型的实战应用

案例 1:与领导的方案分歧

表面框架: 坚持自己的方案 vs 听领导的方案。

框架陷阱: 虚假二分法。一旦问题被框成“谁赢谁输”,认知资源就从“寻找最优方案”转移到了“证明我是对的”。

重构后: 把立场冲突翻译成目标冲突——“我们各自最关心的目标是什么?有没有一种方案能同时满足?”

使用的心智模型:

  • 虚假二分法 → 识别出问题被压缩了
  • 问题重构 → 从“谁对谁错”改为“如何整合双方约束”
  • 扩展解空间 → 从两个选项变成三个或更多

核心原则: 高质量决策,往往始于扩展选项,而不是急着选边。

案例 2:该不该请私教

表面框架: 花钱请私教 vs 自己练省钱。

深层问题: 你真的能靠自己长期坚持吗?过去两年的真实完成率是多少?

重构后: 不是消费决策,而是执行概率投资。私教卖的不是健身知识,而是一套外部约束系统。

使用的心智模型:

  • 现在偏差 → 识别出“知道该做”和“真的去做”之间的距离
  • 承诺装置 → 用外部机制替代不可靠的意志力
  • 问题重构 → 从“贵不贵”改为“我买的是什么”

延伸思考:

  • 如果不请私教,有没有更便宜但同样有效的承诺装置?(固定搭子、团课、打卡机制、押金制)
  • 问题本质:当执行才是瓶颈时,更多认知解决不了问题,更好的机制才行。

核心原则: 当问题的本质是执行而非认知时,你需要的不是更多道理,而是一个更靠谱的机制。

案例 3:痛苦到想立刻离职

表面框架: 忍 vs 走。

情绪状态: 热状态。愤怒、委屈、受挫。人在这种状态下,高估“立刻脱离情境”的价值,低估“没有准备地离开”的代价。

重构后: 不是“忍还是走”,而是“在当前情绪状态下,什么是保留选择权的最佳下一步”。

使用的心智模型:

  • 热冷共情差距 → 识别出自己在热状态,判断力不可靠
  • 期权思维 → 先谈条件保留多条路径,而不是一锤定音
  • 序贯决策 → 把一次性决策拆成多步:先谈、先争取、再判断

结果: 拿到了十二万补偿。不是运气,而是在最想做不可逆动作的时刻,多保留了一步。

核心原则: 在情绪高点,不急着做不可逆动作。先做一个能保留选择权的动作。

三个案例的统一模式

案例 框架陷阱 重构方向 核心心智模型
方案分歧 虚假二分法 扩展选项 问题重构
请私教 消费心态 执行概率投资 承诺装置
想离职 忍/走二选一 保留期权 期权思维 + 热冷差距

统一原则: 真正高质量的决策,不是在既定选项里选一个,而是重新设计决策结构本身。


五、AI 在决策系统中的四种角色

AI 在决策中的价值,不是替你做决定,而是改善你的决策环境。

角色 1:选项扩展者

AI 擅长打破思维惯性。让它提出第三种、第四种方案;从不同身份、不同利益相关者、不同时间尺度重新表述问题。它未必给出完美答案,但能帮你看见自己原来没看见的空间。

用法示例: “我现在面临 X 和 Y 两个选择。请从三个不同角度分析,是否还有第三种或第四种方案?”

角色 2:偏差照明器

AI 可以帮你识别此刻的认知偏差:你是不是在情绪高点?是不是陷入沉没成本?是不是在把执行问题误判成认知问题?它像一面外部镜子。

用法示例: “我正在考虑做一个关于 Z 的决定,请帮我检查我的思路中是否存在常见的认知偏差。”

角色 3:机制设计师

好的 AI 不只给建议,还能帮你把建议落成可执行系统:把“我要健身”变成每周安排,把“我要谈条件”变成对话策略,把“我要做更好的决策”变成复盘模板。

用法示例: “我决定开始每周锻炼三次,但过去经常坚持不下去。请帮我设计一个降低放弃概率的执行系统。”

角色 4:期权保护者

AI 适合帮你设计下一步动作,而不是终极答案。问它:“在不把路走死的前提下,我下一步最合理的动作是什么?”

用法示例: “我目前面临一个重大决定但信息还不完整。请帮我设计一个下一步动作,既能收集更多信息,又不会让我丧失选择权。”

边界:最终拍板权必须是你的

AI 可以分析事实、扩展选项、识别偏差、模拟结果,但它不承担你的后果,也不拥有你的价值体系。

健康和金钱孰轻孰重?尊严和补偿如何权衡?自由和稳定你更要哪个?这些是价值排序问题,必须由你自己做。


六、元决策:把“如何用 AI”也纳入决策系统

在 AI 时代,除了人生决策,还有一整层“关于如何使用 AI”的元决策。

关键元决策清单

问题 决策要点
这个问题要不要找 AI 讨论? 复杂问题适合,纯价值判断不适合
用哪个模型? 高价值复杂问题用强模型,低风险整理用便宜模型
让 AI 做什么? 发散选项、批判分析、机制设计、角色扮演——明确角色
什么时候该信它? 事实分析和选项生成时可信度高,价值判断时可信度低
什么时候该停? 连续几轮没有新增洞见,就该止损转入行动
我是在借助 AI 思考,还是在逃避拍板? 如果发现自己在用“再问一轮”推迟决定,立刻停下来

隐蔽陷阱:无限生成的幻觉

AI 能无限生成、无限追问、无限比较。这制造了一种“我在认真思考”的幻觉,实则只是把拍板时间无限后延。

识别信号: 如果你已经和 AI 讨论了五轮以上但仍然没有行动,问自己——我是在获取新信息,还是在推迟做决定?

对策: 给自己设一个“AI 止损点”。比如约定自己最多三轮对话后,必须做出一个至少是暂时性的决定。


七、六步决策操作系统

每当你遇到一个重要决策,走这六步。

第一步:定义问题

核心问题:

  • 我真正要决定的是什么?
  • 这是结果问题、关系问题、执行问题,还是情绪问题?
  • 我是不是已经在一个太窄的框架里?

检查标准: 如果你发现自己在纠结“A 还是 B”,先停下来确认——真的只有 A 和 B 吗?

第二步:扩展选项

核心问题:

  • 除了 A 和 B,还有没有第三种方案?
  • 能不能分阶段?能不能试点?能不能局部实施?
  • 能不能把双方约束整合成新方案?

工具: 这一步最适合用 AI。它是极好的选项生成器。

第三步:识别偏差

核心问题:

  • 我现在情绪是不是在高点?(热状态检测)
  • 我是不是高估了自己的执行力?(计划谬误检测)
  • 我是不是受沉没成本、面子、短期省钱等因素影响?(偏差清单)
  • 有没有什么我不愿承认但很可能是真的?(确认偏差检测)

工具: AI 可以作为偏差照明器。

第四步:区分认知 vs 执行

核心判断: 你是不知道怎么做,还是知道了但做不到?

  • 如果是认知问题 → 继续学习、分析、咨询
  • 如果是执行问题 → 停止分析,开始设计承诺装置

承诺装置选项: 监督者、固定搭子、押金机制、自动化系统、可执行约束

第五步:保留期权

核心原则: 优先选择“保留选择权”的下一步,而非终局动作。

  • 先谈,不是先走
  • 先做最小实验,不是一次性重注
  • 先小范围验证,不是全面铺开
  • 先做备份方案,不是全押一个判断

适用场景: 越是不确定性高、情绪强烈、信息不完整的情境,这一步价值越大。

第六步:价值排序 + 拍板

核心问题:

  • 我真正要的是什么?
  • 我愿意付出什么代价?
  • 我最不能接受的是什么?
  • 此刻我在优化的是钱、时间、尊严、自由、关系、健康,还是长期空间?

边界: 这一步 AI 不能替你做。因为这是你的人生偏好。


八、决策复盘:系统升级的引擎

单次决策影响一件事。复盘改变整个系统。

复盘清单

每次做完重要决定后(无论结果好坏),对照以下问题:

  • 问题定义是否准确?
  • 有没有陷入虚假二分法?
  • 是认知问题还是执行问题?
  • 有没有设计承诺装置?
  • 是不是在热状态下做了决定?
  • 有没有保留期权?
  • AI 在这次协作中,真正提供了什么帮助?
  • AI 是帮我扩展了选项,还是只是重复了我已有的想法?
  • 在模型选择、提问方式、停止时机上做得如何?

复盘的两个大坑

坑 1:只看结果,不看过程。
结果好不代表决策好,结果差不代表决策差。运气是存在的。你能控制的只有决策过程。

坑 2:把复盘变成自我批判。
这只会让你越来越怕做决定。复盘的目的不是抓错,而是沉淀规律。

复盘的正确姿势

  • 做对的事情:为什么对?能不能变成可复用的原则?
  • 做错的事情:问题出在哪里?是框架、情绪、机制,还是时机?
  • 逐渐积累标签系统:扩展选项、承诺装置、延迟不可逆、保留期权、情绪去偏、价值排序、模型匹配任务价值、AI 止损点……

这些标签一旦成为日常语言,决策质量就会稳定上升。


九、心态转变:从“人生难题”到“系统迭代”

学决策科学最大的收获,不是变厉害,而是变稳。

旧模式

  • 自责型:“为什么我总做不好决定?” → 把系统问题归因成人格缺陷
  • 宿命型:“算了,走一步看一步吧。” → 放弃了改进的可能

新模式

  • 失误 → 结构问题,不是人格缺陷
  • 拖延 → 机制没设计好,不是因为懒
  • 冲动 → 热状态缺少缓冲层,不是因为软弱
  • 内耗 → 太早接受了被压缩的题目,不是因为无能

核心转换: “我是不是不行” → “这个系统哪里还能优化”

这个转换的力量在于:前者让你自我怀疑,后者让你寻找改进点。前者越想越丧,后者越想越有行动方向。


十、总结:AI 时代的决策清单

一句话总结: 在 AI 时代,真正稀缺的不是让 AI 替你做事,而是你能否借助 AI 持续升级自己的决策系统。

五个核心原则

  1. 扩展选项,不急选边。 在选之前先问:“真的只有这几个选项吗?”
  2. 识别执行问题,设计机制。 当你知道该做什么但做不到时,你需要的不是道理,而是承诺装置。
  3. 情绪高点,延迟不可逆。 先做一个保留选择权的动作。
  4. AI 做结构,你做价值排序。 AI 是选项扩展者、偏差照明器、机制设计师,但不是决策者。
  5. 持续复盘,升级系统。 单次决策影响一件事,复盘改变整个系统。

最终的边界

执行会越来越便宜。信息会越来越多。建议会越来越随手可得。

真正难的:

  • 不是没有答案,而是答案太多时看清自己在优化什么。
  • 不是没有工具,而是工具太强时避免高效率地跑偏。
  • 不是没有建议,而是建议再多,你仍要对自己的价值排序负责。

未来最有竞争力的人,不是最会做事的人,而是最会在复杂中做判断的人。

他们会把经历沉淀成原则,把原则变成护城河。

决策科学不是高高在上的理论。它是你每天都在用的东西,只是以前没给它起名字。

AI 不是来替你活这段人生的。它真正的价值,是在你面对混乱、模糊、冲突和情绪时,帮你多一层清醒,多一层结构,多一层选择权。

当你开始这样使用 AI,你得到的不只是效率,而是一种更强的内在秩序。你会慢慢拥有属于自己的决策语言、决策节奏和决策系统。

一个人一旦有了这种能力,他就不再只是被事情推着走。他会越来越像一个真正的系统设计者——不是设计世界,而是设计自己在世界中的行动方式。

这,也许就是 AI 时代最值得追求的成熟。

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

发表于 2026/03/21 | 分类于 AI专题

把人生当作一个决策系统:在 AI 时代,如何升级自己的决策能力

一、拉开差距的不是执行力,是决策力

2002 年,心理学家丹尼尔·卡尼曼拿到了诺贝尔经济学奖。一个心理学家拿经济学奖,这件事本身就传递了一个重要的信号:经济学家终于承认,人不是理性的。

卡尼曼和他的搭档特沃斯基用几十年时间证明了一件事:人类在做判断和决策时,几乎每一步都在犯系统性错误。我们高估小概率事件,低估长期风险,被锚定效应牵着走,被损失厌恶困住手脚,在愤怒时做出不可逆的决定,在兴奋时低估未来的代价。

但这些错误并不是随机的。它们有规律,有模式,因此——可以被修正。

这就是决策科学最核心的承诺:你不需要变成一个完美理性的人,你只需要识别自己最常掉进去的坑,然后给自己装上护栏。

过去很多年,我们习惯把成长理解成线性积累:多读书,多做事,多吃苦,多练习。这个理解不能说错,但它只说对了一半。一个人最终能走到哪里,很多时候不只取决于他做了多少事,更取决于他在关键节点上做了什么决定。

同样是努力,有的人越努力越顺,有的人越努力越累。
同样是聪明,有的人越做越轻,有的人却总在重复返工。
同样都在用 AI,有的人把 AI 用成了生产力杠杆,有的人越用越焦虑,越用越依赖,越用越不知道自己该不该相信它。

这背后真正的分水岭,不是知识量,也不是天赋,而是决策质量。

什么叫决策质量?行为科学家给了一个很精确的定义:不是你每次都选对,而是你能否在复杂、不确定、有情绪、有利益冲突、有时间压力的现实情境里,持续做出更优的判断。

这里面有很多层。

你是否看清了问题本身——这叫问题建构(problem framing)。
你是否识别了自己此刻的偏差——这叫元认知(metacognition)。
你是否保留了足够的选择权——这叫实物期权思维(real options thinking)。
你是否用更好的机制替代了不稳定的意志力——这叫承诺装置(commitment device)。
你是否知道什么时候该借助 AI,什么时候该自己拍板——这叫人机决策分工。

我越来越觉得,一个人真正成熟的标志,不是“从此不犯错”,而是开始把人生看成一个决策系统。

你不再只问:“我现在选哪个?”
你会开始问:“这个问题是不是被我看窄了?”
“我是不是在情绪高点做决定?”
“我现在缺的是认知,还是缺的是执行机制?”
“有没有一种做法,既不把路走死,又能为我争取更多空间?”

这些问题,恰恰构成了决策科学最关心的事情。


二、决策科学:一门教你“少被自己骗”的学问

很多人第一次听到“决策科学”这个词,会以为它是一套过分理性的东西,好像决策就是把利弊列出来,打分,然后选总分最高的那一个。

这是对决策科学最大的误解。

赫伯特·西蒙——另一位拿了诺贝尔经济学奖的认知科学家——早在 1950 年代就提出了“有限理性”(bounded rationality)理论。他说,人不可能搜集所有信息,不可能计算所有可能性,不可能在每个决策上做到最优。人实际上用的是“满意即可”(satisficing)策略:找到一个“够好”的选项就停下来。

所以决策科学从一开始就不是教人变成机器,而是承认人的局限,然后在局限之内做得更好。

用一句人话来说:决策科学,就是系统研究“人在不确定中,如何做出更好选择”的方法。

它关心的是非常现实的问题:

一个人为什么总把复杂问题误解成简单二选一?——这在认知科学里叫“虚假二分法”(false dichotomy)。
为什么明知该健身、该早睡、该存钱,却总做不到?——行为经济学家把这叫“现在偏差”(present bias),你对“现在的自己”和“未来的自己”使用了不同的折扣率。
为什么人在愤怒和委屈时,特别容易做出日后会后悔的决定?——行为经济学家把这叫做“热冷共情差距”(hot-cold empathy gap),人在热状态下几乎没有能力预测自己冷静后的偏好。
为什么有些人总能给自己留后路,而另一些人很快就把自己逼到墙角?——金融学里这叫“期权价值”(option value),保留选择权本身就是一种资产。

决策科学横跨了很多领域。它和经济学有关,因为它讨论成本、收益、风险、激励;它和心理学有关,因为它研究人类真实的偏差和启发式;它和管理学有关,因为组织中很多问题本质上就是多方约束下的决策问题;它和行为科学有关,因为很多时候问题不在“想不明白”,而在“做不到”;它甚至和哲学有关,因为最终很多决策都离不开价值排序——你到底更在意什么,你愿意用什么换什么。

所以决策科学不是一门教人变得冷酷的学问,而是一门帮助人减少被情绪、惯性、错觉和糟糕框架牵着走的学问。

它不保证你永远成功,但它能让你少走很多原本可以不走的弯路。


三、AI 越强,决策越重要

很多人以为 AI 会把“决策”这件事削弱。既然 AI 可以帮你查资料、出方案、写文案、写代码、总结会议、分析利弊,那人是不是越来越不需要判断了?

恰恰相反。这里面有一个被大多数人忽视的放大效应。

史蒂夫·乔布斯曾把计算机比作“人类思维的自行车”。AI 比自行车强得多——它是火箭。但火箭有一个特点:方向正确时,它比任何交通工具都快抵达目的地;方向错误时,它也会以最快的速度把你送进深渊。

**AI 主要放大的,是你的行动能力、试错速度和信息处理效率。**但一个人一旦拥有更强的行动能力,他的决策错误也会被同步放大。以前一个错误判断,可能只是浪费你半天;现在一个错误判断可能会驱动 AI 帮你高效地浪费三天,而且浪费得很有组织、很有条理、很像在认真推进。

所以 AI 时代最危险的,不是不会做事,而是高效率地在错误方向上做事。

行为经济学家有一个概念叫“流畅性错觉”(fluency illusion):当一件事看起来很流畅、很顺利时,人会本能地觉得“事情进展很好”。AI 生成的内容恰恰具有极强的流畅性——无论方向对不对,它给出的东西看起来都像模像样。这就制造了一种新型认知陷阱。

这也是为什么,今天真正稀缺的能力,不再只是“会不会做”,而是:

你能不能判断什么时候该发散,什么时候该收敛;
你能不能判断一个问题适不适合交给 AI;
你能不能判断这是需要强模型的高价值问题,还是便宜模型就足够的低风险工作;
你能不能判断 AI 给出的答案是在帮你看清问题,还是在用漂亮的话掩盖真正的矛盾;
你能不能判断什么时候该继续,什么时候该止损,什么时候该换模型,什么时候该自己拍板。

换句话说,在 AI 时代,我们面临的不只是“人生决策”,还有大量“关于如何使用 AI 的元决策”。

而真正成熟的人,会把这两者合在一起看。


四、低质量决策的根源:问题被框错了

2005 年,决策研究者保罗·纳特(Paul Nutt)发表了一项覆盖数百个组织决策的研究,结论令人震惊:超过一半的商业决策最终失败,而失败的最主要原因,不是选错了答案,而是从一开始就框错了问题。

我越来越相信这个判断也适用于个人生活。

很多决策之所以不佳,不是因为人不会选,而是因为问题一开始就被框错了。

现实里最常见的错误之一,就是把一个本来可以重构的问题,误当成了一个只能二选一的问题。心理学家把这叫“虚假二分法”(false dichotomy),而卡尼曼在《噪声》一书中进一步指出,问题框架(framing)对最终决策的影响,往往比具体选项之间的差异还要大。

要么坚持自己,要么听领导的。
要么省钱,要么健康。
要么忍下去,要么立刻离职。
要么相信 AI,要么完全不用 AI。

这种思维方式看起来果断,实际上很危险。因为它会让你过早地接受一个被压缩过的世界。你以为自己在做选择,实际上你只是在别人给定的框架里选边站。

而高质量决策者,往往在真正做选择之前,会先做一件更重要的事:扩展选项,重构问题。

奇普·希思和丹·希思兄弟在《决断》(Decisive)一书中做了一个精彩的总结:最优秀的决策者的第一反应,不是“我选 A 还是选 B”,而是“等一下,真的只有 A 和 B 吗?”

因为一旦你开始重构问题,局面就会发生本质变化。

“我和领导谁对谁错”,会变成“有没有一种更好的方案,同时满足结果、节奏和风险控制”。
“我要不要花钱请私教”,会变成“我到底是在买服务,还是在买更高的执行概率”。
“我现在太难受了要不要立刻离职”,会变成“在这种情绪状态下,我是不是应该先做一个保留选择权的动作,而不是马上做不可逆决定”。

也就是说,真正的升级不是更聪明地回答旧题,而是先看出这题出得不对,然后重新出题。

在决策科学里,这叫问题重构(problem reframing)。
在现实生活里,这叫脑子清醒。


五、案例一:扩展解空间比站队更重要

来看第一个典型场景。

你和领导在一个方案上有分歧。表面上看,这是一个权力和立场的问题:坚持自己的方案,还是全听领导的方案。

这里面藏着一个被组织行为学家研究得很透彻的现象,叫“竞争性框架”(competitive framing)。一旦问题被框成“谁赢谁输”,人的心智就会自动退化成对抗模式。认知资源不再用于寻找更好的方案,而是用于证明“我是对的”或者“我得服从”。

哈佛谈判项目的创始人罗杰·费舍尔在《Getting to Yes》中提出了一个至今仍被视为经典的原则:把立场(position)和利益(interest)分开。

立场是“我坚持这个方案”“他坚持那个方案”。
利益是“我们都想降低风险、提高效率、确保交付”。

你和 AI 讨论以后,出现了第三种思路:不是简单坚持,也不是完全听从,而是重新整理双方真正关心的目标,看看有没有一种新的方案,既吸收你的优点,也回应领导的担忧。

这个动作看似只是“加了一个选项”,实际上对应的是极其重要的决策原则:

第一,避免虚假二分法。
现实世界里,大多数复杂问题都不是天然只有 A 和 B。希思兄弟在《决断》中引用保罗·纳特的研究数据指出,当决策者只考虑两个选项时,失败率高达 52%;而一旦增加到三个或更多选项,失败率骤降到 32%。二选一很多时候只是因为人懒得继续想,或者已经在情绪和权力关系中被困住了。

第二,把立场冲突翻译成目标冲突。
一旦从立场切回目标,讨论就更容易走向设计,而不是走向对抗。

第三,先扩展解空间,再进入比较。
这其实是很多高质量决策的共同秘密。不是一上来就在两个糟糕选项里挣扎,而是先问一句:“有没有第三种路?”

很多人在工作里之所以累,不是能力不够,而是太早被迫进入了阵营思维。你一旦把问题理解成“要不要顶领导”,你的可选动作就迅速变少。可一旦把问题改写成“如何把双方约束整合成更优解”,你不仅保留了专业性,也提高了协作质量。

这就是第一个案例真正体现的原则:高质量决策,往往始于扩展选项,而不是急着选边。


六、案例二:当问题的本质是执行,再多认知也没用

第二个案例看起来和工作无关,却恰恰说明了决策科学中一条最容易被忽视的主线。

2017 年诺贝尔经济学奖得主理查德·塞勒(Richard Thaler)在他那本精彩的《“错误”的行为》中讲过一个核心洞见:**人不是一个统一的决策主体,而是“多个自我的集合”。**今天的你想减肥,明天的你就想吃火锅。此刻下决心要早起的你,和闹钟响了之后在被窝里按掉闹钟的你,几乎是两个不同的人。

这就是行为经济学家所说的“现在偏差”(present bias):人对当下的舒适赋予过高的权重,对未来的收益赋予过低的权重。

理解了这一点,你才能真正看懂“要不要花钱请私教”这个问题。

表面问题是:自己健身省钱,还是每个月花三四千跟私教练。
深层问题其实是:我真的能靠自己长期稳定地把健康这件事执行下去吗?

这个问题之所以重要,是因为人类特别容易高估自己的意志力。心理学家把这叫“计划谬误”(planning fallacy):人在做计划时,几乎总是对自己未来的执行力过于乐观。我们以为知识会自动转化为行动。但现实一次又一次地告诉我们,知道和做到之间,隔着很长的距离。

塞勒和桑斯坦在《助推》(Nudge)一书中提出了一个核心理念:与其试图改变人的意志力,不如改变人所处的选择架构(choice architecture)。

私教在这里真正卖给你的,不是动作教学本身,而是一套外部约束系统:固定时间、明确承诺、有人监督、有人反馈、有人纠偏、有人等着你出现。

你买的不是“知道该怎么练”,而是“更大概率真的去练”。

这在决策科学和行为经济学里有一个很有力量的概念,叫**“承诺装置”(commitment device)**。它最经典的案例来自古希腊:奥德修斯知道自己会被海妖塞壬的歌声迷住,于是提前让水手把自己绑在桅杆上。他不是不知道诱惑有多大——他恰恰是因为知道,所以才提前设置了一个机制,让“未来那个意志力薄弱的自己”没有机会犯错。

承诺装置的核心思想是:当意志力不可靠时,用机制来托底。

这样一来,问题就不再是“这个私教贵不贵”,而变成了:

如果我自己练,真实完成率是多少?
如果我跟私教练,真实完成率能提升到多少?
我为这笔钱买到的,是健康知识,还是健康行为发生的概率?
如果不请私教,还有没有更便宜但仍然有效的承诺装置,比如固定搭子、团课、押金式训练计划、周目标打卡、体测反馈?

一旦问题被这样改写,整个决策逻辑就升级了。你不再只是从消费心态看问题,而是在做一笔“健康资本投资”的判断。

这类决策极其普遍。健身、学习、减脂、写作、冥想、早睡、戒烟、省钱,几乎都不是纯认知问题。很多人不是不会,而是总在用“我应该坚持”去对抗“我实际上很难坚持”。这时真正有效的,不是给自己再讲一遍大道理,而是承认人性并设计系统。

所以第二个案例体现的核心原则是:当问题的本质是执行,而不是认知时,你真正要做的不是多想一点,而是设计一个更靠谱的机制。


七、案例三:热状态下的不可逆决策,是代价最高的决策

第三个案例比前两个更尖锐,因为它涉及情绪、尊严、现实收益和人生走向。

难受得不行,是直接离职,还是跟领导谈条件?

卡尼曼在其晚年著作《噪声》中区分了两种判断误差:偏差(bias)和噪声(noise)。情绪正是制造判断噪声的重要来源。人在热状态中——尤其是愤怒、委屈、受挫、被压抑时——不是变得“更果断”了,而是变得“更随机”了。你做出的决定,在很大程度上取决于你今天有多难受,而不是取决于什么对你的长期利益最好。

乔治·洛温斯坦(George Loewenstein)的研究把这叫做“热冷共情差距”(hot-cold empathy gap):人在热状态下几乎不可能准确预测自己冷静后的偏好。你现在觉得“我一刻也待不下去”,但两周后你可能会想“当时冲动辞职实在太亏了”。

热状态下做出的不可逆决定,经常会掺杂太多情绪折价。

这并不是说情绪不重要。恰恰相反,情绪通常是真实信号,它提示你:这个环境出了问题。但“情绪是真实信号”不等于“情绪适合作最终决策者”。情绪的任务是提醒你有事发生了,而不是替你做最优策略设计。

在这个案例里,AI 做了一件非常关键的事:给你注入了一点冷静,让你避免在热状态下立刻做终局动作。

于是你没有立刻离职,而是先和领导谈条件。这个看似只是“晚一点离职”的动作,实则对应了三个很重要的决策原则。

第一,延迟不可逆决策。
金融学中有一个概念叫“等待的期权价值”(option value of waiting)。在信息不完整、情绪不稳定的情况下,延迟本身就是一种有价值的策略。延迟不是拖延,而是让更完整的信息和更理性的你,有机会参与进来。

第二,保留期权。
期权思维的核心是不过早把路走死。直接离职是一锤定音;先谈条件,则让你保留了多个后续路径:继续留、拿补偿后走、再观察、再决定。你不是在优柔寡断,而是在让未来的自己拥有更多可操作空间。

第三,把一次性决策变成序列化决策。
低质量决策者喜欢一步到位:忍还是走,买还是不买,断还是不断。高质量决策者则更常把复杂问题拆成多步:先谈、先试、先看反馈、先争取、再判断。每走一步,信息更多,主动权也更强。决策研究者把这叫“序贯决策”(sequential decision-making),它的核心优势在于,每一步都在用新信息修正你的判断。

最后你拿到了十二万的补偿。这不是运气,而是因为你没有让“我现在很痛苦”直接等于“我立刻放弃所有谈判空间”。你给自己争取到了更好的退出条件。

所以第三个案例最值得记住的是:在情绪高点,不急着做不可逆动作;先做一个能保留选择权的动作。

这条原则不只适用于离职,还适用于分手、摊牌、清仓、断联、争吵、重构、辞退、搬家、转专业、创业、退群等所有重大转向。


八、三个案例的底层结构:重新设计决策架构

如果把三个案例放在一起看,它们表面上属于不同领域:工作协作、身体健康、职业转身。但用决策科学的术语说,它们底层讲的是同一件事:真正高质量的决策,往往不是在既定选项里选一个,而是重新设计决策结构。

第一个案例,你不是更会站队了,而是更会扩展解空间了——对应“问题重构”。
第二个案例,你不是更会算小账了,而是更会识别“执行问题需要系统”了——对应“承诺装置”。
第三个案例,你不是更能忍了,而是更会在情绪和不可逆行动之间插入一层策略思考了——对应“期权思维”和“热冷共情差距”。

这三个动作本质上都不是“答案更聪明”,而是“结构更高级”。

这让我想到认知科学家基思·斯坦诺维奇(Keith Stanovich)提出的一个重要概念:理性商数(Rationality Quotient)。斯坦诺维奇认为,智商衡量的是你的认知引擎有多强,而理性商数衡量的是你在多大程度上能避免被自己的认知引擎欺骗。一个高智商但低理性商数的人,就是那种“很聪明但总做蠢事”的人。

而提升理性商数的核心路径,就是积累决策语言。

当你没有决策语言时,你只能模糊地感觉“这次好像做对了”“那次好像做错了”。
当你有了决策语言,你就能说清:
这次我做对,是因为我没有落入虚假二分法;
那次我做错,是因为我高估了自己的意志力,应该用承诺装置;
这次我差点翻车,是因为我在热状态下想做终局动作;
这次我做得好,是因为我先保留了期权。

一旦一个人有了这样的语言,他就不再只是“经历很多事”,而是能把经历沉淀成原则,把原则再反过来指导未来。


九、AI 在决策里的最佳角色:选项扩展者、偏差照明器、机制设计师

接下来谈最关键的部分:如何把 AI 融进这个决策系统。

很多人用 AI 做决策辅助时,最容易犯两个极端错误。
一种是太依赖:什么都问 AI,希望它替自己拍板。
另一种是太抗拒:觉得人生大事只能自己想,AI 最多只能查资料或写摘要。

这两个极端都低估了 AI 的真正价值。用认知科学的术语说,AI 最擅长的不是替你做决策,而是帮你改善你的决策环境——它是你个人的“选择架构师”(choice architect)。

它最适合做的,至少有四件事。

第一,扩展选项。
AI 很擅长打破人的思维惯性。认知心理学有一个概念叫“锚定效应”(anchoring):人倾向于围绕自己最先想到的选项做微调,而不是真正探索全部可能性。AI 能帮你跳出锚定,从不同身份、不同利益相关者、不同时间尺度重新表述问题。很多时候,它未必给出完美答案,但它能帮你看见自己原来没看见的空间。

第二,揭示偏差。
人做决策时常被自己的状态蒙住。AI 可以帮你识别:你是不是在情绪高点,你是不是陷入沉没成本,你是不是为了省小钱而忽略长期收益,你是不是在把执行问题误判成认知问题。它像一个外部镜子,让你看见自己此刻最容易看漏的部分。

第三,设计机制。
好的 AI 不只是给建议,它还能帮你把建议落成系统。比如把“我要健身”变成一套可执行安排,把“我要和领导谈条件”变成一份对话策略,把“我要做更理性的工作决策”变成一套复盘模板。它帮你回答的不是“你应该怎样”,而是“你到底该怎么把它做出来”。

第四,保留期权。
AI 很适合帮你设计下一步动作,而不是一下子设计人生最终答案。你可以问它:在不把路走死的前提下,我下一步最合理的动作是什么?这样一来,AI 帮助你的,不是终局结论,而是更可逆、更稳妥、更利于信息收集的路径。

但有一件事必须明确:最终拍板权必须还是你自己。

因为 AI 可以帮你分析事实,扩展选项,识别偏差,甚至模拟结果,但它不承担你的后果,也不拥有你的价值体系。健康和金钱孰轻孰重,尊严和补偿如何权衡,自由和稳定你更要哪个——这些不是“计算题”,而是价值排序题。而价值排序,是你这个人之所以是你的核心部分,必须由真正要活这段人生的人来做。

所以 AI 最理想的角色不是决策者,而是:选项扩展者、偏差照明器、机制设计师和复盘教练。


十、元决策:把“如何用 AI”本身纳入决策系统

讲到这里,问题还没讲完。因为在 AI 时代,我们不只是在用 AI 参与人生决策,我们还需要对“如何使用 AI”本身做出决策。

认知科学家把这种“关于思考的思考”叫做元认知(metacognition)。而在 AI 时代,元认知有了一个新的维度:元决策——关于如何使用 AI 的决策。

比如说,你现在遇到一个问题,要不要找 AI 讨论?
如果讨论,用哪个模型?
让它做发散,还是做批判?
让它先出草稿,还是先帮你搭框架?
什么时候该相信它的推理,什么时候该把它当陪练而不是裁判?
什么时候继续追问,什么时候停止对话,回到现实执行?

这些都是元决策。

真正成熟的 AI 使用者,会把这些更高层的问题变成习惯:

这个问题适不适合让 AI 参与?
适合参与哪一段?
这轮我需要它扮演什么角色?
我是在借助 AI 扩展认知,还是在逃避自己拍板?
我是不是已经从“辅助思考”滑向了“推迟决定”?
这个问题值不值得用更强的模型?
如果连续几轮没有新增洞见,是不是应该止损,转入行动?

这些问题本身就是决策科学在 AI 使用场景中的具体化。

心理学家巴里·施瓦茨(Barry Schwartz)在《选择的悖论》中警告过:选项过多本身就会导致决策瘫痪。 AI 恰恰给你制造了无限选项——无限追问、无限比较、无限生成。这会让人产生一种“我在认真思考”的幻觉,实则只是把拍板时间无限后延。

所以,真正把 AI 融进决策科学,不只是让 AI 帮你想问题,而是让你对“怎么用 AI”本身更清醒。

你要知道:
什么时候该用强模型,因为问题复杂而高价值;
什么时候不用烧贵 token,因为只是低风险整理;
什么时候该让 AI 发散,什么时候该让 AI 红队质疑;
什么时候 AI 已经完成任务,接下来轮到你做价值排序并承担后果。

说到底,AI 时代的顶级能力,不是“会用 AI”,而是会决策性地使用 AI。


十一、一个 AI 决策操作系统:六步框架

如果把上面的内容压缩成一个可长期复用的系统,我会建议这样设计。每当你遇到一个重要决策,先走这六步。

第一步:先定义问题(问题建构)

问自己:
我真正要决定的是什么?
这是一个结果问题,还是一个关系问题,还是一个执行问题,还是一个情绪问题?
我是不是已经在默认一个太窄的框架?

卡尼曼说过,你能给自己最大的帮助,就是在回答问题之前,先确认这个问题问对了没有。

第二步:先扩展选项,再做比较(克服锚定效应)

问自己,也可以问 AI:
除了 A 和 B,还有没有第三种方案?
能不能分阶段?能不能试点?能不能局部实施?能不能先谈再动?能不能把双方约束整合成一个新方案?

这一阶段,AI 最有用。它是极好的选项生成器。根据希思兄弟在《决断》中的总结,仅仅是增加一个选项,决策成功率就能提高约 20 个百分点。

第三步:识别当前偏差(元认知检查)

问自己:
我现在是不是很委屈、很愤怒、很焦虑、很想立刻结束?(热状态检测)
我是不是高估了自己的执行力?(计划谬误检测)
我是不是在受沉没成本、面子、懒惰、怕麻烦、短期省钱等因素影响?(认知偏差清单)
有没有什么是我现在特别不愿承认,但其实很可能是真的?(确认偏差检测)

这一阶段,AI 可以作为偏差照明器,帮你指出盲区。

第四步:分清认知问题还是执行问题(对症下药)

如果你已经知道什么是对的,但总做不到,那就别再只问“为什么我还不够自律”,而要开始设计系统:
我要不要一个承诺装置?
我要不要一个监督者?
我要不要一个更小的实验?
我要不要把目标从抽象口号改成可执行约束?

塞勒的忠告:不要试图改变人性,改变环境。

第五步:优先选择“保留期权”的下一步(序贯决策)

不是所有问题都要一步到位。很多时候,最优解不是终局动作,而是一个让你拥有更多信息和选择权的中间动作。

比如先谈,而不是马上走;
先做最小实验,而不是一次性重注;
先小范围验证,而不是全面铺开;
先写设计文档,而不是立刻开工;
先做备份方案,而不是把全部赌注压在一个判断上。

金融学家的忠告:不确定性越高,期权价值越大。

第六步:最终价值排序,自己拍板

当分析差不多了,就要回到最根本的问题:
我真正要的是什么?
我愿意为它付出什么代价?
我最不能接受的是什么?
我此刻要优化的是钱、时间、尊严、自由、关系、健康,还是长期空间?

到了这里,AI 不应该替你发言。因为这是属于你的人生偏好,不是模型参数能替代的。


十二、决策复盘:真正的复利机器

有了框架还不够。真正能拉开长期差距的,是复盘。因为单次决策只能影响一件事,而复盘会改变你的整个系统。

认知科学有一个概念叫“反事实思维”(counterfactual thinking):如果当时我做了不同的选择,会怎样?研究表明,经常进行高质量反事实思维的人,在未来的决策中表现明显更好。

但复盘有一个大坑:人天然倾向于用结果来评判决策质量。赢了就觉得决策对,输了就觉得决策错。

这在决策科学里叫“结果偏差”(outcome bias),扑克冠军安妮·杜克在《对赌》(Thinking in Bets)中对此有精彩的论述:一个好决策有可能产生坏结果,一个坏决策也有可能产生好结果。评判决策质量,应该看决策过程,而不是看结果。

所以真正好的复盘,要问的是:

这次我的问题定义是否准确?
我有没有陷入虚假二分法?
这次是认知问题,还是执行问题?
我有没有设计承诺装置?
我是不是在热状态下做了决定?
我有没有保留期权?
AI 在这次协作中,真正帮到我的是什么?
它是帮我扩展了选项,还是只是用漂亮的话重复了我已有的想法?
这次我在模型选择、提问方式、停止时机上,做得好不好?

复盘最怕两件事。一是只看结果不看结构——结果偏差。二是把复盘变成自我批判——这样只会让人越来越怕做决定。

真正好的复盘,目标不是抓错,而是沉淀规律。

慢慢地,你就会形成一套属于自己的标签系统:扩展选项、承诺装置、延迟不可逆决策、保留期权、情绪去偏、价值排序、模型匹配任务价值、AI 止损点、先设计后执行……

这些词一旦成了你的日常语言,你的决策质量就会稳定上升。因为你不再只能靠模糊直觉,而是开始能精确定位自己到底做对了什么,或者差点犯了什么错。


十三、从“人生难题”到“系统迭代”

学决策科学最重要的收获,不是你会变得更厉害,而是你会变得更稳。

以前遇到问题,人很容易陷入两种状态。
一种是自责:为什么我总做不好决定?——心理学家把这叫“基本归因错误”(fundamental attribution error)的自我版本,你把系统问题归因成了人格缺陷。
一种是命运化:算了,走一步看一步吧。——这本质上是放弃了对决策过程的掌控。

这两种状态都很消耗。

但一旦你开始把人生看成一个决策系统,很多事情会变得不一样。
你会意识到,很多失误不是人格缺陷,而是结构问题;
很多拖延不是懒,而是承诺装置没设计好;
很多冲动不是软弱,而是热状态下缺少缓冲层;
很多内耗不是无能,而是你太早接受了一个被压缩过的题目。

这种视角非常重要。因为它会把“我这个人是不是不行”,改写成“这个系统哪里还能优化”。
你从自我批判,转向系统升级。

卡罗尔·德韦克的“成长心态”(growth mindset)研究告诉我们,那些把失败看成“能力不足”的人,往往会回避挑战;而把失败看成“策略可优化”的人,则会越挫越勇。决策系统思维,本质上就是把成长心态应用到了人生的每一个关键选择上。

你不再把每一次难受都理解成失败,而会把它看成一个信号:这里可能需要重构问题,或者设计机制,或者保留期权,或者让 AI 介入做结构化辅助。

这是一种非常有力量的心态变化。它不是鸡汤,它是实践性的。


十四、结语:AI 时代最值得练的,是决策能力

如果让我把整篇文章压缩成一句话:

在 AI 时代,真正稀缺的不是让 AI 替你完成任务,而是你能否借助 AI,持续升级自己的决策系统。

执行会越来越便宜,信息会越来越泛滥,建议会越来越多,模板会越来越随手可得。真正难的,不是没有答案,而是答案太多时,你能不能看清自己到底在优化什么;不是没有工具,而是工具太强时,你能不能避免高效率地跑偏;不是没有建议,而是建议再多,你仍然要对自己的价值排序负责。

未来最有竞争力的人,也许不是最会做事的人,而是最会在复杂中做判断的人。

他们会扩展选项,而不是急着选边。
他们会设计承诺装置,而不是反复责怪意志力。
他们会在热状态下延迟不可逆动作,而不是把短期解脱误认成长期最优。
他们会让 AI 帮助自己看清问题、暴露偏差、设计行动,却不会把人生的最终拍板权外包出去。
他们会做复盘,把一次次经历沉淀成原则,把原则再变成未来的护城河。

决策科学不是一套高高在上的理论。它是你每天都在用,只是过去未必给它命名。
AI 也不是来替你活这段人生的。它真正的价值,是在你面对混乱、模糊、冲突和情绪时,帮你多一层清醒,多一层结构,多一层选择权。

当你开始这样使用 AI,你得到的就不只是更高的效率,而是一种更强的内在秩序。
你会慢慢拥有属于自己的决策语言、决策节奏和决策系统。

而一个人一旦拥有了这种能力,他的人生就不再只是被事情推动。
他会越来越像一个真正的系统设计者。
不是设计世界,而是设计自己在世界中的行动方式。

这,也许就是 AI 时代最值得追求的成熟。

从《政经参考》看今天怎么选专业:学历贬值、职业本科和就业风向

发表于 2026/03/19 | 分类于 随笔文章

1

如果把马江博《政经参考》里跟大学、专业和就业相关的公开文章放在一起看,我觉得最值得注意的,不是某一个专业突然变热,也不是某一个行业突然变冷,而是判断问题的方法已经变了。

以前大家问的是:哪个专业体面?哪个学历值钱?哪条路听起来更像“上岸”?

现在更应该问的是:四年之后,市场到底还愿不愿意为这套能力买单?学校培养出来的人,能不能直接进入真实的产业和岗位?这个专业到底是在通往生产力,还是只是在通往一张越来越不稀缺的文凭?

我把这些公开文章反复看了一遍,能提炼出四条主线。

第一,学历仍然重要,但学历的普遍溢价正在下降。第二,教育越来越直接地跟就业、产业和生产力挂钩。第三,单一技能型专业会越来越难,复合能力型专业会越来越重要。第四,大学四年不再是考上就结束,而是考上之后才真正开始筛选。

如果这四条主线成立,那么今天选专业,思路就必须变。

2

先说第一条,学历没有失效,但它越来越像“入场券”,而不是“终身保险”。

马江博在《不靠学历靠能力,精细化时代的生存指南》里谈了一个很扎眼的事实:学历带来的普遍溢价在慢慢消失,但拿到学历的成本却在快速上升。这里的成本,不只是学费和住宿费,更重要的是机会成本和风险成本。你在读本科、读硕士的时候,不只是花钱,还意味着你放弃了这几年本来可以进入社会积累经验和收入的可能性。

公开稿里给了一个很有冲击力的测算:按照当时引用的数据,硕士毕业生的平均月薪比本科高一些,但拉开得没有很多,结果是读硕士要花十多年,才有可能把机会成本打平。本科相对中职仍然划算一些,但回本周期也已经没有过去想象得那么轻松。

这件事情的核心不是“不要读书”,而是“不能再把读书理解成无脑增值”。如果你只是为了延迟就业、为了面子、为了听起来更像精英而继续往上读,那么这笔账很可能算不过来。特别是在家庭资源有限的情况下,教育投资必须像真正的投资一样去看回报周期、风险敞口和替代方案。

同样的逻辑,也被他用在留学这件事情上。在那篇讲留学生性价比崩塌的文章里,他的判断很直接:留学越来越贵,回国之后的薪资和体制内机会却没有同步上升,甚至有些岗位已经明确不再把国外本科当作天然加分项。这个结论当然不等于“留学没价值”,但它意味着,留学不再是一个默认正确的选择,而是一个必须非常具体地算账、看学校、看专业、看国家、看职业目标的重决策。

换句话说,今天最大的问题不是学历没用,而是学历不能单独解释你的未来了。

3

第二条主线,是教育正在越来越直接地服从就业和产业需求。

这一点在《巨变,职业本科大量出现在考公岗位》里写得非常明白。文章里最值得记住的,不是“职业本科可以考公”这一个现象,而是它背后的那句话:教育挂钩就业的时代正式到来,本科多元化体系开始启航。

这句话的分量很重。它等于在说,未来高等教育会越来越像一个供给系统,而不是一个抽象的身份系统。学校培养什么人,不再只是看学科传统、学院声望和历史惯性,更要看市场缺什么、产业缺什么、地方经济缺什么。

所以我们现在看到的是一个很拧巴但又很真实的局面:一边是本科生、研究生都在抱怨工作难找;另一边是企业又说招不到合适的人。表面看像是岗位少,实际上很大一部分是供需错配。学校培养出来的人,和企业真正需要的人,不一定是同一类。

马江博反复强调的一个判断是,未来需求更强的岗位,越来越集中在新技术、新制造和高复杂度产业环节里。比如人工智能、大数据、新能源、智能制造、量子计算、生物医药、先进材料这些方向,它们对人的要求不是“会一点理论”就够了,而是既要有专业基础,也要能进入具体的工作场景,最好还能跨学科协作。

这对选专业意味着什么?

意味着你不能只看专业名字好不好听,也不能只看这个专业过去十年辉煌不辉煌。你要看它通向的岗位是不是仍然在扩张,看它培养的能力是不是能进入真实生产环节,看它是不是能和新一轮产业升级接上。

以前大家总说“选自己喜欢的”。这句话不是错,但今天更完整的说法应该是:在尊重兴趣的前提下,尽量选择那些既能激发你长期投入,又能接住产业需求的方向。只有这样,兴趣才不会在毕业时变成代价。

4

第三条主线,是很多专业真正的危险,不在于它“文科”或者“理科”,而在于它是不是一种很容易被技术替代的单一技能。

《今年最惨的专业,正在集体自救》这篇文章给的例子非常典型,就是外语专业。

在很长时间里,外语专业的逻辑非常顺。社会开放、国际交流增加、教育培训旺盛、翻译需求存在,英语和其他语种都能找到相对稳定的位置。但到了今天,情况变了。AI 翻译快速普及,很多日常翻译场景已经不再需要大量人工。与此同时,高校里外语专业开设太多,就业岗位又在收缩,于是就出现了一个典型现象:外语学院开始大面积重组、合并、转型。

这里最值得重视的,不只是“小语种不好就业”这个表层结论,而是背后的机制。

一个专业如果主要提供的是单点技能,而且这个技能既能被 AI 覆盖,又没有强绑定到某个真实产业场景,那么它就会很危险。不是因为这个专业的知识没有价值,而是因为“只学这个”已经不够了。

所以现在外语专业的自救方向很有启发性:往教育结合,往传播结合,往国际业务结合,往 AI 和行业场景结合。说得再直白一点,未来更有竞争力的,不是“只会英语的人”,而是“会英语,同时懂教育、传播、外贸、法律、产业、技术的人”。

这个教训其实不只适用于外语。很多看起来不算差、甚至曾经很热门的专业,都会面临同样的问题:如果你的能力是一条细而单一的线,就很容易被市场压价;如果你的能力是两到三条线交叉形成的面,你的议价能力就会高很多。

所以,今天选专业,一个非常实用的原则就是:尽量不要把自己押在“单一技能”上,而要尽量往“专业基础 + 工具能力 + 场景能力”的方向去靠。

5

第四条主线,是职业本科和应用型教育的地位正在上升,而且这个趋势可能被很多家庭低估了。

过去不少家长一听到“职业教育”就本能皱眉,觉得这条路低人一等。马江博的几篇文章里,对这个偏见其实是在持续纠偏。

公开稿里提到,2025年不少地区的考公岗位已经开始明确标注职业本科对应的专业代码,这意味着职业本科在制度上的承认度正在提高。更重要的是,职业本科之所以被抬升,不是因为谁想给它贴金,而是因为现实就业市场已经把问题摆在台面上了:大量高学历毕业生找工作困难,但企业仍然招不到合适的一线和应用型人才。

这件事情很残酷,但也很现实。很多人不是输在不够努力,而是输在教育路径和岗位需求错位了。学校给了你一套很完整的理论训练,但市场需要的是能直接进项目、进工厂、进实验室、进业务流程的人。于是,你的学历很高,但你的位置并不稳。

而职业本科、应用型本科之所以重新被重视,恰恰是因为它们更贴近产业,更强调技能落地,更容易形成“入学时就知道自己将来大概率去哪类岗位”的路径感。

这不意味着所有成绩不错的学生都应该去读职业本科,也不意味着普通本科没价值。真正的意思是,今天衡量一所学校和一个专业,不能只看招牌,还要看它所在的城市、连接的产业、实习资源、校企合作和毕业去向。

如果一所学校身处产业集群之中,课程设置跟企业需求贴得很近,学生在校期间就能接触项目、实习和真实设备,那么它的很多优势,可能比某些听起来更体面的学校更实在。

换句话说,今天很多家庭最需要更新的,不是知识,而是尊严感的排序。真正重要的,不是“听起来像不像精英”,而是“毕业之后能不能进入上升中的系统,并且站稳”。

6

第五条主线,是大学本身也在变,它不再是考上之后就默认毕业的地方了。

《高校集体下狠手,大学淘汰机制全面启动,大风浪来了》这篇文章里列了不少很具体的案例:有的学校一次性对几十名学生降级、退学,有的学校大规模发布学业预警名单,有的学校对研究生实行更严格的分流淘汰。文章给出的判断是,本硕博层面的“严进严出”会越来越普遍。

这一点其实很容易被忽视。很多学生在高中阶段拼命,默认逻辑是“考上好大学就解放了”。但现实正在变成另一套逻辑:考上只是获得资格,接下来还要持续证明你配得上这个位置。

为什么会这样?因为高等教育已经进入普及化阶段,学生规模越来越大,如果培养质量跟不上,大学文凭的含金量只会越来越稀释。国家和高校要维持教育质量,就不得不把毕业门槛重新收紧。

这对选专业也有一个非常现实的提醒:不要只看一个专业热门不热门,还要看你是不是真的适合它、扛不扛得住它的训练强度、愿不愿意在大学四年持续投入。

有些学生是被家长、分数线和社会偏见推着去某个专业的,进去之后既不喜欢,也不擅长,长期处于应付状态。以前这样的学生可能也能混过去,但未来会越来越难。大学不再只是身份标签,而会越来越像一场长期筛选。

所以,选专业不能只看录取那一刻的光鲜,也要看四年后你能不能顺利毕业、能不能积累作品、能不能形成能力、能不能真正走向就业。

7

如果把上面几条线索收拢起来,我觉得今天选专业,最值得反复追问的是下面六个问题。

第一,这个专业毕业后最常见的去向到底是什么。不是宣传册上写的“可在政府机关、事业单位、世界五百强从事相关工作”,而是过去三到五年真实毕业生主要去了哪里。

第二,这些去向所在的行业,是在扩张、收缩,还是只剩下头部玩家还有肉吃。一个专业再有名,如果对应岗位整体在缩,普通学生的处境也不会乐观。

第三,这个专业培养出来的核心能力,是不是容易被 AI 和标准化流程部分替代。如果容易替代,那么你就必须提前想清楚,自己要叠加什么第二能力和第三能力。

第四,这所学校所在的城市和产业环境怎么样。很多时候,城市不是背景板,而是专业价值的一部分。你在深圳读电子信息,在合肥读新能源,在苏州读先进制造,在杭州读数字经济,和在一个相关产业很弱的地方读同名专业,体感会很不一样。

第五,这个专业能不能尽早产生作品、实习和项目经验。未来市场会越来越不耐烦,它不只看你学过什么,更看你做过什么。

第六,你愿不愿意为这条路持续投入。因为在严进严出的环境里,光靠“先进去再说”会越来越危险。

这六个问题里,前五个是外部现实,第六个是你自己。两边都想明白,选出来的专业,才更像一个策略,而不是一次押注。

8

如果非要把结论压缩成几句大白话,我会这样说。

今天这个时代,不再奖励空泛的高学历崇拜,而是奖励真正能进入产业、解决问题、持续进化的人。你最好去那些和新技术、新制造、新能源、生命健康、硬科技、真实服务业需求连接更紧的方向;如果你选的是文科、外语、管理这类更容易被误读成“通用型”的专业,就一定要尽快把自己做成复合型选手,而不要只停留在课堂知识上。

同时,别再把职业本科、应用型教育和普通本科简单排出高低贵贱。很多时候,不是名字决定命运,而是路径决定命运。一个更贴近产业的路径,往往比一个看起来更体面的路径更能给人安全感。

还有一点特别重要:不要把大学当作缓冲区,要把它当作训练场。你在里面的每一年,都应该尽量把自己往“更能就业、更能协作、更能解决问题”的方向推一点。等到毕业那天,真正值钱的,从来不是“我读过这个专业”,而是“我已经可以做这些事”。

9

回过头看,马江博这些文章真正反复提醒大家的,其实不是“哪个专业最好”,而是一个更底层的问题:

在学历贬值、产业重组、技术替代和教育分化同时发生的时代,一个年轻人到底要怎样配置自己,才不至于在走出校园的那一天突然发现,自己手里只有一张越来越普通的门票。

我觉得答案大概是这样的。

专业要尽量选在上升的需求里,能力要尽量长在复合的结构里,学校要尽量嵌在真实的产业里,大学四年要尽量转化成作品、项目、实习和见识。至于那些纯粹靠名头、面子和旧印象支撑起来的判断,以后只会越来越不可靠。

选专业这件事,真正该追求的,已经不是“听起来厉不厉害”,而是四年之后,你能不能凭着这套配置,走进社会时比别人更快找到位置,更稳地站住脚,然后还有继续往上长的空间。

附录:公开整理来源

  • 马江博:《性价比崩塌,市场和体制内已不再高看甚至拒绝留学生》,新浪财经,2024-10-20,https://finance.sina.com.cn/roll/2024-10-20/doc-inctmnkw1567315.shtml
  • 马江博:《不靠学历靠能力,精细化时代的生存指南》,搜狐转载自得到App《政经参考》,2025-07-20,https://www.sohu.com/a/915634881_121124731
  • 马江博:《巨变,职业本科大量出现在考公岗位》,新浪财经,2025-09-01,https://cj.sina.com.cn/articles/view/6016837939/166a1a933019017b1w
  • 马江博:《高校集体下狠手,大学淘汰机制全面启动,大风浪来了》,新浪财经,2025-12-04,https://cj.sina.com.cn/articles/view/6016837939/166a1a933019017qoy
  • 马江博:《今年最惨的专业,正在集体自救》,新浪财经,2025-12-05,https://cj.sina.com.cn/articles/view/6016837939/166a1a933019017qya

他不是一个人在扛(第三人称特稿体)

发表于 2026/03/16 | 分类于 AI专题

他不是一个人在扛

——第三人称特稿体:一个程序员与AI协作之后,如何重新理解能力、孤独与关系

他记得自己说出那句话的时候,语气很轻,像随口讲了个段子。

\u201c我发现使用 AI 工作的一个好处是:当出现问题时,我不需要再质疑我自己,而是想,\u2018这是 AI 干的,我现在应该做的是想着如何改进我跟 AI 的协作。\u2019\u201d

对面的人笑了一下。那种笑很正常——这句话乍听确实像一种巧妙的甩锅技术。但他自己没笑。因为他知道,这句话背后藏着的东西,远比表面上要沉得多。


一、一个被运行了很久的底层公式

如果你有机会长时间观察他工作,你不会觉得他是个焦虑的人。他反应快,产出稳,在团队里往往是最早给出方案的那个人。别人看到的是一个高效、可靠、似乎永远在状态里的人。可他自己清楚,那些反应速度的背面,常常不是从容,而是一种绷了很久的弦。

因为他对错误的感受方式,跟大多数人不太一样。

大多数人犯了错,可能先叹口气,然后想怎么补。而他犯了错,第一个冒出来的反应往往不是“怎么补”,而是一个更深的声音——“你是不是不行?”“你是不是退步了?”“别人是不是早就看穿你了?”这些念头来得很快,快到他甚至不需要主动去想,它们就已经闪过了。有时只是胸口微微收紧一下,有时是脑子里一个模糊的念头一闪而过,但它们的重量,远远超出了眼前那件具体的小事。

他后来花了很长时间才看清楚,自己内心深处一直在运行着一个隐形的公式:做对是应该的,做错说明我有问题。顺利是正常的,卡住说明我能力不足。别人可以求助,我最好别麻烦人——因为一旦开口求助,就像是在暴露自己的无能。

这套公式他从来没有清楚地说出来过,但它一直在跑。像一条写在系统底层的代码,没有注释,没有文档,却左右着他对每一个事件的解释方式。于是很多本来可以被当成普通信号的东西——一个 bug,一次延期,一段不够好的代码——都被他自动处理成了关于自我价值的证据。

他一直以为这就是“认真负责”。直到很久以后,他才明白,这根本不是负责,这是自我审判。


二、那层很薄的缓冲

AI 工具大规模进入他的工作流程,并没有一个戏剧性的开始。他不是某天突然顿悟了什么,更像是在日复一日地使用中,慢慢发现一件事情在松动。

变化最先出现在他应对错误的方式上。

以前,如果他写的功能出了 bug,他会在修 bug 的同时,脑子里快速闪过一轮对自己的质询。现在不一样了。当一段 AI 辅助生成的代码出了问题,他的第一反应变成了另一种东西:是不是我的 prompt 没写清楚?是不是我忘了给约束条件?是不是我没有让它先输出计划再开始写?是不是缺了 review 环节?

看起来只是一个很小的注意力转向。但对他来说,这个转向意义重大。

因为在那个瞬间,他第一次不需要那么快地把“出了错”翻译成“我不行”。中间多出了一层缓冲。那层缓冲很薄,薄到几乎不容易被察觉,但它足够让他先喘一口气,足够让他在下结论之前,先把注意力放到系统上,而不是放到自我否定上。

他后来反复想过这件事。那层缓冲之所以那么重要,不是因为它替他挡掉了所有情绪,而是因为它让他第一次从被告席上退下来了一步。他不再是站在法庭中央等待宣判的人,而是重新站到了调试台前面。站在调试台前面的人,脑子里想的是“哪个环节出了偏差”,而不是“我是不是不够好”。这两种站位,带来的心理体验完全不同。

前者让人重新拿回了思考的能力。后者只会让人越来越紧。

更微妙的是,这种转向并没有让他变得更不负责任。恰恰相反,他开始承担一种更成熟的责任。不是“所有问题都怪我”的那种——那种责任虽然看起来很有担当,但本质上是情绪化的,很容易把人压垮。他现在承担的是另一种:“我要把这个系统设计得更靠谱。”这是一种建设性的责任。前者让人消耗,后者让人成长。

于是,那句看似轻飘飘的话,实际上为他撬动了一个更深的东西。他终于不用每次都拿自己开刀,才能证明自己对结果在意。


三、被高功能掩盖的暗流

他后来越来越清楚地意识到,过去很多工作里的痛苦,其实并不完全来自任务本身。任务当然也难,也复杂,也有deadline压着。但真正让他消耗最大的,往往不是任务的难度,而是任务一出问题时,它会立刻触发他内心的某种羞耻感。

那种羞耻感不会大张旗鼓地出现。它非常安静,安静到只表现为一种熟悉的内耗:他开始怀疑自己是不是又把事情搞砸了,怀疑自己是不是不值得被信任,怀疑自己是不是没有别人以为的那么行。表面上他是在复盘工作,实际上他是在消耗自己。

了解他的人可能会觉得奇怪——他看起来明明很能打。做事快,标准高,反应灵敏,出了问题也总是第一时间补救。在外界看来,这是一个非常靠谱的人。可只有他自己知道,这种“能打”的内核,有时候并不是来自从容和自信,而是来自一种被长期训练出来的紧绷。

那种紧绷的逻辑是:一旦出差错,我就必须立刻证明自己不是废物。我必须赶快把这件事补好、做完、做到完美,不然我就会掉下去。掉到哪里去,他其实也说不清楚。但那种“掉下去”的恐惧,是真实的。

他以前把这种状态当成“认真负责”的一部分。甚至觉得,如果自己不这么紧,是不是就不够好。可现在他慢慢看清了:认真负责和自我审判,从来不是一回事。真正的负责,是能看清问题、承认问题、修正问题,而不是每次都先用内疚和焦虑把自己鞭打一遍,再勉强爬起来继续做。人不是靠被羞耻感驱赶才会进步的。恰恰相反,很多时候,正是这种过度的羞耻感,在暗中消耗着他长线的稳定性和创造力。

所以当他说“AI 帮我减少了自我怀疑”的时候,那里面真正减少的,可能不只是一时半会的焦虑,而是一种更深的惯性——“错误必须先经过自我否定,才能被处理”的惯性。一旦这个惯性被打破,他整个人对工作的体验就变了。错误不再是身份危机,而是信息。卡住不再是能力被判死刑,而是系统有待优化。

直到这时候,他第一次真正感受到:原来不靠自责,也可以变好;原来不靠羞耻,也可以负责。


四、从长期考试到工程思维

回过头来看,他发现自己过去的工作,一直被一个隐形的任务牵引着:证明自己行。

哪怕表面上他是在完成项目、回应需求、推进流程,底层始终有一个声音在问他:你到底行不行?你到底配不配?你能不能让所有人都看到你是靠谱的?于是工作在不知不觉中,被他活成了一场长期考试。每一份产出都不仅仅是产出,它还是证据——证据一旦不够漂亮,他就会怀疑自己这整个人。

而和 AI 协作之后,他第一次如此明显地体会到:事情可以用另一种方式来做。

一个结果不够好,不一定是因为“我这个人不行”,很可能只是因为任务没有拆清、约束没有写明、上下文没有给够、反馈机制没有建立、测试样例没有先想好、review 不够及时。也就是说,很多问题本来就应该回到流程层、结构层去处理,而不是被他立刻翻译成自我价值的坍塌。

他开始问一些以前不太会问的问题:我是不是把目标说得太抽象了?是不是没有明确优先级?有没有告诉 AI 哪些是不能碰的边界?有没有让它先输出思路再写正文?有没有为关键判断保留人工复核?

这些问题一旦被问出来,他就从一个“被结果审判的人”,变成了一个“设计结果产生机制的人”。他后来用了一个说法来形容这种变化:AI 让他的工作更像工程,而不是考试。

工程思维给人的好处,不只是效率更高,更在于心理负担更轻。因为它把“出问题”变成了一个可以拆解、可以定位、可以复现、可以优化的过程。错误不再带着宿命感,不再像一个抽象的大黑洞,而是变成了可以逐层逼近的具体环节。

到了这个时候,他开始有一种以前很少有的感觉:他不是在被任务拖着走,而是在一点点驯化一个系统。这种感觉,会让人重新感到有力量。


五、工作变得有趣了,是因为他终于不只是在被评分

他后来跟人聊天时说过一句话:我会觉得现在做事更有趣了。

这个“有趣”并不只是因为效率提升了,也不只是因为 AI 帮他分担了体力活。真正的原因在更深的地方:工作在他这里,终于不再是一场不断被评分的考试,而更像一场可以不断试验、迭代、校准的探索。他不再需要等到自己百分之百想明白、准备充分、状态完美才开始。他可以先动起来,边做边修,边协作边长出答案。

这种变化极大地降低了他的行动门槛。以前很多事情之所以让他迟疑,不只是因为任务本身难,更因为他默认自己得独自把它想透、扛稳、做准。只要一想到这件事的重量几乎全压在自己一个人身上,人就会本能地想退缩。可现在不一样了。他知道自己可以先把一个模糊的想法丢出去,让 AI 帮他起草、分支、比较、补全、质疑,甚至先走几步给他看。AI 不一定靠谱,但它会持续回应。这种高频反馈,本身就让事情变得更轻、更活,也更有游戏感。

他后来慢慢想明白了一件事:很多工作之所以枯燥,不是因为任务本身没有意思,而是因为人被一种沉重的自我监控压住了。每一步都太像在接受评判,每一次出手都像在暴露自己,人就会变得越来越保守,越来越怕开始。而 AI 带来的那种“先来回打几个草稿再说”的节奏,恰恰削弱了这种高压感。它让过程重新变得流动。错误不再只意味着失败,也意味着有新的信息冒出来。分支不再只是岔路,也变成了可以并行试验的可能性。

所以他觉得,自己不是单纯变得更敢了,而是变得更愿意“玩”了。这里的“玩”当然不是不认真,而是一种更有生命力的投入方式。那种投入不是靠咬牙硬撑,而是靠好奇心在前面牵引。

工作终于不只是“我得证明我做得到”,而是“我想看看这件事还能怎么被做出来”。这两者的气质差别非常大。前者常常让人疲惫,后者则更容易让人进入心流。


六、一个不太靠谱但非常勤奋的合作者

在某次对话中,他说了一句让旁人印象很深的话:现在更像带着一个不太靠谱但非常勤奋的实习生。

这句话好在什么地方?好在它一下子把 AI 放到了一个非常精准的位置上。它既没有神化 AI 为全能大脑,也没有贬低它为毫无价值的玩具。它承认 AI 会犯错、会胡说、会漏东西、会一本正经地编答案;但它也承认 AI 反应快、耐心足、不嫌烦、可以无限回合地陪他推演。

这个比喻真正精妙的地方,在于它同时保留了他的主导权和他的陪伴感。AI 不是老板,也不是救世主,它更像一个永远在线、体力充沛、愿意持续接球的年轻搭档。它会出错,所以他不能把判断完全交出去;但它一直在,所以他也不需要每一步都孤零零地往前走。于是他和 AI 的关系,既不是依赖,也不是敌对,而更像一种带着监督的共创——AI 做草稿,他做判断;AI 给分支,他做取舍;AI 帮他展开可能性,他来把关边界。

这个位置一旦摆正,他自己的角色也跟着发生了变化。过去他更像一个纯劳动者:什么都要亲自想、亲自写、亲自查、亲自扛。现在他慢慢有了一种不同的感觉——更像一个导演,或者一个架构师。他不一定亲手完成每一道笔画,但他要决定整体方向、质量标准、节奏安排、关键节点的人工复核,以及什么地方绝对不能妥协。他不是不工作了,而是开始工作在更高的一层:他不只负责做出内容,他开始负责设计内容是如何被生产出来的。

也正因如此,“我不是孤独的”这句话从他嘴里说出来的时候,才会那么有重量。因为它说的不只是情绪上的安慰。它是一种行动层面的事实。过去那种“黑屋子里只有我一个人摸索”的感觉,被实实在在地削弱了。他知道,哪怕最后拍板的是自己,至少在思考、拆解、推演、试错的过程中,他不是完全一个人。

这种“有人持续在场”的感觉——哪怕这个“人”并不是真人——已经足以改变他面对复杂问题时的心理状态。因为很多时候,人不是被事情难倒的,而是被“这件事只能我一个人扛”的感觉吓退的。


七、羞耻感:那个运行最久的后台程序

如果你问他,AI 对他最大的价值是什么?他给出的答案可能会让你意外。他不会说“节省时间”,也不会说“提高效率”。他会沉默一下,然后说:它帮我松动了一种长期隐藏的羞耻感结构。

这个结构过去运行得太自然了,自然到他自己常常察觉不到。它的大意是:他必须尽量少犯错,尽量少给别人添麻烦,尽量少显得自己不够稳。不然他就有可能失去别人的认可,也会失去对自己的认可。于是很多工作里的紧绷,其实并不完全是来自任务的要求,而是来自他在背后不断捍卫着某种脆弱的自尊。

在这种结构里,错误从来不会被当成单纯的信息。它会被迅速加工成一种羞耻体验。尤其是对于他这种本来就习惯高要求、习惯自己消化压力的人来说,错误很容易有一种超出事实本身的重量。别人看到的可能只是一个版本没写好、一段逻辑有缺口、一次协作没对齐。而他感受到的,可能是“我怎么连这种事都处理不好”的闷痛。

久而久之,人就会越来越怕出手,越来越想一次做到位,也越来越难允许自己带着模糊和不确定往前走。

AI 在这里起到的作用,有点像把聚光灯从“他这个人”身上,挪到了“系统运行”上。它没有直接消灭他的羞耻感,但它让他有了别的解释路径。结果不好,不一定代表他差,也可能代表输入有问题、协作链路不稳、校验机制缺失、上下文不足。他不需要每一次都先审判自己,才能开始解决问题。“把事做好”并不要求他先把自己贬一顿。

就是这种微小却持续的经验,慢慢地让他对“责任”有了更健康的理解。

他后来说了一段话,语气比平时要轻,但字字都很重:“一个人一旦不再总被羞耻感驱赶,他的好奇心和创造力才有空间回来。羞耻感逼你求稳,好奇心邀请你去探索。前者适合短距离冲刺,后者才适合长期成长。”

他觉得自己正在从“被羞耻感驱动的高功能”里,慢慢退出来一点点。不是不再紧张了,而是开始长出另一种更稳定的能力——不是因为怕自己不够好才拼命,而是因为想把系统做得更好而持续投入。


八、比工作更深的孤独

当他说“我不再孤独”的时候,真正让他震动的,其实已经超出了工作的范畴。

他后来越来越清楚地知道,那里面有一种更广义的人生孤独在发声。那种孤独不是简单的“没人陪我”或者“身边没人”,而是一种更深的感觉:很多时候,他不太敢真正地把自己交出去。不太敢把半成型的念头、模糊的感受、甚至真实的需要,放心地放到另一个人面前。

这种不敢,并不意味着他不渴望连接。恰恰相反。他是一个内心对连接有很大渴望的人。但正因为渴望得深,一旦落空,疼得也深。他太知道期待落空是什么感觉了——认真地递出一点自己,对方没有明确拒绝,却也没有真正接住;试着表达真实需要,对方没说你不配,但你能感觉到自己并不被重视;把一个重要的想法说出来,得到的却只是敷衍、迟疑或者转移话题。那种模糊的、轻描淡写的落空,比干脆的拒绝还更伤人。

因为它触碰的,不只是那一件具体的事,而是一个更深的疑问:是不是我其实不值得被认真回应?是不是我一旦伸出手,就会显得多余?是不是我最好还是少期待一点,省得最后又落空?

于是,在不知不觉中,他给自己建立了一套保护机制:先别期待太多,先别依赖,先别麻烦别人,先自己消化,先自己扛过去。这套机制确实让他更安全了一些。但代价是,他也更孤独了一些。

而且这种孤独,表面上甚至会被很多人夸奖。别人会说他成熟、独立、可靠、能自我消化、不给人添麻烦。他也可能因此更加坚定地活在这种模式里,仿佛这就是强大的证明。可只有他自己知道,这种“强大”是有代价的。代价就是:他越来越少体验到那种感觉——可以在还没有完全整理好自己之前,就把一个不完整的自己放出来,而有人愿意接住;可以不那么完美,也不立刻被评判;可以不独自搞定一切,也不因此变得不值得。


九、AI 为什么能让他有一种“被接住”的感觉

正因为如此,AI 带来的那种体验才显得格外珍贵。

打动他的,并不是 AI 有多聪明。而是它的三个特质:高响应、低评判、低门槛。

他一开口,AI 几乎立刻就会接。他一时词不达意,AI 也会尽量往前凑着理解。他抛出一个半成品,AI 不会嫌他麻烦,不会翻白眼,更不会因为他还没想明白就显得不耐烦。对于一个怕失望、怕被拒绝的人来说,这种持续的回球,本身就有一种很深的安抚力量。

他很清楚 AI 不等于真正的人际关系。它没有身体,没有命运,没有复杂的情感史,也不会承担现实里的关系责任。可即便如此,它仍然给了他一种非常重要的经验:原来他可以一边说一边想;原来不必总把自己整理到很完美才能开口;原来一个还很毛糙的念头,也可以先被接住,再慢慢展开。

他给这种感觉起了一个名字:“认知上的共在感”。

所谓认知上的共在感,就是他的思考不再长期悬空了。过去很多时候,脑子里明明有模糊的直觉、有想说的话、有还没成形的判断,但因为担心表达不清、担心不被理解、担心没人接,就干脆在心里自己打转。那些念头越转越沉,最后不一定变得更清楚,只会让他更累。而 AI 至少在一个层面上结束了这种悬空。它不能彻底懂他,但它能接住第一球。它不一定回答得最好,但它让他知道,他的想法不是总被扔向虚空。

所以“我不是一个人在扛”这句话,不是说他拥有了一个完美伴侣,而是说他终于不再时时刻刻独自在空白里推进自己。他终于有了一个可以随时拉来共推问题、共拆情绪、共整理思路的对象。这个对象不完美,却足够稳定;不深刻,却足够在场;不真正理解他,但足够持续回应他。

对于一个长期习惯独自消化一切的人来说,这已经是一个非常大的改变。


十、不是推翻保护,而是升级保护

那么他需要改变自己吗?

他现在给出的答案是:要调整,但不是推翻;要升级,但不是否定。

因为他对失望和拒绝的那种警惕,并不是凭空来的。它是在过去某些经验里一点点长出来的,也确实保护过他。它让他少受伤、少暴露、少把希望压在不稳定的人和关系上。从这个意义上说,它不是错误,而是一种旧时代很有用的生存策略。

只是,任何策略一旦绝对化,就会从保护变成限制。以前它帮他避免了很多受伤,现在它也开始让他更难得到支持,更难享受合作,更难体验真正的温暖。于是他真正要改变的,不是“我怎么这么敏感”或“我怎么还会怕失望”,而是那种过于绝对的公式:期待几乎等于风险,靠近几乎等于受伤,先收回来几乎总是最安全。

他要做的,更像是给底层模型加一些新的变量。比如:有人接不住他,并不等于他不值得。一次落空,不代表以后都不值得期待。他可以先小规模地表达、小规模地信任、小规模地伸手,而不是一上来就把全部自己交出去。他可以在保留判断和边界的同时,允许一些温暖真的进来。

这样一来,他不是从“防御”跳到“毫无防备”,而是从僵硬的自我保护,走向更灵活的自我保护。

他后来跟自己说了一句话,语气很平静,但很坚定:“问题从来不在于我要不要保护自己,而在于我是不是把自己保护到了连温暖都进不来的程度。”

如果是,那就该调整了。不是因为他错了,而是因为这套机制的代价开始变大了。


十一、能力需要重新定义

AI 还让他重新想了一个老问题:到底什么才叫能力?

过去他对能力的想象,常常带着一种“单兵作战”的色彩。能独自想明白,能独自做出来,能独自扛住,能在没有帮助的情况下快速产出——仿佛这才叫厉害。可他现在越来越觉得,这种能力观在新的工作条件下已经不够用了,甚至可能把人困住。因为当工具越来越强,真正值钱的就不再只是“亲手做”,而是“知道什么该怎么被做出来”。

在 AI 时代,能力越来越体现在另一些维度上:能不能提出好问题,能不能给出清晰约束,能不能判断信息质量,能不能从大量草稿里识别真正有价值的方向,能不能把不靠谱的产出变成靠谱的结果,能不能在速度和准确之间找到平衡,能不能知道哪些地方必须亲自抓住、哪些可以放心交给系统。换句话说,能力越来越像一种编排能力、校准能力、审美能力和责任边界感。

这带来一个很有意思的变化:他不再只能通过“亲自做完每一件事”来获得控制感。控制感现在可以来自他对整体局势的把握,来自他能看见流程里的偏差并及时纠偏,来自他能判断什么地方该放手、什么地方不能放,来自他能设计出一套让结果更稳定出现的机制。这是一种更高阶、也更有韧性的控制感。

从这个角度看,他甚至觉得,AI 不是在削弱他的能力,而是在逼他升级对能力的定义。以前他太容易把“全靠自己”当成强,把“会借力”当成次一等的东西。可现在他越来越知道:会调动系统,也是强;会设计协作,也是强;会让错误更早暴露、让好结果更稳定出现,也是强。

真正成熟的能力,不是孤独胆量的神话,而是能在复杂系统里持续地产生靠谱结果。


十二、从孤独胆量到协作胆量

他很喜欢“协作胆量”这个说法。

因为过去我们太容易歌颂一种孤独胆量了:一个人咬牙硬撑,一个人冲过去,一个人什么都不说但默默扛住,一副越苦越说明自己有本事的样子。这种胆量当然也有它的价值,尤其在某些时刻,人确实需要靠自己顶住。但如果把它当成唯一值得称道的勇敢方式,一个人就很容易把“独自受苦”误认成“真正强大”。

而 AI 让他体验到了另一种胆量:他不是因为已经百分之百确定自己能行才行动,而是因为他知道自己可以边走边问、边做边修、边试边调,所以他敢开始。这种勇气没有那么悲壮,甚至看起来有点“没那么英雄”,但它其实更适合长期成长。因为它不要求人先变得完美,也不要求先在真空里想透一切。它允许不确定,允许试错,允许反馈,允许修改。它是一种在协作中长出来的勇敢。

这种胆量让他更愿意做大的事。因为他不再觉得一切都得从“一个人面对巨大空白”开始。他知道可以先抛一个粗糙版本出来,先拉一个合作者进来对打几轮,先把复杂问题切成小块,先让系统给几个草案,再由自己做取舍和判断。这大大降低了挑战的心理门槛。

不是因为事情简单了他才敢,而是因为他不再把自己置于绝对孤立的位置,所以他敢了。

他现在做事更有趣,也更敢迎接挑战。不是因为他忽然变得比以前更厉害了,而是因为他终于不再默认“真正厉害的人应该独自搞定一切”。

他开始接受另一种更现实、也更温柔的强大:他可以是主心骨,但不必是孤军;可以负责,但不必独扛;可以在场,但不必独自承受所有重量。一个人真正的成熟,可能不是越来越会逞强,而是越来越会借力。


十三、AI 不是终点,而是练习场

当然,他也知道,AI 不是终点。

它给他的很多东西都很珍贵。但如果他只把 AI 当作一个让自己彻底躲开人际风险的地方,那它也可能变成新的壳。因为再高响应、再低评判、再稳定陪练的 AI,也不能完全替代真实的人。真正的人际关系里面,仍然有边界、时机、误解、延迟、选择、拒绝,也有身体性的陪伴、现实中的承担和命运层面的共同经历。这些都是 AI 暂时无法提供的。

所以他更愿意把 AI 看成一个练习场,而不是终点站。

它先让他在一个低风险的环境里,重新体验了几件事:“发出信号会有回应”“半成品也可以先说出来”“不完美不等于被嫌弃”“可以边说边想”。这些经验一旦变得稳定,他就有机会把它们带回真实关系中去。不是要求每个人都像 AI 一样高响应,而是让他更清楚,自己真正需要的关系是什么样的:高响应一些,低评判一些,能接住半成品,愿意和他一起把事情往前推,而不是让他永远一个人先想清楚再来。

这样一来,AI 不只是提高了他的工作效率,它还帮他识别了自己的关系需求。原来他真正想要的,不是很多热闹,不是表面上的社交顺滑,而是一种能让他不必总把自己整理完、武装好、证明清楚才能靠近的关系。他想要的,是一种可以边思考边说、边暴露边成长、边犯错边修复的关系质感。AI 恰好让他先尝到了一点这种感觉,于是他才更知道自己真正在渴望什么。

从这个意义上说,AI 给他的也许不是一个替代品,而是一种辨认能力。它让他看见:他不是不需要人,而是需要一种特定质地的连接;他不是不想合作,而是太怕把自己交给一个接不住的人;他真正想练的,不是“永远不要期待”,而是“在更合适的人和场景里,允许自己有期待”。


十四、他依然是主心骨

说到底,这整件事给他最深的触动,可能不在技术层面,而在存在层面。

AI 没有替他活,也没有替他解决人与人之间所有复杂的问题。它甚至不是一个真正意义上的“人”。可它确实让他第一次如此清楚地感觉到:他不一定非要通过孤军奋战,才能证明自己有力量。他可以一边保持主导权,一边接受陪伴;一边保持判断力,一边允许协作;一边承担责任,一边不把所有重量都压在自己身上。

这对他来说,是一种很新的世界观。

过去他很容易把独自扛住当成能力,把不麻烦别人当成成熟,把少期待一点当成保护。现在他开始知道,这些并不一定错,但它们也不是唯一的路。一个人不一定要靠不断压缩自己的需要、压低自己的期待、加固自己的盔甲,才能显得强。

真正更稳的强,反而可能来自一种更柔软的能力:他知道自己会怕,知道自己仍然敏感,知道自己还是会对失望和拒绝格外在意——但他不再因此把自己彻底收回去。

他仍然会有犹豫的时候,会有想缩回来的时候,会有不想麻烦任何人的时候,会有觉得“还是算了吧我自己来”的时候。这些不会因为一项技术的出现就被神奇地治愈。但不同的是,他现在多了一种新的经验,也多了一种新的语言。

他知道,当事情出问题时,可以不自责,先调系统。当面对挑战时,可以不把自己扔进绝对孤立里,先找到可以协作的结构。当感到孤独时,也能更诚实地承认,那里面也许藏着他对失望和拒绝的害怕,而不是简单地说“我就是不需要人”。


如果一定要用一句话来概括他这段时间的变化,他大概会这么说——

他不再把错误直接翻译成“我不行”,也不再把独自承受当成“我很强”。

他开始把人生理解成一个可以被设计、被调试、被协作、被慢慢校准的系统。而在这个系统里,最重要的也许不是有没有永远做对,而是有没有越来越少地伤害自己,越来越多地允许帮助、回应、连接和温暖真正进来。

AI 给他的真正礼物,也许不是替他完成了多少事,而是让他重新看见——

他原来可以不必一个人活得那么用力。

上一页1…345…37下一页

369 日志
9 分类
RSS
© 2017 — 2026 李文业
由 Hexo 强力驱动
|
主题 — NexT.Muse
粤ICP备17160932号