思考笔记

李文业的思考笔记


  • 首页

  • 关于

  • 分类

  • 归档

阅读清单

发表于 2026/04/05 | 分类于 定时任务生成

当前阅读总时间是:20,199.5小时

AI工具使用时长 2,504.5小时
你已经读了多少本书 3625本
阅读全文 »

Burn Rate

发表于 2026/04/05 | 分类于 AI专题

Burn Rate

——Paul Graham风格:极简、反直觉、创业者视角

整理自一场三小时对谈。一个工作十年的程序员和一个大二学生,聊AI、聊代码、聊钱、聊人生。以下是最锋利的部分。


一个大学老师问学生:你不自己写代码,怎么知道AI写的是对的?

这个问题听起来很有道理。但它有一个隐含的假设——人读代码就能确保它是对的。

如果这个假设成立,公司就不需要测试人员了。

事实上,在工业界,没有人通过“读代码”来保证正确性。你通过测试来保证正确性。单元测试、集成测试、端到端测试。代码是否可测试,比代码是否被人类读过,重要一百倍。

而AI恰好让测试变得极其便宜。以前TDD(测试驱动开发)是个好主意但没人愿意做——太反人类了,先写测试再写实现,多出来的工作量谁愿意干?但AI不在乎。AI就是牛马,你说先写测试就先写测试。

所以一个有趣的反转出现了:TDD,一个存在了二十多年但一直被程序员抵制的方法论,在AI时代突然变成了最佳实践。不是因为人变了,而是因为做测试的成本变了。


这场对谈里最有意思的一个命题是——

一个人能有效烧掉的token数,约等于这个人的能力上限。

乍听之下这像是在开玩笑。但想想它的逻辑:

AI是一个放大器。你投入一个指令,它给你一个输出。输出的质量取决于两个变量:模型的能力,和你的指令的质量。

模型能力大家差不多(同样花钱用Opus)。差别在指令。而指令的质量取决于你的知识面、经验、判断力和想象力。

一个初级程序员可能只知道让AI“写一个登录页面”。一个高级程序员会说“用OAuth2.0实现SSO,考虑token刷新、CSRF防护、会话管理,然后写完整的测试套件”。同样一个模型,输出完全不同。

所以问题不是AI够不够聪明。问题是你能不能给它足够好的指令。你能给的指令越多、越精准、越有创造性,你能“烧掉”的token就越多,产出就越大。

Burn rate就是能力。


这个程序员每个月花1200到2400美元在AI工具上。他的一个重要发现是:

创新来自于浪费。

他一开始的200美元额度用不完。于是他开始做“没必要”的事——让AI控制浏览器帮他登录公司系统、让AI自己找优化方向而不是等他下指令、让AI从十个方案里自己选最好的。

这些在旧思维里都是“浪费token”的行为。但正是这些浪费让他发现了AI能力的新边界。如果他一直小心翼翼地省着用,他永远不会知道这些。

这跟创业一样。你不会通过精打细算发现product-market fit。你通过快速试错发现。试错就意味着浪费——但那些浪费是必要的学费。

他讲了一个例子。他让Cursor帮他优化登录流程,一开始要90秒。他说:“我希望你缩短到30秒以内,你现在是90秒,我很不满意,你自己去优化。”

注意他的措辞。他没有说“请把第三步改成并行执行”或者“把等待时间从5秒减到2秒”。他只说了目标,没说方法。

AI说60秒已经是极限了。他说“你是最智能的大模型,你一定可以”。最后真的降到了30秒。

这里面有一个深刻的管理学洞见:告诉下属目标而不是方法,是给对方最大自由度的工作方式。 大多数人会忍不住去指导过程——这恰恰限制了对方(不管是人还是AI)的可能性。


那个学生说了一句我觉得整场对话里最好的话——

“对AI的悲观,其实是对人类的盲目乐观。”

展开说:当你批评AI“不够好”的时候,你的参照系是什么?是人类吗?

那我问你:人类一行行读代码的正确率是多少?人类手动管理自己注意力的效果怎么样?人类凭直觉做的职业规划靠谱吗?

如果你诚实地回答这些问题,你会发现人类的基准线其实没那么高。

对AI的批评很多时候不是在维护一个更高的标准——而是在维护一种熟悉感。人们说“我不相信AI写的代码”的时候,他们真正在说的是“我习惯了相信自己写的代码”。但习惯不等于可靠。

这个程序员的哥哥第一次用ChatGPT时,问了NBA历史前十球员是谁,然后嘲笑答案。三年过去了,他可能还在嘲笑。而他弟弟已经用AI做了十几个APP、重构了整个工作流、每个月省下了几百个小时。

差距不在智商。差距在于:一个人把时间花在证明AI不行,另一个人把时间花在发现AI能做什么。


关于跨领域学习,有一个很精确的观察——

以前的比较维度很窄。你是后端程序员,就比后端能力。你是前端程序员,就比前端能力。分工明确,专长就是优势。

但现在分工在崩塌。前后端在融合。一个人用AI就能做全栈。如果你只会后端,别人不会专门搭配一个前端给你——你的人力成本就是两个人的。

所以关键能力变了。从“某一项技能有多精”,变成“能不能快速跨到一个新领域并达到及格线”。AI能帮你从0分到3分,但从3分到7分,需要你的学习能力和判断力。

这对“全面但不顶尖”的人来说其实是个好消息。以后的竞争越来越像CEO的工作——你不需要每个领域都是专家,但你需要知道每个领域的关键问题是什么、怎么用人(或用AI)、结果应该是什么样。


最后一个观点。这个程序员用了一套三步法来管理自己的注意力:量化→自动化→决策化。

第一步,量化。用APP记录阅读时间、喝水量、饮食、体重。不自动化,就手动记。

第二步,自动化。做成APP,让统计自动跑。手机一打开就记录。

第三步,决策化。基于数据给建议。连续几小时没喝水就提醒。连续几天喝太多就建议少喝。

这套方法论的本质是:不信任直觉,信任系统。

跟TDD的逻辑一样。你不信任“我觉得这段代码是对的”,你信任“测试跑通了”。你不信任“我觉得今天喝了够多水”,你信任“APP告诉我喝了1.5升”。

成功的路径可以复用。番茄APP验证了阅读,喝水APP验证了健康,饮食APP正在验证体重管理。每一个新场景都是同一个框架的新实例。


这场对谈的核心,用一句话概括就是——

在智能变得廉价的时代,瓶颈不是工具,是你的想象力。

你的想象力决定了你能给AI什么样的指令。你的指令质量决定了你能烧多少token。你的burn rate决定了你的能力上限。

所以,别省着用。

AI对谈七讲:一个程序员和一个大学生的认知碰撞(万维钢风格)

发表于 2026/04/05 | 分类于 AI专题

AI对谈七讲:一个程序员和一个大学生的认知碰撞

——万维钢风格:精英日课,洞见提炼

这是一期特殊的“精英日课”——不是解读一本书或一篇论文,而是整理一场真实的对谈。2026年4月的一个周日,工作十年的程序员李文业和大二统计学专业的学生葭月二三进行了三个多小时的对话。我从中提炼了七个核心议题,每个议题都有一个可以带走的洞见。


一、“读代码确保正确性”为什么过时了

这场对谈的起因是一位大学老师的追问:“如果你不自己写代码,你怎么判断AI写的代码是对的?”

学生当时答不上来。但程序员李文业给出了一个很犀利的反问——

李文业:你怎么能保证你读了代码,你就能判断它是对的?如果读代码就能确保正确,那为什么公司还需要测试人员?微信不是程序员把代码写出来就让大家用了,它还有专门的测试人员去保证正确性。

这个反问的力量在于:它把“代码审查”从一个神圣化的行为还原成了众多质量保证手段中的一种。而当AI能快速生产大量代码时,人工阅读代码就变成了一个性价比极低的手段。

更有意思的是TDD(测试驱动开发)在AI时代的复兴。TDD要求你在写实现之前先写测试——以前程序员觉得这“很反人类”,因为它消耗额外的时间和精力。但AI不嫌累。AI就像牛马一样,你让它怎么做就怎么做。于是TDD从一个“知道好但做不到”的理想,变成了AI编程的最佳实践。

洞见:卡尔·波普尔说科学的特征叫“可证伪”。代码也有一个类似的特征叫“可测试”。保证代码正确的手段不是“我读过”,而是“我测过”。当AI让测试的成本趋近于零,代码正确性的保障体系就会被彻底重建。


二、一个人能烧多少Token,就是他的能力上限

李文业提出了一个大胆的命题——

李文业:一个人能有效烧掉的token数,约等于一个人的能力上限。AI是一个放大器,初级程序员放大两三倍,高级程序员放大一千倍甚至一万倍。

这句话乍听夸张,但逻辑是自洽的。“有效烧掉”是关键词——不是乱花钱,而是你能想到多少有价值的指令去下达。这取决于你的知识面、经验、判断力和想象力。

他三月份花了1200刀(约8000人民币),四月预算翻倍到2400刀。而学生葭月二三坦承她的使用量连一个200刀的账号都用不完——“不是token的上限,是时间的上限。”

但李文业认为,更深层的限制是想象力。他讲了一个自己的经历:一开始200刀的额度用不完,于是他开始用“看似浪费”的指令让AI做各种实验。结果发现了AI能控制浏览器、能自主优化登录流程等新能力。“如果没有这种超出日常需要的支出,我是发现不了这些东西的。”

李文业:创新来自于浪费。

洞见:这跟黄仁勋提出的“token是新能源”的说法异曲同工。如果你还在用“这个问题值不值得动用AI”的心态使用AI,你的思维就还停留在上个时代。正确的心态是:“这个问题我为什么不先让AI看一眼?”从节省token转向消费token,就是从匮乏思维转向丰裕思维。


三、AI的两种主动性

葭月二三问了一个好问题:AI有主动性吗?

李文业把它拆成了两层:

手段主动性——在解决问题时的灵活性。他举了Opus 4.6的例子:当它发现从A点到B点走不通时,会自动尝试绕路,甚至跳过中间步骤直接去够最终答案。“它有好几次直接想修改底层代码去绕过某个限制。我有时候得盯着它,怕它用太非常规的手段。”

目的主动性——自己给自己设定目标。这个AI没有。“我会突然想着要不要业余也写代码,公司给的账号不好那我就自己买。这种驱动力AI不具备。”

洞见:手段主动性的强弱取决于模型能力和你舍不舍得花钱——用Opus和用免费模型,体验差了一个世纪。目的主动性则完全属于人类。在AI越来越能“怎么做”的时代,人类的核心价值越来越集中在“做什么”和“为什么做”上。


四、跨领域学习比专长更重要了

对谈中出现了一个关于“专才vs通才”的讨论——

葭月二三:有了AI之后这个社会不缺斜杠青年,甚至试错成本非常低。反而这个时候专长变得重要了。

李文业:我会认为跨领域学习的能力比以前更重要了。以前你是后端,只需要学后端。现在大家都是全栈——如果你只会后端,别人不可能专门搭配一个前端给你。

他用了一个CEO的类比——一个大老板不需要知道所有技术细节,但他要知道怎么用人、要什么结果、怎么分配资源。“你不觉得这个跟AI很像吗?”

以前的编译原理就是一个例子。对上一代计算机人来说,编译原理是基础中的基础。但今天绝大多数程序员用不上编译原理——除非你专门搞编译器。“需要懂的人自然会懂,其他人不需要。”

洞见:AI时代的竞争维度变了。以前可能只比一个维度(比如后端能力),以后是多维度的。这对那些跨领域学习能力强的人来说是好消息——AI能帮你在短时间内把一个新领域提到及格线,但从及格到优秀,还是需要你的学习能力和判断力。


五、注意力管理的三步法:量化→自动化→决策化

李文业分享了他通过做APP积累出来的一套“注意力管理哲学”——

第一步:量化。 用番茄APP记录阅读时间,拍照记录饮食,APP记录体重和喝水量。不需要自动化,手动记录就行。关键是建立“看数据”的习惯。

第二步:信息自动化。 做成APP,让数据的采集和统计自动完成。手机打开就自动记录打开次数和使用时长,页面自动生成图表。

第三步:决策化。 基于数据给出建议。喝水APP会在你连续几小时没喝水时提醒你;如果连续几天喝水过量,它会建议你少喝一点。

李文业:我的终极目标是手机上只有我自己做的APP,使用时长要占大部分。用这些APP的时候,我的注意力管理是最科学的,最符合我自己意志的。

洞见:这套三步法的底层逻辑是——人对自己的注意力分配能力是不可靠的(这跟行为经济学的大量研究一致)。与其依赖意志力,不如建立一个外部系统来校准你的行为。番茄APP验证了阅读量,喝水APP验证了健康习惯,饮食APP正在验证体重管理。每一个新场景都可以复用同一套方法论。


六、假设Opus成本下降100倍,你会做什么?

这是李文业提出的一个思想实验——

李文业:假设Cursor的Opus会员从200美元/月降到2美元/月,你会做什么?

葭月二三的回答很诚实:“我没有一个很确定的答案。我可能还没有放开手脚地去想象。”

李文业认为这正是需要做的功课:“你现在能想象到的都是你已经掌握的东西。要探索新的可能性,你就得花时间——花那些‘看似浪费’的时间。”

他举了自己的例子:现在他会让AI主动去找一个项目里10个可能的优化方向,然后他挑几个让AI去改,好的保留、不好的回滚。以前你不可能这么对待一个程序员——“你搞了两三天发现不行让他回滚,他第二天就离职了”——但AI没有这个问题。

李文业:我们的思维还停留在智能非常昂贵的时代。如果你想做前沿的事情,你的思维至少要比别人先进一个阶段。你要用明年的做法去做今年的事。

洞见:这个思想实验的价值不在于答案,而在于它暴露了你的思维边界。如果你想不出来成本下降100倍之后你能做什么不同的事,说明你的使用方式还有巨大的提升空间。正如以前电话费贵的时候人们只打“必要的电话”,现在通话免费了,打电话的方式和频率完全变了。


七、对AI的悲观,是对人类的盲目乐观

最后,我想用葭月二三在对话中说的一句话来收尾——

葭月二三:对AI的悲观,其实是对人类的盲目乐观。

这句话值得展开。

当人们说AI“不够好”的时候,潜台词是“人类的方式更好”。但你认真问一下:人类手动管理注意力的效果好吗?人类一行行读代码来确保正确性的成功率高吗?人类翻一本本书来做文献综述的效率够吗?

如果答案都是“也不太行”,那所谓的“对AI的批评”就不是在坚持一个更高的标准——而是在维护一种熟悉的、但可能已经失效的工作方式。

李文业讲了一个例子。他哥三年前第一次用ChatGPT,问了一个NBA历史前十球员的问题,然后开始嘲笑答案。“这就是很典型的——在新事物刚出来的时候,人们会迫切地证明自己更好,从中获得心理优势感。”

这种心态的问题在于:它会阻止你去学习新的东西。你如果把所有时间都花在证明AI不行上面,你就没有时间去发现AI能帮你做什么。


本期总结

这场对谈最有价值的七个takeaway——

  1. 保证代码正确的手段从“我读过”变成了“我测过”,TDD成为AI时代最佳实践
  2. 你能有效烧掉的token数≈你的能力上限,创新来自于“浪费”
  3. AI有手段主动性但没有目的主动性,人的核心价值在于“做什么”
  4. 跨领域学习能力比单一专长更重要了
  5. 注意力管理三步法:量化→自动化→决策化
  6. 思想实验:如果成本下降100倍你会做什么?——答不出来说明还有巨大提升空间
  7. 对AI的悲观本质上是对人类能力的盲目乐观

下期见。

漫长的星期天:AI时代的一场对话(许知远风格)

发表于 2026/04/05 | 分类于 AI专题

漫长的星期天:AI时代的一场对话

——许知远风格:文学凝视,时代肖像

这是一场发生在2026年春天的对话。一位三十出头的程序员和一位二十岁的统计学女生,每周日通过视频通话讨论他们各自在AI时代的观察与困惑。这篇对谈录记录的是四月第一个周日的那场谈话。对话经过剪辑,但尽力保留了那些跑题的、犹豫的、未完成的片段——在这个所有人都在追求清晰答案的时代,这些模糊的瞬间或许更值得珍视。


一、三个老师,三个世界

四月初的昆明大概还有些凉意。葭月二三坐在宿舍里——六楼的研究生实验室,不同课题组的学生混杂在一起。她这学期遇到了三位老师,恰好代表了对AI的三种截然不同的态度。

“第一位江老师是比较开放的,但处于矛盾状态。”她说话的时候会稍微停顿一下,像是在确认自己的表述够不够准确。“他问一个学长PPT是不是AI做的,学长很不好意思地说是。然后江老师就提出了一个问题:如果下一代人都用AI了,他们是否还需要学习代码?”

她当时给出了一个她自认为合理的答案:有代码基础,能判断AI写的代码是否符合需求就行了。

老师反问:那你怎么判断它是不是对的?

“我不知道该怎么回。”

屏幕另一端的李文业——一个在深圳工作了十年的程序员——对这个问题有一个更干脆的回应。“这个观点已经过时了,”他说,“‘我为什么能确保代码对?因为我读过’——这个逻辑在今天不成立。如果读代码就能确保正确,那为什么公司还要有专门的测试人员?”

他从去年八月到现在没有自己写过一行代码。全部都是AI生成的。领导问起来他就直接说。同样用AI写代码,有同事被骂了甚至离职了——“因为他代码看都不看就敢提交。我是充分理解、充分测试之后才提交的。每次leader问我问题我都能立刻给出答案。”

但第三位老师的态度就没有这种可商量的余地了。

“他直接说‘你这个又是用AI写的吧’。”葭月二三描述那个时刻的语气里有一种被误解的委屈。“那个语气不是开放的,是‘你用这个玩意儿就不可取’。但相比于自己写,我花了更多的时间和精力去学习、去确认、去为文档里每一句话负责。”

老师不这么认为。用了AI就是判了标签。


二、旧时代的愧疚

对话在这里出现了一个微妙的转折。葭月二三不再是在描述外部的困境,而是转向了内心。

“我会有一种旧时代的愧疚感。就是觉得自己没有那种探索,没有经验的收获。做完之后就只是做完了,仅此而已。就是有一种被动地接受——它告诉我这个结果是最好的,然后我就去研究它为什么最好,然后写论文。总感觉少了点什么。”

她停了一下。

“少了点我的成分。”

这句话在空气中停留了几秒。如果你仔细听的话,你能听出这不是一个关于效率的抱怨,而是一个关于存在感的困惑——当AI替你完成了探索的过程,你获得了结果,但你失去了什么?

李文业的回应很实际:“你给AI的提示语,是所有人都能给的吗?”

“不是。”

“那你其实已经帮它压缩了可能性空间。思维要转变——你要找到你的成长点在哪里。”

这个答案当然是对的。但它没有真正触碰到葭月二三话语里更深层的东西。那个“少了点我的成分”指向的不是能力问题,而是一种身份焦虑:在一个过程被技术接管的时代,“我”在哪里?


三、创新来自于浪费

话题转向了钱。

李文业三月份在AI工具上花了1200美元——大约8000多块人民币。四月份他打算把预算提到2400美元,接近16000块。“一个人能有效烧掉的token数,”他说,“约等于一个人的能力上限。”

葭月二三听到这个数字的时候“有一点震惊”。但她随即说——“我又想到可以玩一个月,突然又变得很明朗了。”

然后她又退缩了:“我还是有一点紧张。我好像没有那么大的想象力。你扩大到2400刀,但是我的想象力可能只有200刀的范围内。”

这是整场对话中最打动人的时刻之一。不是因为200刀和2400刀之间的差距,而是因为她说出了一个很少有人愿意承认的事实:想象力是有范围的,而这个范围往往由你过去的经验和当下的资源决定。

李文业对此的态度是——去试。“我之前一开始不需要用Opus。但200刀的账号用不完,我就开始用一些看似很浪费的指令。后来就有了新发现——比如它能控制浏览器。如果没有这种超出日常需要的支出,我是发现不了这些东西的。”

他说了一句格言式的话:“创新来自于浪费。”

然后他讲了一个知乎上看到的故事:一个农村女孩考研,为了省几百块钱买了旧版教材。“你省了这几百块钱,但影响的是你整个前途。”

这个故事的逻辑和token经济学是同构的——你以为你在节省,其实你在缩小自己的可能性空间。


四、目的的荒原

“AI有主动性吗?”葭月二三问。

李文业把“主动性”拆成了两层。第一层是“手段主动性”——在解决问题的时候,AI已经展现出很强的灵活性。“我用Opus 4.6的时候,它有好几次发现从A点到B点走不通,就想着绕过去,甚至直接跳过B点去够最后的答案。”

但第二层——“目的主动性”——AI是不具备的。“我们会突然想着,要不要业余也写一下代码?公司给的账号太差了,我自己买一个。这种驱动力AI没有。”

葭月二三接了一句:“一边是要看AI成长成什么样子的小孩了,与此同时我们也要去探索自己到底想要什么。”

这句话说得很轻,但它指向了一个巨大的问题:在一个手段越来越不稀缺的时代,目的反而成了最稀缺的东西。你可以让AI帮你做几乎任何事情——但前提是你知道你要什么。

而“知道你要什么”这件事本身,可能是所有问题中最难的那一个。


五、对AI的悲观,是对人类的盲目乐观

对话接近第一个小时的时候,葭月二三说出了整场谈话中最被引用的一句话——

“对AI的悲观,其实是对人类的盲目乐观。”

李文业对此深表认同。他讲了他哥的例子:三年前他兴致勃勃地给家人推荐ChatGPT,他哥问了一个NBA历史前十球员的问题,然后开始嘲笑AI的答案多么不合理。“这就是很典型——在新事物刚出来的时候,人类会迫切地证明自己更好。”

葭月二三补充说:“在这种比较中获得心理上的优势感。”

这个观察精确得让人不舒服。当我们说AI“不够好”的时候,我们往往没有问:那我们自己够好吗?我们自己手动管理注意力的效果好吗?我们一行行读代码来确保正确性的成功率高吗?

如果这些答案都是否定的,那所谓的“对AI的批评”就不是在维护一个更高的标准,而是在守护一种熟悉的低效。


六、笨拙的爱与沙漠中的行走

对话在第三个小时转向了更私人的领域。李文业要去给同学的妹妹讲最后一次课——高考还有不到两个月。他问葭月二三:最后两个月,你回过头看觉得需要注意什么?

她的回答出人意料地温柔。

“我每天去吃饭的时候脑袋都是懵懵的,整个人目中无神地走到我妈面前。有一次她突然给我一个拥抱,说你不要压力那么大。我就真的很想哭。”

她说家里对她的期待从来没有她对自己的期待那么强烈。过年回家妈妈说:你要是不想读研究生,直接去工作也可以。“我会感觉到一个非常笨拙的爱。”

然后她讲到高三有一次心情很不好,跟爸爸说帮我请个假,我要去附近的公园走一走。“我爸没有问我到底怎么回事,就直接说好。我的生活里没有太多的杂音。”


在谈到保研选校的焦虑时,葭月二三说了一段很长的话。大意是她有能力够到好学校,但又达不到顶尖,所以没有很强的理由告诉自己“你是非常自信的”。

李文业回了一个故事。万维钢专栏里的一个人,国内211毕业想去美国读研,没有按正常路径走,而是直接给系主任打电话。系主任说:我们不只看绩点,我们要的是最适合的人才。最后他申请上了。

“有人做过实验,在大街上找陌生人借手机打电话,成功率是95%。你低估了别人的善意。”

葭月二三说:“但主要是你不知道他到底想要什么。感觉像在沙漠里走路,有的人走得比你快。”

李文业说:“很多天龙人都不需要自己走。”

葭月二三接:“人家直接飞过去。”

然后两个人笑了。


尾声

对话结束的时候,他们约定了四月份的目标——使劲用token。李文业说“花钱也不是那么容易的”,两个人都笑了。

如果你从远处看这场对话,你会看到一个很典型的当代场景:一个年长一些的人用自己的实战经验试图帮助一个年轻一些的人少走弯路,而那个年轻人带着属于自己时代的困惑——那些困惑不完全是知识上的,更多是关于“我是谁”和“我要去哪”的。

这些问题AI回答不了。但有意思的是,正是因为AI替代了越来越多的技术性工作,这些关于自我和目的的问题反而变得更加迫切。

当手段不再稀缺,你得面对那个一直被忙碌所掩盖的问题:

你到底想要什么?

这个星期天还很长。

把AI作为方法:一个程序员与一个大学生的对谈(项飙风格)

发表于 2026/04/05 | 分类于 AI专题

把AI作为方法:一个程序员与一个大学生的对谈

——项飙风格:田野视角,冷静诊断

2026年4月的一个周日上午,一位工作了十年的程序员李文业和一位云南大学大二统计学专业的学生葭月二三,进行了他们的例行周会。这场对话持续了三个多小时,覆盖了AI与代码教育、token经济学、注意力管理、人生取舍等话题。以下是经过整理的对谈实录。对话中的犹豫、跑题和未完成的思考被有意保留——它们本身就是这个时代的田野笔记。

一、三位老师:同一个校园里的三个时代

葭月二三:我这学期接触了三位老师,他们对AI的态度完全不同。第一位江老师,他是比较开放的,但处于矛盾状态。他当时问一个学长说你的PPT是AI做的吗?学长很不好意思地说是AI总结的,他说自己表达得没有AI好。然后江老师就提出了一个问题:现在学生不写代码了,下一代是否还要学习代码?

我当时说,有代码基础,能阅读代码、判断AI写的代码是否符合需求就可以了。然后老师回了一句:那你怎么去判断它是不是对的?那你是不是还是得学?

我不知道该怎么回。但我一直有一个声音就是AI没有那么厉害。

李文业:可能得分为两种场景。学术界有点像数学推导——你要保证从A推到B、B推到C都是正确的。但是在工业界,我只需要它是一个能用的产品就行了。

而且你怎么能保证你读了代码就能判断它是对的?如果读代码就能确保正确,那为什么公司还需要专门的测试人员?人工阅读代码在AI时代是一个性价比很低的手段。

编者注:这段对话有一个值得注意的结构。学生关心的是“AI的能力边界在哪里”,而程序员关心的是“保证正确性的手段是什么”。两个人其实不是在争论同一个问题。这种错位本身很有意思——它反映的是两种不同的焦虑:一种是关于知识的完整性的焦虑,一种是关于效率的焦虑。

葭月二三:第三位李老师就不一样了。他是数学系的,让我推导运筹学建模。当我把文档发给他的时候,他直接说“你这个又是用AI写的吧”。那个语气不是开放的——不是问你用了什么工具,而是“你用这个玩意儿就不可取”。

但是相比于自己写,我花了更多的时间和精力去学习、去确认、去为文档里的每一句话负责。老师不这么认为。他觉得你一旦用了AI,就直接给你判了一个标签。

李文业:同样是用AI做东西,我公司也有同事被骂了。领导很生气地在群里说,AI生成的代码你必须每一行都要读。但我从去年八月到现在一行代码都没自己写过,领导问我我就直接说是AI写的。为什么那个同事被骂了我没有?因为这是结果的问题。他的代码看都不看就敢提交,我是充分理解、充分测试之后才提交的。每次leader问我问题我都能立刻给出答案。

重点不在于是不是我写的——至少在工业界,这已经不重要了。

编者注:这里出现了一个很有趣的现象。在学术界,“谁写的”这个问题关联着“知识是否内化”的判断;在工业界,“谁写的”这个问题关联着“结果是否可靠”的判断。同一个行为——用AI写东西——在不同的制度环境中被赋予了完全不同的道德含义。这不是简单的“开放”与“保守”的区别,而是两套评价系统在用不同的标准丈量同一件事。

二、廉价智能与旧时代的愧疚感

李文业:TDD——测试驱动开发——以前我们都不喜欢用,因为它很反人类。我们的常识是先写代码再写测试。多写测试会影响开发效率。但AI不存在这个问题。它不会嫌累,我让它怎么做就怎么做。所以现在TDD变成了AI编程的最佳实践。

AI作为一个廉价智能,能替代我们做以前认为只有智能才能做的事情之后,很多事情都发生了变化。“我为什么能确保它对?因为我读过这个代码”——这个观点我认为已经过时了。

葭月二三:但是我会有一种旧时代的愧疚感。就是觉得自己没有那种探索,没有经验的收获。做完之后就只是做完了,仅此而已。总感觉少了点什么——少了点我的成分。

李文业:这个就是思维要转变。你要找到你的成长点在哪里。你给AI的提示语,是所有人都能给的吗?

葭月二三:不是。

李文业:那你其实已经帮它压缩了可能性空间。你会告诉它你做过哪些尝试、哪些走不通、哪些领域比较有可能性。你有新时代的工具,就有新时代的缺陷,但好处远远大于缺陷。

编者注:葭月二三说的“少了点我的成分”,如果用人类学的语言来说,其实是一种“主体性的焦虑”。她不是在担心结果不好,而是在担心自己在生产过程中的位置被抽空了。这种焦虑值得认真对待——它不是守旧,而是一个人在试图理解:当工具替代了过程,我还是我吗?

三、你能烧多少Token,就是你的能力上限

李文业:你觉得你一个月能有效地烧多少钱的token?

葭月二三:不是token的上限,是时间的上限。我觉得我时间不够。

李文业:我很认同一句话:一个人能有效烧掉的token数约等于一个人的能力上限。AI工具是一个放大器。初级程序员放大个两三倍,最后结果也不会太高。但一个非常厉害的程序员有了AI之后,可能比普通程序员厉害一千倍甚至一万倍。

我三月份的支出是1200刀,四月份的预算我打算定2400刀。我也想看看全部花完的话会有什么发现。

葭月二三:我看到四月份的预算要快两万的时候有一点震惊。但我又想到可以玩一个月,突然又变得很明朗了。不过我还是有一点紧张——我好像没有那么大的想象力。你扩大到2400刀,但我的想象力可能只有200刀的范围内。

李文业:我之前一开始不需要用Opus的。但200刀的账号用不完,我就开始用一些看似很浪费的指令让它做事情。后面就有了新发现——比如它能控制浏览器。如果没有这种超出日常需要的支出,我是发现不了这些东西的。

创新来自于浪费。

编者注:“创新来自于浪费”这句话,放在更大的社会背景下来看,是一个很值得讨论的命题。它暗含的前提是:你必须先有浪费的能力。这意味着创新在某种程度上是一种特权——你需要有足够的资源、足够的安全感,才能去做那些看起来“没用”的探索。对于一个还在用200刀额度的学生来说,这不仅仅是“敢不敢花钱”的问题,而是一个结构性的起点差异。

四、AI有主动性吗?

葭月二三:之前好多老师都认为AI缺少主动性——就是能自己发现问题、解决问题的能力。但在我自己的使用体验上,我觉得它有一定的主动性。

李文业:我分两方面理解。在解决一个问题的时候,它的主动性已经很强了。我用Cursor里面的Opus 4.6,它有好几次发现从A点到B点走不通,就想着绕过去,甚至直接跳过B点去够最后的答案。这个主动性已经很强了。

但是“目的主动性”——自己给自己定一个目标——AI是没有的。我会突然想着要不要业余也写一下代码,公司没给我配好账号那我就自己买。这种主动性AI不具备。

葭月二三:对。一边是要看AI到底成长为什么样子的小孩了,与此同时我们也要去探索自己到底想要什么。

李文业:通过理解AI的主动性,我们其实也在关照自身——我们人类的主动性是怎么回事。

葭月二三:但我觉得现在大家对AI的使用太功利化了。你有用就是好的,没用就是坏的。可能还需要更多地去融合和体会。

五、注意力的管理:量化、自动化、决策化

李文业:我做了很多APP之后,发现了自己的一个注意力管理哲学。第一步是量化——番茄APP记阅读时间,拍照记录饮食,称体重。第二步是信息自动化——做个APP,自动统计这些数据。第三步是决策化——喝水APP会提醒我该喝水了,连续几天喝太多它会说可以少喝一点。

这些信息如果让我自己管,也能管,但成本太高了。我的终极目标是手机上只有我自己做的APP,而且使用时长要占大部分。

编者注:这套“量化→自动化→决策化”的框架,如果换一个角度来看,其实是一种非常现代的自我治理术。它的底层逻辑是:人对自己的身体和注意力的直接感知是不可靠的,必须借助外部系统来校正。这个判断可能是对的——但它同时也意味着,人与自身的关系正在进一步被技术所中介化。你用APP来管理自己喝水这件事,某种意义上和需要AI来确认代码正确性是同一个逻辑:不信任直觉,信任系统。

六、取舍是唯一的时间管理

葭月二三:我一直感觉时间不够。看完时间管理的书反而更不会管理时间了。

李文业:我自己从来没用过任何时间管理方法。我认为就是一个取舍的问题。我要维持每个月300小时的阅读时间,那我就不能去找一份996的工作,哪怕工资再高也不会去。时间永远是不够的。一天只有24小时,一辈子也就活个七八十岁。所以最后还是取舍——你只能做几件事情。

葭月二三:对AI的悲观,其实是对人类的盲目乐观。

编者注:这句话是整场对谈中最值得停下来想一想的一句。它的意思不是“你应该对AI乐观”,而是:当你因为AI“不够好”而放弃使用它的时候,你其实在假设人类的那一套方式是足够好的。但这个假设经不起检验。你自己手动管理注意力的效果好吗?你自己一行行读代码来确保正确性的成功率高吗?你自己翻书找资料的效率够吗?如果这些答案都是否定的,那对AI的批评就不是在维护一个更好的标准,而是在维护一种熟悉的无效。

七、大胆假设,厚着脸皮去试

葭月二三:我想发顶会文章,想去很好的学校读研。但我觉得自己以为自己很厉害,其实又不是很厉害。这种矛盾状态。

李文业:自信是来自于你做出来的东西。我自己认为AI能力比别人强,不是自己感觉的——我有数据支撑:我做的APP、我的代码质量、我的事故率、我的返工次数。

胡适说过“大胆假设,小心求证”。你想去清华跟某个老师做研究?那你就去考察他需要什么能力,甚至给他写邮件、手写信寄过去。你以为别人不会理你?有人做过实验,在大街上找陌生人借手机打电话,成功率是95%。你低估了别人的善意。

葭月二三:但主要就是你不知道他到底想要什么。感觉像在沙漠里走路,有的人走得比你快、比你更轻松。

李文业:有一句话叫——“爷爷我也想成为院士”,爷爷说“你已经是院士了,你只需要长大”。

编者注(笑):这个笑话之所以有力量,是因为它揭示了一个不舒服的事实:起点的差异往往不是通过努力可以弥合的。但这场对谈里两个人共同认可的一点是——不管起点在哪里,行动本身是有价值的。哪怕最后够不上那个120分的老师,你在过程中积累的能力是通用的、可迁移的。“求乎上得其中”——这不是安慰,这是策略。


后记

这场对谈结束时已经过了中午。两个人约定了四月份要“使劲用token”——一个的预算是2400刀,另一个的目标是三天用完一个200刀的账号。

如果有一个观察者从外部来看这场对话,他会看到什么?

他会看到两个人在试图用自己的经验去理解一个正在快速变化的世界。一个人站在工业界,带着十年的实战经验和每个月上万块的AI支出,已经形成了一套可复用的工作流。另一个人站在学术界的入口,带着对数学建模的困惑、对导师态度的无措、对自己是否“够厉害”的忐忑。

他们之间的差距不仅仅是经验和资源——更是想象力的边界。一个人的想象力已经扩展到了“如果Opus成本下降100倍我会做什么”,另一个人还在“我的想象力可能只有200刀的范围内”这个位置。

但这不是一个悲观的故事。因为后者正在做的事情——把自己的困惑诚实地摊开,在对话中一点一点地调整自己的认知——正是“把AI作为方法”的第一步。你不需要一开始就知道答案。你需要的是一个足够好的对话对象,和一个愿意持续投入的态度。

这场对谈本身,就是一种方法。

会议逐字稿(清洗版)2026-04-05

发表于 2026/04/05 | 分类于 AI专题

会议逐字稿(清洗版)

参与者:葭月二三、李文业
时长:约 3 小时 15 分钟
清洗说明:修正了语音转写中的错别字、重复词、乱码,保留口语化风格。


葭月二三(00:00:02):软件工程吗?什么,软工。反正就是不算是真的 AI,但是算是 AI 的前身。然后老师就在说,就问一个学长说,你的 PPT 是 AI 做的吗?然后学长就很不好意思地说,是我让 AI 总结的。然后他说我觉得我自己表达得没有 AI 好,所以我就让它来做。但就是这位江老师,他对于 AI 的态度还是比较开放的,但是他处于一个矛盾的状态。今天我会提到三位老师,就是我在接触的感受是三位老师对于 AI 完全就是三种态度。对,然后第一个问题其实就是这个江老师他提出的。

葭月二三(00:00:52):他说,对于 AI,就是现在有了 AI 之后,现在学生就不写代码了,就是现在可能带的学生几乎连代码都不会写,但是又能交出一份完整的代码。然后那如果到了下一代,他们是否还要学习代码?就比如说像我弟,他可能就直接用 AI 就行了。然后我当时我就跟老师说,我说有代码的基础,并且能够阅读代码、判断 AI 写的代码是否符合自己的需求就可以了。然后老师当时回了一句说,那你怎么去判断它是不是对的,那你是不是还是得学?那学了的话你写代码能学吗?那你通过 AI 学的话,那 AI 要是跟你说错的,你就也照样学下去吗?对,我觉得我就不知道该怎么回,但是我一直有一个声音就是 AI 没有那么厉害,但是他这个担心感觉也正是印证了 AI 没有那么厉害的一个担忧吧。你怎么觉得?

李文业(00:02:12):我觉得你这个你老师,我这纯感觉,因为我也不了解他。

李文业(00:02:21):他可能没有深入地去……可能得分为两种场景,一种是工业界的,一种是学术界的。

李文业(00:02:40):那学术界的话就有点像数学推导一样的,你是要保证从 A 推到 B,B 推到 C,C 推到 D 都是要正确的。你要去发论文,或者说你要去做一个研究,你是得保证它全部都是对的。但是在工业界或者说在软件界的话,我只需要它是一个能用的产品,或者说好用的产品就行了。我不需要 100% 保证它是对的。

李文业(00:03:14):又或者说,你怎么能够……这个问题也是很好玩的,就是你怎么能够保证你读了这个代码,你就能够判断它是对的?那如果你读了这个代码你就能判断它是对的,那为什么还需要测试?你知道在公司里面,其实它有专门的测试人员吧,就是比如说我做了一个软件叫微信。

李文业(00:03:45):那不是说我的这个程序员去把微信这个东西做出来就可以了,就让大家用了。它还要专门的测试人员去对它进行测试,保证它的正确性。

李文业(00:04:06):不是通过阅读它来去保证——至少它不是一个唯一的手段。而且当 AI 生产的代码越来越多的时候、越来越快的时候,人工去阅读代码是一个性价比很低的手段。你们去做科研或者怎么样,那你们的代码量是比较少的,又或者说有可能是比较少的。但是对于一个工业级的产品,大家都在用的一个产品来说,代码量一般来说是很多的。

葭月二三(00:04:29):会拖累!

李文业(00:04:56):或者说它的产品的迭代速度是很快的,所以肯定会有其他的手段。比如说我用其他几个模型一起去读它,取代人去阅读。另外,我要增加很多的测试手段,比如说单元测试、集成测试、端到端测试等等。是这样子的。

李文业(00:05:26):它就有点像之前也提到过,卡尔·波普尔说的,科学的一个特征叫做可证伪。

李文业(00:05:39):那代码我认为它也有一个叫做可证错,或者说它是可测试的。代码它要是可测试的。那关于测试,它也是有一个变化的:在没有 AI 之前,code review 就是代码检视,那都是用人来做的。那有了 AI 之后,这个 code review 我觉得完全不应该用人来做了,或者说至少非核心代码不用人来做了。这是第一个。然后第二个就是 TDD——就是其实之前你可以稍微去了解一下什么叫 TDD。

李文业(00:06:33):它就是单元测试,你写一个方法之前你要先写它的测试。比如说你方法是把——

李文业(00:06:43):把一个网址的中文转成 URL code。因为中文它是不能够直接被传输的,一些特殊字符可能会导致理解错误,所以它要转译成那个 URL code。那你这个方法是不是对的?我先写一个单元测试,比如说这个中文里面的”网络”这两个字它要转成什么?我先写一个测试,然后去跑,发现肯定是错的,因为我的实现还没写。然后我再去写实现。对,其实很——就是我们正常的开发当中是不喜欢用 TDD 的,因为它很反人类、很反——

李文业(00:07:51):很反我们的常识。我们常识就是先写,按照我们的思路先把这个代码全部写下来,然后再去写测试,或者说再让别人去测试。多写测试这一个环节会很影响我们的开发效率。但是现在 AI 不存在这个问题,或者说 AI 他不会嫌累,他就像牛马一样,我让他怎么做就怎么做。所以现在 TDD 变成了一个可以说是最佳实践,在 AI 编程里面是一个最佳实践。为什么会举这个例子?因为 AI 作为一个廉价智能,或者说能够替代我们做一些以前认为只有智能才能做的事情之后,很多的事情都已经发生了变化,比如说如何确保代码的正确性。这一点就发生了很大的变化。刚才老师的观点让我觉得的话,如何去保证它的正确性——

李文业(00:09:15):总的来说,如果还是用以前”我去读它,我为什么能确保它对,因为我读过这个代码”这个观点,我认为已经过时了,对,我认为已经过时了。

葭月二三(00:09:35):我有两个想法,对,我先记一下。第一个就是我会感觉到工业界和学术界可能还是存在一个区别:可能工业界它之前有一定的代码基础。那如果对于学术界,或者说对于一个要学习的人来说,它对于一个算法是没有任何概念的,它是要从零开始去做。然后感觉就是从 0 到 0.9 和从 0.9 到 1 感觉是两个不同的阶段。就可能我觉得我们现在讨论是基于说我们可能都对代码或多或少有一些了解,可是如果真的到未来,大家是没有基础的——就是他可能最多可能像学英语一样,他知道这个语法到底是什么意思,然后他就去用自然语言让 AI 去做这些相关的事情。

葭月二三(00:10:48):但是我觉得它会缺少一种,比如说算法也好,数据结构也好,就会缺少这些对于我们来说称为一种叫基础的东西,这样子是好的吗?还是说?

葭月二三(00:11:09):我不太确定,那这样子大家都不用学了。感觉就那种知识文化断代的感受。

李文业(00:11:18):我倒不会有这样的观点,我只是会觉得这是人类知识大爆炸之后的——或者说智能大爆炸的时代的一个必然的演化吧。就好像你,你也算是半个学软件的人了,那你懂编译原理吗?或者说你的老师,你去问那些程序员,他们懂编译原理吗?

葭月二三(00:11:42):对。

李文业(00:11:54):他们可能学过,但他们也不懂了,或者说懂了也没用。我工作当中根本用不上编译原理,对不对?那对于上一代的老计算机人来说,他们觉得你们为什么不懂编译原理,这个东西很重要,是不是?你不懂编译原理,你怎么能够——

葭月二三(00:12:01):对。

李文业(00:12:16):让底层的机器更高效地运转?是吧。就像我们现在说你不懂那个算法跟数据结构,你怎么能够写出高效的程序或者说正确的程序。其实是一个道理,以后的人不需要懂这个东西,或者说需要懂这个东西的人,他自然会懂。

李文业(00:12:46):比如说,如果你是去搞编译器的,你就会去懂,你自然就会去学,甚至你会更加精通编译原理。但是我是程序员,我不需要懂——比如说我是一个写业务代码的程序员,我不搞编译器,我就不需要懂编译原理。

李文业(00:13:11):然后——

葭月二三(00:13:12):这样子分化会更大,大家分工会更加明确?

李文业(00:13:21):分工也不能说更加明确,是分工会产生很大的变化。就比如说之前会有专门的叫做前端跟后端。

李文业(00:13:35):我认为后面已经不会有这个东西了,前后端会融合在一起,因为这个活会让 AI 全部去做。

李文业(00:13:45):你其实也写过前端嘛,页面也写过后端的,那你认为前端和后端其实没有本质区别嘛。如果你用 AI 写的话,你就都是——

葭月二三(00:13:48):对。

李文业(00:13:58):我要一个什么效果,你给我造出来就是了。不是我直接看页面,是不是我要的效果?是我要的我就认为你是对的,你不是我要的我就认为你是错的,我不需要去读你的代码。这个跟我现在写 APP 是一样的,那个 Swift 语言我都没有费劲去学,那个代码我是一行不看的。

李文业(00:14:21):我直接下指令。对,那你觉得比如说,那我作为使用者,我觉得我是比较有资格发言的。那我——

李文业(00:14:41):写出来的,我是一行都不看的,对。但是你说如果我是一个,比如说是苹果的程序员,我对于 iOS 系统的一个开发,我要保证更高的正确性,或者说怎么样,我要对它进行更深入的把控——我自己写的 APP 出了错我无所谓,反正我出了错我就立刻去改。但 iOS 的它要推送到那么多用户,他要保证它的正确性。这个时候他的程序员要去懂这个代码,我觉得是非常有必要的,或者是 OK 的。其他人不需要懂,对,是这样子的。因为就是有了 AI 之后——

葭月二三(00:15:22):对。

李文业(00:15:29):需要懂的人,或者说需要懂某一个小领域的知识的人会变少。就是我们很多的东西可以外包了。就好像——就像我问你,以前不管男女,以前男的都需要会耕作,女的都要会做家务,那你现在会做家务吗?或者说你能做得好吗?你做顿饭,你做出来大家会爱吃吗?或者说我自己虽然说健身也健了大半年了,但是你让我去那个——

李文业(00:16:09):田里面去耕地,我还能耕得了吗?耕不了。所以说当然我们举这个例子是从农业社会一直跳到了——跳过了工业社会,现在到了信息社会,甚至是 AI 社会。那其实是一样的,计算机也是一样的:一开始计算机还要打孔卡片,是不是?那现在还会打孔卡片吗?是不是?

葭月二三(00:16:37):OK。然后还有第二个区别。前面的一个是有没有基础的区别。第二个区别是,可能我们有的时候写代码是追求它的正确性,所以去写测试。但是我现在做的事情更多的是有没有更好——就是我在做的是优化问题,就是我能不能通过各种各样的方式求出一个更好的解、更好的答案。对于”更好”,我自己也没有一个所谓的测试范围,我只能——或者说测试就是我自己一遍一遍地去看它的答案是不是比上次更好。这也属于 TDD 能做的范围吗?

李文业(00:17:24):TDD 它只能保证正确性,它很难去帮你做这个,应该叫做性能测试或者怎么样。比如你一个方法怎么比另外一个方法好,肯定是有标准的:比如说正确率高,比如说 OCR 算法是不是你要正确率高?这是一个。或者说以及识别的时间比较短。你肯定是有几个指标的嘛。就好像我用那个 Cursor 去帮我登录一样的,我们公司的那些系统,我要去登录、要去改一个东西的话,需要邮箱验证码又需要那个 OTP。反正就是两个码,我每次懒得输,那我就让 Cursor 去帮我登录。那我就会让它一遍一遍去试,我就说——

李文业(00:18:37):我希望你的登录时间缩短到 30 秒以内,你现在是 90 秒,我很不满意你,你自己去优化吧。你看我这个优化,我是直接告诉它我要什么,我是不会去指导它的过程的。我不知道这个能不能给你带来启发,就是——

李文业(00:19:01):我就会让它自己去改进、自己去迭代,然后它就不断地去审视自己的登录过程,哪里可以省时间,然后去验证,然后最后得出来一个效果。它最后真的是能够帮我从 90 秒降到了 30 秒。它好几次说,我这个已经是穷尽了所有办法了,我认为这个 60 秒已经是不可突破的,什么什么的。我就那样说,你是最智能的大模型,你一定可以的。然后它就,那我就再试一下。然后最后真的降到 30 秒了。

李文业(00:19:41):为什么我举这个例子——就是在不属于你的领域,或者说有的时候你要释放它的可能性。对,因为你去帮它想过程,就好像老师教学生一样的,或者说老板指导下属——你去告诉他要怎么做,其实是一个很限制、束缚他人的一种工作方式。

李文业(00:20:16):还不如你直接告诉他你要什么结果,让别人去想办法去达成,是给别人自由度比较高的一种做法。除非你认为这个人就是愚不可及的,或者说你就是着急要这个答案,你不想浪费时间了,或者说你不想让它花时间去探索了,那就直接告诉它怎么做。对,像我的话,我只要不赶时间,我就会告诉 AI 我要什么样的效果,然后它想办法帮我去达成,最后我去检验这个结果就好了。过程的话我其实都不太关心,对,是这样子。那我多说几句,就是回到你的那一个东西:你要怎么样去——首先第一个你要有你的优化标准,而且这个优化标准如果是可量化的话,最好是让它自己去检验,对,这样子会省你很多的时间,你最后只要一个结果就行了。

李文业(00:21:14):然后,可以的,你可以让它尝试多种方法,而且这多种方法你可以列举一两种方法,然后其他的可能性让它自己去想。对,你要尽可能地利用它的智能。然后结合刚才我跟你说的,你建立了一个衡量标准,比如说耗时、正确率,然后还有什么时间复杂度、空间复杂度,就假设这些东西。然后你就让它每一次的可能性,你让它去比如说跑 10 次或者是 100 次,然后取一个平均值,然后得出数据——算法 A 是什么数据,算法 B 是什么——列出来,让最后你看这个结果就好了。

李文业(00:22:09):挑一两个或者说两三个你认为最有前途的改进方向,然后你自己再去慢慢地去弄懂就好了。对,我觉得这个才是新时代的——也不能说做科研,说新时代的优化的一种方法。对,你看,我举个例子,假设你要做一个算法的突破吧,只要我最后找到了这个方法能去优化,并且我能够——当然我是先找到这个思路,也有可能是 AI 帮我找到的,然后最后我只需要补一个论证的过程嘛,或者说补——

李文业(00:23:01):实验数据。那个审稿人或者说你的同行评议,他会去纠结这个思路、这个方向到底是人想出来的还是 AI 想出来的?他不会的。对,我是觉得这么觉得。对,你怎么看?

葭月二三(00:23:22):但是我觉得这样子感觉有点像那种结果导向,就是我不管三七二十一,先给我一个好的结果,然后我等到了好的结果,我才值得自己去花时间去分析。

葭月二三(00:23:39):对,我现在是这么做的。但是总会觉得说——就还是会有一种旧时代的愧疚感。就会觉得说自己没有这种探索,然后没有经验的收获,然后做完之后就只是做完了,仅此而已。就是有一种被动地接受:它告诉我这个结果就是最好的,然后我就去研究这个结果,它为什么最好,然后我再去报告,然后我再去写论文。就感觉总少了点什么,就是少了点我的成分。

李文业(00:24:14):你的——?

葭月二三(00:24:14):过程中。这个过程中没有成长,我在这个结果中拿到了可能你想要的一个东西。

李文业(00:24:25):这个就是思维要转变,或者说你要找到你的成长的点在哪里。对,就好像你做的事情——比如说你给它的提示语,是所有人都能给的吗?你觉得?

李文业(00:24:48):不一定吧。

葭月二三(00:24:50):不是。

李文业(00:24:51):然后你其实已经帮它缩小了这个探索——就是我想说就是 AI 它其实要最后生成一份答案或者生成几个可能性,它是需要压缩它的可能性空间的,是不是?那怎么压缩?比如说你会告诉它你这个算法——

葭月二三(00:25:06):对。

李文业(00:25:15):你已经做过哪些尝试了,发现走不通。又或者说你觉得哪些领域是比较有没有探索过的,或者说比较有可能性的。那你会这样去告诉它吗?就好像以前的人做研究都是要翻书的,都是要用笔去写实验报告的。那你现在去搜资料,你还会去图书馆去——

李文业(00:25:48):去一本本地那种书去翻吗?也不会了。那你写实验报告你也是直接用——哪怕不用 AI 生成,你也是用 Word 文档吧、Markdown 文档吧,或者说什么 LaTeX 之类的吧。那你也不会用手写了。那以前的人也会说了,那你不一页页去翻那种文档的话,你怎么能够知道、确保你不会漏了一些东西?是不是?你用电脑去搜索,你怎么知道这个搜索算法是对的?

葭月二三(00:25:53):对。对。

李文业(00:26:24):是不是?你怎么知道它没有漏过一些东西?是不是。那都是一个道理:你有新时代的工具,就有新时代的一些缺陷,但是你的好处是远远大于缺陷的。那所有人都知道怎么选。

葭月二三(00:26:40):OK。好,我想要分享的一个是这个学期上了一门课叫做统计计算,然后那个老师他的态度就很开放。这个就是我要提到的第二位老师,他叫李老师。然后李老师他就说——他其实也有一点点傲慢,就是我会觉得说他有的时候在课堂上高谈阔论的一些观点是我不认同的。

葭月二三(00:27:16):但是他有个观点我觉得还挺欣赏的,就是他说我们期末考不要像之前一样只考手写代码或者是代码填空,而是给你一份代码去找出几个错误。他说这才是 AI 时代我们要去培养的鉴别能力,而不是再苦哈哈地让我们写代码了。然后我对于他的言论的态度,我持中立。我持中立是因为可能是因为他研究生是在国外读的,所以他整个人的气质和国内的一些老师会有很大的风格上的不同。然后他有的时候会给我们看一些什么科普的视频,然后讲到 Claude Code 还有什么 GPT 什么之类的。就有的时候我会感觉到他会有一点傲慢的成分,就是那种”你们都不知道吧”什么什么的,就这种感觉。对。

葭月二三(00:28:25):我之前就会觉得说——我一直觉得就是代码就像语言一样。当然我们这个第一个问题是把 AI 的范围限制窄了,就是我们只把它定义在代码上。但是代码它其实是可以解释的、有逻辑的、像数学一样的,就是它有规范性的一个东西。但是在这个规范之外的那些没有正确答案、没有可测试的目标的,可能才是我们现在不断地在和 AI 进行——

葭月二三(00:29:04):探索和融合的一些部分。

葭月二三(00:29:09):对,然后第二个就是”你周围的人对于 AI 的态度和水平如何”。这个我先讲一个背景:第三位老师也姓李,叫李老师。他就是——他是数学这边的老师,所以他是我本科生导师。然后他就让我推导运筹学上面的建模,但是我没有学过运筹学,然后再加上我现在就是半个数学人、半个软件人,就是感觉自己在这方面没有那么擅长吧。然后我就去找 AI 讨论。在这个过程中,其实我会感觉到我是艰难的,并且我在上面花了很多时间,包括我前面开头提到的说有一段时间比较困顿,那也是他的这个题。

葭月二三(00:30:07):然后当我把那个文件——其实我从过年前就已经在不断地跟他发文件进行交涉,就连过年那几天我也是在赶文档。但是我会发现,不知道是不是我和他的期望没有对齐,或者说他对于 AI 和对于我的能力上没有很清晰的认识,导致当我最近几次把文档发给他的时候,他就直接说”你这个又是用 AI 写的吧”。然后我当时一时语塞就是——我当时就想回说”是”。那他问的时候不是像前面第一位江老师一样那种很开放的态度。这个老师的感觉就是”你用这个玩意儿就不可取,你不是自己想的”,这种感觉。

葭月二三(00:31:08):不知道该怎么回,是因为相比于自己写这个文档,我花了更多的时间和精力去学习、去确认、去为这个文档里面的每一句话负责。但是我并不认为老师他这么认为,他觉得说你一旦用了 AI 就直接给你判上了一个标签,然后这就不是你写的。

葭月二三(00:31:35):我就会觉得很疑惑,就是我周围的人对于 AI 的态度太不一样了。包括我这几天就是在 6 楼的研究生的那个实验室,然后那个实验室里面有很多不同组的学生。然后有的时候晚上就会听到其他组的学生在讨论——

葭月二三(00:32:00):AI 的使用。我又会觉得说学生对于 AI 的使用太自信了,就是使劲夸,就是他们一直在夸这个多好。就我就会觉得说怎么感觉世界颗粒度都没对齐。然后对,然后就我不太清楚,就是如果是在你们工作的环境内,大概是一个什么样子的情况?

李文业(00:32:40):现在工作的话普遍大家都会用 AI,但是使用的程度会不太一样。

李文业(00:32:53):大家基本上都是拥抱 AI 的,都不会说太抗拒 AI。至少我自己听到的没有太抗拒 AI,但是使用的程度会有不一样。有些人他基本上就是用 AI 做一个问答的工具,就还是 ChatGPT 那一套。他不会用、很少用它让它写代码,对,他还是比较信任自己写的代码。甚至我在网上也会看到一些人,他在讨论到 AI 的时候,他们对 AI 的水平的认知还停留在——

葭月二三(00:33:11):对。

李文业(00:33:34):让豆包写代码的那种程度。对,他说他用过几个模型写出的代码甚至不能正常编译。那我觉得你用的——

李文业(00:33:47):用的还不如 Cursor 里面的 Auto 模型是吧。Cursor 里面的 Auto 模型都至少编译是没问题、运行是没问题的,其他的另说。但他写的那个东西,他说编译都不对。那他肯定没用过稍微能用的模型,他都没用过。然后回到深度的话,我觉得我算是最深度的吧。我就是——

李文业(00:34:17):从去年 8 月份到现在,我就一行代码都没写过。对,不是说真的一行代码没写过,是我没有一行代码是自己写的。对。而且甚至是领导——你问他,当然我没有主动去跟领导这么说,但是哪怕领导问我说”你这个文档、这个设计文档是不是自己写的”,那我直接告诉他就 AI 写的。对,我就直接告诉他。因为什么——他没……当然同样是用 AI 写东西,那也有个同事被骂了。对,也有同事被骂了。甚至领导还非常生气地在群里面说:AI 生成的代码你必须要每一行都要读,如果在 code review 的时候你讲不清楚这个代码怎么回事,那肯定是要给你——

李文业(00:35:06):肯定是要给你记一笔的,对,大概是这么个意思。那为什么我同样是用 AI 做东西,他被骂了,甚至他现在都离职了,那我现在还干得好好的?因为这是结果的问题。就他没用好,他用 AI 的时候,他甚至能够就是那个代码他都完全看不懂,他直接敢往上提交了,就敢用让用户去用了。那我是没有这个胆子的,我肯定是要自己充分理解并且做好充分测试之后,我认为我是能解释的。就比如说我的 leader——

李文业(00:35:47):每次我的东西遇到了一些问题,或者说遇到了他不是很熟悉、需要解答用户的时候,他都会直接语音我。有的时候我们不在同一个办公地点,那我都是能立刻给出答案的,因为我对这个东西熟。我不需要说”我再去看看代码”,然后看半天才能够找出答案。重点不在于是不是我写的——已经不重要了,而至少在工业界已经不重要了。重要的是——

李文业(00:36:22):我扯一句,让我想到了这个饺子是不是人手工包的。这个可能有些人会在意,我就觉得手工包的饺子比较有灵魂,吃起来我就比较有感觉。但是这个代码是不是人手写的,我就感觉……好,再回到那个——我只要确保最后的结果是对的,或者说我在处理问题的时候我能立刻给出答案,这就行了。Leader 他是不会在意是不是我手写的,或者说他根本就没注意到。哪怕他注意到了,我也是问心无愧,或者说甚至更加自豪:你看我用了这种先进的工作方式,你有没有发现我每天都不加班?你有没有发现你给我的工作我都能按时完成?你有没有发现你每次让我解决问题我都能快速解决?就因为我用了更先进的工作流程。是不是?我甚至是会很大方地跟他分享我的这个跟别人不一样的工作流程。

李文业(00:37:34):是这样子。那当然也是因为我知道我的 leader 他是只看结果、他不怎么看过程的。对。但是也不妨碍你——有的老师就喜欢吃人包的饺子,对。就——

李文业(00:37:56):这就很难搞,你说就是你管我用什么写的,我最后交出来的东西是对的就行了。很多时候你——

葭月二三(00:37:58):对。

李文业(00:38:09):又或者说那跟交作业不一样。交作业,有些东西真的是要人——就好像写字一样的,是不是?

李文业(00:38:20):比如说我侄子现在上小学一年级,那他的作业必须要是自己做的,因为他是要训练自己的思维的。但是你们现在基本上是不是要从做作业思维过渡到要做产品或者说有产出的过程去过渡?这个时候还管你们是怎么训练的吗?

葭月二三(00:38:46):是。但是你说一年级要自己做作业训练思维,那对于大学一年级的同学来说,他们也是要训练自己的代码思维,那不是还是得手写一下?

李文业(00:39:03):对,没错。这就回到了我刚才说的那一点:你到底要训练什么样的思维?你要训练你的语法吗?你要训练你的算法与数据结构吗?

李文业(00:39:25):你得问清楚这些问题,我才好去判断或怎么去设计你们的作业,或者说这个实验流程,是不是?

李文业(00:39:41):小学生的作业是显而易见的:1+1 等于几、2+3 等于几,或者说默写 10 个汉字。这个是显而易见的训练:手写字、对汉字的最基础的理解,然后对数字计算的一种最基础的思维。那这个用 AI 没办法代替。

李文业(00:40:11):那你们写代码出来,这得看你们具体——比如说你上的就是 C++ 课,就是要训练最基础的算法跟数据结构,那这个用 AI 写,我就认为肯定是有问题的。但是你已经不是——比如说你要写一篇论文,那这个时候你还要在意前面的那些东西干嘛?

葭月二三(00:40:41):然后我觉得就是可能以后像开车一样也要去考个 AI 证,然后你才可以持证上岗。

李文业(00:40:54):那肯定,我觉得会有的。就是 AI 使用的水平——之前——

李文业(00:41:04):打字一样,一开始打字是一项稀缺的技能,不是所有人都会打字的嘛。那时候打字有没有过这样的证?

李文业(00:41:17):计算机等级考试,对,现在还有这个证。对,就有这个东西。当然这个东西它已经过时了,在某一个年代它可能还是有用的。

葭月二三(00:41:20):计算机二级?对。

李文业(00:41:31):对,那以后我觉得肯定会有 AI 证,对,是这样子。

葭月二三(00:41:35):OK。然后第三个是怎么去理解 AI 的主动性。就是之前好多老师他们都认为说 AI 它现在还缺少主动性,就是能够自己去不断地发现问题、解决问题的能力。但是在我自己的使用体验上,我觉得它是具有一定的主动性的,但可能是我们的定义不太同。你怎么理解?

李文业(00:42:20):我有两方面的讲法或者说理解。一方面就是在解决一个问题的时候,它的主动性,我认为现在已经很强了。就比如说我用 Cursor 里面的 Opus 4.6 的话——

葭月二三(00:42:40):对。

李文业(00:42:44):它有的时候甚至我得盯着它。我有的时候怕它跑太偏,或者说怕它用一些太非常规的手段,然后让公司把我给炒了。

葭月二三(00:42:49):对!

李文业(00:42:57):它有好几次直接就想要修改底层的代码,然后就要绕过某个东西去做某方面的测试。对,但大多数时间是惊喜,对,这真的很厉害。有好几次就是我明明告诉它就是在这里——

李文业(00:43:21):比如说从 A 点到 B 点,然后它发现 A 点到 B 点走不通,它想着我绕过去,或者说我直接跳过 B 点直接去够最后的答案。我觉得它这个主动性已经很强了。很多人理解不了这个主动性,是因为他们用的模型不太行,或者说他们不舍得花钱。

李文业(00:43:43):对,这从某个角度来看——就是我觉得至少对咱们的投资,我觉得目前来说我们的收益率还是挺高的。还是有人抠搜的,就是说 200 美元一个月的账号好贵,或者说我只买一个月一个账号就够了,怎么买好几个,是不是?那我觉得如果没有这个投入的认知的话,很多事情我也不会去做,或者做不了。

李文业(00:44:22):这是一方面。另外一个就是目的主动性——它的确是没有这个东西,我也不觉得它有,是不是?

葭月二三(00:44:23):对。

李文业(00:44:34):目的主动性,就比如说我们会突然想着:我要不要除了上班写代码之外,业余也写一下代码?或者说公司没有给我配账号,或者说公司给我配的账号太垃圾了——它给我配的是什么亚马逊的账号,没有给我配 Cursor 账号,那我就自己买 Cursor 账号。对,就是这种主动性 AI 是没有的。它只是我给它定个目标,然后它就往这个目标去——手段它可以是多样化的,对。但是要自己给自己一个目标,这个主动性我觉得 AI 是没有的,我觉得它不具备。或者说这是一个更前沿的、更哲学层面上的一个讨论吧。我觉得是这样子。

葭月二三(00:45:42):对。我觉得一边是说要去看一下 AI 它到底现在的情况成长为什么样子的一个小孩了,就是特别像一个小孩子在成长。然后与此同时,我们也要去探索自己到底想要的是什么。真正想要什么才能驱动我们去使用 AI,然后才能去做更多有意思的事情吧。

李文业(00:46:14):是的。我觉得通过理解 AI 的主动性,我们其实也是能够关照自身的——就是我们人类的主动性是怎么样子。

葭月二三(00:46:16):我会觉——

葭月二三(00:46:29):但是我会觉得说现在大家对于 AI 的使用太有点太功利化了,就是说你到底有没有用,你有用就是好的、你没用就是坏的。就还是存在于这种比较浅一点的层面上,可能还是需要更多地去融合和体会吧。

李文业(00:46:54):很多人对 AI 缺乏一种探索的精神。

李文业(00:47:08):他们的认知是不够的。他们有些人很奇怪,他们倾向于找 AI 的缺点,他们不会看到 AI 的优点,对。

李文业(00:47:20):但你在用一个工具的时候,你不应该去过分关注一个工具没有必要的缺点。就像我哥一样——我最开始兴致勃勃地给我哥跟嫂子去推荐这个 ChatGPT 的时候,那是很多年前的事情了,已经三年前的事情了。

李文业(00:47:41):那时候 2023 年,ChatGPT 出来大概没多久。我哥就问了 AI 一个问题嘛,他说 NBA——就是打篮球的 NBA——历史前十大——

李文业(00:47:57):选手是谁。然后那个 ChatGPT 就给了一个答案,然后他就开始嘲笑这个答案多么不合理。对,这就是很典型。

葭月二三(00:48:06):对。其实会有的时候,在一个新事物刚出来的时候,人类会迫切地去证明自己会更好,然后与此同时在这种比较中获得心理上的一些优势感。

李文业(00:48:25):这个新东西没用,这个新东西对我产生不了冲击,这没什么,这不是早就出现过的吗?是不是什么”历史不会重演,只是会押韵”、”太阳底下没有新鲜事”。对——

李文业(00:48:49):那不就是让自己困在某一个地方吗?他就学不了新的东西了。

葭月二三(00:49:01):这让我想到一句话,就是:对 AI 的悲观,其实是对人类的盲目乐观。然后第四个就是——你会不会喜欢把很多第一眼看上去感觉很有用,但是你现在又不想认真去加入思考的一些视频或者文章收藏起来?然后但是当我集中去看的时候又不太喜欢了。

李文业(00:49:37):以前会有这样的一个问题,就是收藏夹里面有很多的网页,对,或者说有很多的视频之类的。

李文业(00:49:49):的确。

葭月二三(00:49:49):对,我之前不会有。就是我不知道是因为之前手机刷的少还是怎么样。就是我之前看到”收藏夹里吃灰去吧”这句话的时候一点感受都没有。然后直到上大学以来,特别是刷小红书或者是微信的一些文章,不知道是因为 AI 的出现导致这些创作内容的数量——

葭月二三(00:50:20):增加了,还是大数据变得更加活跃、更能够吃准我的品味——就是我总是看到一些那个标题第一眼就很吸引我、很戳中我的东西。然后我就想说——当时随意刷手机的环境又不适合去深入地阅读和学习,所以我就会像微信,我就会把它发到我的文件传输助手里。然后小红书它那个收藏又非常方便,点个小星星就收藏了。然后我这几天我就在给自己说,那是时候该整理一下了。倒也不是整理,就是说你知道觉得好的东西你一直不去看,它也只是放在那里的好,就是你没有学到。然后,但是我会觉得说在我整理的过程中我就没有那么喜欢了,甚至说有一种被标题党骗了的感觉。举个例子就是小红书上看到有一个说是上海交大的团队开发了一个自动科研的 Agent,然后我点进去看,结果发现好像就跟幼儿园的小玩具一样,就根本就做不了那种大事情。

葭月二三(00:51:38):对,然后我会觉得 AI 出来了怎么样,这种信息太多了。然后大家为了互相争取阅读者的注意力和流量就会做很多标题党做的事情。以至于在确立一个非常全面或者说非常好的信息源之前,这样子大量的信息冗余是一直会存在的。

李文业(00:52:09):这让我想到互联网刚出来的时候,它会有一个问题叫垃圾邮件。

李文业(00:52:21):对。但现在垃圾邮件已经不是一个问题了,因为有很多的手段去整治垃圾邮件了,就有很多邮件它是直接会进垃圾箱、对,是会被拦截了。那我觉得——就比如说现在 B 站上有很多 AI 生成的视频?

葭月二三(00:52:37):对。

李文业(00:52:45):对。然后那个什么 App Store 也有很多 AI 生成的 APP。对,我觉得这个都不是大问题,当然是个问题,但它都不会是大问题。还有 AI 诈骗什么的,它就是一个——

李文业(00:53:06):发展带来的问题用发展去解决嘛,是不是?那其实很好理解。那以后我看东西——除非经过我的确认,或者说我看到一个东西我觉得很感兴趣,我会忍住先不看,我就丢给 AI,我说你去帮我做一下事实核查,或者说你帮我去看看里面内容我是否值得看。对,有的时候我就是会这样子。我的一个放松方式或者说一个娱乐方式,就是去 B 站刷视频嘛,然后经常会听到一些骇人听闻的案件或者什么事情。

李文业(00:53:49):然后我又怕它是骗我的。对,然后我就会问 AI,我说:我在 B 站上看到一个视频,说某个地方有一个什么什么案件大概是怎么样一个情况,你帮我去做一下事实核查。

李文业(00:54:06):对,然后很多时候就发现那就是骗人的。对,就是断章取义,或者说把十几年前发生的事情挪到今天来讲什么的。对。那你比如说小红书或者怎么样,我觉得以后都可以这样做了。现在小红书里面是没有 Agent、没有 AI 工具的嘛,那以后说不定就有了,是吧?现在什么 X——Twitter,你知道推特上不是有 Grok 吗?是不是?那比如说我看到一个帖子说什么什么事情,我直接就可以召唤那个 Grok 说:Grok 帮我做一下事实核查。

葭月二三(00:54:40):我知道。

李文业(00:54:54):Grok 帮我去总结一下这篇长文有哪些观点?Grok 帮我怎么怎么怎么样。Grok 帮我看看一下这篇东西是 AI 生成还是人写的。

李文业(00:55:08):是不是?对。或者说我看到某一个账号,诶,怎么发现那个普京在推特上竟然有账号,但我分辨不出来是不是他的。然后我就说:Grok 你看一下这个所谓的普京发的那么多帖子,你帮我判断一下他是不是真的普京。发展的问题就用发展来解决就好,对。我觉得我是理性乐观派吧。

葭月二三(00:55:31):OK。但其实我也想要写一个类似插件一样的东西放在我的小红书收藏夹里面去管理它。但是其实如果是对于这种成熟的软件,你是没办法嵌东西进去的。然后我觉得这可能就是所谓 OpenClaw 能做的事情——就是你让它去提取你的收藏夹里面的内容,然后去精选几个高质量的文本,然后这样子你在整理的时候压力就不会那么大。

李文业(00:56:19):完全可以。就是小红书有网页版,那你当然登录要你自己登录,你就是——

葭月二三(00:56:21):对。

李文业(00:56:31):在你的电脑上登录网页版,然后让 OpenClaw 去读就行。这不是特别复杂的事情。

葭月二三(00:56:37):对。

葭月二三(00:56:44):然后第四点我们还有个要分享的是:人类的优点和缺点都是——我们的知识空间是有限的。就是可能现在大模型也好什么的,互联网也好,你只要不断地给它加内存、加存储空间,它就可以去记忆更多的东西。但是对于人类来说,超忆症其实是一种病。所以之所以大家能够在有限的脑容量之内完成推动人类社会进步这么大的事情,一个很重要的特点是人类可以通过自己脑内将有限的知识去进行思考。我觉得这个思考是当下最重要的——就是我觉得现在 AI 取代了很多思考的内容,以至于我们现在只是被动地去检查一个事实是否成立或者是否接受,就少了那种思考的过程。或者说我自己有一个很重要的感受:我的休息方式是去写数学题了。现在就是我之前觉得数学好难好麻烦,但是我会发现用完一天的脑子,就是空落落的一天之后,写数学会让我觉得很安心——就是那种写了题目然后自己思考、自己计算、然后自己得出答案的过程。对。然后第二个就是现在 AI——我们不断地去要求它变得更加完美,但是人类的特点正在于人类不完美。会不会以后就是 AI 太完善了,然后什么要坚持老匠人的手工做的那一群人就会寻找去跟人类聊天、付费跟人类聊天——就是有点像那种已经有机器做的衣服了,但是你一定要去手工缝一件的那种匠人精神。

李文业(00:58:59):我的观点——还是会……我觉得这个问题它指向的是做同一件事情。

李文业(00:59:18):还是做同一件事情。我认为 AI 能做的事情、或者做得比我们好的事情就让 AI 去做就好了,我们人类就不要再去做了。就比如说写代码这个事情,手工写代码这个事情,除非你自己作为一个爱好。因为现在——

李文业(00:59:32):比如说哪怕现在衣服还有什么围巾——就是我们织围巾织得比较多——手工织围巾依然是一个仪式感很强、或者说——

葭月二三(00:59:42):对。

李文业(00:59:48):很珍贵的一个东西。但是你不会想着说我去织个围巾去卖,或者说这不是一个很合理的、很好的商业模式了。对。那我觉得聊天它不是——

李文业(01:00:01):聊天——

李文业(01:00:13):它不是一个纯粹的信息获取的东西。对,聊天跟对话还不太一样。对话的话我可能讨论,或者说怎么样,我是为了要获取一些信息。但很多时候聊天不是为了获取信息。聊天有可能心情愉悦或者……或者说你跟一个小孩子——

李文业(01:00:44):不会说话的小孩子,你其实也是能够跟他沟通的。只是你们沟通方式不是通过语言,你们通过动作、通过笑声,甚至通过哭来进行沟通的。对,这些 AI 都做不了,不可能做得了。AI 不可能给你哭。对,当然它能够模拟那种声音,但是你不会去认为一个 AI 很可爱。

李文业(01:01:12):你不会认为一个 AI 它有灵性或者怎么怎么样,这个是人可以做的事情。我一直想到一个例子:就是我们后面人会越来越多做现在认为是没有用的东西。

葭月二三(01:01:12):对。

李文业(01:01:28):就好像——我之前也分享过,我的一个业余兴趣爱好是看英雄联盟——就是一款游戏的比赛。那你觉得打游戏有价值吗?

李文业(01:01:41):我觉得打游戏没有任何的实际价值,对不对?那为什么还有那么多人会去看比赛?为什么那么多人去——甚至我都不打这个游戏,我都喜欢看这个比赛。是因为比赛里面——

李文业(01:01:59):它会展现出人类的一些独有的品质,比如说面对极大压力的时候你怎么去勇敢地去做操作,你不怕背锅。我们想要看到的是这种人性的演绎。还有跳舞,你觉得舞蹈对我们实际的价值——当然你可以说赏心悦目、情绪价值这种东西。

李文业(01:02:31):那游戏也是情绪价值。那到了后面我们都是提供情绪价值了,对,都是提供审美价值了。是,我们后面基本——你说聊天,那聊天不就是——

李文业(01:02:47):所谓的情绪价值嘛?

葭月二三(01:02:54):OK。然后第五个就是”时间不够是一个谬论”。就是我会觉得说我一直感觉自己的时间都不够,就是没有时间去充分地进行探索。然后感觉看完那些什么时间管理的书,反而更不会管理时间了。或者说时间管理它本来就是一个谬论,就是不要管理时间。我觉得——我不知道,我感觉自己想做的事情太多了,但是就是时间不够。

李文业(01:03:31):我自己理解,我以前也做过一些类似于时间管理的事情。但我觉得是我在三四年级的时候就写过类似于学习计划什么之类的,但都没什么用。

葭月二三(01:03:41):对。

李文业(01:03:52):然后我自己反而觉得自己在什么时候把时间都利用起来了,也是这几年的事情。但是我没有使用任何关于时间管理的方法,我认为就是一个取舍的问题。

李文业(01:04:08):取舍的问题。就好像我这个月就是要把我的阅读时间从 100 小时提到 200 小时,那我周末就不能去跟同学去打牌了。那我就要做一个取舍,我到底要去打牌还是要学习。或者说——

李文业(01:04:31):那我找工作的时候也是一样的。如果我要维持每个月都有 300 个小时左右的阅读时间,那我就不能去找一份 996 的工作。哪怕工资再高我也不会去,因为如果找了一份 996 工作之后,我可能就精疲力竭了,我就没有自己的时间去读书了。

李文业(01:04:52):对,我觉得时间不够——时间永远是不够的。一天只有 24 个小时,一周只有 7 天,一个月只有四个多星期,一年只有 12 个月。然后一辈子也就活个七八十岁吧,就平均来说。时间永远是不够的。对,所以最后还是一个取舍。

李文业(01:05:19):你只能够做几件事情。

葭月二三(01:05:28):的确是。

李文业(01:05:30):你可以尝试很多事情,但是尝试到一定程度之后,你就要下决心了:到底要做哪些事情。是这样子。

葭月二三(01:05:37):OK。好,然后这上面都是我今天准备的问题。然后接下来分享两个。一个是探索板块的阅读——我阅读了一本书叫《沧浪之水》。这本书其实就是我已经下载了很久但是一直没有看,然后上个星期开始看,然后大概看了一个半星期左右才看完。就是相对于我的速度来说还是比较厚的。然后这个主要就是讲一个——我觉得是体制内的一些情况,然后是小说。

葭月二三(01:06:23):我看完之后就比较恍惚。我就会觉得说主人公原来他不去——就是他之前在那个什么,反正在他的一个小工作上,其实不去向上争取一些什么,其实也可以很稳地拿着工资过着自己的日子。可是他的转折点是意识到说自己没有权、没有钱就没有办法实现自己的一些理想和抱负,于是在有点像是正义的驱使下,然后让他去一步步地向上攀爬,然后最后成为了厅长了。我就会觉得很矛盾,就是一方面要保持自己的理想主义,不要被这些所谓的曲意逢迎的套路所吞噬;一方面就是你没有得到相应的权利和金钱,你没有办法去做出你自己理想的这些事情。

葭月二三(01:07:26):这个是一点吧,矛盾。然后第二个是我会觉得说感觉”看戏”——就是现实生活中的戏:领导也知道你在阿谀奉承他,然后你也知道你自己这个举动是违背你自己本心的,但是你还是要去做。然后于是两个人就在现实生活中这样活生生地开始演戏。就觉得还是有点离谱,但是我又意识到说即使我以后不会从政,但是在职业或者说在中国人的社会里面,你还是必须会有这样子的一个经历吧——就是两个人都心知肚明地在演戏。我会觉得说很像过家家,就是大人的世界原来也跟小孩的世界一样,就草台班子吧。然后第三个就是如果 AI 有一天变成这样——就是——

葭月二三(01:08:32):当然它现在就有一定的一直顺着你的意思走的这种迹象。我们如何清醒地知道说它在演戏?或者说它把我哄开心了——然后我不会给它地位,它也不会给我什么地位——然后感觉这样子好就是更像过家家。非常像那个打游戏。然后最近不是什么洛克王国上线了吗?

葭月二三(01:09:02):我想起我小时候玩的时候,我是有点想玩但也不耐烦,因为它那个人物对话太久了,我一定要点下一句。然后我就会觉得说没意思。不知道这样的演戏——有点回到我上次的一个问题,就是人与人之间多一些真诚。感觉在这个社会的规则下面是不太能行得通的。包括我现在非常珍惜我自己作为学生或者是作为一个组里面的小师妹,还能够去犯错、去表现自己的童言无忌——这样子的一个年龄阶段和身份。感觉就是长大了之后在社会就规定你一定要干嘛,你要变得懂事、成熟什么什么之类的。

葭月二三(01:09:54):然后还有一个就是 AI 当了领导,它的决定会更加公平吗?就前段时间我看了一个视频,他是说相比于人当领导,其实 AI 当领导还更好,因为它不会有个人的一些人情世故存在里面,然后它的判断可能更加规范化、标准化,更有一定的评判标准吧。但是它的决定真的会更加公平吗?就除去它能不能负责这一层面先不谈,它是否更加公平,这其实我也是打一个问号的,因为 AI 的背后其实还是资本家。对,就是这些感受。

李文业(01:10:45):我还是会回到取舍的角度去看。有很多东西——就好像你读的这个小说一样,他说他是为了没有权或者说没有钱,他就做不了一些事情。那你不要做事情就好了——你为什么一定要做这个事情?

李文业(01:11:16):也有很多人考公务员进入体制内,他就是为了当个小科员就好了。对,他不会想着说他要往上爬或怎么样。对,是这样子的。他可以把这个时间用来比如说生儿育女、比如说发展一些自己业余的兴趣爱好。这都可以的。对,所以我觉得——

葭月二三(01:11:42):对,但是在书里面它其实也是这样的。但是比如说相同的教育资源——你的孩子就——你的确可以生孩子、可以结婚,但是你的孩子没有办法享受到好的教育资源什么什么的。反正就是挺现实的一些因素吧。

李文业(01:11:58):那教育资源好不好,它没有一个所谓的客观标准。或者说”你认为足够好”没有客观标准,是不是?那你认为什么样的一个小学是合格的?是家门口的就行,还是一定要全市排名前 10 的才行?或者说比如考大学了,那有些人觉得我考个本科就行了,有些人非要 211,有些人说要考 985,有些人说非清北不读,那还有些人说我要去常青藤。没有尽头。

李文业(01:12:40):它还是一个——当然我不能够简单粗暴地说都是一个取舍问题,但是取舍的确是能够——

葭月二三(01:12:40):对。

李文业(01:12:54):帮你去决……你要知道你是有选择的,你不是没有选择的。有很多人觉得我没有选择,我要在这个社会上活下去我就必须要阿谀奉承,我进入了职场我就必须要参与到这种办公室政治什么什么之类的。那我觉得不是这样子的。我自己工作十几年了,我也有遇到过。但我有的时候很傻,我不知道这是办公室政治,或者说我都认不出来哪些是关系户,是吧。但我到现在我觉得我还活得好好的。当然你可以说,如果我能够聪明一点、能够什么什么一点,说不定现在就能够当一个中层的领导了,或者说现在收入要比现在多得多了。

李文业(01:13:37):那不是我想要的。我花这个时间或花这个脑子去跟他们搞这个干嘛?对,我不需要这么多钱,或者说我不需要这个 title。我有这个时间跟精力,我不如多看点书、多跟人家聊一会儿、享受我的人生。对,我觉得更好一点。

李文业(01:13:59):我又想分享一下我最近的一个业余爱好,就是在 B 站上看相亲博主,好好玩!

葭月二三(01:14:04):怎么跟我爷爷一样了。

李文业(01:14:10):好好玩!我就喜欢听那些男女的什么稀奇古怪的一些相亲要求。比如说一个女生长得普通——不是说普通的女生就应该被嘲笑,而是说——

李文业(01:14:34):你要知道自己在相亲市场上是一个什么水平,然后你提出来要求别人会不会满足你。她就说我的彩礼要 30 万。

李文业(01:14:45):我彩礼要 30 万。然后那个媒婆就问她——那是个女的——媒婆就问她说你为什么要 30 万?她说因为我欠了 10 万块钱的外债。然后那你欠了 10 万块钱的外债,你要 10 万就行了,为什么要 30 万?她说——

李文业(01:15:03):这个 20 万是对我的保障。什么保障?她说万一我嫁过去之后发现这个男的信不过,到时候要生小孩,那我离婚了之后我就更难结婚了,所以我要个保障。然后媒婆就问她,那你嫁给他之前你不会跟他相处的吗?你不会去观察一下这个人靠不靠得住的吗?就觉得好搞笑。然后那男的也是的——

李文业(01:15:36):我会去了解这个市场。我知道相亲市场或者说婚恋市场是一个怎么回事的东西,我就知道男的要比如说要提供收入要怎么样,什么女的要怎么样、男的怎么样。那我了解这个规则之后——跟你了解社会,就比如说你前面提到的什么有时候就是要有办公室政治、要演戏,然后有时候就要拍马屁什么之类的。我觉得这个都 OK,就是你了解的是这个社会的某一部分的现实嘛,或者说你之前没有了解过、没有接触到的。但我了解的也是——我这也是没有相过亲嘛,我也不想相亲,我觉得这个很无聊。那我了解一个相亲市场,我也觉得它很有趣,而且是津津有味地去看。那不代表我要去——我不会去批判这个婚姻市场是怎么怎么样的。我只会说这就是现实或者怎么样。我不参与这个游戏就好了。对,我不会去相亲,我也不会想要那种过日子的那种所谓的婚姻,我也没有动力去搞。那就取舍就好了。

李文业(01:16:51):你不想要参与这个游戏,那就不要。不参与就好。

葭月二三(01:17:00):昨天我们宿舍出去玩,然后吃完饭之后回学校的路上,四个人在聊,就莫名其妙聊起来说怎么结婚。然后我们宿舍是两个人有谈恋爱、另外两个没谈。然后有一个同学她就说我就希望家长给我包办婚姻。当然她家里是那种比较有钱的,就是她说我不想浪费任何时间在别人身上。但是可能对于她们很有钱的人来说,包办婚姻可能是更容易达到门当户对,并且——

葭月二三(01:17:41):自己也有一定权势的这样的基础!

李文业(01:17:47):那就是她个人选择,就是她对待婚姻的态度就是:我不想自由恋爱,反正谈——如果谈到穷小子的话,到时候我还要倒贴钱给他,是不是?我还不如就我爸妈帮我包办了,起码他们挑的人不会太差。那婚后我们再——给我介绍对象之后,我先看看他、处一处,有没有什么感觉,有感觉的话就步入婚姻,到时候再慢慢培养感情。反正是强强联合双方都不吃亏。那在她的价值观排序里面,时间——

葭月二三(01:17:48):对。

葭月二三(01:18:04):对。对。

李文业(01:18:26):金钱是更宝贵的,或者说权势是更宝贵的。我觉得这个 OK,这完全 OK。那在我的排序里面,我认为自由、我认为爱情是更重要的。

葭月二三(01:18:34):对。

李文业(01:18:46):对。就我昨天去健身房上课的时候就聊起来我的那个高中同学——其实也是我初恋嘛——就是说她最近相亲了,准备结婚了什么什么之类的。

葭月二三(01:19:02):她真要结,我天。

李文业(01:19:11):对,真要结了。但是处了也很久了吧,处了大概有半年。对,过年的时候也去他家了,双方家长都见过了嘛。没有谈,反正他们就很——我觉得结婚就很麻烦的事情,他们还在讨论彩礼的事情。

李文业(01:19:38):这个细节我就不聊了。反正就我健身教练就问我说,那她家那么有钱,然后你怎么不跟她发展一下?

李文业(01:19:50):我说她们家有钱关我屁事。说我不需要这个钱。我说哪怕结婚,他说你给我 1000 万。

葭月二三(01:19:55):对。

李文业(01:20:00):我都不要。我不是吹牛逼,我是真的不要。你给我千万干嘛?对,我不行。你家那么有钱,然后结婚之后——且不说我跟她有没有感情嘛,假设我跟她能有感情能处得来——

李文业(01:20:17):但是她家那么有钱,到时候结了婚之后,那不是都得听他们家的?对,都得听他们家的。这个就很明显的一个例子——就是之前我去过很多次她家,但都是作为一个同学、以及是给她妹妹讲一些学习方法之类的事情的身份去的嘛。觉得他们很和蔼、说话很客气什么什么之类的。

葭月二三(01:20:22):对。

李文业(01:20:42):我是从哪个时刻深刻地体会到,如果你是做了他们女婿之后就完全不一样了。我的同学跟我哭诉:他们谈彩礼的时候闹得很不愉快。他们家已经这么有钱了,但是他们还是希望男方要给很高的彩礼来体现他们的诚意。

李文业(01:21:05):我头好大。我就觉得——就是那个男孩子家是广西的,爸妈估计也不是工薪阶层了,爸妈估计就是那种农民阶层吧,就没什么收入的。

李文业(01:21:19):然后那个男生跟我们年纪也差不多,虽然也是个程序员,但是他是做运维的。那个学历也是个普通的二本,所以攒的钱也没有很多,估计就三四十万左右,差不多就没有很多钱。所以说他们自己小两口商量的彩礼钱——就是我同学也觉得就是我不需要你那么高的彩礼,反正我是看中你这个人嘛。是不是?你这个钱给了我之后大家也是一起用的,以后你何必搞成这样。然后小两口商量就是说彩礼是 68000 还是 58000 还是 48000 我忘了,反正就是几万块钱,然后再加上三金嘛,什么金戒指、金手镯、金项链这样子。

李文业(01:22:17):那其实也不便宜了,加起来也十几万了,因为现在金价那么贵。

葭月二三(01:22:17):对。

李文业(01:22:26):我同学的妈妈——我同学她是个后妈,她妈妈在她小学的时候就癌症去世了,然后这是个后妈。但是他们感情很好,其实跟亲妈没什么区别。

李文业(01:22:39):她妈妈一听到说就几万块,她立马就哭了,就是痛斥他们、痛斥男方家没有诚意什么什么之类的。然后我同学就说她男朋友其实也没有攒到太多钱什么什么之类的。然后她妈妈的反应就是说:他爸爸妈妈不工作了吗?哪怕去打工也没攒到一些钱?就觉得很可怕。然后我就觉得原来就是没有遇到事情而已,遇到事情的话他们该强势还是会强势的。然后反正观念也会有很多不一致的地方。幸好我就庆幸自己当时没有就是——

李文业(01:23:37):昏了头,想着说反正大家都年龄差不多了,而且认识那么多年了,朋友关系也处得挺好的。虽然说没有爱情的冲动吧,但是将就培养说不定也可以。幸好没有做这种蠢事,就没有做这种蠢事。

李文业(01:23:55):OK,然后回到这个问题本身。我觉得理解现实或认清现实,我觉得很有道理。你觉得这是你愿意付出的代价——比如说你愿意去演戏或者是愿意去逢迎,我觉得都 OK。就为了你一个更高的目标,我觉得都 OK。

李文业(01:24:15):相反的选择——或者说我就不想去、我就不想干、我就不想赚那个钱——我觉得也 OK。

葭月二三(01:24:25):OK。就是我对象他这学期不是没有去学校,然后他也有在做家教。然后他就说,就是他刚开始去那种机构,然后机构里面那个资本家都不把老师当人。然后后面我就说那你就去接一些家教,就是直接去跟家长沟通的。然后我说做家教的话家长对于你的尊重程度和待遇会好一些。

李文业(01:24:55):是这样子。

葭月二三(01:25:03):然后成长板块的话是这张图片——其实是我上周就放在这的——是因为当时我打开腾讯元宝的时候,我其实已经很久没用它了,然后它的界面让我挺惊喜的。就是这左边其实还有对话的,然后这边它突然跳出来一个任务栏,比如说我添加这个”每日 AI 新闻推送”,它就每天 8 点会定时给我推送。就特别像你之前的那个专家团们给你的一些信息。然后我就会觉得说,对于个人来说,我们在 AI 的时代里面不断地划水、拨着这个浪花,想要让——

葭月二三(01:25:52):自己试图探求到一些什么。然后与此同时,像这些行业里面的人,他们其实压力也更加迫切吧,然后不断地都在研发和创新。

葭月二三(01:26:09):对。然后腾讯元宝我觉得它有时候好用,是因为它可以去搜一些微信公众号里面的东西。然后像我之前比如说——搜,我最近就是毛概课——毛泽东思想概论——要去搜一些家乡的东西。然后我会发现微信上面的一些个人观点以及官方观点,有的时候会更加多元一点,就是比直接从互联网上搜到的更多。然后我这周大概就这样。


李文业(01:27:08):我今天想要聊的一个总的主题就是:AI 时代的工作方法论是什么?首先我为什么想要聊这个,是因为我最近感觉我现在是有做自己的工作流的,就比如说——

李文业(01:27:34):接到一个需求之后,之前的做法是怎么样的,现在的做法我已经改了,就是全程都是让 AI 去参与,而且甚至很多的产出都是 AI 去做了,我只负责里面的关键的决策以及验证。对。但是我现在越来越不满意,我觉得现在这个工作流已经是比较先进的,但是用久了之后我还是会对它不满意,我会觉得说肯定还会有更——

李文业(01:28:06):更好的,或者说有一个更明显的演进方向吧。所以说想要讨论一下这么一个主题。OK,然后的话,第一个问题就是:你用 Codex 了吗?或者说用其他的 AI 编程,在等的时候会多线程工作吗?就比如说像这样子——我这是 Codex 的一个截图。我经常的一个做法就是这么多个线程,基本上是七八个线程一起干了。然后给它下达一个指令,然后其他的等它完成。然后哪一个先完成了,我就先检查一下它的结果,然后再进行下一步的指令。就有点像多线程工作之类的。

葭月二三(01:28:52):对,我还没有用这个 Codex。是因为我最近很强烈地意识到我写的代码其实没有很多,就是更多时候是在去确认这个方案到底行不行得通。但是像那种一口气大批量地写很多代码,好像就是只在刚开始一个项目的过程中进行。对,然后以至于我——我不是之前说我想要试那个 Auto 还有 Composer,但是其实我会发现我不知道在什么样子的场景下去用。

葭月二三(01:29:44):等的时候会多线程工作吗?基于我前面说的背景——就是我可能很多时候,最近的一些工作它其实都已经进展到了中期甚至差不多下个星期就要收尾的阶段了,然后导致每一个细节其实都是需要我去确认的。举个例子,就比如说上个星期刚跑完一个实验的结果,然后实验结合我们之前的一些数据,可能有几百个表格。然后我需要把那个表格先整理一下,然后我再写代码去进行分析。但是我这个星期什么事情都没有做,因为我没有足够的时间和空间去思考说我应该要怎么去整理、我要从怎么样子的角度去进行分析。我们前面说到的 AI 它不具有——

葭月二三(01:30:47):整体上的这个主动性,那肯定是要我自己先想清楚,我才可以派给 AI。然后导致我的确是在多线程工作,但是我的脑子就感觉顾不了那么多了。对,然后就只有的时候可能是比如说我最近一个事情是在一边跑数学建模、一边去跑实验——就是理论和实验的互相验证,那我就可以互相地去做。但是如果是跨项目的话,看阶段,后面这些阶段就是脑子根本没办法——我没办法让自己在短时间内做出一些比较重大的决定吧。

李文业(01:31:39):之前有提到过,就有了 AI 之后我们的一个做法越来越像:就是我们是老板,或者说我们是团队的 leader,然后去指挥下面的人去干活嘛。这个其实我觉得就很像。因为我们不可能给某个人、某个组员或某个下属安排了一样活之后你就全程盯着他看嘛,你不会觉得很奇怪吗?那肯定是他有一个阶段性的成果或者说最终结果的时候,你才会去检查他的结果嘛。

葭月二三(01:31:58):对。

葭月二三(01:32:20):对。但是你当这个经理或者说你管下面的人——你不用管他工作是没错,但是你要时刻把着这个舵,有的时候也挺考验自己的。

李文业(01:32:20):这个多线程,你说——

李文业(01:32:38):对,我认为所以我们得改变一下我们的观念了,或者说改变思维。就之前的话,我们认为多线程工作是不好的嘛:你不断要切换这些上下文,你会不专心、会——

李文业(01:32:59):很难深入一个问题。但是以后其实大家都是这样子了,很少说你真的要硬钻一个问题了。这不——或者说要分场景吧,对,要分场景。对。

葭月二三(01:33:15):对。但我还有个问题,就是在多线程的过程中,是否也意味着说时代在要求你更加全面地发展?但是我小的时候,我就是一个单拎任何一个方面来说都不算是 100% 突出,但是在全面能力上来看又非常强的一个人——就是到后面演化成了这个所谓的斜杠青年吧。但是我越来越觉得说,这个社会就有了 AI 之后它不缺斜杠青年,甚至你的试错成本非常低。

葭月二三(01:33:56):反而这个时候专长变得非常重要了。

李文业(01:34:02):得看你的程度以及技能搭配的稀缺性了。对,你说——在之前长板也很重要,那有些人他是不善于跨领域学习的。有了 AI 之后,得看他能不能擅长跨领域学习。如果他擅长跨领域学习,没错,AI 是能够帮他跨到另外一个领域,并且短时间内把它提高到一个普通水平,或者说甚至是人均水平。

李文业(01:35:01):如果他跨领域学习能力不强的话,他是没有办法——AI 只能够帮他……可能就是以前我们会看一个图,就是 AI 能够把所有人都能够从 0 分提到 3 分或者 4 分的一个水平。

李文业(01:35:23):对。但是你要提到人均水平,比如说 6、7 分的话,你必须要有一些跨领域学习的过程。是这样子的。所以说回到你的这个问题的话——

李文业(01:35:38):我就很难去量化说专才/长板在以前的作用里面会更重要一些还是现在更重要一些。我会认为其实都重要,或者说——

李文业(01:35:56):我会认为跨领域学习的能力是比以前更重要了,比以前更重要。以前的话,如果你的跨领域学习能力弱一点,我觉得也没关系嘛,反正大家都分工了嘛。我是后端,我就只需要学习我后端的东西、熟悉我后端的东西,我不需要熟悉你前端的东西。那现在的话大家都是全栈了,如果你只会后端的话,别人不可能专门搭配一个前端给你干活。那你的人力成本就是两个人。

葭月二三(01:36:24):对。

李文业(01:36:36):那肯定是不划算的。大家都是全栈,大家都是前端和后端一起写了。那你就必须要学会前端的东西。所以我会认为跨领域学习的能力是比以前更重要了。

李文业(01:36:50):我觉得,以前可能还会去拼你某一项能力——就是比较的维度会比较窄,就像我刚才举的那个例子,就考验你的后端能力或者怎么样。那之后的话就考验你——

李文业(01:37:13):我觉得对你来说甚至是更有优势的。就以后很多的竞争场景都变成了一个多维度的。就是一个工匠或者说一个专业人士在以前可以是某个领域专家,他可以不懂其他东西。CEO——

李文业(01:37:38):你想,一个公司的 CEO、一个大老板,他是要所有东西都懂的。对,所有东西他都懂。他这个懂不一定说他一定要知道里面的所有细节,但是他起码要知道——

葭月二三(01:37:45):对。

李文业(01:37:53):他要怎么样去使用、怎么去用人、他要知道他用的人要给他提供一个什么样的结果。那你不觉得这个跟 AI 很像吗?

李文业(01:38:06):就像马斯克一样的,当然他懂很多技术的细节,但他不可能懂所有的技术细节。那他这个时候要怎么去判断一个人、怎么样去要这个结果、怎么样去调配他的资源。最近 SpaceX 马上要上市了——

李文业(01:38:30):估值 1780 亿吧,非常厉害。对,我感觉他的传记还是写早了,传记还写早了,我觉得他后面的故事也同样精彩。然后紧接着回到你刚才的那个问题,我觉得没有必要太过地去焦虑自己是不是有某一项专长特别强吧。如果你觉得某一项东西对你来说特别重要的话,你就花时间去学习就好了,对,花时间去投入、去训练就好了,我觉得都 OK 的。

李文业(01:39:15):然后其实这个问题我们刚刚也讨论过了。如果完全不读代码——我尽可能少读代码——我怎么样去保证一个系统的正确性、稳定性的话,我觉得就是测试体系要完整,或者说像一个产品使用者一样的——就我就接受一个真正完整的产品去评估一下它的效果怎么样,而不是说我一定要读每一行代码才行。OK。第二个问题:你觉得你一个月能够有效地烧多少钱的 token?

葭月二三(01:39:47):对。Token 我感觉没有太多的概念。

李文业(01:40:02):就这么说。就假设以 Cursor 的账号为基准吧。就假设你——我估计你——

李文业(01:40:18):因为我平时会经常去看那个 Cursor 使用记录,我现在估计你一个月的使用额度大概是不超过一个 200 刀的账号的。不超过一个 200 刀的。那你自己觉得,假设你现在——

葭月二三(01:40:33):对。

李文业(01:40:44):假设你们学校突然大发慈悲,给你们每一个学生都发账号,你能用多少?你觉得你一个月能有效地烧掉多少个账号?现在是不到一个。

葭月二三(01:41:06):对。就我觉得 token——我觉得之所以我的目前情况是——有一句话说得很好,不是 token 的上限,是时间的上限。就像我前面说的,我会觉得说我时间不够,然后我的事情其实也没有我想象中做得多。就是包括你可以了解到我很多做的事情其实是为课内或者科研写代码去做,我还有很多我在本子上想做的很多事情都没有去做到。对。然后如果我大胆尝试——就是我不用上课,然后有纯粹一个月的时间,然后没有这些目标需求——单独去做的话,我觉得一个月,可能一个、可能两个。但是我觉得我可能还是没有一个很高的值。

李文业(01:42:23):OK 好。然后我其实是很认同这句话的:我觉得一个人能够有效烧掉的 token 数约等于一个人的能力上限。当然——

李文业(01:42:43):当然有些人的工作他是很难用 AI 去帮他替代的,比如说一个瑜伽教练或者说一个健身教练,他不可能用 AI 去帮他做这个事情。这个我们的讨论范围会缩减到就是工作是能够用 AI 去赋能的。对——

葭月二三(01:42:59):对。

李文业(01:43:08):那比如说程序员好了。如果一个程序员他说他一个月都烧不掉一个 Cursor 的一个账号的话,我认为他这个人的能力首先就是有限的。对,非常有限。因为我觉得 AI 工具它其实是一个放大器,它是能够放大一个人的能力的。那一个初级的程序员,这个放大器放大出来的——

李文业(01:43:40):可能只能放大个一两倍、两三倍。那最后放大之后的结果也不会说太高。但是一个高级程序员、甚至是一个非常厉害的程序员,他虽然说已经比初级程序员要厉害十倍百倍了,但是如果有了 AI 的帮助的话,他可能会比一个普通程序员要厉害 1000 倍甚至 1 万倍。所以说我觉得我很认同这句话。其实这句话有点像是黄仁勋类似的观点,虽然说他也是想为了卖 token,但是我觉得这句话——首先我觉得是非常认同的,就我自己的经验以及我的思考来说。对。好,第二点的话:我会觉得我自己还是有点局限,就有点抠搜的——就是有时候用着我还是习惯性地看一下还剩了多少钱,如果这个 token 用得比较快的话我还是有点心疼的。

葭月二三(01:44:30):对。

李文业(01:44:44):当然我觉得我做得已经挺不错的了,比其他同事比较愿意花钱的。但是我的直觉告诉我还是应该要更放开一些,它对于我的成长来说是要更加重要一些的。这让我想到了很多年之前在知乎还没有变质之前的那个知乎,看到一个例子。

李文业(01:45:17):有的时候就是人会被贫穷——就是那种所谓的穷人思维会限制到什么程度。这个例子也有可能是编的,但是我觉得这个例子很生动。他就说他大四了——对,大四了——然后发现他的舍友在准备考研。然后他的舍友是一个很努力的人,是一个农村来的女孩子。然后就发现她用的教材不是最新的。对,她的考研材料不是最新的。然后他就问她你为什么不去买最新的?然后她说最新的教材一套要几百块钱,但是她这个教材是去那种旧书店去淘的,而且因为不是最新的教材,所以——

李文业(01:46:12):只需要几十块钱就能买回来了。对,就——

李文业(01:46:22):这个例子就是很生动:人——你省了这几百块钱或省了一两千块钱,但是影响的是你整个前途。你读的是旧的教材,那有可能知识点或者说知识领域已经改了很多了,是不是?那对你考研这么重要的一个事情,你不觉得这个钱其实一点都不值得去省嘛?所以我的直觉告诉我也不再省这个钱了。

李文业(01:47:00):应该多花一点。对,我自己统计了一下,我 3 月份的支出是 1200 刀,就大概是 8000 多块钱。然后 4 月份的预算我打算给自己定一个目标就是 2400 刀,大概是 16000 左右。我也想着如果全部花完的话会有什么样的发现。对,我想要进行这么一个尝试吧,就是多多用一些 token。对,是这样子的。你对此有什么想法?

葭月二三(01:47:36):我挺羡慕那种有点自由的感觉。我会觉得说相同的钱其实在不同的领域里面发挥的价值是不一样的。就比如说我几千块钱去买了一个雅思网课,但是其实我根本就没有听几节,然后里面课质量又非常低,我觉得就没有用。但是我看到这个 4 月份的预算都要快 2 万的时候,我其实当时有一点点震惊。我又想到可以玩一个月,就突然又变得很明朗了。

葭月二三(01:48:28):就是在比如说在你玩的时候,本来只有 1 平方米的空间让你玩,然后你就会束手束脚的拉不开。但是现在给你一间房间,然后你自己随意地去装扮它。然后真的就是像说”贫穷会限制想象力”。那这样子就会把你的想象力打开。我还是会有一点点对于自己的紧张,在于我好像没有那么大的想象力。或者说可能你扩大到 2400 刀或者是 3600 刀,但是我的想象力只有 200 刀的范围内。我会觉得说这是我相比于一个快速发展的时代所存在的一个局限性。

李文业(01:49:21):所以我觉得就是要打开思维嘛,要打开思维就是要敢于去投入。就是你发现一个东西——我跟别人说别人都觉得不可思议:你为什么上班要花几千块钱去买账号?公司不提供你就不用?就真的有必要吗?我们的工作真的有必要吗?他们——我觉得他们思维还是停留——他们首先第一个可能没有深度用过这些,比如说 Opus 没有深度用过。第二个就是他们没有想过要大幅度地去改进自己的工作方法,他们还是用旧的工作方法,还依然很奏效,他们就不想变了。

李文业(01:50:09):对,而且他们第三个——他们可能思维跟我不太一样的地方就是,我想到的不是说我这个月要用比如说一万多块钱、甚至差不多两万块钱去用这个账号。我不是说单单是完成我的工作,我是想要通过这个尝试——像做实验一样——我有没有可能——

李文业(01:50:38):放开手脚去用的时候,我大胆地去进行不断的尝试。比如说在 Opus 之前,我不会想到用 AI 去帮我做测试。我不会想着说:你自己想办法吧,自己去调数据库,自己去模拟数据,自己去怎么怎么样,从这整一个流程你就在这个网页上跑一遍。我不会有这样的想法,因为我想象不到它能够做到这样的事情。那现在——但是后面我不是刚开始订 200 美元的账号的时候,我是用不完嘛。然后用不完的话我就开始用 Opus、一开始用 GPT-5 嘛。然后后面用 Opus 之后我发现它这么聪明,后面还发现它能够控制浏览器什么什么之类的。就是有这种新的发现。那如果没有这种超出——

葭月二三(01:51:38):对。

李文业(01:51:42):所谓的日常需要的支出的话,我是不会发现到这个东西的。我是在 push 自己:不要用之前的思维去评估这个钱值不值,而是用一个发展的眼光——就是我花了这种超出日常的支出,可能会有新的发现。

李文业(01:52:42):OK,然后刚才说到——如果没有这种超出所谓的日常需要的支出的话,我是发现不了这些新东西的。这也印证了或者说再次确认了我之前提出的一个观点嘛:创新来自于浪费,对,创新来自于浪费。

葭月二三(01:53:04):对。

李文业(01:53:06):所以试试看吧。我就想着说,其实也损失不了多少嘛。那哪怕我花了一万多块钱发现没有新的发现,那就没有新的发现,是不是?但我觉得我不会——我直觉告诉我肯定会有新的发现的。对。OK。

葭月二三(01:53:25):其实我还挺期待的,就是想要做更多更好的事情,然后并且看一下在和 AI 交互的过程中是否有新的体会。就是感觉还是会量变产生质变的。

李文业(01:53:43):加油。就 4 月份——就是我觉得有点难。我觉得有点难,花钱也不是那么容易的。所以我们都得加油,因为 4 月份现在已经过去 5 天了。对,而且现在用的账号也是 3 月份付的钱,所以说 4 月份到现在还没付过钱。

李文业(01:54:17):然后要用 2400 刀的话,除去我的 ChatGPT 账号自己用之外,还有 2200 刀就是 11 个账号。要在 20 多天里面用 11 个账号,那平均两天要用一个,有点难。估计这个月有点难。我可以试一下吧,尽可能的预算嘛,不一定要全部用完。那尽可能就是使劲地去用嘛。

葭月二三(01:54:35):两天。对。

葭月二三(01:54:54):那你可能就会看到我在早上 6 点开始玩了。

李文业(01:54:55):对,你快用吧!我觉得很 OK。看到一个值得投入的东西就应该果断地去下注。不然——就其实跟时间是一个道理:你看到一样事情值得投入时间的话,你就应该勇敢地去投入时间。钱其实不是一个特别重要的东西。OK 好,这是第二个问题。这个问题有点抽象:你觉得你现在厉不厉害?想不想变得更加厉害?为什么想?为什么不想?我先解释一下这个问题吧,问题有点抽象就是——

葭月二三(01:55:30):OK。

李文业(01:55:48):我觉得我现在使用 AI 这个方面至少比同龄人或者说周围的人要厉害得多的。我想不想变得更厉害?我当然是想。对,所以这个问题也问到你,你觉得?

葭月二三(01:56:12):这其实让我想问——问我现在厉不厉害,我觉得我现在不厉害,但是相比于同龄人又比较厉害。想不想变得更加厉害?我当然想——我要成为一个伟大的科学家。但是我周五的时候——周五晚上下完课,就是我晚上还有课,然后下完课之后我跟学姐打电话,然后我就走去操场,然后在操场上面发现了秘密基地——这不是重点。

葭月二三(01:56:53):当时我就跟她说,看是不是明年这时候我其实就已经在保研阶段要准备去找老师了。然后我就跟她说我最近看的一些老师其实不知道该怎么选。然后如果是看清北的老师,我又会觉得说好难够不到。然后但是如果看普通的老师的话——

葭月二三(01:57:19):不对,就是还有一个老师他很厉害,但是他是在上财——就是学校又不是很好——就是我会有一种不甘心的情绪。一方面是保研吧,另一方面是我现在做的科研——我肯定想要发顶会的文章,然后我肯定想要做到一个很强很前沿的水平。对,这种野心它在每个人心里都是存在的,或者说这也是你一直努力的原因和动力。但是我会觉得说我一直自己是一个比较——就是我以努力为日常状态,就是我并不觉得说我自己很努力的一种状态。然后她就跟我说你要学会点火、要学会熄火。然后她讲完之后她说她需要的是熄火——就是她有时候忙到半夜有状态,她就直接通宵不睡。然后但是我觉得我一直把火一直是在微弱而渺小地烧着,但是它没有燃成一个非常熊熊大火的趋势。就是就像我上一次讨论里面说到说,我可能有能力去够那些非常好的学校,但是我可能又达不到非常顶尖的一种状态,以至于我现在没有很强的理由告诉自己说你是非常自信的。

葭月二三(01:59:01):对,我感觉我自己以为自己很厉害,但其实自己好像又不是很厉害的这种矛盾状态。

李文业(01:59:14):有些人的自信他是很无厘头的,就是他没有事实根据他都能很自信。那我觉得这种自信是不是好事,我也不知道。比如说有一些企业家,他之所以能成功——

李文业(01:59:38):有一部分原因是他所谓的盲目自信,就是所有人都认为他这个事情做不成的时候,他最后能做成了。如果没有一小部分的盲目自信的话,他可能做不成这么厉害的程度。就最典型的例子就是马斯克——他的火箭回收、他的电动车都是这样子的,全世界都说他不行,最后他做成了,做得非常棒。

李文业(02:00:02):但是这是不是有可能也是幸存者偏差?我们只看到了这个成功案例,我们也同样能看到很多知名的企业家他在盲目自信之后走向毁灭。是不是有很多这样的例子?我具体又不举了,觉得还蛮多的。就比如说在七八十年代有一个叫——

李文业(02:00:30):我忘记是不是叫牟其中了。然后他最后他脑洞大到什么程度——他说要在什么喜马拉雅钻一个孔,然后让那个什么风从里面吹过,然后就能够把多少平方公里的冰川变成肥沃的田地之类的。反正就是整个人就是感觉有点太抽象了。OK——

李文业(02:01:02):然后我自己跟自己对话的时候,我会认为自信是来自于你做出来的东西。自信是来自于你做出的能够看得到的东西。它才能够说服自己,或者说先说服自己再说服别人吧。对,我是这么想的。比如说我自己认为我的 AI 能力为什么会比别人强?我自己的话会说:诶,你看我做的 APP,是不是我不懂前端代码但是我能够做出来这种东西?所以我觉得我很自信。然后我自己在工作上做的事情,我认为——

李文业(02:01:46):比如说我梳理出来的工作流,然后我用 AI 生成的代码——代码质量我认为是很高的。而且不是说只是我认为,包括事故发生的程度、包括在线上运行的稳定程度、以及正确性、以及返工的次数——我都认为客观评估来说都是非常高的。那么我就能够说服自己我就是比别人强,而不是自己感觉。

李文业(02:02:24):自己感觉自己怎么怎么样,或者说我就跟身边的几个人比一比我就觉得自己怎么怎么样,不是这样子。我是有数据去支撑的。甚至我自己去考虑我自己的——

李文业(02:02:42):生活有没有过得好,我也不是只凭感觉的。我自己也会有一些数据:我认为这个月读书花多长时间、健身花多长时间、冥想花多长时间,然后再结合自己的感觉——得,这个月还是过得挺不错、挺充实的。对。

李文业(02:03:02):那你想要去够什么样的学校,那我觉得我会这么想。有点像谁说的——北大之前有个校长叫做胡适吗?他说过一句话叫做”大胆假设,小心求证”。对,那我觉得你也可以大胆想象。

李文业(02:03:50):不管是清北也好,还是哪里的教授都好,你都可以想象你要去跟他做实验或者说怎么样。但是接下来的一步就是好——你要去跟他做实验,你的水平要达到什么程度?他为什么要选你?你要做什么样的事情?这就要落地。不需要花很长时间,你就能够评估出来你现在差不多有没有这个水平。就比如说假设——

李文业(02:04:24):清华有一个张三老师,他很厉害,然后你非常想跟他去学习,也想进他的项目组去做研究。那他需要某方面的能力。假设吧——比如说——

李文业(02:04:47):某项能力就 ABC 这项能力。那你这项能力你现在具不具备?或者说你现在是什么程度了?现在假设他需要的是 100 分、120 分的能力,那你现在只有 60 分。你要怎么去够这个能力?那如果你要去增长这个能力,是不是可扩展、可迁移的?那如果只能够用到他这个项目组、只能用到他这个老师身上,那是不是太冒险了?那假设这个能力是通用的能力,所有的几乎所有老师或几乎所有的项目组都需要这个能力,那我觉得你可以放心大胆地投入时间、投入精力去扩展这个能力了。就哪怕你最后够不上这个张三老师 120 分的 ABC 能力,那你照样最后也是有收获的、最后也是有成果出来的。你不是说不成功了就是全盘失败,你还是有收获的。你也是求乎上得其中了。

葭月二三(02:06:00):但主要就是你不知道他到底想要什么。就是说白了你有这个能力,大家也有这个能力。就感觉很特别像在沙漠里面走路吧——然后你知道你自己的目标要往那走,但是有的人就是走得比你快、比你更轻松、更强大地往前走。对。然后——

李文业(02:06:30):当然,那很多天龙人都不需要自己走,对。

葭月二三(02:06:37):人家直接飞过去。

李文业(02:06:40):有一句话叫什么?说”爷爷我也想要成为院士”,爷爷说”你已经是院士了,你只需要长大”。

李文业(02:06:52):好,说正经的。所以你要去做调研。对,你要去考察他需要什么能力。甚至你要厚脸皮一点。是不是可以给他写邮件?是不是毛遂自荐一下?是不是?脸皮不要那么薄嘛。你想象一下,假设你现在是一个大学里面的老师,假设你就是清华大学的老师——你不是想你以后想当老师嘛——假设你就是清华大学的老师。如果有一个云南大学的学生给你写邮件——

葭月二三(02:07:29):对。

李文业(02:07:36):问这种基础的情况,你愿不愿意回?你愿——

葭月二三(02:07:43):回。小孩多真诚,为什么不回。

李文业(02:07:47):对。那你甚至就手写信,为了表达你的诚意你就手写信寄邮件寄到他那里去,是不是?

李文业(02:08:00):就是不择手段嘛。就是最近那个张雪不是很火吗?你听——对,张雪不是很火吗?人家多牛,这真的是个很动人的故事,而且再配合上她当时才 19 岁。就她那个青涩的脸,就那种农村质朴的脸,你就觉得这个——

葭月二三(02:08:05):对。

李文业(02:08:21):故事好动人。那对——别人已经看了她的表演了,觉得她就是不咋地,她还追着人家的车?

葭月二三(02:08:23):对。

李文业(02:08:35):别人说你回去吧,人家已经明确拒绝她了,就是不想拍她了或怎么怎么样。她就是厚着脸皮跟别人说没事,我就送你们,我骑着摩托车我又不会怎么样。是不是?那最后人家还是被她真诚打动了嘛,是不是?

李文业(02:08:54):那你也可以做这样的事情。可以先写一封邮件,甚至如果你真的很想要的话你就手写信。你就问他说:我很想参加你的项目组,我对你们的要求可能不太了解,你能不能给我稍微讲一下?然后留下你的手机号码,说你有空的话可以给我打个电话,甚至给我加微信也好、发短信也好什么什么之类的。你不会损失任何东西。他大不了就不回你,他难道还能打电话来骂你不成?

葭月二三(02:09:15):对。

李文业(02:09:32):是不是?就是这样子的。对,你也要有足够积极的态度。如果你想要的话,你就去做。OK。然后对,然后就去够。有很多人就——我觉得有两点:一点就是有些人他不知道怎么去做——

葭月二三(02:09:48):好。

李文业(02:10:01):就是有点像很多人高考——他为了考出那个成绩,但他不知道以后想要做什么。对,他不知道。然后第二个就是他不知道上面的人是怎么想的——他总是站在自己的角度去考虑别人的——

李文业(02:10:27):想法是什么。对,这样——我举一个例子。就是我很想成为这样的人,我觉得我很难——我脸皮薄得太多了,刚才你说那个事情我都不一定能做得出来。对,我是一个脸皮特别薄的人。有——我是看万维钢的专栏里面他讲到的一个例子,就这个人他是在国内读了——像安徽吧还是哪里,反正就是读了一个 211 的学校。

李文业(02:11:02):然后英语还不错,去当过导游什么之类的。但是后来他觉得本科毕业发展前景不是很好,所以他想去美国读一个研究生。按照正常路径的话,是不是他就应该去什么留学机构或者找一些资料或写申请书什么之类的?你知道他怎么干嘛?他先把自己想上的学校全部在网上写下来,然后直接给系主任打电话,直接就说——而且是非常的真诚。他就说:我想上你的这个学校,但是我的绩点不是很优秀,能不能报考你们学校?然后你知道系主任怎么说吗?系主任说:我们的学校绝对不是只看绩点的,我们要吸收的是最适合我们的人才。对,人才的评价维度不是唯一的标准——绩点不是唯一的标准。你看。然后他说那行,那我可以联系你们哪些人?我想要看一下具体需要哪些材料,到时候就申请你们学校。然后那个系主任就很积极地给他提供了这些信息,然后他就最后申请上了。

李文业(02:12:20):举这个例子并不是说只要这么干就一定能成功,或者说别人就一定会很积极地回应你。而是说——

李文业(02:12:32):你要换位思考。你觉得别人不会理你或者怎么怎么样,但是其实——你就是有一个例子:就是你觉得你去大街上找一个人,要手机打一个电话,成功率是多少?就是你——一半一半的?

葭月二三(02:12:52):一般……

李文业(02:12:59):成功率是 95%。95% 的人都会把手机掏出来借给你,除非你长得凶神恶煞,就像一个小偷一样,或者是一个抢劫犯一样。

李文业(02:13:11):不然的话,只要是一个正常人,而且普通人非常有礼貌地跟别人说借个手机打个电话,95% 的人都会答应。所以你就低估了别人的善意,或者低估了别人愿意帮助你的程度。对,这是一个很明显的思想偏差,我自己也是非常明显。

李文业(02:13:34):所以说回到你刚刚那个事情——与其你纠结于自己是不是能够得上某个学校、别人会不会帮助你什么之类的——你就,我觉得就去试就好了。对,去试,做好准备然后大胆去试就好了。

李文业(02:14:01):这是一个问题。我自己对这个问题的思考就是:我发现我自己不会满足于停在某个层次,我会好奇变得更厉害之后我能够做什么样的事情、能有什么样的创造。我最喜欢举的例子是阅读:我读了 10000 个小时之后,我不会想着说我读了 10000 个小时已经比别人厉害很多了,我可以不再读书了。我是想着读 10000 小时已经能变成这样了,那我读 20000 小时会不会变得更加厉害?会厉害到什么程度?会有什么新的发现、新的创造?我也很好奇,我也很想要去做。我现在就读 20000 小时了。那 20000 小时之后我就想着:我要读 30000 小时会怎么样?我觉得你到时候也应该会有这样的一个心路历程。你现在想着说如果你能够考上比如说清北的研究生或者保送到清北的研究生,你就觉得已经很厉害了。你真的读了这个研究生之后,你会有更多的想法:诶,我想要读哪里的博士?或者说——之前你可能想着说我只要能在一个普通的高校当老师就好了,或者说怎样。但是你到了那个层次、到了那个水平之后,我觉得你不会满足于这个水平的。

葭月二三(02:15:32):诶,有声音。

李文业(02:15:34):OK OK。好好。然后好,其实第四点有点跟第二点是有关联的。就是假设 Opus 的成本下降了 100 倍,就比如说 Cursor 的这个 Opus 会员原来是 200 美元一个月的,现在是 2 美元一个月,你会做些什么?

葭月二三(02:15:58):我也觉——就是这个变化又让我想到流量的变化。就是小时候那个流量可贵了。然后现在感觉就是也要额外买吧,但是价格已经便宜很多了。然后如果是从流量的角度上来看,其实我没有太多的变化,或者说增加了我的娱乐自由度而已。就是小时候我记得很印象深刻:写作文那你肯定要去参考一下人家优秀作文。小时候我全家就只有我爸的手机有流量,然后我就会向我爸拿手机过来,然后还只看那些文字——就是有图片的都尽量不要看——然后用完之后看完之后就得把流量关掉。然后当时也有 WiFi,但是 WiFi 的话好像就我们家里面没有安,然后要去哪里然后我才能下载一些电视剧看。对。然后现在流量变得很多,然后甚至说价格也比较低,我感觉反而那些有用的事情做的不多,然后像看视频这些反而做多了。

葭月二三(02:17:25):所以我觉得就是——有的时候无限反而是一种更大的困境,就像网购一样。就是我可能之前只有一个商店或一条街的店能买东西,但是现在我有一整个互联网,然后还各种购物平台,我可能有的时候就会挑花眼。但是这个比喻感觉不太对——我会觉得说——

葭月二三(02:17:58):就是我刚才那个例子:流量的例子会让我感觉到流量变多了,我也没有在干什么好事。但是这个也只是相对的,就是相比之下我摄取的信息量肯定是更大了的。

葭月二三(02:18:20):然后回到这个问题上来说,如果这个 Opus 成本下降了 100 倍,我第一反应是”是不是出现了更好的”。然后第二个反应的话就是:如果用刚才我的思路——就是”有没有出现更好的”——也就是说我现在 GPT-5.2,就我们之前经常用的那个,然后它也变得很便宜了。我会做什么?

葭月二三(02:18:48):我会做什么——我会……我没有一个很确定的答案。这个原因是因为我可能还没有放开手脚地去想象,然后也没有时间去做。我没有把握或者说我没有计划好的事情,我不知道这是一个有秩序的状态还是一个可悲的状态。对。

李文业(02:19:21):OK。我会建议你花一点时间来去想一想:你要怎么样用 AI 这个工具更大倍数地去放大你的——

李文业(02:19:44):能力,或者说帮你去提升这些能力。因为你现在能想象到的都是你已经掌握了的,或者说你现在的知识领域里面的东西。但是你要探索的话,你就得花时间了。

葭月二三(02:19:55):对。

李文业(02:20:04):你就得花时间。比如说我自己,我之前是想象不到我自己是怎么去优化一个软件的。我最近的——因为我现在那个 ChatGPT 的 Codex 的流量,那是我用不完的,拼命用才能够勉强用完。然后我会用什么样的手段?当然我——

李文业(02:20:29):相比之前是有一种浪费的感觉,但是我也是有目的地去浪费吧。就是我会让 AI 去找出来我这个代码项目里面 10 个可能的优化方向,然后我自己去挑里面几个优化方向让它去改。然后改完之后看一下效果,好的话就让它——

李文业(02:20:51):保留,不好的话我就让它回滚。就用这种方式去做。我发现这样要比我给它——就是我以前的做法是怎样?就是我用这个 APP 用着,觉得哪里不好,明确有一个需求告诉它你要怎么改进,或者说有个 bug 你要修复。

李文业(02:21:16):对。但现在我不是这样子的。现在我的方式就是:我用着觉得没什么大问题,但是我总觉得它不够完美,或者说我总觉得还有改进的方向。但是我自己没有明确想到改进的方向,或者说我不愿意花太多脑子去——

李文业(02:21:36):想这些方向。那我就告诉它:我说你来帮我找这个方向,或者说你来去想这个软件怎么样去演化,然后我来决定你的建议是否要去执行。然后你执行完之后我来看一下效果怎么样。那我后来发现这种方式效果会更好一些,对,更高效一些。但是如果是以前不可能这么干的。你不可能对一个程序员说——你自己不给他明确的需求,而是说你去搞 10 个不同的修改。然后最后我发现他搞了两三天之后不咋地,让他回滚。程序员第二天就会离职。

李文业(02:22:21):你在浪费我的时间、你在浪费我的精力,是不是?但是 AI 不——首先 AI 的成本已经很低了,而且 AI 也不会有所谓的这种被浪费、被羞辱的感觉。回到最初的问题——

李文业(02:22:48):成本下降之后,你要认识到——怎么说——我们的思维还是停留在以前智能非常昂贵的时代。或者说——

李文业(02:23:11):AI 非常昂贵的那种思维里面去工作或者说去做一些事情。对,但是 AI 已经变得很便宜了,智能已经变得很便宜了,或者说相对于它能够做的事情来说 AI 已经很便宜了。以后还会变得更加便宜,因为它在快速发展。现在说电力、能源、算力以及整个系统还在草创阶段,还没有很成熟,所以现在成本看起来还是有点高。但是它是不断下降的。那如果我们能够提前的——尤其是如果你想要做科研或者说你想要成为一个伟大的科学家的话,你的思维肯定是要至少要比别人要——

李文业(02:23:58):快,或者说要先进一个阶段的。不可能大家现在都是这么想的、都想的是今天的事情,然后你要想到明天的事情、或者想到明年的事情。你要预估到明年的事情会是怎么发展的。所以你要提前用明年的做法去做,你才有可能比别人厉害,你才算是前沿嘛。

李文业(02:24:28):所以为什么我会想要做这么一个思想实验或者说问这么一个问题,其实也是这个道理。如果我们想法没有比较超前的话,我们很难有新的思维跟新的创造去做这个事情。就还是那句话——其实一开始我不需要用 Opus 的,那为什么我后面用了 Opus?就是因为我的——

李文业(02:24:54):200 刀的账号用不完,然后我就用一些看似很浪费的指令让它去做一些事情。后面就有了新的发现之后,我就发现我的技能就有所发展了:我就是跟别人不一样了,我比别人厉害了,或者说我比别人掌握了更多的技能,让 AI 把我的能力放大倍数从比如说原来的一两倍提升到三五倍甚至十倍。

李文业(02:25:27):我也是还是那句话,就这个月加油吧。就是可能现在想象不到能怎么用,但是多花点时间在——

葭月二三(02:25:28):对。

李文业(02:25:43):打上双引号的”非常浪费”以及”非常土豪”的使用情况下,看有没有新的发现。

李文业(02:25:54):哪怕你最后发现没有新的发现,也是一个发现。在你们科研圈里面,发现这条路走不通也是一个发现。OK 好,这是第四个问题。好,第五个问题其实有点像但它不完全是同一个问题。就是假设现在——

李文业(02:26:18):只有两种选择。一种选择就是学校免费给你提供 Cursor 里面的什么 Composer Two 无限流量,不用你花钱。还有一种就是你自己可以花钱用 GPT-5.4 High 吧,但也是有额度的,不是无限流量的——就你目前的使用量来说一个月要 80 美金吧。你会怎么做?

李文业(02:26:49):你会怎么选?

葭月二三(02:26:56):我会选后者。因为其实很现实的一个层面是,我对代码没有那么强的需求。我更想要一个聪明一点的——就是举个例子:前几天我有一个非常简单的任务,然后我想着我就直接用 Gemini 3.1——这其实也已经是 Gemini 这边的 SOTA 了,就是最好的模型了——但是它做得很差。我让它改的是一篇文章。就是我记得我很早在还没有用 Cursor 的时候,我对 Gemini 的语言表达能力还是比较欣赏的。然后我当时就让它——

葭月二三(02:27:37):就已经写好的一个版本,我说你再给我补充一点东西越多越好。结果它给我删——它把我删了 1000 多行,然后补了 80 多行。我当时整个人都气炸了。我以为是我没表述清楚,我就让它再跑了一次,结果它还是那样。然后后面我就生气了,我就直接换 Opus 去做。就是非常深刻地体会到什么叫差距。就特别像幼儿园的时候——你看人家家的小孩:Opus 它非常认真地去做调研,然后进行一步一步的计划,然后再一步一步地去做。我感觉就真的是两个档次。

葭月二三(02:28:20):对。然后我觉得就是少吃点饭我都可以,让我少受点气吧。

李文业(02:28:26):OK OK 好。OK 好,那 80 美金其实挺舍得花的,500 多块钱!

葭月二三(02:28:36):对。

李文业(02:28:38):OK。然后反正我是一点都忍不了——忍不了使用的不是放大倍数最大的工具。就是我之前——我现在都很少用 GPT 了,我都是用 Opus,而且是 Cursor 里面的 Opus。就是这个,第二点我先跳过,我先说第三点:就是其实我们公司有提供一个类似 Cursor 的工具——它其实是亚马逊推出的,你可以理解成就是 Cursor 吧。

李文业(02:29:15):亚马逊的版本。它其实也是能用 Opus 模型的。但是不知道为什么,它就是比 Cursor 里面的 Opus 差很多——纯纯的差好多——它甚至比不上 GPT-5.4。就是真的很蠢。当时写的——一开始我是很乐观的,我就说不知道——因为它是不限流量的,其实它也是限流量的,它一个月好像最多只能用 500 刀吧。

李文业(02:29:49):当时我就想说不知道我一个月烧 400 刀会不会警告我。然后我随即就写了:不用警告了,我不用了,太垃圾了。这后面补充了——可是后面发现它很垃圾。我用了三四天吧。一开始我还很有耐心,我想着说是不是我的 Rules 或者说 Skill 什么的,反正长期记忆没有调好嘛。就因为 Cursor 也是调了一段时间的嘛。

李文业(02:30:14):然后我就很认真地、很努力地去调了三四天。然后后面有一个很简单的问题——我问它给我的答案是非常让我失望的一个答案。然后我就问 Cursor 里面 Opus,给了我一个很满意的答案。后面我就果断地——我说我再也不用这个东西了。后面我还是觉得会用它,就是我觉得不要浪费,反正是公司免费额度。所以我不会用它来帮我回答问题或者帮我写代码——因为我觉得这个事情是很重要的,它如果做差了对我影响太大了。

葭月二三(02:30:41):对。

李文业(02:30:55):所以我只是让它帮我做 code review——它就帮我当一个 code review 机器,就或者是一个测试员。就有些测试让它去跑测试就好了。因为相对于这些东西的话它不会改东西。无论是 code review 也好还是测试也好,它得出一些发现、发现了问题——起码简单的问题它能够测出来嘛。然后测出来之后我也不会说直接就改了,我也是把它找到的问题让 Cursor 去确认。

葭月二三(02:31:10):对。

李文业(02:31:25):确认完之后我再去解决。我发现它做这个事情还是可以的,能做的——还是要把这个 400 刀用完。OK,然后——

李文业(02:31:39):第二点就是——其实跟我之前思考的一样。我在用 Opus 的时候有点束手束脚,喜欢看剩下多少钱。我就很害怕自己的思维方式还停留在上个时代。就是当你的周围的环境或者说你的时代已经发生了改变,或者说工具已经发生改变了的话,如果你思维还停留在上个时代,那真的是很可怕的一个事情。所以我会很警惕这个事情——对,尤其在使用 AI 工具这个地方。OK——

李文业(02:32:18):这是第五个问题。第六个问题:你觉得你现在最大的瓶颈是什么?

葭月二三(02:32:30):时间、精力、想象力。时间就是数量上没有很大地去使用它,就还没有达到深度重度的一个情况。然后精力是很——就是我前面说的,我没有办法去思考每一个项目它的走向大概是什么样。就是它不是说我想一个软件的设计,然后设计出来然后就没了的一个情况。然后我会觉得说有时候是我自己的想象速度、我自己的经历拖累了 AI 的进度。不然的话要是我现在它给我结果我马上可以给它一个反馈的话,那其实效率是非常高的。对,就——我还觉得自己太菜了。对。然后第三个是想象力。我一直觉得说我现在还是在一个像我们之前讨论的应试教育的一个——在规则之内运行。我还没有足够的时间空间去很大胆地去尝试。我会发现自己是一个相对没有那么自由的灵魂状态,就是我感觉并不是这样子。对,然后就会觉得说你没有学业、成绩不用上课的压力,可能在这种更加空旷的空间里面可能会有更多更珍贵的、比较有意思的发现。

葭月二三(02:34:25):瓶颈——但是我觉得如果前面说的比较大的范围,但是如果是具体到 AI 使用的瓶颈上面,我会觉得说——就 AI 使用的瓶颈——

葭月二三(02:34:48):因为现在就是 AI 使用的水平相对于之前已经好过很多了,但是我会觉得说我自己的工作方式不太高效。一方面是我前面说的,是我拖累了 AI 的整个工作的速度。另一个方面是有的时候我反而是在朝着结果的过程中从零开始学习的——就是不是处于那种”我有经验然后我去做这件事情然后马上照它的方向我就可以走”,而是它做了一个结果,我说”同学你这做得挺好,你教一下我”。然后这样子不断地循环。然后以至于我和 AI 目前就是两个臭皮匠的那种状态,就是——

葭月二三(02:35:42):对。然后就是等等,就感觉没有非常高效!

李文业(02:35:50):我觉得还是就是用少了。你就好像看书一样的。你说一个人的阅读能力要怎么样去进步或怎么样,其实不需要太多地——

葭月二三(02:35:55):对。

李文业(02:36:07):抠很多的细节。就是如果一个人他的历史阅读时间只有 100 个小时或者只有几百个小时,那很难谈要怎么改进。

李文业(02:36:21):因为这个训练量不够。你再去谈很细的改进方向,我觉得是没有意义的。为什么那些运动员他需要很科学的训练或者说他要去纠一些细节?是因为他们已经到了瓶颈了:他们训练量已经是最大的了,他们天赋已经是最好的,或者说他们的努力程度已经是最高的了。

李文业(02:36:47):对。你知道以前知乎还是什么天涯论坛有句话:就是”以大多数人的努力程度,他们都不足以去拼天赋”嘛。就有一句话这么说的。那化用一下这句话就是:以大多数人使用 AI 的——

葭月二三(02:37:01):对。

李文业(02:37:11):使用量来说,不足以谈细节。对,就是你用得太少了,谈细节是没有意义的。对,我建议你还是就是多用吧。就是回到刚才那个——就这个月你最好是多用一下吧。就是我们一起努力,争取不要说两天用完一个——好像有点难——三天吧,至少三天能用完一个吧。尽可能地去——在不是刻意浪费的——当然我们也都不会刻意浪费——

李文业(02:37:47):尽可能地去把它用完。就想办法有没有什么场景、有什么想要探索的,就让它去多跑跑、多用用。然后——

李文业(02:37:56):看一下能够得到什么样的一些新的收获。OK 好。然后我自己的一个瓶颈就是——我其实我觉得我已经有进步了,我之前好像也有跟你聊过。我之前很苦恼自己就是凭感觉去使用 AI 嘛,但觉得自己没有积累到方法论什么什么之类的。但是我觉得这也是很大一个进步。最近这一两个月吧,已经是形成了一个工作流了,就是大概知道要怎么做了。后来我发现他们喜欢说有一个叫做什么 Spec 工作法吧什么什么之类的——

李文业(02:38:31):然后我发现这不就是我做工作流的那种做法嘛?然后就异曲同工嘛。我其实没有去学习过他们这些什么所谓的 Spec 什么之类的。对,我就是凭自己的使用经验以及觉得它应该要这么走——就是用工作流的方式、以文档的方式去驾驭它的可能性吧。或者说让它的可能性空间往我想要的方向去走,对,不至于让 AI 跑偏嘛。

李文业(02:39:09):已经有这个进步了,但是我在想我下一个进步的方向是什么?就是就像我前面提到过的:我到达了一个水平之后我会觉得很兴奋,但是我停在这个水平停留久了我就会觉得很无聊,我就想着下一个进步的方向是什么?

李文业(02:39:27):这个也是要在使用量里面去积累。就是这个月要多用一下、多舍得用一下。对,然后看一下自己有什么进步的方向。这让我想到了——

李文业(02:39:43):枪法。就是练枪。就以前打仗的时候怎么样让一个人枪法变好?多打子弹。在以前尤其是我党——我军在建国之前,那个子弹是很贵的、弹药是很珍贵的。但是没办法,你要培养一个神枪手,你必须要有足够的弹药让他去试枪、去打枪、去积累这个量。

李文业(02:40:17):现在我觉得我们做的也是这样的一个事情。OK。这是第六点吧。第七个问题:你做了哪些个人项目了?或者说什么哪些尝试了?觉得有什么样的一个收获吗?

葭月二三(02:40:38):这就要翻开我的小本子了。我特意打了一个板块叫做”要记要玩的东西”,然后每次在前面还没完成的时候我就开始眼巴巴地看着别人。

葭月二三(02:40:54):我这个板块叫 AI for Fun。然后上面贴了一个很可爱的贴纸,每次看到这个我就会觉得很开心。已经做的其实是一个个人网页网站,然后里面资料在补充的过程中。然后第二个是之前的那个数学 RAG——然后我想现在用这个 Opus 去把它完善。因为其实我之前用的时候已经是 25 年的寒假了,就是其实已经过去一年多了。然后当时我用的体——

李文业(02:41:30):OK。

葭月二三(02:41:32):当时我用的时候我会觉得说——我忘了我是不是也用 Cursor,反正当时的体验就是也不太好。就改了半天然后也没有什么很创新的设计。以至于答辩的时候老师问说你们这个的独特点是什么?我可以用别的 AI,为什么要用你们这个网站什么什么的。对。然后我看到很多小红书上别人搭建的那些项目,我想要去学习一下,然后把我这个 RAG 模型也做成一个比较成熟的作品吧。

葭月二三(02:42:08):然后还有第三个就是 Markdown to PPT。这个也还在完善中,因为我觉得一直没有达到我想要的一个便捷的程度,但是也是在使用中改善。

葭月二三(02:42:23):第四个是通感背单词。就是我一直以来——我觉得我不太懂背单词,是因为我每次背单词我是图个眼熟,就是看到这个单词我能够大概知道它是个什么样子的意思,但是我没办法说出它的中文或者是什么东西的。对,然后这是通感背单词。然后还有一个想要跟你分享的是上个星期吧——我初中同学,他现在是小学老师。然后他当时问我一个问题说——

葭月二三(02:43:04):他当时在尝试 OpenClaw,然后他就说想要把他的那些优秀教案喂进去,然后让 OpenClaw 给他写教案、给他做 PPT,能不能实现。然后当时就遇到了一个问题,就是他的优秀教案其实有些是优秀的视频课。然后他可能就要去把那些视频先转录下来,然后才能喂给 AI 嘛。然后他当时就问我说能不能写个什么东西,然后能够把这个视频拍下来。然后我想说那不是挺简单的嘛。然后其实就是在我空闲下来的时候——我这个东西还没有去实现,等我有空的时候我再帮他去做。就我想要去做一个更加自动化的老师教案的系统。

葭月二三(02:43:53):包括就是我们大学里面老师他们什么填报、每年的什么奖、获奖东西都是比较麻烦,但是我们学校我肯定不会去做。因为这要求是越来越多的,然后还不如就是——那种。我觉得这些项目全部都是基于我的兴趣,反正就是我愿意花时间去做,然后也不急着马上就要一个很完美的结果。对。然后老师教案系统就是如果有时间的话会想要去做这个。然后还有一个想要去做的是 QQ 聊天记录分析吧——就是有的时候我的好点子往往是在和我对象聊天的过程中得到的一些灵感,但是有的时候我又没有办法把它很好地记录下来或者说去跟 AI 沟通。我觉得这也是一个很好的处理工具。

葭月二三(02:44:56):然后甚至也是可以对我们的聊天内容进行可视化的一个过程。对,然后这几个是我现在跃跃欲试、搓手想要玩的一些东西。

李文业(02:45:11):我自己的话,我是喜欢做 APP 多一点,因为我一天老是用手机。然后我自己做了一个就是观察饮食的,我觉得这个就很好玩。

李文业(02:45:27):我会把每天吃的东西拍下来,然后让 Codex 去做简单的分析,就是吃了些什么,然后油不油腻什么什么之类的。现在还是积累数据的过程。然后积累完数据之后我就会说:那我下一餐应该吃什么?就开始让它给我建议了。因为这样我觉得有个好处就是:如果我凭我自己所谓的毅力什么之类的去决定每天吃什么、然后要怎么——

李文业(02:46:01):要怎么健康饮食、怎么节食,就很耗精力或者说很难成功,要很消耗意志力。但是一旦我把它记录起来之后,我就想着说:诶,我待会要拍照诶,我要去上传,还是不要吃那么油腻。就自然而然地会引导我的注意力。它就有点像那个番茄 APP 一样的。

葭月二三(02:46:21):对。

李文业(02:46:27):因为书是可看可不看的嘛,但是因为我想着说我这个月要达成什么目标,诶我要去用我的番茄 APP 记录我的阅读,诶那现在不管三七二十一,我先随便拿本书起来看一下。就不会去纠结于我现在该看书、该看什么书,或者说是不是可以去看视频。就直接看书了。然后这个就是异曲同工——就是做了这么多 APP 之后,我发现我自己的注意力管理——说是注意力——

李文业(02:47:09):管理哲学。就是我会先做一个量化,就比如说我的番茄 APP,然后还有这些——

李文业(02:47:23):拍照拍我吃的东西,然后包括我的喝水 APP、健康 APP——就是这个它还会记录我的体重什么的。对,然后都是一开始就先要有一个量化的思维。这个时候不一定要做出信息自动化:有可能我拍照就是拍照,或者说我称体重就是称体重,然后用记事本记下来或者什么什么记下来,反正就是一个量化的过程。然后第二步就是信息自动化——就是比如说做个 APP,番茄 APP、喝水 APP,然后它都会——

李文业(02:48:05):自动地记录这些信息。这是把我的量化信息给自动化管理起来。然后最后就是决策化。番茄 APP 没有决策化,它不会给我提供什么决策。但是喝水 APP 是会有决策的,比如说我连续几个小时没喝水它就会提醒我喝水。我还会让它去记录我连续几天的喝水趋势,比如说我前几天喝水喝少了,然后它会提醒我这几天可以喝多一点。如果连续几天都喝水喝得比较多,它说有点过量了,接下来几天可以喝少一点。这些信息其实如果让我们个人去管理的话也能管理,但是很费精力、成本太高了。如果用 APP 或后台去做的话,它们可以轻松做到。现在什么苹果的智能手表或者说手机的提醒已经是非常好用了,然后就用它们去做提醒,我觉得就非常棒。对。然后图书 APP 也是一样的。就是你之前不是说你经常收藏起来就不看了吗?那我经常生成了一些文章或者说写了一些文章也没看了。

李文业(02:49:30):那怎么办?我就想着说那我做个图书 APP,然后把我的这些东西都放进去。我还要——那我怎么去迫使自己去多看一些我自己要的资料?我就是做了这么一个东西。对——你看,我会统计我这 APP 的使用次数以及使用时长的。就比如说我这个图书 APP 嘛,我每次只用 3.4 分钟,然后而且用的时间也不算很多吧,最近 30 天才花了大概四个小时左右。那肯定不合格嘛,我就知道接下来几天应该要多用一下它了。

李文业(02:50:27):多看一下我的资料了。然后甚至我这个 My Library 里我还问它说哪些文章我是从来没看过的,或者说怎么让它多给我推荐。这样就是管理我的注意力,或者说帮助我怎么样去分配我的注意力。对,这个东西我就觉得做得非常好。这些东西不需要我去自己去做,都自动化的。我手机只要一打开它就会自动统计打开的次数,然后每次用多长时间它都会自动去统计。然后这个页面也是它自动生成的,也不用我去管。

李文业(02:51:04):我只需要用这些图表来帮助我做决策就行了。就比如说我这个总时间是多少——来着——对,这里你看:我总时间才 20 个小时多一点嘛,最近 30 天才 20 个小时多一点。平均一天不够一个小时。

李文业(02:51:26):那我认为这个数据我是不满意的,我要多一点。那它可能都够不上我看 B 站视频的时间。那我肯定——我的一个终极目标是什么?就是最好我的手机——

李文业(02:51:40):只有我自己做的 APP。哪怕有其他 APP 也好,我的使用时长要占大部分。我用这些 APP 的时候,我的注意力管理是最科学的,或者说最符合我自己意志的。OK,所以说我是发现了自己的一个注意力管理哲学吧。我觉得很有意思。这个比单纯地做出 APP 来我觉得更有意思。我就能抽象出来我自己的一个——

李文业(02:52:10):东西嘛。那对于我来说是一条行之有效的路径——就是我已经通过番茄 APP 验证了我这个注意力管理的路径是可行的,因为它的确帮助我看了更多的书。然后我通过喝水 APP 也验证了这个东西是可行的。为什么我会做饮食健康 APP?是因为我最近体重有点太超标了,已经——

李文业(02:52:58):高过我的危险值了。所以为了身体健康我不得不去控制我的饮食。后来但是后面我发现我自己控制饮食控制得很不成功,然后想着那要不做个 APP 吧。然后后来就做成了这么一个 APP。所以说当我总结出来了这个行之有效的路径或者说我这个注意力管理哲学之后,我要做其他事情我也可以复用我成功的方法。OK 好,这是我的个人项目。最后其实这个——

李文业(02:53:37):这个星期的分享就已经结束了。还有一个私人问题可以找你——这也不能说咨询吧。

李文业(02:53:37):找你分享一下。就是今天下午我要去给我同学妹妹讲最后一次了。然后还有两个月——也两个月不到吧,就要高考了。你作为一个经验丰富的前辈,你的经验是别人的两倍,那你觉得最后两个月——

李文业(02:54:03):你回过头去看,最后两个月你觉得需要注意些什么?

葭月二三(02:54:09):其实最后两个月说真的——学知识或者说再往脑子里塞知识已经不太可能塞得进去了。反而这个时候更重要的是怎么样在考试里面、在有限的时间和有限的题目内,更好地、不出错地发挥出你最大的水平。这已经非常重要了。一张卷子来说,只要你不犯粗心的错误,那些基础题的分数是可以拿到的。

葭月二三(02:54:51):除了那些压轴题什么什么的。所以我觉得就是——包括到了高考后半阶段,其实整个家里的氛围以及自己的心情都会拉到一个比较高的战备状态。但是更重要的其实反而是保持平常心,不要——然后高考其实会有很多人会失眠,然后包括整个人的状态都不是很好。但是越是这样,越考验你能不能挺得住这最后一个阶段。就是因为其实现在感觉一年比一年卷,然后有的人其实压力会很大。但我不知道你那个学生会怎么样,就是——

葭月二三(02:55:40):我觉得就是底线就是不出错,其实就是最大的胜利了。然后第二,我真的觉得就是——

葭月二三(02:55:53):在高三其实会考很多场试,高考是最不起眼的那一场。就是我两次都没有什么感觉,甚至考完之后我还有一点恍惚。就是这么重大、被准备了十几年的考试、家里都在为我环绕的这场考试,就这么简单地结束了吗?就是在这两个月里面,你再怎么为这个目标而奋斗都不为过。就是像我们之前学校有的人他就是躲在衣柜里面还在复习的这种状态。然后再怎么努力都不为过,但是千万不要因为努力而感动了自己。就是——

葭月二三(02:56:47):一些情绪的问题。有的人会觉得说我都这么努力了为什么我还没有结果,然后就开始自暴自弃。会这样的——甚至你做不同地区、不同年份的真题卷,你都会有心情上的波动。

葭月二三(02:57:06):然后反正就是踏踏实实地去做每天就好。就是高考不是还会有倒计时吗?但是我觉得其实真没有必要把心放那么宽。你就专注于今天我学了什么,然后我对自己有交代。然后这个星期比如说有模拟考,我这个模拟考到底出了什么问题。我之前刷一个短视频就是有一个人犯错了,然后大家都在安慰他说没事的。然后这时候有一个同学站出来,他就说:就是有问题,你就是在这个比赛里面拖后腿了。但是我跟你说这些话并不是想要批评你,而是指出——

葭月二三(02:57:47):问题,看到这个现象,然后我们才能去改进。对。然后知识上的话,反正就是保持自己对于整个架构或者说对于考试的一个清晰度。

葭月二三(02:58:03):就感觉不要——虽然说不要太紧张,但是每天还是要保持一定的体感。就是这个手还是不能停的,因为毕竟到时候还是速度也要看得上的嘛。然后笔不能停,然后做好及时的复盘,脚踏实地的就可以稳稳地走到终点了。

李文业(02:58:27):OK OK。另外一个问题:最后两个月了,高考前家长应该做什么?

李文业(02:58:39):到底该怎么做?

葭月二三(02:58:40):家长——为啥你俩……我之前在高中离家比较近,然后当时我妈会给我送饭。其实我每天去吃饭的时候我脑袋都是懵懵的,就是那种刚下课、然后刚讲完一张卷子、刚喘过一口气,整个人目中无神地走到我妈面前。然后有一次我妈就突然给我一个拥抱,她就说你不要压力那么大,就是放心去考就好了。但是我就真的很想哭。

李文业(02:58:43):对。

葭月二三(02:59:22):都说家里一直以来对于我的期待没有我自己对于自己的期待那么强烈。就是包括我过年回家时候我妈也对我说:你要是不想读研究生,那我们直接去工作也是可以的。就是这样子。对。然后我会感觉到一个非常笨拙的爱吧。然后就是我妈也不会过多地说什么你的成绩这次考得好还是不好,就是因为他们知道我比他们更清楚我自己大概是一个什么样的状态。所以他们那段时间我会觉得让我很安心,就是很有安全感。就是我不管我考砸了,我还是家里的宝贝女儿,这样子。

葭月二三(03:00:11):对。然后一个是做好这些相关的后勤工作,但是不要过分地重视。就是不要让自己觉得压力很大——“大家都很盼望着我考好”什么什么的。就反正平时该怎么样就怎么样。然后也不要——我不太知道你同学的家庭氛围是什么样子的。就是因为高三的模拟考肯定会很多,但是我从小到大我家里不太会因为一场考试而去跟我念叨什么的。对。然后就是不要因为一场模拟考或者市质检或者联考而去影响他。反而是多跟他聊天吧,如果他需要的话多跟他聊天。我之前虽然高三但是我还是住宿,因为我有的时候会觉得说在学校氛围——就是大家都在努力,你会更有那种感受。然后但是有的时候我周末也会回家。然后每次就我就会在那个电动车后座就开始跟我爸开始唠嗑。有时候就是一些无关紧要的事情,反而是最重要的事情。因为高三你会把时间看得非常紧——就是今天过去就只有什么 30 多天了、20 多天了——你会非常紧张。但是就是这种小小的调节反而会让你自己——

葭月二三(03:01:47):更放松。就是其实有时候考试它很看状态的,就是你的状态好你就能考得很好。但是你很紧张——或者说我自己每次遇到我非常重视的考试我就会考砸,但是平时考试我又可以考得很好。我觉得可能跟心态有关系。然后保持运动吧——我这怎么感觉是跟同学说的,不是跟家长说的。

葭月二三(03:02:13):就反正我之前高三的时候有一次就是感觉自己心情很不好,然后也住宿,然后我就跟我爸说你帮我跟老师请个假,我要出去,学校附近的一个小公园走一走散散步。

葭月二三(03:02:32):对。然后我爸也没有——他没有问我说到底怎么回事,然后他就直接说好。就这样子就会,我就会觉得说我的生活里面没有太多的杂音。然后他不会追着我屁股后面问我说你为什么要出去?你这时候应该要学习,你不要出去。

葭月二三(03:02:54):对。

李文业(03:02:56):还有一个点。他们有问我说他们要报考志愿,到底能够——

李文业(03:03:12):报哪些学校什么什么之类的。然后有什么事他们可以提前稍微准备一下的?因为高考结束之后甚至是——

李文业(03:03:25):其实很快的。然后高考结束之后两三个礼拜就出成绩,然后出完成绩两三个礼拜就要报考志愿。对,那其实那个时间是很短的。他们可能是会希望说提前做好一些准备吧——就是大概对报考志愿可以做一些哪些事情的了解。那可能学生的话就是这段时间还是——

葭月二三(03:03:51):负责考试就好。

李文业(03:03:52):不要考嘛。但是家长的话,毕竟哪怕最后是学生自己去做决定要报考哪个学校哪个专业,那家长也是要给意见的。那给意见或者说提供参考的前提是你也要有一定的信息基础。那你觉得回过头去看,你觉得可以做哪些提前的准备?

葭月二三(03:04:14):对。我当时我爸妈没有给我太多的意见。我不太清楚说他们是否也有去做这些工作。但是我就从我自己看志愿的那一段时间获取信息的渠道来说:一方面是你就直接去把所有可能的专业全部都——就是网上肯定有那种所有专业的表——然后你就去看。你先选几个你觉得可能有点兴趣的,就是你就看那个名字,顾名思义听一下看一下。然后你大概留个 10 个或者几个。然后你接着再去具体地去查。那查的话,除了互联网上的资料,你还可以去问学长学姐,或者说你身边有认识的孩子他读了这个专业会怎么样。就是专业上面的选择。然后另一个渠道就是看一些网上的分析视频。我觉得就是都听一听——

葭月二三(03:05:28):也还行吧。反正之前我是在 B 站看一个什么”问问大象”还是什么什么,反正就会把一系列的专业全部都解析一遍,然后让你大概知道这个东西是干啥的。然后这个是专业。其实我后面——

葭月二三(03:05:49):我后面定的方向其实就几个:就是生物、然后数学、然后还有计算机相关的。生物我甚至去问了我学校的生物老师什么之类的。然后反正提前准备是一方面,但是我现在之所以学了统计,是因为云南大学它的统计非常好——就是它是 A 类学科。所以这可能就是跟我的大方向是一样的,然后只不过是另一个小专业而已。就是可能到时候还是会结合一下学校。或者说你也可以用专业去选学校。第二个是学校的选择的话,可能就涉及到你真正的分数以及你的科目、你的方向之类的,或者是就业什么的。当时我选学校没有太多的标准,就是我的分数能上什么学校我就尽量地去选,然后定那个什么冲稳保三档。但那都是分数出来之后的事了。然后选学校还要考虑的是城市。

李文业(03:07:08):OK。

葭月二三(03:07:13):就是一方面是学校。我觉得之前还有考虑一个维度是学校大不大。就是之前有个什么——

葭月二三(03:07:24):中国矿业大学在北京的非常小,就可能就几栋楼而已,小,然后就可能没有学校的那种氛围。对,平时有空就可以去了解一下一些学校,甚至有一些书它都会专门介绍一些学校什么的。

葭月二三(03:07:46):然后城市其实是一个——你的大学生活中的生活便利程度,然后还有你的饮食习惯什么什么都会考虑进去。讲完了专业和城市之后,你应该去平衡的是在相同的分数下,你要优先选城市、优先选学校还是优先选专业。就是之前就是那种:你有的人就想要学计算机,那他的分数可以去 985,但是他去了西安电子科技大学或者去什么什么之类的。对,这可能就是看你自己对于专业还是学校哪个更倾向。

葭月二三(03:08:35):对,我当时就是这么了解。但是我现在上大学我会发现,如果你是有读研的目标的话,你就怼着老师去。

葭月二三(03:08:48):就我前面说到的说上海财经大学有个非常厉害的老师——他的水平在他同一个领域里面是数一数二的,但是这个学校其实并不是非常好。但是我要是学计算机——我当时看到这个的时候就想:如果我弟以后成绩不是很理想的话,我就推荐他去那里。

李文业(03:09:16):OK 行,那大概了解了。那——

葭月二三(03:09:18):对。

李文业(03:09:34):如果是进取心一般——就也不是说没有进取心,但也没那么强——

李文业(03:09:45):你会建议他去学计算机吗?

葭月二三(03:09:50):我其实在想的是他学出来干什么。就是如果他只是想要考公考编,那计算机其实也算是一个比较——我不太确定以后会不会好考,就是好像岗位还挺多的。但是他不是一个文科生吗?

李文业(03:10:16):他是个理科生!

葭月二三(03:10:17):理科生。我会……那理科生——学计算机。我不太确定。但是我推荐你学数学吧!

李文业(03:10:28):学数学,我不知道他会不会崩溃。对,因为——

葭月二三(03:10:37):倒不是。比如说像统计这种差一点的数学也会好一些。因为我在跟计算机这边的人沟通的时候,他们一致认为说在前期打好一定的数学基础,对于你的计算机会有更好的提升。就比如说近似函数——然后我可能大二下才在课内学到这个知识,但是他们大一就直接用上了。但是他们用的时候不知道原理。然后现在小孩就是又不听课、又不听原理、然后只要去写代码。结果写代码又有 AI,他们什么都不用做。然后毕业之后就什么都不会。

李文业(03:11:19):OK。

葭月二三(03:11:19):对。就比如说我觉得基础学科还是不会倒的。如果他化学好的话去学芯片、去学材料,说不定以后还能火起来。

李文业(03:11:31):OK OK。具体的专业我其实可能不会再给他具体的建议,但是适合学什么得他自己去考虑。但是不适合学什么,我觉得我至少就我了解来说——我是不会推荐他学计算机的。因为计算机就是有了 AI 之后真的是会分化很严重。就之前的话你报个培训班,然后不是学计算机的——只要是个——

葭月二三(03:11:37):对的。

葭月二三(03:11:50):对。

李文业(03:12:03):都不一定你是理工科专业,反正就报个培训班,只要你稍微肯学肯加班,其实都能够找到一份很不错的工作。相对来说月薪上万是没什么问题的,在北上广深这样子的城市。但是现在不是了。现在初级程序员甚至外包——

李文业(03:12:21):现在是冲击得非常厉害。甚至很多的 985、211 的学生都不一定说能够很轻松地去进一些就是初级的岗位——就初级程序员的岗位、就是校招生嘛——对,都很难竞争。就因为分化太多了。以前的话我们会有大量的这种基础工作——

李文业(03:12:44):就是 CRUD,这些基础的代码需要人、需要初级程序员去写,然后刚好给他们练手,也需要——高级程序员其实也需要去写,然后但是他们的速度可能会比初级的快个几倍。但毕竟也是要花很多时间的。那现在用 AI 的话,完全就是几秒钟就能够写你一两天的代码。那我何必招你一个人进来做这个事情?那在分化那么严重的情况下,我是不建议他去学计算机的。第一个:他的智商——

李文业(03:13:25):智商水平,我基本上认为高考成绩是能够判断出来一个人的智商层级的。

李文业(03:13:35):那他的高考成绩没有那么高,再加上他的进取心也没有那么强的情况下,他去学计算机我觉得他出不了头——不能说出不了头——就是大家到时候可能会面临找不到工作、找不到出路的一个情况。

李文业(03:13:51):因为他——你说——

葭月二三(03:13:52):我真觉得如果没有太有进取心的话,那就去体制内吧。

李文业(03:14:01):体制内也没有那么好进,也没那么好进。体制内首先经济下行的话,大家都想去体制内。第二个是体制内现在也在缩招。

葭月二三(03:14:12):那也是。

李文业(03:14:12):对。因为 AI 冲击的不仅仅是体制外,也在冲击体制内是吧。体制内有很多的岗位都是什么审批——

李文业(03:14:24):什么申请、通过、写文件、处理。对,那 AI 都能做,是不是?政府它也有成本压力,它不是没有成本压力的,它的钱也不是说随便花的。只不过它没有那么市场化,它转变的速度可能没有像外面的公司那么快。但是它也在进步的。OK,那我大概了解了。好,谢谢你。

葭月二三(03:14:52):OK。

李文业(03:14:53):那就今天我们的讨论就到这里吧。然后加油努力,多用。好,拜拜!

葭月二三(03:15:02):拜拜。

看书20000小时

发表于 2026/03/29 | 分类于 随笔文章

1

前几天,我的阅读时间达到20000小时。

第1个一万小时的书山路,我走了整整7年。从2016年9月1日,到2023年9月26日,一共2581天,平均每天看书4小时。

第2个一万小时,我走了2年半。从2023年9月26日,到2026年3月23日,一共909天,平均每天看书11小时。除了吃饭、睡觉和上班,几乎所有时间我都用来看书。

有的人可能会问,你在之前的文章里,说你经常跟ChatGPT对话,怎么可能还有这么多时间看书呢?

因为我把跟ChatGPT对话,也算到阅读时间里。首先,我跟ChatGPT对话,要么是在讨论书里的内容,要么就是讨论延伸出去的话题,并不是闲聊。然后,ChatGPT输出的大段文字内容,也是在积累我的阅读量。

还有人可能会问,现在AI都能帮人阅读、帮人总结了,我们自己还有必要亲自读书吗?

我的回答是,不仅必要,而且比之前更加必要。

2

在解释为什么在AI时代,阅读能力对我们来说变得更重要之前,我来跟大家报告我看到的AI发展得有多快。

在AI冲击之下,程序员这个行业最为明显。大量的初级岗位被取消,几乎所有的公司都要求在职的程序员必须学会使用AI辅助编程工具,还有的单位会要求必须要有一半以上的代码由AI直接生成。

很多程序员都在焦虑,自己是不是快要被淘汰,要永久失业了。

我从去年8月份开始,就没自己写过一行代码,AI生成代码占比是100%。我不会焦虑,因为我觉得我比以前能力更强了。

以前的我,只要把功能写出来就完事了,还是会有很多bug。经过测试阶段,修复了一些bug,就发到正式环境给用户使用,还是会偶尔出问题。

现在的我,因为AI能快速地生成代码,速度是我手写的10倍以上,所以我可以花大量的时间去分析需求,跟AI讨论设计。在开始写代码之前,很多前置问题都能想清楚,不会经常返工。写代码的过程中,我会让AI写很多的测试代码,包括单元测试、集成测试和端到端测试,让它自己去跑,保证了代码的质量。

这样写出来的代码,基本上没有明显的bug。测试给我提的bug数量,随着我使用AI工具的熟练程度逐渐加深,变得越来越少。

同样一个任务,以前的我可能要干5天,现在的我只需要2天,质量却是之前好几倍。这么算下来,我的效率比之前提升了一个数量级。

这样的效率提升,有赖于AI工具的发展速度,这在一年前都是难以想象的。短短一年,换了人间。

3

AI工具发展得快,为什么我们还需要提升阅读能力呢?

第一,跟AI交互的效率要想高,我们必须要有足够的阅读能力。文字篇幅决定信息密度。如果想要把一件事情讲清楚,不可能短短一两句话就能说明白。AI输出的来龙去脉,如果我们的阅读能力不够,就很难一下子了解透彻。

我现在每天最多的工作形式,不是写代码,而是跟AI对话。这个需求是怎么回事,我们要怎么做。那个设计有什么问题,我们要怎么改进。这些代码要怎么写,我们来定个方案。

AI就像一个勤劳的下属,给我产出很多方案和代码,我要给它做审查、提建议和找错误。

第二,AI的能力越强,我们要看懂它产出的内容就要不断学习。

AI经常会给出我以前没接触过的建议,以前没看过的方案。如果我一味拒绝,就限制了AI的能力。如果我盲目接受,就会引入巨大的风险。我必须学习,而且是快速学习,学习这些概念和知识是怎么回事,判断AI给的建议是不是靠谱,方案是不是可行。

第三,AI工具让每个人都很容易跨界,侵入别人的“知识领地”。

以前,前端看不懂后端的代码,后端看不懂前端的代码。现在有了AI,不懂代码也能指挥AI写代码。我不会写手机APP的代码,但是我懂需求,我懂交互,就可以给AI下指令,让它给我做了好几个iOS APP,而且还非常好用。

现在所有人都具备这种跨界的可能性,竞争格局会有一个天翻地覆的变化。

因此,不管是与AI交互,还是本领域的深耕,抑或跨领域的学习,都需要强大的阅读能力。阅读,是最高效的信息获取和知识学习的手段,没有之一。

4

那么,我们要如何提升自己的阅读能力呢?

第一,我们还是要读纸质书,尤其是在校学生。读纸质书,就像是打基础,就是学走路。直接看电子书,或者只跟AI对话,基础会不牢靠。

这个阶段就是积累阅读量。没有量变,就没有质变。至少要有2000小时的纸质书阅读经验才行。

第二,阅读要学会提问题。打好基础之后,就可以开始跟AI对话了。看书过程中,遇到什么问题想不明白,有什么问题引起了你的好奇心,都可以跟AI讨论。

这个阶段就是滋养你的好奇心,培养你的批判性思维。至少要有500小时的AI对话经验才算合格。

第三,我们要学会挑选学习资料。经历了前两个阶段,我们积累了足够的阅读经验,有了一定的判断能力之后,就可以有意地挑选学习资料了。挑书,要挑适合自己的书。挑文章,要挑爱读的文章。

最终,我们可以让AI给自己生成文章。如果对某个主题感兴趣,我会先跟AI讨论。讨论了几个来回之后,初步形成结论了,我就让AI生成一篇10000字左右的文章。经过几轮不同模型的润色和改写之后,会上传到我的个人图书APP,我可以在APP里阅读和学习。

5

除了健身和睡觉,我都会坐在电脑面前,要么用AI写代码,要么用AI学习,其实都是在阅读、思考和学习。

AI发展给我带来的不是焦虑, 而是惊喜,持续不断的惊喜。模型版本隔三差五就有更新,能力又有所提升。没有一个人会嫌弃自己的工具太好用。

我其实不知道程序员这份工作是不是可以做到退休,还可以做多久。我不太关心这个问题。我只知道在这个AI时代写代码很好玩——能赚钱是最好的,以后如果赚不到钱我也还会一直编程。

就像阅读一样,我刚开始看书的时候,也不知道看书会给我带来什么好处。我只是模模糊糊觉得阅读有意思,我喜欢阅读。

前面的两万小时目标达成了。接下来的目标是花三年多的时间,走完第3个一万小时。也就是在2029年11月,我一定要达成看书30000小时。

AI Coding 的反脆弱:为什么追求完美 Prompt 的人注定失败

发表于 2026/03/28 | 分类于 AI专题

AI Coding 的反脆弱:为什么追求完美 Prompt 的人注定失败

I. 脆弱性的伪装

现代技术工作者中流行着一种特别危险的幻觉:他们相信,只要找到一个足够聪明的 AI 模型,再配上一条足够精巧的 prompt,就能一次性得到正确的代码。

这种信仰和赌场里相信”必胜公式”的赌徒没有本质区别。他们都犯了同一个错误:把一个根本上不确定的系统当作确定性系统来对待。

OpenAI 自己的文档都白纸黑字地写着:生成式 AI 是可变的,同样的输入有时会得到不同的输出。换言之,你面对的是一个非确定性过程。你能做的不是消灭波动,而是学会在波动中存活。

但大多数工程师不愿意面对这个事实。他们更愿意相信”模型的下一个版本会解决这个问题”。这就像暴风雨前加固房屋和祈祷明天放晴的区别——前者是工程,后者是迷信。


II. 三副透镜

在中文学术圈,人们把系统论、控制论、信息论合称”三论”。这个并称粗糙,钱学森批评过它,学界对此有争议。但这不妨碍我使用它们。我不关心学科划界的政治,我关心的是:这三套理论是否能帮我们看清 AI coding 中的脆弱性来源。

答案是肯定的。

系统论揭示结构性脆弱:你的系统由哪些部件组成?部件之间有没有隐藏的耦合?边界是不是模糊到任何部件都可以越界?

信息论揭示传输性脆弱:你的意图在传递给模型的过程中丢了多少?噪声从哪些缝隙钻进来的?模型”理解”的那个东西,和你脑子里的那个东西,距离有多远?

控制论揭示动态脆弱:当系统开始偏离目标——它一定会偏离——你有没有机制去发现、去量化、去修正?还是说你只有在灾难发生后才知道出了问题?

脆弱的 AI coding 系统,通常在这三个维度上同时失守。而那些看起来”很先进”的系统——多 agent、长 prompt chain、花哨的编排层——往往恰恰是最脆弱的,因为复杂度本身就是脆弱性的温床。


III. 系统脆弱性:为什么更强的模型可能让你更脆弱

这是一个大多数人不愿意听的论点:在一个结构糟糕的系统中,模型越强,你越危险。

为什么?因为强模型会产出看起来极其专业的代码。它的语法完美,注释详尽,命名规范。你看了以后会觉得”太好了”,然后合并进主干。两周后你发现架构被无声地破坏了——异常处理链路断了,日志格式被改了,一个关键的不变式被违反了。

弱模型犯的错误是显性的:编译不过、测试挂了、语法有问题。你一眼就能看出来。强模型犯的错误是隐性的:代码能跑、测试能过、review 时看着很顺眼,但系统的长期一致性正在被侵蚀。

这和 Nassim Taleb 在《反脆弱》中的核心论点完全一致:真正的风险不是那些波动很大的东西,而是那些看起来很稳定、实际上在暗处积累偏差的东西。 大波动你会注意到,小偏移你不会——直到它们突然以灾难的形式爆发。

系统论在这里的启示很明确:不要把精力花在选”最强模型”上。花在定义清晰的边界上。花在划清可改区域与不可改区域上。花在让接口契约不可绕过上。OpenAI 的 agent 指南说得很对:先用最强模型建立性能基线,再逐步替换成更小模型。这是因为在好的系统结构中,模型是可替换的部件——而如果你的系统只有在搭配最强模型时才能工作,那你的系统就是脆弱的。


IV. 信息脆弱性:你的信号在到达模型之前就已经面目全非

Shannon 的信息论从来不关心”意义”。它只关心一件事:信号在经过有噪声的信道之后,还剩下多少可以被正确解码的内容。

把这个模型套到 AI coding 上:你脑子里有一个需求(信源);你把它写成 prompt 和文档(编码);这些材料经过上下文窗口、工具调用链、检索管道(信道)到达模型;在这个过程中,模糊措辞、缺失约束、矛盾文档、过长上下文都在注入噪声;模型根据收到的信号进行”解码”并输出代码。

问题是:大多数工程师根本不知道自己的编码质量有多差。

他们写了一句”重构这个模块”,脑子里有五十个隐含假设——保持接口不变、不破坏下游、不改日志格式、不碰那个丑但正确的 hack、输出格式跟之前一致。这五十个假设一个都没写出来,全靠默会知识。然后模型做了一个”重构”,破坏了其中十五个假设,他们却怪模型蠢。

模型不蠢。你的信号蠢。

Anthropic 有一条原则说得极其精准:把 prompt 给一个对任务没有背景的同事看,如果他困惑了,Claude 也会困惑。这其实是信息论的工程化表述:如果你的编码连同类型解码器(人类同事)都解不对,凭什么指望异类型解码器(LLM)能解对?

信息论还暴露了一个被所有 multi-agent 爱好者忽视的问题:每多一跳 handoff,信号就多衰减一次。

你的 manager agent 给 specialist agent 传达了一个任务。传达的过程本身就是一次编码-信道-解码。如果描述不够精确,specialist 理解的东西就已经偏了。它做完以后把结果传回来,又是一次编码-信道-解码。两跳之后,原始信号可能已经走样得不成样子了。

所以,多 agent 系统成功的前提不是”角色分工看起来合理”。前提是每一跳的信息协议必须极其清楚——清楚到你在人类之间做 handoff 时都不需要这么清楚的程度。如果做不到这一点,多 agent 只是在用架构复杂度换来了信息衰减。你不是在解决问题,你是在把问题藏进了一个更难调试的结构里。


V. 动态脆弱性:没有反馈回路的系统注定崩溃

控制论的核心洞见只有一个:任何会运动的系统都会偏离目标,所以你需要的不是完美的初始条件,而是持续的修正机制。

恒温器不需要第一次就把温度设对。它只需要:(1)知道目标温度是多少,(2)能测到当前温度是多少,(3)能根据偏差决定加热还是制冷。

导弹不需要一开始就对准靶心。它只需要反馈够快、修正够及时,就能在飞行过程中不断逼近目标。

AI coding 也一样。你不需要一次 prompt 说清一切。你需要的是:

  1. 一个明确的目标定义(什么算”正确”——测试用例、验收标准)
  2. 一个快速的测量机制(跑测试、lint、trace)
  3. 一个及时的修正手段(再提示、补约束、换策略、人工介入)

TDD 之所以在 AI 时代焕发第二春,不是因为工程师们突然变保守了。而是因为 TDD 恰好就是一个控制回路:

  • 写一个 fail 的测试 = 设定参考值
  • 让 AI 写实现 = 让系统运行
  • 跑测试 = 测量
  • 红变绿 = 偏差归零

这比”请帮我把这整个功能写完”高明得多。后者把控制回路的周期拉到了极长——你要等整个功能写完才能知道它对不对。而在这段时间里,偏差在高速累积。前者把回路缩短到了函数级、行为级,偏差刚出现就被捕获。

反馈回路的速度是系统存活率的决定性因素。 这是控制论的铁律,没有例外。

在 AI coding 中,这意味着反馈应该层层前置:lint 在本地拦,单测在提交前跑,契约测试在 CI 里拦,smoke test 在部署前做,trace grading 在运行时监控。把反馈点放在”PR 合并后线上出事故”的工程师,和把体检放在”进 ICU 以后”的人,犯的是同一种错误。


VI. 反脆弱的 AI Coding

脆弱的系统害怕波动。鲁棒的系统承受波动。反脆弱的系统从波动中获益。

大多数 AI coding 实践还停留在”脆弱”阶段:一次 prompt 赌一次结果,赌赢了沾沾自喜,赌输了怪模型。

少数实践达到了”鲁棒”阶段:有测试、有 CI、有 review,模型波动了也能兜住。

极少数实践触及了”反脆弱”:

  • 每次模型犯的错都被捕获、分类、转化为新的测试用例或文档约束——系统因为失败而变得更强。
  • 每次 prompt 失效都触发一次信息编码的优化——文档越来越精确,默会知识加速外显化。
  • 每次控制回路发现的偏差都反馈到系统设计中——边界越来越清晰,接口越来越严格。

在反脆弱的 AI coding 系统中,模型的每一次”犯错”都不是纯损耗,而是一次免费的压力测试。它暴露了系统的薄弱环节,给你改进的机会。你应该感谢这些错误——前提是你有足够的传感器来捕获它们,有足够的结构来消化它们。

这就是三论合在一起的真正力量:

  • 系统论告诉你在哪里布防线(结构)
  • 信息论告诉你在哪里防衰减(信号)
  • 控制论告诉你在哪里装传感器(反馈)

三者合力,你就能把一个脆弱的”生成 + 祈祷”流程,变成一个反脆弱的工程系统——它不只是”抗住”波动,而是利用波动变得更好。


VII. Guardrails 不是官僚主义,是保险丝

很多工程师讨厌限制。他们觉得 guardrails、review gates、部署门禁是”管理层加的官僚主义”。

这种想法非常脆弱。

在电路里,保险丝不是”对电流的不信任”,而是”对过载的现实主义”。你不知道过载什么时候来,但你知道它一定会来。保险丝是便宜的、局部的、快速的失败点——它烧断自己来保护整个系统。

AI coding 中的 guardrails 也一样:

  • 禁止直接改主干分支:一根保险丝。
  • 高风险文件必须人工 review:一根保险丝。
  • 数据库迁移前生成回滚脚本:一根保险丝。
  • 部署前 smoke test 不通过则阻断:一根保险丝。
  • Trace 显示 agent 在仓库里反复打转则暂停:一根保险丝。

没有保险丝的系统不是”更自由”的系统,而是”更脆弱”的系统。自由和脆弱之间,中间只隔着一层缺失的约束。

OpenAI 的 agent 指南建议给工具按风险分级——根据是否可逆、是否写入、权限等级和财务影响,决定是自动执行、暂停确认还是升级到人工。这不是过度谨慎,这是工程师对现实的尊重。

凡是你不愿意为之设置保险丝的地方,就是你最终会为之付出灾难性代价的地方。


VIII. 对”多 Agent”的怀疑

当前技术圈有一种倾向:一谈 AI coding 就要上 multi-agent。好像代理越多,系统越高级。

这让我想起金融领域的一个经典陷阱:把一个简单产品层层打包成复杂衍生品,每层打包都有”合理理由”,但最终没有人能说清风险在哪里。2008 年的金融危机就是这么来的。

多 agent 不是免费午餐。每多一个 agent 就多一次编码-解码,多一个可能失真的信道,多一组需要管理的状态。你获得了”概念分离”的好感,但你支付了”信息衰减 + 调试难度 + 同步复杂度”的代价。

OpenAI 自己的建议其实很克制:先把单 agent 能力用满,只有当 prompt 条件分支太多、工具选择持续出错时,才考虑拆分。

这是对的。复杂度不是成就,是负债。 每一层复杂度都需要用等量的结构清晰度来偿还,否则它就会变成脆弱性的温床。

好的多 agent 系统不是因为”分了很多角色”而好,而是因为每一跳的信息协议极其清楚、每个节点都有独立的反馈回路、故障可以被定位到具体环节。做到这些极其困难。如果做不到,你的多 agent 系统就只是一个”分布式的混乱”——比集中式的混乱更难修。


IX. 五条原则

  1. 假设模型会犯错——然后据此设计系统。 不是因为模型差,而是因为非确定性系统不可能不犯错。你的工作不是消灭错误,而是确保错误被快速捕获、廉价修正。

  2. 投资信号质量,而非 prompt 技巧。 花哨的 prompt engineering 是在末端做优化。真正的杠杆在上游:清晰的需求定义、完整的接口契约、无歧义的验收标准。信息论告诉你:输出的质量上限取决于输入的信噪比。

  3. 把反馈回路做到极短。 每一层反馈——lint、单测、契约测试、trace——都在缩短偏差的累积时间。反馈越快,系统越反脆弱。

  4. 对复杂度持怀疑态度。 多 agent、长 chain、花哨的编排——它们是不是真的必要?能不能用更简单的结构达到同样的效果?复杂度是需要被证明的奢侈品,不是彰显技术力的装饰品。

  5. 把每一次失败变成系统改进。 脆弱的团队复盘时说”模型今天状态不好”。反脆弱的团队复盘时问:是边界没划清(系统问题)?是文档失真了(信息问题)?还是测试没覆盖(反馈问题)?然后把答案变成新的约束、新的测试、新的文档。


X. 结语

软件工程正在发生一次深层的范式转移:从”制造代码”到”治理生成”。

治理什么?治理一个高能力但高波动的非确定性系统。

用什么治理?用系统论的结构思维来划边界、定接口;用信息论的信号思维来降噪声、保真;用控制论的反馈思维来测偏差、做修正。

那些追求”一条完美 prompt 解决一切”的人,犯的是和追求”一次完美预测解决一切”的金融分析师同样的错误。他们不理解不确定性的本质——不确定性不是一个可以被消灭的障碍,而是系统运行的永恒背景音。

真正的工程智慧不是消灭波动。是在波动中建立秩序。是让系统因为暴露于压力而变得更强,而不是更脆弱。

这就是三论给 AI coding 的终极启示:

别做预言家。做舵手。

舵手不预测风浪。舵手面对风浪。舵手有罗盘(目标)、有传感器(反馈)、有舵(执行修正的能力)。风浪越大,好舵手与坏舵手的差距越明显。

AI 时代最稀缺的,不是生成代码的能力——这个能力正在变得像电一样廉价。最稀缺的,是让生成收敛为可靠产物的能力。而这种能力的底层逻辑,恰恰就是七十多年前那三个理论家所奠定的:看清结构、守住信号、闭合回路。

AI Coding 的真正难题不是 AI

发表于 2026/03/28 | 分类于 AI专题

AI Coding 的真正难题不是 AI

大多数人对 AI coding 的理解是错的。

他们以为难题是”让模型写出正确的代码”。好像只要模型再聪明一点,context window 再长一点,事情就会自然变好。

但真正在生产环境里大量使用 AI coding 的人都知道,瓶颈从来不在那里。模型已经足够聪明了。问题是:聪明的模型在一个糟糕的系统里,只会更快地制造高质量的混乱。

这听起来像悖论,但它不是。理解这一点,是理解 AI coding 的起点。


有三个很老的理论——系统论、控制论、信息论——恰好能帮你理解这件事。它们各自问了一个不同的问题:

系统论问:整体是怎么组织的?
信息论问:信号是怎么失真的?
控制论问:跑偏了怎么拉回来?

你不需要读过这三个领域的原始文献。你只需要理解,AI coding 的几乎所有难题,最终都能归到这三个问题中的某一个。


系统问题

先说系统论。

人们讨论 AI coding 时最常犯的错误,是把它当成一个模型选型问题。”用 GPT-4 还是 Claude?””这个模型 SWE-bench 多少分?”这些问题不是无意义,但它们遮蔽了一个更重要的事实:模型只是系统的一个部件。

一个 AI coding 系统至少包含:用户的目标、代码库的现状、文档、prompt、工具链、测试套件、CI 流程、review 机制、部署管道和监控。这些部件之间的关系,比任何单个部件的性能更能决定最终结果。

这就像足球。你可以买世界上最贵的前锋,但如果中场传不出球,后防线乱成一锅粥,门将又不和防线沟通,这个前锋只会变成一个很贵的摆设。

OpenAI 的 agent 指南有一个很精确的表述:agent = 模型 + 工具 + 指令。三者必须协同。如果指令模糊,再强的模型也只是在猜;如果工具不对,再清晰的指令也执行不了。

这引出了系统论最重要的洞见:局部强不等于整体强。

我见过太多这样的案例:一个很强的模型放进一个没有测试、没有文档、没有 CI、没有人工审查的项目里,产出的代码看起来很专业,但一周后你发现架构被悄悄破坏了、命名被偷偷改了、异常处理链路断了。模型不是故意的——它只是在一个没有约束的空间里做了局部最优化。

反过来,我也见过用一个中等模型、但系统结构极好的团队:目标明确、上下文干净、测试充分、反馈快速。他们的产出反而更稳定、更可预测、更少翻车。

教训很清楚:不要投资在找最好的模型上。投资在建最好的系统上。


信号问题

再说信息论。

Shannon 在 1948 年提出了一个模型:信号从信源出发,经过编码,通过有噪声的信道,到达解码器,最后被信宿接收。他关心的核心问题是:信号在这个过程中损失了多少?

把这个模型搬到 AI coding 上,你会发现一个让人不安的对应关系:

你脑子里的需求是信源。你写的 prompt 是编码器。上下文窗口是信道。所有模糊的措辞、缺失的约束、矛盾的文档、无关的日志,都是噪声。模型的内部处理是解码器。最后生成的代码是信宿接收到的结果。

这个类比能解释一个让工程师们反复挫败的现象:你明明说得很清楚了,模型还是做错了。

但你真的说清楚了吗?

Anthropic 有一条建议特别好:把你的 prompt 给一个对任务完全没有背景的同事看,如果他会困惑,Claude 也会困惑。

大多数时候,工程师以为自己在”下达指令”,其实他们在做的事情更接近”在一个有损信道上传输一个编码质量很差的信号”。你的需求里有大量隐含假设,你的 prompt 里有大量歧义,你扔给模型的上下文里有大量噪声。模型不是不聪明,是你的信号到达它时已经面目全非了。

信息论还揭示了另一个被低估的事实:文档在 AI 时代变成了一等公民。

为什么?因为 LLM 不继承默会知识。人类高手可以靠直觉和经验补齐文档里没写的东西,模型做不到。它只能消费外显材料。所以,你的需求文档、设计文档、接口契约、样例输入输出——这些不只是给人看的说明书,它们同时也是给模型看的编码协议。

写好文档从来就重要。但在 AI coding 时代,写好文档从”应该做”变成了”不做就会翻车”。


纠偏问题

最后说控制论。

控制论的核心非常简单:定目标,测状态,算偏差,做修正。循环往复。

在 AI coding 里,这意味着什么?

意味着 AI coding 的核心能力不是生成,而是纠偏。

这个判断和大多数人的直觉相反。人们看到 LLM 能秒出一整个文件的代码,会觉得”生成”才是核心价值。但生成是便宜的——而且越来越便宜。真正昂贵的是判断生成结果对不对。

这就是为什么 TDD 在 AI 时代突然变得合理了。

很多工程师以前不喜欢 TDD,不是因为不知道测试重要,而是因为在人工时代,写实现已经够痛苦了,测试被当成额外负担。但 AI 时代翻转了这个等式:实现的成本塌陷了,验证的价值就相对飙升了。

TDD 本质上不是”先写测试”。它是先把”什么算正确”用机器可判定的形式写出来,然后才允许系统去搜索实现。用控制论的术语说,就是先设定参考值,再打开反馈回路。

控制论还有一条关键原则:反馈必须快。

反馈太慢的控制系统,和没有控制差不多。导弹如果每十秒才测一次位置,它就会飞到不知道哪里去。

AI coding 也一样。模型生成的速度极快,如果唯一的反馈点是”PR 合并后线上出故障”,那中间的所有偏差都在高速累积。更好的做法是把反馈层层前置:lint 在本地拦,单测在提交前跑,契约测试在 CI 里拦,trace grading 在部署前做,人工 review 作为最后一道门。

每多一层反馈,偏差就少累积一步。


真正的竞争力

把这三个视角合在一起,你会得到一个关于 AI coding 的统一认识:

AI coding 的真正操作对象不是代码,而是一个生成的可能性空间。系统论决定这个空间的形状,信息论决定空间里的信号质量,控制论决定空间的收敛速度。

一个模型很强但系统很差的项目,就像一台高马力发动机装在一辆没有方向盘的车上——跑得越快,偏得越远。

一个系统很好但模型一般的项目,就像一辆底盘扎实的车装了一台够用的发动机——不会飙出最高速度,但能稳定地到达目的地。

你应该选哪个?

如果你是在做 demo,选前者。如果你是在做工程,选后者。


方法论的重心迁移

这篇文章真正想说的,其实是一个更大的判断:

软件工程的方法论重心正在从”实现”迁移到”治理”。

传统时代的工程师是实现者:理解需求,手写代码,调试发布。AI 时代的工程师更接近于系统设计者、信息架构师和反馈回路工程师。

这不意味着写代码能力不重要了。它意味着写代码能力被纳入了一个更高阶的框架。最终,最有价值的工程师不是那个手写最多代码的人,而是那个能——

  • 把复杂目标变成清晰的系统结构
  • 把模糊意图变成高保真的信号
  • 把不稳定的生成纳入可控制的反馈回路

的人。


你可能觉得这些话太抽象。那我给你五个明天就能做的具体动作:

  1. 在让 AI 写代码之前,先写测试。不是因为测试高尚,而是因为它能让你更快地知道 AI 写的东西对不对。

  2. 写 prompt 之前,先把它给一个对任务没有背景的同事看。如果他困惑了,改 prompt,不要改同事。

  3. 反馈做短。能在本地验证的别等 CI,能在单测里抓的别等联调。

  4. 文档当工程资产写,不当行政材料写。因为模型真的在读它。

  5. 复盘 AI coding 失败时,区分三类原因:系统问题(边界没划清)、信号问题(信息失真)、反馈问题(测试没覆盖)。别只说”模型不行”——这句话几乎没有信息量。


结尾

三论不是老知识。它们是理解 AI coding 的底层语法。

系统论告诉你:别只看模型,看整体。
信息论告诉你:别只怪模型蠢,先看你的信号有多脏。
控制论告诉你:别指望一次说清,建反馈回路。

AI coding 的真正难题不是 AI。是你围绕 AI 建的那个系统。

三副眼镜看 AI 编程:为什么你的代码"看起来对了"却总出事

发表于 2026/03/28 | 分类于 AI专题

三副眼镜看 AI 编程:为什么你的代码”看起来对了”却总出事

一、一个被低估了六十年的老工具箱

1948 年,Claude Shannon 发表了信息论的奠基论文。同一年,Norbert Wiener 出版了《控制论》。再往前几年,Ludwig von Bertalanffy 已经在推销他的一般系统论。这三个人各干各的,互相之间未必认同,但后来被中文学术圈捆在一起,称为”三论”。

这个并称其实有争议——钱学森就批评过,说这种并列太粗糙。但争议本身不重要。重要的是:这三套理论,恰好提供了三副不同焦距的眼镜,而 AI coding 碰巧需要你同时戴上这三副。

你可能会想:1948 年的东西,跟我今天用 Claude Code 写项目有什么关系?

关系大了。而且不是那种”知识分子硬拗”的关系,是那种”不理解这三个视角,你在 AI coding 里踩的坑就会一直踩下去”的关系。


二、先用三十秒把三论讲清楚

系统论问的是:这东西整体是怎么组织起来的?哪些部件在互相影响?边界画在哪?

信息论问的是:信号从发出到接收,中间丢了什么?噪声从哪儿混进来的?

控制论问的是:事情开始跑了以后,怎么发现它跑偏了,又怎么把它拉回来?

就这么简单。但这三个问题一旦叠加到 AI coding 上,杀伤力极大。

因为 AI coding 偏偏同时具备三个特征:它是一个复杂系统(不只是模型,而是人 + 模型 + 工具 + 代码库 + 测试 + 部署的整体);它天然有信息失真(你说的话模型未必懂,模型做的事你未必察觉);它非确定性地波动(同样的输入,今天能跑,明天可能翻车)。

这就是为什么三论突然变得有现实感。不是你去找它,是 AI coding 把你推到了它面前。


三、系统论:别只盯着模型——那只是冰山一角

很多人理解 AI coding,起点是”哪个模型最强”。

这不能说错,但太窄了。就好像问”哪个发动机最好”,却不看底盘、变速箱、悬挂、轮胎和路况。

系统论会逼你把镜头拉远。一个 AI coding 系统至少包含:用户目标、代码库、文档、提示词、工具链、测试、CI、review 流程、部署管道、监控机制,以及人和模型之间那个微妙的交互契约。真正决定结果的,往往不是某个点最强,而是这些部件之间的接缝有没有漏风。

OpenAI 的 agent 指南把 agent 的基本形态概括成三样东西:模型、工具、指令。你看,这已经很系统论了。一个 agent 能不能工作,不在于其中哪一项单独有多猛,而在于三者有没有咬合成一个整体。

这里有一个反直觉的结论:一个 90 分的模型放进 60 分的系统,不如一个 75 分的模型放进 85 分的系统。

为什么?因为强模型在弱系统里只会更快地产出高质量的错觉。它把函数写得漂亮极了,但破坏了架构;把 bug 修掉了,但引入了回归;帮你加了功能,但顺手改坏了日志链路。没有清晰的边界定义,没有完备的测试,没有人工审查,模型越强,翻车越隐蔽。

所以系统论给 AI coding 的第一课是:别搞模型崇拜,去搞系统设计。

问自己:这个系统的部件如何协同?知识如何沉淀?故障如何暴露?出错后如何恢复?一旦这样提问,你就已经站在了正确的地面上。


四、信息论:你以为你在下指令,其实你在做编码

这是我觉得三论里对 AI coding 最有穿透力的一个视角。

Shannon 模型里有六个环节:信源、编码器、信道、噪声、解码器、信宿。把它类比到 AI coding——

  • 你脑子里的需求,是信源。
  • 你写的 prompt、文档、示例,是编码器。
  • 上下文窗口、工具调用、检索结果,是信道。
  • 模糊措辞、缺失约束、冲突文档、无关日志、过长上下文,全是噪声。
  • 模型的内部处理,是解码器。
  • 最后吐出来的代码,是信宿收到的结果。

这当然是类比,不是 Shannon 原意。但它能解释一个让人抓狂的现象:你明明讲过了,模型还是做错。

为什么?因为你不是在”下命令”,你是在做”编码”。你的意图要经过语言表述、上下文组装、信道容量限制、噪声干扰,才能到达模型的”解码器”。中间任何一环出问题,结果就失真。

Anthropic 的 prompt 最佳实践里有一句话特别到位:把你的 prompt 给一个对任务几乎没背景的同事看,如果他会困惑,Claude 也会困惑。

这句话的信息论翻译是:你的编码器输出的信号,连人类解码器都解不对,凭什么指望 LLM 解码器能行?

这个视角还能解释另一件事:为什么文档在 AI 时代突然变重要了?

过去很多高手靠默会知识工作——架构意图在脑子里,隐含规范在经验里,边界条件靠直觉兜。LLM 不继承默会知识。它吃的是外显材料。所以,需求文档、设计文档、ADR、接口契约、样例输入输出、错误码说明——这些不只是给人看的说明书,它们也是给模型看的编码协议。

谁能把默会知识转成高保真、低歧义、可复用的表达,谁就掌握了信息论意义上的优势。

再补一个容易踩的坑:上下文不是越多越好,而是信噪比越高越好。 Anthropic 建议编码任务一开始就提供完整上下文,把相关代码片段一次性给全——但”完整”不等于”把仓库垃圾一股脑扔进去”。关键是让模型在最少噪声下接触到最关键的信息。过量且无组织的信息,会把信号淹没。

所以信息论给 AI coding 的第二课是:结果之所以乱,常常不是末端的问题,而是信号在前面就已经失真了。 工程师最该升级的,不是”写更花哨的 prompt”,而是设计更高质量的编码结构。


五、控制论:既然拦不住波动,那就别拦——去设计纠偏回路

这是三论里最实用的一副眼镜。

控制论的核心操作只有四步:定目标、测状态、算偏差、做修正。恒温器是这样工作的,导弹制导是这样工作的,自动驾驶也是这样工作的。

把它翻译到 AI coding:先定义”正确”长什么样(测试、验收标准);再测量模型实际产出(跑测试、review 代码);识别偏差(哪些测试挂了、哪些风格不对);然后通过再提示、重跑、补约束、人工介入等方式修正。

这就是为什么 TDD、eval、review、CI、回归测试、trace,本质上都是控制论装置。它们不是”附加管理”,而是系统稳定性的核心硬件。

这里有一个特别关键的洞见:AI 时代,实现的边际成本在暴跌,而验证的边际价值在暴涨。

想想看:过去人工写代码,实现是最痛苦的部分,测试容易被当成拖后腿的成本。现在 LLM 可以秒出代码,真正贵的不是生成,而是确认。TDD 之所以在 AI 时代突然变得顺理成章,不是因为工程师突然变保守了,而是因为经济学翻转了——生产便宜了,质检就值钱了。

控制论还会提醒你一个容易忽略的点:反馈必须足够快。

反馈太慢,系统就会在错误轨道上跑很远。AI coding 时代尤其如此——模型生成速度极快,如果你把唯一反馈点放在”集成测试结束后”或”PR 合并前”,那你其实是在允许错误高速累积。更好的做法是把反馈层层前置:lint 是一层,类型检查是一层,单测是一层,契约测试是一层,trace grading 是一层,人工 review 又是一层。多层反馈的目的不是苛刻,而是降低单次偏离的代价。

所以控制论给 AI coding 的第三课是:不要妄图靠一次 prompt 把一切说死,去设计一套能持续修正的反馈结构。


六、三副眼镜合在一起看:你管理的不是代码,是”可能性空间”

单独戴任何一副眼镜,你都只能看到一部分。三副一起戴,画面就完整了:

系统论决定了这个空间的边界和部件——有哪些工具、文档、规则、角色、回路。
信息论决定了空间里的信号质量——目标有没有传清、约束有没有丢、上下文有没有被污染。
控制论决定了空间的收敛机制——当输出偏离目标时,系统如何把它拉回来。

一个模型非常会生成,但只要系统边界模糊、信息编码糟糕、反馈回路稀薄,它就会在错误方向上高效前进。反过来,一个不是榜单冠军的模型,如果系统结构清楚、信号高保真、控制回路密实,它反而能持续产出稳定价值。

这就引出了一个更大的判断——


七、时代判断:从”制造代码”到”治理生成”

传统时代,工程师的核心形象是”实现者”——理解需求,亲手编码,调试发布。

AI 时代,这个形象在变。工程师越来越像一个系统设计者 + 信息架构师 + 反馈回路工程师。

软件工程的重心,正在从”如何制造代码”转向”如何治理生成”。

治理什么?

  • 治理部件关系——系统论。
  • 治理语义传输——信息论。
  • 治理偏差收敛——控制论。

你对 TDD、评测、工作流、验证这些词越来越有感觉,不是因为你变保守了,而是因为你在直觉上抓到了 AI 时代最稀缺的东西:不是生成能力,而是让生成收敛为可靠产物的能力。


八、五个你明天就能做的事

理论再好,不落地就是空转。收缩成五个动作:

第一,把 TDD 扩展成广义测试驱动。 验收清单、API 样例、错误码断言、边界 case、回归场景表,都是”先定义正确,再驱动生成”。

第二,设计阶段优先考虑可测性。 你的模块如果副作用太重、输入输出不可观察,后面 AI 再强也难合作。

第三,把文档当编码协议。 需求文档、设计文档、ADR 不是项目装饰品,它们是减少信息失真的工具。谁先把默会知识写成模型能理解的材料,谁先建立优势。

第四,把反馈回路做短。 能在本地检查的不等 CI,能在单测发现的不等联调,能在 eval 复现的不靠线上事故学习。

第五,复盘时用三论分类。 别只说”模型今天状态不好”。问自己:这是结构问题(边界没划清)?信息问题(文档失真)?还是反馈问题(测试没覆盖)?一旦这样分类,抱怨就变成了工程改进项。


九、一句话收尾

如果把整篇压缩成一句话:

AI 时代的软件工程,就是在一个高能力、高波动的生成系统中,通过好的系统结构、清晰的信息编码和密实的反馈回路,把”可能正确”不断压缩成”稳定正确”。

三论不是老知识。它是 AI 时代的工程母语——只不过你今天才有了足够的实感去听懂它。

12…37下一页

363 日志
9 分类
RSS
© 2017 — 2026 李文业
由 Hexo 强力驱动
|
主题 — NexT.Muse
粤ICP备17160932号