1
前几天跟一个学生讨论 AI,她提到一个很有意思的问题。
她说,自己用过不少模型,也知道它们能干活。有的模型写代码速度很快,有的模型回答问题看起来也不错。但是在使用过程中,她总有一种隐隐的不信任感。
这种不信任感,不一定是对 AI 的傲慢。更准确地说,是她还不知道该如何判断 AI 的回答到底好不好。
过去我们讨论 AI,最常问的问题是:AI 能不能做这件事?
现在这个问题已经不够了。因为很多时候,AI 的确能做。它能写代码,能写文章,能翻译,能做图,能帮你整理材料,能帮你做调研。真正的问题变成了:AI 给出的答案,看起来都比我强,我怎么知道它到底有没有达到我期待的高度?
这就是 AI 时代的第一个重要能力:不是提问能力,而是判断能力。
提问能力当然重要。但是如果没有判断能力,提问能力越强,反而越危险。因为你会得到更多看起来很像答案的东西,却不知道哪些是真的,哪些是假的,哪些是普通正确,哪些是真的高水平。
2
AI 让我们进入了一个更不容易相信世界的时代。
以前伪造一张聊天截图、伪造一张奖状、伪造一个图片证据,多少还需要一点技术门槛。你要会 PS,要懂排版,要花时间调整细节。现在,这个门槛正在迅速降低。
图片可以生成,视频可以生成,聊天记录可以生成,简历上的经历也可以在 AI 的帮助下被包装得越来越像真的。甚至一个人并没有真正做过某个项目,也可以让 AI 帮他准备一套看起来很完整的项目复盘。
这会带来一个直接后果:原来社会里那些简单的评价秩序会变得更复杂。
以前看到奖状,会默认它大概率是真的。看到论文,会默认作者确实参与了。看到视频,会觉得这总不会是假的吧。看到一个学生简历上写了很多成果,也许不会立刻怀疑。
但以后不行了。
不是说我们要把所有人都当成骗子,而是说世界会逼迫我们更谨慎。法律、学校、公司、平台的规则都会慢慢调整,但是规则永远是滞后的。很多权利和边界,本来就是从错误和事故里长出来的。先出现足够大的问题,大家吃了亏,社会才会开始补规则。
AI 时代也是这样。我们很可能要先经历一批谣言、造假、版权纠纷、学术争议、简历包装和信任危机,然后才会慢慢形成新的共识。
所以,年轻人不能只是学习如何使用 AI,还要学习如何在 AI 制造出来的复杂世界里保持清醒。
3
怎么保持判断力?
第一,不要盲目崇拜模型。
有的人一听是某个顶级模型,就天然更相信它。这个心理可以理解,因为好模型的平均能力确实更强。但是具体到每一个任务,模型名字不能替代判断。
同一个模型,做不同任务,表现会差很多。写代码可能很强,做网络安全题可能受安全策略影响。写一篇通用文章可能很顺,判断一个高度专业的问题可能会胡说。哪怕是最好的模型,也可能在某些地方犯很低级的错误。
所以,我们不能把信任建立在模型名字上,而要建立在验证过程上。
第二,要学会交叉验证。
看到一个说法,不要只问一次 AI。可以让不同模型分别判断,可以让 AI 给出处,可以让它列出反方证据,可以让它帮你检查自己的推理漏洞。尤其是涉及合作、求职、论文、项目经历、奖项荣誉这些高价值信息时,更要让 AI 参与事实核查。
比如,一个人简历上写了某篇论文。我们可以让 AI 查这篇论文的期刊、会议、作者列表、引用情况、研究内容和难度。还可以让 AI 判断,这个成果是否符合这个人当时所处阶段的能力范围。
AI 不一定能给出最终判决,但它可以极大降低初步审查的成本。
第三,要看细节。
判断一个项目是不是真的,最好的方法不是问“这是不是你做的”,而是让对方讲细节。
如果他真的做过,他会记得项目从什么时候开始,过程中遇到过哪些困难,哪一次讨论最关键,哪个地方卡了很久,最后为什么选择这个方案。他不一定表达得很漂亮,但是细节会自然冒出来。
如果他没有做过,只是背了一套包装材料,就很难经得起追问。
面试里判断项目经历,论文答辩里判断研究贡献,跟人合作时判断对方实力,本质上都要看细节。细节不是装饰,细节就是证据。
4
AI 时代的实力,也要换一种理解。
过去我们说一个人有实力,常常看他的学校、奖项、论文、实习、项目、工作经历。这些东西仍然重要,但它们会变得越来越不够。
因为这些东西都可以被包装,甚至可以被伪造。
真正重要的是,你能不能经得起审查。
你说自己做过一个项目,那你能不能讲清楚它解决了什么问题?为什么这个问题值得解决?原来最好的方法是什么?你的方法好在哪里?好多少?是正确率更高,还是速度更快,还是成本更低?有没有跟当前最好的方法对比?如果别人质疑“我用 AI 半天也能做一个类似工具”,你怎么证明你的工具不是一个玩具,而是一个成熟的成果?
这些问题都很现实,也很残酷。
我在跟那个学生讨论她的论文时,就做了一次模拟提问。她的论文是一篇工具型论文,不是提出一个全新的理论,而是把已有理论实现成可以使用的工具。
一开始她讲得比较散,说自己做了数据清洗、代码实现、实验测试,整个流程都走了一遍。这个回答能证明她参与过,但还不能很好证明这个成果的价值。
后来我们一点点追问,才追到关键点:她的工具跟已有的冠军级求解器相比,在相同时间内求出的结果数量有五倍以上提升。
这句话才是重点。
如果是面试,或者申请研究生,或者向一个不了解你领域的人介绍成果,你不能等别人追问十几分钟才说到重点。你要一开始就讲清楚:
我解决的是什么问题。
原来的最好方法是什么。
我的结果比它好在哪里。
这个工作体现了我哪些能力。
谦虚是一种美德,但是在需要证明自己的场合,过度谦虚会变成表达能力不足。
5
在一个更不信任的世界里,保持实力还有另一层含义:不要同流合污。
这句话听起来有点重,但现实确实会把人推到这种位置。
如果别人可以买奖、可以买软著、包装简历、论文挂名、实验结果微调一下就能发出去,你怎么办?
你可能会想,既然连一些著名学校、著名教授都会造假,为什么我不能?既然这样做收益很大,惩罚又未必很重,我为什么要吃亏?
这时候就不是技术问题了,而是选择问题。
一个朴素的理由是,你做坏事之后不一定会被抓住,但你永远不知道什么时候会爆雷。更可怕的是,一旦形成路径依赖,你会越来越习惯突破边界。第一次觉得紧张,第二次觉得问题不大,第三次就变成理所当然。
到最后,你不是犯了一次错,而是把自己训练成了一个会持续犯错的人。
还有一个更朴素的理由是,人要能睡得着觉。
不是每个人都要把自己想象成道德英雄。很多时候,不作恶并不是因为自己多高尚,而是因为自己知道,干了坏事会害怕,会心虚,会不安,会担心哪一天被翻出来。
这也挺好。
能对坏事感到害怕,说明人还没有坏到不可救药。能保留这种害怕,很多时候就是普通人最实用的道德防线。
6
除了判断力和实力,AI 时代还需要想象力。
我问过那个学生一个问题:如果你有无限的 token,你会用来做什么?
她说,她问过身边的学长学姐,大家的回答都比较局限。大概就是做科研、跑数据、翻译资料、完成作业。不是这些事情不好,而是这些答案暴露出一个问题:我们还没有真正打开 AI 带来的想象空间。
很多受过良好教育的人,很容易变成功利主义训练出来的高效执行者。
老师说这个重要,就做这个。学长学姐说这个有用,就做这个。竞赛榜单上有这个,就做这个。简历需要这个,就做这个。
这样当然能取得成绩,也很值得肯定。但是如果一个人永远只做别人已经说过有用的事,他的上限会受到限制。
想象力不是坐在那里空想出来的。想象力也需要训练。
怎么训练?多用。
就像读书一样,有一种读书方式是遇到好书才读。还有一种读书方式是,不管有没有遇到所谓好书,这个月就要读够一百个小时。后者听起来有点笨,但它会把你逼进更多可能性里。
使用 AI 也是这样。如果只是在有明确需求的时候才打开 AI,你会永远停留在熟悉场景里。写作业、写代码、改简历、做总结,来来回回就这些。
但是如果你要求自己在有效探索的前提下多用 AI,你就会开始问:我还能让它做什么?它能不能帮我做一个工具?能不能帮我复盘一次谈话?能不能帮我训练表达?能不能帮我做一个给小学老师用的教案系统?能不能帮我把手机里的注意力重新引导到我真正想去的地方?
很多新想法,就是在这种“多用一点”的压力下出现的。
7
最后,功利主义和理想主义并不是对立的。
学生时期,我们很容易把功利主义当成主线,把理想主义当成甜品。周一到周五是功利主义,晚上和假期才是理想主义。先把成绩、论文、保研、实习、工作这些事情做好,如果还有余力,再做一点自己真正感兴趣的事。
这个思路有现实合理性。
但是它也有一个问题:过度功利会让人失去主动性。
别人说什么有用,你就做什么。别人说什么没用,你就不做什么。你看起来很聪明,很会选择,实际上是在把自己的想象力交给外部评价体系。
理想主义的价值,不只是让人活得浪漫一点。它还会反过来帮助一个人取得更大的现实成就。
一个人因为喜欢学习而持续阅读,后来可能在 AI 时代更快适应新工具。一个人因为对编程本身感兴趣而长期探索,后来可能在工作中拥有更强的工程判断。一个人因为想帮助别人而做一个小工具,后来这个小工具也许会变成真正有价值的产品。
功利主义让人知道眼前要做什么,理想主义让人不被眼前困住。
AI 时代也是这样。
如果你只把 AI 当成完成任务的工具,你会变得更高效。但是如果你把 AI 当成扩展想象力的伙伴,你才可能变得更自由。
所以,年轻人最该训练的,确实不是单纯的提问能力。
更重要的是判断力,知道什么是真的,什么是好的,什么是值得相信的。
更重要的是实力,让自己的经历、成果和表达经得起审查。
更重要的是想象力,在别人都沿着既定标准往前跑的时候,还能问一句:我自己真正想做什么?
这三个能力,可能才是 AI 时代最硬的通行证。