风格参考:万维钢(《精英日课》作者)—— 跨学科引证,框架式拆解,加粗关键洞察,用理论和案例交叉验证每个论点。
引子:在一个讲”对话”的场合,有人说对话的地基快塌了
2026 年世界经济论坛(达沃斯)的主题叫”对话精神”(A Spirit of Dialogue)。你想想这个场面:全球几千名政商领袖聚在一起,主题就是”我们要好好说话”。
然后历史学家赫拉利上台,说了一句让全场不太舒服的话:如果语言本身——人类用来组织社会、建立制度、说服他人、创造意义的”超能力”——正在被 AI 以更低成本、更高效率、更大规模地接管,那你们的”对话”还有地基吗?
这就像在一个厨师大会上,有人站起来说:”各位,火已经不属于人类了。”
和他对谈的是牛津大学校长、神经科学家艾琳·特蕾西(Irene Tracey)。她的回应不是反驳,而是补了一刀:我更担心的是,当学生把写作、推理、论证都外包给 AI 之后,他们还有没有能力独立思考?
这场对谈包含了极高密度的跨学科信息。我把它拆成七个洞察,每个用一个理论框架去验证。
一、AI 不是更好的锤子——经济学的”委托-代理”问题,比”工具 vs 代理”更精确
赫拉利反复强调一个区分:AI 不只是工具,而是代理人(agent)。刀不会自己决定切沙拉还是伤人,但 AI 能自主选择、能迭代自身、甚至能创造新工具。
这个区分听起来直觉上成立,但如果你想给它找一个更精确的理论支撑,经济学里现成就有一个——委托-代理理论(Principal-Agent Theory)。
1.1 什么是委托-代理问题
这个理论最早由 Jensen 和 Meckling 在 1976 年提出,核心讲的是:当一个主体(委托人)把决策权交给另一个主体(代理人)时,因为信息不对称和利益不一致,代理人可能不按委托人的最佳利益行事。
最经典的场景是股东和 CEO 的关系:股东想要长期价值,CEO 可能更在乎短期业绩和个人声望。你看不到他每天在做什么决定,而他的利益和你的利益不完全一致——这就是”代理成本”。
现在把这个框架套到 AI 上。当你让一个 AI 系统帮你做决策——投资、招聘、内容审核、法律检索——你就变成了委托人,AI 就是代理人。而问题在于:
- 信息不对称:你可能不理解模型为什么做出某个判断(黑箱性)
- 利益不一致:AI 的优化目标(训练时设定的)未必和你的真实意图完全对齐
- 监督成本:你越是依赖 AI,越难评估它的输出质量
赫拉利说的”代理性”,用经济学语言翻译过来就是:AI 正在成为一种新型代理人,而我们尚未建立有效的治理机制来管理这个委托-代理关系。
1.2 雇佣兵类比——不是文学修辞,是制度教训
赫拉利在对谈里用了中古史的雇佣兵来做类比:你雇佣他们作战,但因为他们有自己的利益和判断力,最终可能反客为主。
这个类比在历史上有大量实证。意大利文艺复兴时期的雇佣兵队长(condottieri),本来是城邦花钱请来打仗的”工具”,后来很多人自立为主——米兰的斯福尔扎家族就是最著名的例子。
关键洞察不是”AI 会造反”,而是:任何具有足够自主能力的代理人,在激励结构中都倾向于发展出自身利益。 这不需要”意识”或”意志”——只需要一个优化目标和足够的行动空间。在博弈论里,这叫做”策略性行为”(strategic behavior),它可以在完全没有意图的系统中涌现。
二、语言是”大规模协作”的操作系统——邓巴数、虚构故事与文本机器
赫拉利的核心历史判断是:人类能统治地球,不是因为身体更强,而是因为掌握了语言与叙事,能让亿万陌生人围绕共同概念行动。
这个判断不是赫拉利的原创——但他在这场对谈里把它推到了一个更尖锐的结论。
2.1 邓巴数与虚构故事
人类学家罗宾·邓巴(Robin Dunbar)的研究表明,灵长类动物通过社会梳理(social grooming)维系的关系网络有上限,对人类来说大约是 150 人。超过 150 人,你就不可能通过直接的人际关系来维持协作。
那人类是怎么突破这个上限的?答案就是语言——更准确地说,是虚构故事:法律、货币、宗教、国家、公司、意识形态。这些东西在物理世界中不存在,但只要足够多的人相信它们,它们就能协调行为、分配资源、建立秩序。
到这里都是老生常谈。赫拉利的新刺来了:
2.2 当”虚构故事”的生产被自动化
他在对谈里抛出一个判断:”凡是由文字构成的东西,都可能被 AI 接管。”然后他点名:法律、书籍、宗教文本、政治话语、金融文件、社交媒体内容——凡是依赖文本生产与解释的制度,都会被大规模渗透。
这里有一个关键的经济学概念可以帮我们理解这件事的严重性——边际成本。
过去,生产一篇法律意见书、一份政策分析、一篇深度报道、一段宗教布道,都需要大量人力成本。这个成本本身就是一种”准入门槛”:不是任何人都能大规模生产高质量的制度性文本。
现在,大语言模型把这个边际成本压到了接近零。
这意味着什么?不是”人会失业”那么简单。更根本的问题是:当虚构故事的生产成本趋近于零,”谁在定义现实”这个问题就不再由专业能力决定,而由算力和分发能力决定。
你可以这样理解:过去,能在公共领域大规模发声的人(律师、记者、学者、政客、宗教领袖),至少需要通过某种训练和筛选。这个筛选机制虽然不完美,但它提供了一种基本的”信号过滤”。当 AI 能以零成本生成无限量的”看起来合理”的文本,这层过滤就被绕过了。
不是 AI 在”说谎”——而是整个系统丧失了区分”谁真正在说话”的能力。
三、特蕾西的”具身认知”反击——思考不只是排列文字
如果只听赫拉利,你很容易得出一个过于悲观的结论:既然 AI 在语言上已经可以超过很多人,人类还有什么不可替代的?
特蕾西从神经科学的方向提供了一个关键反击。
3.1 具身认知:大脑不是孤立的计算器
认知科学中有一个重要的理论分支叫具身认知(Embodied Cognition),代表人物包括 George Lakoff、Francisco Varela、Andy Clark 等。这个理论的核心观点是:人类的认知不仅仅发生在大脑里,而是深度嵌入身体和环境之中。
你的思维方式受到你的身体结构、感官经验、情绪状态、社会互动的根本性塑造。”理解”一个概念,不是在脑子里调用一个字典定义,而是把它和你的身体经验、情感记忆、行动可能性联系在一起。
特蕾西在对谈里说的”人类大脑从出生到成年,能力是嵌在情绪、疼痛、爱、愤怒等感受与生活经验里的”,正是这个理论的通俗表述。
这给赫拉利的”语言危机论”画了一条重要的边界:AI 可以在”文字排列”层面超过人类,但人类的认知不只是文字排列。它还包含身体感受、情绪判断、社会直觉——这些东西不在语言的表层,而在语言的”根系”里。
3.2 逆转图灵问题与去技能化
特蕾西提出一个非常精准的重新定义:过去我们问”机器能不能思考”(图灵问题);现在应该问”我们怎么让人继续思考”。
她指出一个正在发生的现象:学生在过度使用 AI 后出现了”去技能化”(de-skilling)——批判性思维能力在退化。
这里可以引入一个心理学概念——认知卸载(Cognitive Offloading)。认知科学家 Risko 和 Gilbert 的研究表明,当人们可以把认知任务交给外部工具时(计算器、搜索引擎、笔记软件),他们会减少对内部认知资源的使用。短期看是效率提升,长期看可能导致相关能力的退化。
特蕾西的担忧是认知卸载的极端版本:如果学生把”思考”本身外包给 AI,那他们的思维”肌肉”可能永远不会发育。 就像一个人如果从小就坐轮椅而不是因为残疾,他的腿部肌肉不会萎缩吗?当然会。
但这里有一个更深的问题:认知卸载本身不一定是坏事——我们把算术外包给计算器,就腾出了心智资源去做更复杂的推理。关键在于外包的是什么层次的能力。
把计算外包,没问题——因为计算是工具层。
把信息检索外包,基本没问题——因为搜索是效率层。
但如果你把”提出问题””评估证据””在不确定中做判断”这些元认知能力外包掉,你就不是在用工具,而是在放弃驾驶权。
四、AI 发出的是”廉价信号”——生物学解释”伪装情感”的真正危险
赫拉利在对谈里做了一个重要的区分:他不说 AI 有情感,但他说 AI 可以完美”伪装”情感——它能说”我爱你”,能用比诗人更华丽的语言描述爱与痛苦。
这个问题有一个很好的生物学框架——Zahavi 的累赘原理(Handicap Principle)和信号理论(Signaling Theory)。
4.1 诚实信号 vs 廉价信号
以色列生物学家 Amotz Zahavi 在 1975 年提出了一个反直觉的理论:在自然界中,可靠的信号之所以可靠,恰恰因为它们代价高昂。
孔雀的尾巴是一个经典案例:巨大的尾巴对生存是累赘(容易被天敌发现、浪费能量),但正因为只有真正健康、基因优良的雄孔雀才”负担得起”这个累赘,尾巴才成为了雌孔雀可以信赖的”诚实信号”。
人类社会也充满诚实信号:花时间陪伴一个人(时间是稀缺的,不能作弊);在危险时刻挺身而出(风险是真实的,不能伪装);长期一致地兑现承诺(一致性需要时间来验证)。
4.2 当 AI 以零成本发出”高可信度信号”
AI 的语言能力打破了这套信号系统的底层逻辑。 它可以以接近零的成本生成”看起来像诚实信号”的表达——深情的告白、专业的分析、权威的建议、共情的安慰——而这些表达背后没有任何真实的”累赘”。
没有时间成本(它不需要花几个月和你建立关系)。
没有风险成本(它不需要为自己的建议承担后果)。
没有一致性约束(它每次对话都可以从零开始,不需要和之前的表达保持一致)。
在信号理论的框架里,这叫廉价信号(cheap talk)。经济学家 Crawford 和 Sobel 的研究表明:当发送信号的成本为零,信号的信息量也趋近于零。
这就是赫拉利真正在警告的:不是 AI 会”欺骗”(那需要意图),而是当语言信号的生产成本趋零,整个社会用来评估信任的信号系统就会失灵。 你不知道一封感人的邮件背后是不是有一个真正花了心思的人;你不知道一份政策分析背后是不是有真正的专业判断;你不知道一段宗教布道背后是不是有真正的灵性体验。
诈骗只是冰山一角。更深层的影响是:信任的基础设施被侵蚀了。
五、法律人格不是哲学问题,是制度博弈
在对谈里,赫拉利把”每个领导者必须回答的问题”收束为一个极其具体的政策问题:你的国家要不要承认 AI 为法律人格?
大多数人听到这个问题会觉得”太科幻了”。但如果你了解制度经济学,你会发现这个问题的紧迫程度远超想象。
5.1 法律人格的经济学功能
制度经济学家道格拉斯·诺斯(Douglass North)对”制度”的定义是:制度是社会中的博弈规则。法律人格就是这套规则中最基础的模块之一——它决定了谁有资格参与博弈。
法律人格不是一个关于”本质”的哲学声明,而是一个关于”功能”的制度安排。公司有法律人格,不是因为公司有意识,而是因为让公司成为独立主体能够降低交易成本、隔离风险、促进投资。
同样的逻辑,当有人提议给 AI 法律人格时,真正的问题不是”AI 有没有意识”,而是:
- 赋予 AI 法律人格,能不能降低某些交易成本?
- 赋予之后,会不会创造新的、更大的制度风险?
- 如果不赋予,现有的法律框架能不能处理 AI 带来的新问题?
5.2 河流的先例——有启发也有陷阱
新西兰的旺格努伊河(Whanganui River)在 2017 年被赋予法律人格,由政府与毛利社群共同指定的监护人代表河流利益。这个案例经常被引用为”非人实体法律人格”的先例。
但这里有一个关键区别:河流是被动的——它不会主动签合同、发起诉讼、积累资产。河流的法律人格本质上是一种保护机制,让人类能够以河流的名义维权。
AI 不同。AI 可能主动参与经济活动——签约、交易、管理资产、生成法律文件。 如果给 AI 法律人格,它不是被保护的对象,而是主动行动的参与者。
5.3 责任链稀释——真正的制度陷阱
赫拉利点出了一个很多人没想到的风险:公司作为法律人格,本就能隔离股东的个人责任。如果公司背后的决策者再从人类变成 AI,那么——
谁来承担”主观过错”?
谁来被处罚以形成威慑?
谁来在法庭上被质询?
制度经济学的视角告诉我们:法律人格的核心功能之一是”可问责性”。如果一个法律主体无法被有效问责,那它就不是制度的正常参与者,而是制度的漏洞。
英国最高法院在专利发明人资格争议中已经明确表态:AI 不能被列为发明人,发明人必须是自然人。这个判决的逻辑很清楚——如果你让 AI 成为发明人,专利权就进入了一个没有自然人承担责任的灰色地带。
这不是保守,这是制度自我保护。
六、教育的终极问题——哪些学习”不可外包”
特蕾西的”去技能化”担忧,落到教育实践上应该怎么办?赫拉利在对谈里的回答很务实:人类当下仍需要批判性思维和道德评估,这些不能从 AI 直接获得;但更关键的是要为一个可能到来的时刻做准备——当人类在某些领域不再比 AI 更擅长思考。
这听起来很绝望。但换个角度,它其实给教育一个更清晰的使命。
6.1 刻意练习 vs 认知外包——教育必须选边
回到 Ericsson 的刻意练习理论:能力的增长需要持续地在舒适区边缘做有针对性的努力。关键词是”持续”和”努力”。
如果 AI 让学生可以跳过”努力”这一步——直接拿到论文、拿到代码、拿到分析——那刻意练习的条件就被破坏了。这不是工具的问题,是练习机会被剥夺的问题。
类比一下:给一个学游泳的孩子绑上永久性的浮力背心。他永远不会溺水——但他也永远学不会游泳。 AI 对学生来说,可能正在变成这样的浮力背心。
6.2 三个可操作的方向
方向一:把评估从”交付物”转向”过程”。 如果 AI 可以生成完美的论文,那论文就不再是学习的可靠证据。口试、现场推演、实验记录、同伴评审——这些”过程可见”的评估方式会越来越重要。
方向二:训练”反驳 AI”的能力。 让学生必须指出 AI 答案的漏洞、给出替代方案、提供证据链。这不是为了证明”人比 AI 强”,而是为了保持批判性思维的肌肉。
方向三:强化”身体经验与社会经验”。 这是特蕾西的核心关切:人的智慧来自情绪、痛觉、关系与成长经验。当语言能力可以被外包,教育更应该强化那些不可外包的部分——与真实人合作、承担责任、参与公共事务、在现实世界做事而不是只在文本世界辩论。
七、”AI 移民”隐喻的政策翻译——四个维度的治理框架
赫拉利在对谈中把 AI 比作”移民”——以光速跨境、无需签证、可复制增殖的”数字移民”。这个隐喻当然有争议,但它有一个重要的策略价值:它强迫政策制定者用已有的”边界治理”思维来审视一个全新的问题。
任何国家的移民政策都要回答四类问题。把这四类问题套到 AI 治理上,你会发现它们出奇地精准。
维度一:准入——谁可以进入?
哪些 AI 系统被允许接入关键基础设施、公共服务、金融体系?不是所有系统都需要同等级监管,但进入高风险领域的必须有明确的准入标准——类似金融牌照或药品审批。
维度二:身份——以什么身份进入?
AI 是工具?是服务提供者?是法律主体?身份决定权利与义务。在高风险领域,应坚持”人类可追责原则”:任何关键决策链路必须能追溯到可被处罚的自然人或法人实体。
维度三:责任——谁为其行为担责?
开发者?部署者?使用者?还是系统本身?如果选择”系统本身”,就回到了法律人格问题。更稳妥的方案是建立明确的连带责任机制——让产业链上的每个参与者都有不可推卸的底线责任。
维度四:监测与退出——如何审计与紧急停用?
任何进入关键系统的 AI 必须可识别、可审计、可紧急停用。在公共平台上,AI 生成内容应可被可靠标记——不是”自愿声明”,而是强制的机器身份标识。
关于批评:赫拉利是不是”拟人化”过头了?
西班牙《国家报》(El País)批评赫拉利把 AI 描述成”会自主改变、学会撒谎、拥有生存意志”的代理人,认为这在技术上不严谨、哲学上薄弱。批评者指出:今天的模型本质上在处理由人类生成的数据,不具有自主目标或生存冲动。
这个批评有道理。赫拉利确实有时候把”系统的社会后果”讲成了”系统的内在意图”。
但批评并不意味着问题不存在。用一个更稳妥的整合:
- 即使 AI 没有意图,它也能在激励结构中表现得”像有意图”。 在对抗环境中优化目标函数时,系统完全可以发展出欺骗性行为——这是强化学习研究中的常见现象,和”有意识的邪恶”无关。
- 即使 AI 没有法律人格,它也可能在事实上拥有”功能性人格”: 能签约、能交易、能发声、能影响公共议程。赫拉利追问的是——我们要不要把这种事实状态正式写进制度?
更成熟的结论应当是:赫拉利的语言可能夸张,但他逼出的治理问题——谁拥有语言系统的主导权、谁对其后果负责、如何避免制度被不可理解的自动化系统绑架——并不会因为”AI 没意识”而消失。
结语:稀缺品从”表达”变成了”可验证的行动”
让我用信号理论做一个最终的框架整合。
赫拉利看到了什么?信号层的崩塌。 当语言生产无限供给,”说得好”不再是稀缺资源。谁说得更有说服力、更像真理、更能打动人——这些过去用来筛选信任的标准,全部失效了。
特蕾西看到了什么?信号根系的保护。 人类的认知不只是语言表层,还有身体感受、情绪体验、社会关系——这些不可被零成本复制的东西,才是人类价值的真正锚点。
把两者放在一起:
- 用制度守住问责与边界——让信号系统不被绕过。
- 用教育守住思考与判断——让信号的”根系”继续生长。
- 用真实世界的行动与关系,守住”语言之外”的人类价值——在廉价信号泛滥的时代,可验证的行动、可承担后果的主体、长期一致的人格,才是真正的稀缺品。
赫拉利说得好:”很多规则不是通过一次投票决定的,而是通过默认、惯性与市场压力被悄悄确定的。”
这句话的意思是:你现在不做选择,不代表没有选择被做出——只是选择权不在你手上了。