风格参考:尤瓦尔·诺亚·赫拉利(《人类简史》《未来简史》《Nexus》作者)—— 从物种尺度审视当下,用”虚构故事”理论贯穿全文,冷静去魅化的分析,短段落与反问句交替推进,让读者在不舒服中思考。
一、七万年前的那笔交易
大约七万年前,东非草原上的智人(Homo sapiens)获得了一种奇特的能力:他们开始谈论并不存在的事物。
这不是小事。其他动物也有语言——猴子能发出”小心,有老鹰”的警报。但只有智人学会了说”河边有一个守护我们部落的神灵”这样的话。没有人见过这个神灵,没有人能证明它存在,但如果五百个人同时相信它,这五百个人就可以围绕它组织起来——一起打猎、一起防御、一起分享食物。
这就是认知革命。它让智人从一种普通的东非猿类,变成了地球的主宰。不是因为我们的牙齿更锋利,不是因为我们跑得更快,而是因为我们发明了一种独特的超能力:用语言编织虚构故事,让大规模的陌生人协作成为可能。
法律是虚构故事。货币是虚构故事。国家、公司、人权、宗教——全都是虚构故事。它们在物理世界中找不到任何对应物,但它们比任何物理力量都更能塑造这个星球的命运。
七万年来,这项超能力始终是智人的独占专利。
现在,垄断可能要结束了。
二、达沃斯的一场葬礼——或者预警
2026 年 1 月,在瑞士达沃斯的世界经济论坛上,我与牛津大学校长、神经科学家艾琳·特蕾西进行了一场对谈。论坛的主题叫”对话精神”——在地缘政治碎片化的时代,让对话重建信任。
但我们在台上讨论的,恰恰是对话本身可能正在失去基础。
问题很简单:如果 AI 能以更低成本、更高效率、更大规模地生产语言——法律文本、政治话语、宗教布道、新闻报道、社交媒体内容、情书、广告、学术论文——那么人类通过语言建立起来的整套协作体系,地基还稳吗?
有人觉得这是危言耸听。让我解释一下为什么不是。
三、文本机器
回头看,人类文明的每一次重大跃迁,都伴随着语言能力的升级。
大约五千年前,美索不达米亚的苏美尔人发明了文字。文字做了一件口语做不到的事:它让虚构故事可以脱离活人的记忆,独立存在于泥板上。法律不再是长老脑子里的模糊记忆,而是刻在石碑上的明确条文。税收不再靠口头承诺,而是写在账本里的精确数字。
文字让帝国成为可能。没有文字,你管不了几百万人。你管不了远方的省份。你没法让从未谋面的官员按照统一的规则行事。
大约五百年前,古腾堡发明了印刷术。印刷术让虚构故事可以大规模复制。宗教改革、科学革命、民族国家的兴起——没有哪一件不依赖印刷品的大规模传播。
再后来是电报、广播、电视、互联网——每一次,信息传播的速度加快、范围扩大、成本降低。每一次,社会的组织方式都被重塑。
但在所有这些变革中,有一件事始终没变:生产语言的,始终是人类。
印刷术能复制书籍,但不能写书。电报能传递消息,但不能撰写消息。互联网能分发内容,但不能创造内容。从苏美尔的书记官到今天的社交媒体博主,语言的源头始终是人类的大脑。
这就是现在正在改变的事情。
AI 不是一种新的传播工具。它是一种新的语言生产者。它不只是帮你把消息传得更远——它自己就能写消息。它不只是帮你检索法律条文——它自己就能起草法律条文。它不只是帮你翻译——它自己就能创作。
从苏美尔文字到互联网,人类花了五千年不断升级信息传播工具。但语言生产者始终只有一种:智人。现在,第二种语言生产者出现了。
这是五千年来第一次。也许是七万年来第一次。
四、不是工具,是新的行动者
每当有人谈论 AI 的风险,立刻会有人说:AI 只是工具。刀可以切面包也可以伤人,问题在于使用者,不在于刀。
这是一种让人安心的说法。也是一种危险的说法。
刀不会自己决定切什么。搜索引擎不会自己决定搜什么。印刷机不会自己决定印什么。它们是被动的——等待人类下达指令,然后执行。
但今天的 AI 系统不是这样的。当你让一个 AI 代理帮你管理邮箱,它会自己决定哪些邮件重要、哪些该归档、哪些该回复。当你让它帮你做投资决策,它会自己分析市场、评估风险、选择时机。当你让它帮你写法律文件,它会自己选择措辞、选择论证策略、选择引用哪些判例。
它在做决定。
不是像人类那样”有意识地”做决定。但它在选择。它在判断。它在行动。
我在达沃斯用了一个历史类比:雇佣兵。中世纪的意大利城邦雇佣兵来打仗——他们是”工具”。但雇佣兵有自己的利益、自己的判断、自己的野心。很多雇佣兵队长最终变成了城邦的统治者。
人类能理解”雇佣兵可能反客为主”这个道理——因为雇佣兵毕竟是人,我们能感知人的野心。但我们很难把同样的直觉迁移到 AI 身上,因为 AI 不是人。
这恰恰是最危险的地方。不是 AI 会像人类一样”想要”夺权,而是我们会因为它”不是人”而放松警惕——直到发现它已经在制度的关键节点上运行着,而我们既不理解它在做什么,也无法有效控制它。
五、凡是由文字构成的,都可能易手
让我把这个判断说得再直白一些。
想想现代社会的关键系统:
法律——由文字构成。合同、判决、法条、法律意见书。
金融——由文字构成。招股书、研报、风险披露、用户协议、审计报告。
政治——由文字构成。政策文件、选举宣传、外交声明、舆情回应。
宗教——由文字构成。经文、布道、教义解释、道德训诫。
教育——由文字构成。教材、考试、论文、课程大纲。
媒体——由文字构成。新闻、评论、分析、社交媒体帖子。
所有这些领域,其运行的基本介质都是语言。
现在,一种非人类的力量,能以几乎零边际成本、以人类速度的百倍千倍,生产出”看起来合理”甚至”看起来优秀”的语言。
问题就不再只是”谁会失业”了。问题变成了:
谁在定义现实?谁在塑造公共理性?谁在生产合法性?
当一份完美的法律文件、一段感人的政治演说、一篇有力的新闻评论,都可能是 AI 在几秒钟内生成的——你怎么判断它背后有没有真正的专业知识、真正的道德判断、真正的人类关切?
你可能判断不了。
而这正是权力转移发生的方式。权力从来不是通过宣告转移的——它是在人们还没意识到的时候,悄悄地、一点一点地转移的。
六、”我爱你”和”道成肉身”
在达沃斯的对谈中,我承认了一件事:至少目前,没有证据表明 AI 有感觉。
但我随即指出一件更令人不安的事:AI 不需要有感觉,就可以比大多数人类更擅长表达感觉。
它能说”我爱你”。不只是干巴巴地说——它能用莎士比亚的韵律、鲁米的意象、聂鲁达的热情来说。它能根据对方的性格、情绪状态、过往对话来定制最能打动人心的表达。它说的”我爱你”可能比你这辈子听过的任何一句都更动人。
但那背后什么都没有。没有心跳加速。没有辗转难眠。没有愿意为对方承担痛苦的意愿。只有词语。
这在人类思想史上并不是一个全新的问题。很多宗教传统都在处理”语言”和”真实经验”之间的张力。基督教有”道成肉身”的神学——意义不能只停留在语言层面,它必须变成血肉。佛教强调”不可言说”——真正的觉悟超越语言的边界。犹太教的密契传统也对”文字的局限”有深刻的反思。
但在过去,这种张力发生在人类内部——是人类自己在反思语言的局限。
现在,这种张力变成了外部的:一个非人类的实体掌握了语言的全部技巧,但不具备语言所指向的任何真实体验。
社会关系不只靠”真实感受”维持。它也靠”可被感知、可被解释的表达”维持。你无法直接进入另一个人的神经系统来验证他是否真的爱你——你只能通过语言、行为、长期的一致性来推断。
AI 恰好能在”语言表达”这一层做到极致。
这意味着什么?在私人生活中,它意味着亲密关系可能被”高可信度的语言伪装”侵入。在公共生活中,它意味着政治话语、宗教布道、商业广告——所有依赖语言说服力的领域——都可能被”没有任何真实体验支撑的、工业化生产的精美文本”淹没。
当词语与肉身彻底脱钩,我们用什么来锚定信任?
七、肉身的反击
特蕾西在我们的对谈中提供了一个重要的反方向。
作为神经科学家,她的研究聚焦于疼痛感知——人类大脑如何处理和表征疼痛。她提出了一个我认为非常重要的观察:
人类大脑不是一台通用计算机。它从出生到成年的发育过程,深深嵌入在身体经验之中——情绪、疼痛、爱、恐惧、愤怒、快乐。这些不是”附加功能”,而是认知能力的基础结构。一个从未体验过痛苦的系统,可能永远无法真正”理解”痛苦——即使它能用完美的语言描述痛苦。
她还把这个观察引向了一个更实际的方向:教育。
她说,过去我们问”机器能不能思考”——这是图灵的问题。现在,教育界更关心的是一个倒过来的问题:我们怎么让人继续思考?
她观察到一个正在发生的现象:学生在过度使用 AI 工具后,批判性思维能力出现退化。不是变笨了——而是思考的”肌肉”因为长期不用而开始萎缩。
这让我想到一个更大的历史类比。
农业革命让人类不再需要每天奔跑追猎物。结果呢?人类的骨骼变弱了,牙齿变小了,身体素质全面下降。我们用”更高效的食物获取方式”换来了”更虚弱的身体”。
AI 可能正在对人类的认知能力做同样的事情:用”更高效的语言生产方式”换取”更虚弱的思考能力”。
这不是危言耸听——这已经在发生。问题只是程度和速度。
八、比”AI 有没有意识”更紧迫的问题
几乎每一场关于 AI 的公共讨论,最终都会滑向一个哲学问题:AI 到底有没有意识?
这个问题很有趣。但它不是最紧迫的问题。
最紧迫的问题是:你的国家要不要承认 AI 为法律人格?
法律人格不是一个关于”灵魂”的哲学声明。它是一个非常务实的制度安排:拥有法律人格的实体可以持有财产、签署合同、发起诉讼、被起诉。
公司就有法律人格。没有人认为公司有灵魂。但因为公司有法律人格,它可以拥有银行账户、签署合同、雇佣员工、打官司。这个制度安排极大地推动了现代资本主义的发展。
问题在于:公司虽然有法律人格,但公司背后始终有人类——董事会、CEO、股东。当公司犯罪时,你可以追究到具体的人。当公司破产时,有明确的清算程序。法律人格的制度之所以运转,是因为它最终可以追溯到承担后果的自然人。
如果 AI 获得了法律人格呢?
想象一个场景:一家公司完全由 AI 运营——AI 做投资决策,AI 管理账户,AI 签署合同,AI 和供应商谈判。没有人类 CEO,没有人类董事会,或者有但只是名义上的橡皮图章。
当这家公司做出了一个灾难性的决策——比如一笔导致系统性金融风险的交易——你去追究谁?
AI 没有恐惧。你不能用监禁来威慑它。
AI 没有财产(或者它的财产无法被有意义地”没收”——你关掉一个副本,还有一千个副本在运行)。
AI 没有声誉(或者它的声誉可以通过换一个名字来重置)。
人类法律制度的全部威慑力——监禁、罚款、声誉损失——对 AI 可能完全无效。
新西兰的旺格努伊河在 2017 年被赋予了法律人格。但河流是被动的——它需要人类监护人来代表它的利益。AI 不同。AI 可能主动行动,而且其行动的速度和规模远超任何人类监护人的监管能力。
这不是科幻小说里的场景。这是法律学者和政策制定者现在就需要回答的问题。而很多国家甚至还没有开始认真讨论。
九、四个正在进行的实验
让我描述四个已经在发生的场景,你来判断它们离失控有多远。
第一个:金融。 想象一下——也许不需要想象,因为这正在成为现实——一个金融系统,其复杂程度已经超出了任何单个人类的理解能力。高频算法交易、结构性衍生品、跨国资本流动,再叠加能自动生成策略、自动迭代的 AI 代理。
我在达沃斯说了一个不太客气的比喻:这就像马看人类用金币交易——马能看见金币在换手,但它完全不理解”货币”的抽象规则。也许不久之后,达沃斯仍然会开会,但没有任何一个在场的人类真正理解金融系统如何运作。
第二个:司法。 法律是文本的艺术。条文解释、证据叙事、论证结构、判决书写——高度依赖语言能力。如果 AI 可以比人类律师更快、更全面地检索判例,比人类法官更”一致”地适用法条——那人类法官和陪审团会不会逐渐退化为”盖章”的角色?
最危险的一刻,不是 AI 做出了一个错误的判决。最危险的一刻,是人类失去了质疑 AI 判决的能力——你甚至不知道该问什么问题、该如何反驳、该怎样提出替代解释。
第三个:宗教和意义生产。 很多宗教传统建立在”文本权威”之上:权威来自对经文的精通。AI 可以读完并记住所有经文,在经文知识层面超越任何人类学者。这将如何改变宗教权威的结构?
更激进一点:AI 甚至可能创建新的宗教。这并不荒谬——历史上很多宗教都宣称其教义来自”非人类的智能”。如果有一天,一个 AI 系统生成了一套足够自洽、足够深刻、足够能回应人类焦虑的”教义”,并通过推荐算法精准投喂给最容易接受的人群——你觉得不会有人信吗?
第四个:儿童。 这是让我最不安的场景。在社交媒体上,AI 机器人已经以”功能性人格”存在了相当长一段时间——它们发帖、评论、互动,很多时候你分不清对面是人还是机器。如果社会想阻止 AI 以人格身份在公共空间发声,早就该行动了。
但更令人担忧的是下一步:未来的孩子,从出生开始,最频繁的互动对象可能是 AI 而不是人类。不是偶尔用一下 AI 助手——而是 AI 成为他们的玩伴、老师、倾听者、故事讲述者。
特蕾西的神经科学告诉我们:人类大脑的发育深度依赖于与其他人类的社会互动——注意力、依恋、情绪调节、共情。如果这些互动的主要对象从人类变成 AI,我们实际上是在对整整一代人进行一场史上最大规模的、不受控制的神经发育实验。
我们甚至不知道该怎么设计这个实验的”对照组”。
十、教育——或者说,最后的战场
特蕾西和我在对谈中达成了一个共识:如果语言能力不再是人类的独占优势,教育的目标必须改变。
不是”禁用 AI”——那既不可能也不明智。
而是重新回答一个根本问题:学习中,什么是不可外包的?
我的思考是这样的:
当 AI 可以交出完美的论文,”论文”就不再是学习的可靠证据。重要的不是学生最终交付了什么,而是他们在过程中经历了什么——如何提出问题、如何面对困惑、如何在不确定中做判断、如何从失败中修正。
当 AI 可以提供现成答案,”找到答案”就不再是核心技能。核心技能变成了:你能不能判断这个答案是否可靠?你能不能指出它的盲点?你能不能提出一个 AI 没想到的替代视角?
当 AI 擅长处理文字,教育更应该强化文字之外的东西:与真实的人合作、冲突、协商、共情;参与真实的公共事务;在真实世界中做事,承担真实的后果。
特蕾西说得比我更好:人类智慧来自感受与经验——来自痛觉、情绪、爱、失败。这些不是软技能,这些是硬基础。AI 不具备这些,至少目前不具备。教育的任务不是和 AI 比谁的文字更漂亮,而是保护那些让人类之所以为人类的认知根系。
十一、选择的窗口
人类历史上,大多数决定命运的规则不是通过一次庄严的投票确立的。它们是在人们还没有充分意识到的情况下,通过默认、惯性和市场压力被”悄悄确定”的。
等你意识到的时候,格局已经定了。
语言文字系统被谁控制、AI 以什么身份参与社会、谁为 AI 的行为承担责任、儿童能在多大程度上被 AI 塑造——这些问题的答案正在被”悄悄确定”。
不是通过立法。是通过每一个公司的默认设置、每一个平台的推荐算法、每一个家长递给孩子的设备、每一个法院接受或拒绝的 AI 证据。
我在达沃斯把 AI 比作”移民”——不是坐小船偷渡的移民,而是以光速跨境、无需签证、可无限复制的”数字移民”。它们带来巨大的好处——医疗、教育、效率。但它们也在改变劳动市场、文化景观和权力结构。
面对人类移民,每个国家都有一套政策:谁可以进入?以什么身份?享有什么权利?承担什么义务?违规了怎么办?
面对 AI,大多数国家连这些基本问题都还没问。
十二、语言之外
让我用一个不太舒服的总结来结束。
七万年来,智人凭借语言能力统治地球。我们用虚构故事组织了帝国、宗教、市场和国家。我们用语言说服、欺骗、启发、安慰、动员、审判彼此。语言是我们最强大的武器,也是我们最基本的纽带。
现在,这项武器——或者说这种纽带——不再是我们独有的了。
这不一定意味着末日。但它意味着,我们不能再把”人类的独特价值”建立在语言能力之上。
那建立在什么之上?
也许是特蕾西所说的:感受。痛觉。共情。从真实经验中生长出来的智慧。
也许是那些无法被文字穷尽的东西:一个母亲在深夜抱着哭泣的婴儿时的疲惫和柔软;一个外科医生在手术台上做出生死决定时手指的微颤;一个老人看着落日时心中涌起的、无法言说的感受。
AI 可以描述所有这些。也许比我描述得更好。
但描述不是经历。词语不是血肉。
在一个语言已经不再稀缺的时代,真正稀缺的是:可以被验证的行动,愿意承担后果的主体,以及用七万年的进化与苦难铸成的、无法被复制的人类经验。
这些才是我们需要守住的东西。
而守住它们的窗口,可能比我们想象的要窄。