可编程的显著性:AI时代的注意力争夺战
——万维钢风格:理性思维,精英日课
一个喝水 App 引发的深层问题
先说一个小事。有人用 AI 编程,花了很短时间给自己写了个提醒喝水的 App。装上之后,饮水习惯显著改善。
这个故事的表面含义是「AI 提高了开发效率」。但如果你仔细想想,会发现它远不止于此。
我们来做一个思想实验。请问,有谁不知道喝水重要?几乎没有。这条信息早就存在于所有人的知识库里。但为什么很多人还是喝水不够?
行为科学的回答很明确:知识不等于行为。 从知道到做到,中间隔着一条巨大的鸿沟。
而这条鸿沟的本质,不是你缺乏意志力,而是注意力竞争。这件事值得好好说一说。
第一个洞察:信号、注意力和信息是三个不同的东西
大多数人把「信息」理解为客观存在的内容,把「注意力」理解为处理信息的有限资源。这个模型太粗糙了。
认知科学告诉我们一个更精确的框架——
信号是外部或内部已经存在的差异。身体的口渴是信号。手机上的红点是信号。桌上没翻的书也是信号。天气变冷带来的轻微不适是信号。冥想时出现的一阵心烦是信号。世界充满了信号,每时每刻你的身体和环境都在向你发送大量的差异。
注意力是一个极其有限的放大器。卡尼曼在《思考,快与慢》中反复强调这一点——人的系统二启动成本很高,认知资源极其有限。注意力决定了哪些信号被选中,进入意识前台。
信息则是最终产物。只有那些被注意力选中、并实际改变了你判断或行为的信号,才算得上信息。
这个三层区分至关重要。它意味着一个常被忽视的事实:
注意力不是在「处理」信息,注意力是在「生成」信息。
没有注意力的放大,大多数信号永远只是背景噪音。你每天只有极少数信号能成功进入深度处理通道。被注意力选中的信号成为信息后,又会反过来改变你的心智模型和敏感点,塑造你下一轮的注意力流向。
两者之间的真正关系是一个动态闭环:信号 → 注意力选择 → 信息成立 → 行动与反馈 → 心智模型更新 → 下一轮注意力分配。
核心判断:注意力是在决定,哪些差异有资格对你产生因果作用。 你把这些「因果席位」给了什么,什么就更有可能塑造你。这也解释了为什么一个人真正的价值排序,不是看他嘴上说什么,而是看他反复把注意力交给了什么。
「知道很多道理却过不好一生」的深层机制就在这里。「知道」只发生在内容层。改变必须发生在因果层——一条道理必须反复进入注意力前台,在关键时刻被激活,转化为行动并获得反馈,才能真正作用于人。做不到这些,它就只是知识,不是力量。
第二个洞察:长期重要的事,天生输在起跑线
现在来看一个残酷的结构性事实。
人的注意力系统是进化塑造的。理查德·泰勒和卡斯·桑斯坦在《助推》中详细分析过——人类的认知系统天然被突发的、鲜明的、情绪性的、有即时反馈的刺激吸引。这在旧石器时代完美运作:草丛里的异动需要立即注意,成熟果实的色泽应该马上吸引目光。
但现代环境完全不同了。生活中真正塑造长期人生质量的那些东西,恰恰具有相反的特征——
- 身体缺水:信号微弱、连续、可被延后。信号强度大概是 0.5。
- 睡眠债积累:不会即时惩罚你,只会缓慢地侵蚀你的认知能力。
- 阅读能力退化:不会在一天内给你一个明确反馈。
- 冥想质量下降:只是让你更容易烦躁,而不是一记警报。
- 财务风险:长周期、低显著、弱反馈。
- 深度关系的变质:连续、渐进、几乎没有明确的转折点。
而与此同时,一条朋友圈评论通知的信号强度是 8。一个短视频推荐的信号强度是 9。谁会赢?答案早就注定了。
核心判断:短期低价值信号的显著性,系统性地压过了长期高价值信号的显著性。
这不是你意志力的问题。这是注意力竞争场的结构性不公平。你面对的不是一个中性的注意力分配环境,而是一个被平台、产品逻辑和社交机制高度塑形过的竞技场——那些短期刺激穿着闪亮的战甲,而你的长期价值穿着灰色的毛衣。
这也解释了为什么「再提醒自己一下」「再努力一点」常常不起作用。问题不是你缺一条提醒,而是整个注意力环境的竞争规则就对长期价值不友好。
第三个洞察:AI 真正改变的是「意图到系统」的距离
理解了上面的分析,你就会明白那个喝水 App 为什么有趣了。
它做的不是给你增加一条「请喝水」的知识。它做的是弱信号增幅——把一个弱信号重新编码,提高它在注意力竞争中的排名。原来是身体在低声提醒,现在变成系统在精准地放大和重新编码。
原来是「我今天好像没怎么喝水」这样一个模糊的念头,现在变成「今天只喝了 800ml,下午两点以后是你最容易忽视补水的时段」这样一个精准的、结构化的信息。
而 AI 在这里扮演的角色,远不只是编码加速器。AI 真正改变的是一个更根本的结构:一个人从模糊意图到可运行系统之间的距离。
过去,你即便很清楚想改善某个方面——比如多喝水、规律阅读、固定冥想——中间还隔着产品设计、工程实现、界面交互、数据逻辑、反馈迭代的高门槛。大多数人最终只能依赖意志力和零散提醒。
现在,一个普通人可以低成本地把自己的价值目标变成持续运行的系统。这意味着过去很多只能停留在「我应该」的事情,现在有机会变成「我已经把它安放进环境里了」。
查尔斯·杜希格在《习惯的力量》中讲「提示——惯常行为——奖赏」回路。但他没有回答一个问题:谁来设计这个回路?过去只有大公司和平台有这个能力。现在 AI 让个体也有了。
我把这种系统叫做注意力支架。行为科学的大量研究表明,长期行为不是靠裸露意志维持的,而是靠环境、节奏、提醒、反馈和惯性共同支撑的。注意力支架不是代替你意志坚强,而是为长期重要的价值提供一套持续作用于注意力的外部结构。
AI 让个体第一次能大规模、低成本地制造属于自己的注意力支架。 这一条就足以改写个人成长的底层逻辑。
第四个洞察:可编程的显著性——一个时代级概念
在这里,我要提出一个我认为非常重要的概念:可编程的显著性(Programmable Salience)。
显著性是指某个东西能否从背景中跳出来抓住注意力。过去,大规模设计显著性的能力主要属于平台和大公司。推荐算法、通知系统、信息流,本质上都是显著性编排机器。谁掌握了这种能力,谁就对人的注意力流向拥有塑形权。
AI 让显著性变得可被个人编程了。你可以决定:
- 一个信号什么时候出现
- 以什么形式出现——文字、图表、语音、弹窗还是对话
- 出现频率如何
- 是否结合你的历史行为做动态调整
- 是否根据你当天的日程和状态做自适应
- 它是低分辨率地轻触你一下,还是在你愿意时展开更高分辨率的信息层级
信息时代正在从「获取信息」转向「编排显著性」。 过去的瓶颈是获取——我能不能搜到、学到。今天真正稀缺的是编排——哪些信息值得进入生活系统,何时进入,以何种形式进入,能否转化为持续作用。
在社会层面,这件事早就存在——平台就是注意力编排机器。但在 AI 出现之前,这种能力主要属于大公司和大型机构。今天,个体开始具备了反向使用这种能力的可能性。
这就是认知主权的新起点。
第五个洞察:你需要「神话」和「官僚制」的配合
赫拉利在《Nexus》中提出过一个深刻的判断:信息不等同于真相。历史上推动大规模合作的,往往不是最接近事实的东西,而是更能连接人、制造共同叙事、嵌入制度流程的东西。
信息首先是一种组织力量。
一旦意识到这一点,我们就更清楚地理解很多现象:为什么「事实早已知道」却无法改变行为?为什么某些叙事明明不够准确却极有动员力?因为真正起作用的从来不只是内容真假,而是某种信息形式是否成功地嵌入了网络结构、流程结构和注意力结构。
《Nexus》的一个深刻启发是:人类文明之所以能扩大合作,不仅因为我们能交换事实,还因为我们能围绕叙事建立共同想象,围绕制度建立共同流程。故事让人愿意相信,官僚制让人持续行动。
把这个洞见缩小到个人层面,会发现一个非常实用的框架:一个人要长期改变自己,需要两套系统的配合——
「神话」(叙事层): 我是谁?我重视什么?我在成为什么样的人?比如「我是一个愿意照顾身体的人」「我是一个把长期价值放在即时刺激之上的人」「我是一个珍惜深度阅读的人」。这些故事提供方向和意义。
「官僚制」(制度层): 提醒、清单、记录、表格、计数、定期回顾、例外处理、规则调整、节律安排、可视化趋势。这些看似枯燥的流程把价值从语言层带到运行层。
很多人的问题出在两者严重失衡:
- 只有神话没有官僚制——你有大量价值观,却没有任何流程支撑,所有理想停留在心里。
- 只有官僚制没有神话——打卡很漂亮,表格很整齐,但早已忘记为什么开始。系统从服务价值变成了替代价值。
高手的做法是让两者互相校准:叙事提供方向和意义,流程提供持续性和可执行性,二者都接受现实和反馈的修正。
这也解释了为什么喝水 App 有可能有效,也有可能失效。如果它只是一个机械计数器,最终可能只把人训练成「为了完成数字而喝水」的机器。但如果它背后始终连接着「我在照顾自己的身体」这样的叙事,那它就仍然在服务一个更高层的目标。
第六个洞察:信息系统是跨时间管理自己的装置
人的很多困难源于一个基本事实:不同时间的你,并不是同一个人。
早晨的你想健康,下午的你被工作吞没,晚上的你只想躺着。本周的你想多读书,下周的你只想刷轻松内容。情绪好的你相信长期主义,疲惫的你只想立刻舒服一点。
行为经济学家理查德·泰勒用「多个自我」模型来描述这种现象——我们可以把不同时刻的自己想象成不同的「代理人」,它们有着不同的偏好和优先级。
从这个角度看,所谓自我管理首先不是「一个统一意志如何命令自己」,而是「不同时间、不同状态的自己如何被协调」。
信息系统的本质意义就在于此:它是一种跨时间管理自己的装置。
喝水 App 不是「提醒一下」那么简单。它让过去某个清醒时刻作出的价值判断,持续地作用于后来的自己。它让「我知道健康重要」不再只是一个瞬间的认知,而变成一种跨时间的影响机制。
系统之所以有力量,不是因为它更聪明,而是因为它更稳定。它把不稳定的人连接进一个相对稳定的结构。
第七个洞察:最大的危险不是效率不足,而是代理指标劫持
最后一个关键判断。一个系统的好坏关键不在于它够不够高效,而在于它有没有自我纠错的能力。
为什么?因为最大的隐患不是系统不运转,而是代理指标劫持。
古德哈特定律说得很明白:一旦一个指标变成目标,它就不再是好的指标。
系统运行久了,那些本来只是中介手段的指标——打卡天数、完成率、数字——会悄悄取代原目标本身。你开始为打卡而冥想、为 streak 而阅读、为数字而喝水。更隐蔽的是这件事不以失败的形式出现。你觉得自己很自律,但目标已被偷换。
与之相伴的是感受力退化。系统过强时,你对身体和情绪的直接感受反而减弱。原本是「我感觉需要停一停」,变成了「系统还没报警,应该没事」。系统本来是帮你更敏锐地照顾自己,结果你越来越不依赖自己的直接感受,而是依赖外部系统的提示。
这在三个场景中表现得尤为明显:
喝水——好的系统不是简单每小时响一下,而是要理解你的工作节律、常见失守时段、对通知的敏感度。它需要既能提醒又不制造过量烦躁,既能记录又不让数字变成唯一目标。
阅读——问题从来不是有没有待读书单,而是深度理解在现代环境里的显著性太低。好的阅读系统应该帮你围绕问题阅读、围绕难点停留、围绕理解做输出、围绕间隔做回顾。否则读得再多也只是增加接触面,不会真的成为信息。
冥想——冥想最能说明系统可能异化你。它本来是训练觉察的过程,可一旦被粗暴系统化就容易退化为「我今天有没有完成练习」。好的冥想系统应该是温和的、适应性的,帮你看到模式而不是强迫你完成指标。
所以一个健康的个人系统应该包含五层结构:
- 传感器层——让弱信号可见。没有足够分辨率的传感器,后面一切无从谈起。
- 翻译器层——把模糊感受变成可处理的模式。把「觉得不太对劲」翻译成「这里有一个可以响应的模式」。
- 反对派层——最缺的一层。你需要定期质问自己:这套东西真的在帮我吗?我是不是在骗自己?AI 在这里的高阶用途是做你的审稿人、异议者,而不只是做你的助手。
- 选举层——任何规则都不应永久有效。系统必须内置废除旧规则、替换旧策略的路径。很多人不是没有系统,而是没有结束旧系统的制度。
- 宪法层——最高层。守住一条底线:指标只是工具,不是目标。喝水不是为了数字,阅读不是为了页数,冥想不是为了打卡。当工具和目标冲突时,工具让路。
重新定义自律:从「扛住」到「治理」
如果用一句话总结这篇文章的核心判断:
在 AI 时代,自律正在从一种人格品质,变成一种系统设计能力。
过去的自律是「扛住」——凭意志力一次次战胜分心和懒惰。今天的自律更像是「治理」——治理自己的注意力结构,治理什么会反复进入前台,治理哪些弱信号值得被放大,治理哪些指标只能做工具,治理系统如何服务于价值而不是绑架价值,治理不同时间点的自己如何形成连续性。
自由也需要重新理解。在信息密度极高的时代,自由不再只是「没人命令我」。一个人即使表面上没人强迫,也完全可能被环境和系统持续塑形。新的自由是:我能否设计自己的注意力入口,我能否让真正重要的东西获得稳定位置。
没有自己的信息生态,人的注意力就几乎必然被更强的外部生态接管。没有自己的显著性结构,人的长期价值就几乎必然被更响亮的短期刺激压过去。
AI 也带来了一个终极挑战:你会不会放弃建造自己? 一旦系统可以越来越多地替你安排、总结、建议、决策,你就面临一个微妙的诱惑——把越来越多关于「什么重要」的定义权交出去。这时人真正失去的不是某项技能,而是「建造自己」的主动权。
未来最成熟的 AI 使用方式,不是「把自己交给系统」,而是「借助系统,更有力地建造自己」。
AI 让「把意图变成持续运行的信息结构」这件事的成本骤降。这既是机会,也是挑战。
机会在于:你第一次可以为自己建造一套服务于长期价值的认知基础设施。
挑战在于:你是用 AI 来建造自己,还是不知不觉中把自己交给另一个更精密的外部系统。
一个人未来的成熟,越来越少表现为超强意志,越来越多表现为足够好的认知治理能力。未来真正有竞争力的人,不一定知道得最多或动作最快,而是那些能为自己搭建更好信息生态、更会为长期价值争夺显著性的人。
这个选择,将定义你在 AI 时代的真正自由度。