可编程的显著性:一个喝水App背后的时代性洞察
——Paul Graham 风格:小切口,大纵深
我最近注意到一件有意思的事。
一个朋友用 AI 辅助编程,花了很短时间给自己写了个提醒喝水的 App。效果出奇地好——日均饮水量翻了将近一倍。
表面上看,这是个关于效率的小故事。AI 帮你更快写出工具,工具帮你养成习惯。但我越想越觉得,这个例子触碰到了一个远比效率更大的东西。
几乎没有人不知道喝水重要。这不是知识缺失。真正的瓶颈是,「喝水重要」这条信息无法稳定地进入你的注意力,并转化为行动。身体缺水的信号太微弱了,它根本竞争不过手机上的红点、工作中的截止日期、以及那些被精心设计过的通知推送。
⸻
这让我重新审视了「信息」和「注意力」的关系。
我们习惯认为,外面有大量信息,注意力是用来处理它们的。但这个模型太简单了。更准确的说法是:外部世界充满了差异和信号,但大多数永远只是背景噪音。只有那些成功进入注意力的信号,才有资格成为「信息」——也就是真正改变你判断和行为的东西。
换句话说,注意力不是在「处理」信息,而是在「生成」信息。它决定哪些差异有资格进入你的因果世界。
这个区分很重要。因为它解释了一个困扰很多人的现象:为什么知道很多道理,依然过不好这一生。
答案是,「知道」只发生在内容层。要真正改变一个人,一条道理必须反复进入注意力前台,在关键时刻被激活,转化为行动,并获得反馈。做不到这些,它就只是知识,不是力量。只是内容,不是结构。只是陈述,不是因果。
⸻
现代生活的残酷之处在于,这场注意力竞争从一开始就是不公平的。
你的注意力系统是进化塑造的。它偏爱突发的、鲜明的、情绪性的、带即时反馈的刺激。而生活中真正重要的很多东西——健康、深度阅读、冥想、长期关系、财务规划——恰恰具有完全相反的特征:缓慢、连续、低显著性、反馈延迟。
所以不是你意志力薄弱,是那些代表长期价值的信号,在注意力竞争中天然处于劣势。它们不够响,不够亮,不够刺激,因此反复输给那些更吵闹的低价值刺激。
一旦你这样看问题,很多东西就通了。「再提醒自己一下」「再努力一点」「再克制一点」——这些之所以常常不起作用,不是因为你缺一条提醒,而是因为整个注意力环境的竞争规则就对长期价值不友好。你不是在一个空白平面上与自己斗争,你是在一个被平台、产品逻辑和社交机制高度塑形过的环境里,与经过精心设计的显著性机制对抗。
⸻
这就是那个喝水 App 真正有意思的地方。
它不是又给你增加了一条「请喝水」的知识。它做的是一件更根本的事:把一个长期重要但短期微弱的信号,重新编码成更容易进入注意力的形式。它让原来那个信号强度只有 0.5 的身体感受,变成了一个强度为 6 的结构化提醒、带数据的趋势图、和恰当时机的触发。
我把这种能力叫做可编程的显著性。
显著性就是某个东西能否从背景中跳出来抓住你。过去,谁能大规模设计显著性,谁就对人的注意力流向有塑形权。这种权力主要属于平台和大公司。推荐算法、通知系统、信息流——它们本质上都是显著性编排机器。
而 AI 正在让这件事发生变化。一个普通人也可以为自己编程显著性了:决定某个信号什么时候出现、以什么形式出现、多频繁出现、是否结合历史行为做动态调整。
这意味着 AI 缩短的不只是编码时间。它缩短的是「我有一个模糊的自我改善意图」和「这个意图变成了一个持续运行的系统」之间的距离。过去,这两者之间隔着产品设计、界面开发、数据逻辑、反馈迭代等一系列高门槛。现在,一个人可以低成本地把自己珍视的某个价值——健康、阅读、冥想、写作——变成一个真正作用于日常生活的系统。
我把这些系统叫做注意力支架。
我们总以为习惯形成是意志力问题。但大量经验告诉我们,持久行为靠的从来不只是裸露的意志,而是环境、节奏、提醒、反馈和惯性的共同支撑。喝水 App 本质上就是一种注意力支架——它不是代替你健康,而是为「健康」这个价值提供了一套持续作用于注意力的外部结构。
⸻
如果只说到这里,这就只是一个乐观的技术故事。但真正有意思的部分,恰恰是从这里开始变得复杂的。
赫拉利在《Nexus》里提出过一个深刻的观点:信息不天然等同于真相。历史上推动大规模合作的,往往不是最接近事实的东西,而是更能连接人、制造共同叙事、嵌入制度流程的东西。信息首先是一种组织力量。
把这个洞见缩小到个人层面,完全成立。一个人要长期改变自己,不只需要正确的道理,还需要两样东西的配合:叙事和制度。
叙事是你对自己讲的故事:我是谁,我重视什么,我在成为什么样的人。它提供方向和意义。
制度是那些看似枯燥却让价值持续运行的东西:提醒、记录、反馈、回顾、规则调整。它让叙事从口号变成机制。
只有叙事没有制度,所有理想停留在心里。只有制度没有叙事,打卡变成机械行为,目标被悄悄替换。
这就引出了一个我必须提出来的危险:代理指标劫持。
几乎所有系统运行久了都会发生同一件事:那些本来只是中介手段的指标——打卡天数、完成率、数字——开始悄悄取代原目标。你开始为了完成数字而喝水,为了 streak 而阅读,为了打卡而冥想。系统表面顺畅运转,实际上你服务的目标已经被替换了。
这很危险。因为它不以失败的形式出现,而是以一种「看起来很好」的形式出现。
更隐蔽的风险是感受力退化。系统本来是帮你更敏锐地照顾自己。但如果外部提醒过于接管,你对身体和情绪的直接感受反而在减弱。原本是「我感觉我需要停一停」,变成了「系统还没报警,应该没事」。这会形成一种反转:系统越完善,你越可能失去与自己第一手接触的能力。
所以,一个好的系统关键不是高效,而是能自我纠错。用《Nexus》的话说,最危险的不是没有秩序的系统,而是错误一旦进入就能被稳定复制和放大、却没有出口的系统。
⸻
这就把我们带到一个更大的判断。
在 AI 时代,自律正在从一种人格品质,变成一种治理能力。
过去我们理解的自律是「扛住」——凭意志力一次次战胜分心和懒惰。但今天,真正影响一个人行为轨迹的,已经不只是当下一次次的意志决斗,而是他身处怎样的信息环境、怎样的显著性结构、怎样的反馈机制、怎样的叙事框架之中。
在这样的环境里,自律更准确的说法是「治理」:治理自己的注意力结构,治理什么反复进入前台,治理哪些弱信号值得被放大,治理系统如何服务于价值而不是反过来绑架价值,治理错误如何被自己及时看见。
而自由这个词也需要重新理解。在信息密度极高、显著性竞争极强的时代,自由不再只是「没人命令我」。一个人即使表面上没人强迫,也完全可能被环境和系统持续塑形。新的自由是一种架构能力:我能不能设计自己的注意力入口?我能不能让真正重要的东西获得稳定位置?
从这个角度看,写一个喝水 App 其实是一个非常微观、却很有象征性的自由动作。你在争回一部分原本会被环境吞掉的注意力编排权。你在说:至少在这件事上,我不想被动地被世界推着走,我想主动把某个价值放进自己的日常运行里。
⸻
所以,关于 AI,最重要的问题不是「它会不会替代我」,而是「我会不会放弃建造自己」。
AI 可以帮你写代码、做计划、汇总信息、观察模式。但不能替你决定你想成为什么样的人。更准确地说,它可以生成无数个「你应该成为什么」的模板,但真正的责任仍然在你:你是否还在亲自决定什么值得反复放进你的生命里,什么应该只当作工具,什么必须被怀疑,什么绝不能让系统替你定义。
未来最成熟的 AI 使用方式,不是「把自己交给系统」,而是「借助系统,更有力地建造自己」。前者会把人越用越空,后者则可能让人越用越清楚。
这也许就是 AI 时代最值得珍惜的可能性:不是让系统替我们活,而是让我们第一次更有能力,认真地设计自己的活法。