可编程的显著性:信息、注意力与自我治理的哲学审视
——刘擎风格:概念辨析与公共哲学
一、从一个日常案例进入哲学问题
我们不妨从一个看起来极其平凡的案例开始。
一位朋友借助 AI 辅助编程,为自己开发了一个提醒喝水的应用。这个小系统在恰当的时刻提示他补水,记录饮水数据,并通过可视化反馈帮助他形成了更好的习惯。结果相当明显——日常饮水量获得了实质性改善。
如果我们把这件事仅仅理解为技术效率的故事,就会错过它所揭示的更深层问题。因为「多喝水有益健康」从来就不是一条稀缺的知识。几乎所有人都知道这一点。这里的困难不在于认知层面的「不知道」,而在于一个更根本的结构性断裂:知道一件事,并不意味着这件事就能持续地作用于你。
这个断裂指向的,其实是一组古老而深刻的哲学问题:知识与行动之间的关系究竟是什么?一个人为什么会「知善而不为善」?在亚里士多德那里,这被称为 akrasia——意志薄弱。传统的解释倾向于将问题归结为意志的不坚定或理性的不够强大。
但在当代认知科学和信息技术的语境下,我们或许需要重新审视这个问题。也许核心障碍不是意志的薄弱,而是信号的淹没。
二、信号、注意力与信息:一组需要严格区分的概念
要理解这个问题,我们首先需要在概念层面做一个重要的区分。在日常用语中,「信息」和「注意力」往往被不加辨别地混用。人们说「信息太多了」,也说「注意力不够用了」,似乎二者不过是一个问题的两面。但如果我们审慎地对待这两个概念,就会发现它们之间的关系远比通常以为的更加复杂。
我认为有必要区分三个层次:
第一,信号。 信号是世界中已经存在的差异——身体的微弱口渴感、屏幕上的通知红点、一本搁置很久的书、冥想时出现的一丝烦躁。它们不依赖于任何人的关注而存在,但它们本身尚不构成有意义的信息。
第二,注意力。 注意力是将有限的认知资源指向特定信号的机制。它不只是一种被动的「接收」,更是一种主动的「选择」和「放大」。注意力决定了哪些信号从背景中被提取出来,进入前台意识。
第三,信息。 真正意义上的信息,不是客观地「摆」在那里的东西。更准确地说,信息是那些经由注意力选择,成功进入了一个主体的认知过程,并实际改变了其判断、情感状态或行动倾向的差异。
这个三层区分揭示了一个常被忽视的要点:注意力与信息之间不是简单的处理关系,而是一种生成关系。 没有注意力的参与,信号不会自动成为信息。反过来,一个信号一旦成为信息——即真正改变了一个人的心智模型——它又会反过来重塑这个人的注意力结构,影响他在下一时刻会「看见」什么。
两者构成一个动态的闭环:信号 → 注意力选择 → 信息成立 → 行动与反馈 → 心智模型更新 → 下一轮注意力分配。
从哲学上看,这里存在一种深刻的循环结构。海德格尔曾指出,我们总是已经处于一种「被抛」(Geworfenheit)的状态之中——我们不是先有一个中立的认知能力,然后再去面对世界;我们总是已经被特定的关切、情境和前理解所塑形。注意力,在某种意义上,就是这种「前理解」在认知层面的运作方式。它不是中性的处理器,而是一个已经带有方向性的选择机制。
三、注意力作为「因果席位」的分配者
如果我们进一步追问注意力的本质,就会到达一个更具力量的判断:
注意力不是在单纯地「看见」信息,它是在决定,哪些差异有资格对你产生因果作用。
这意味着,注意力的稀缺不只是「时间不够」或「认知资源有限」那么简单。更深层的含义是:能真正改变你当下与未来的「因果席位」非常有限。 你把这些席位给了什么,什么就更有可能塑造你的习惯、性格乃至命运。
因此,一个人真正的价值排序,不是看他在理论上声称什么重要,而是看他在日常运行中反复把注意力交给了什么。你可以声称你重视健康、阅读、写作、冥想、长期成长,但如果在实际生活层面,这些东西总是输给即时消息、社交反馈和碎片浏览,那在系统层面,你的生活实际上是被后者组织的。
这也揭示了「知道很多道理却过不好一生」这一普遍困惑背后更深的机制。「知道」只发生在内容层——你在心智的仓库里存入了一条命题。但改变必须发生在因果层——一条道理必须反复进入注意力前台,在关键时刻被激活,转化为行动,并获得反馈,才能真正作用于一个人的生活。做不到这些,它就只是知识,不是力量;只是内容,不是结构;只是陈述,不是因果。
四、显著性的不平等:一个结构性的伦理问题
一旦我们接受了上述概念框架,就会看到一个极具伦理意味的结构性问题:在现代生活条件下,不同类型的信号进入注意力前台的机会是极不平等的。
人类的注意力系统是长期进化的产物。它对突发的、鲜明的、情绪激烈的、具有即时社会意义的刺激高度敏感。而那些真正关乎长期生活品质的事物——身体健康的细微变化、深度阅读的缓慢积累、冥想质量的渐进退化、长期关系的无声变质、财务风险的隐性积聚——恰恰具有相反的信号特征:缓慢、连续、显著性低、反馈严重延迟。
查尔斯·泰勒在讨论现代人的道德处境时提出过「强评价」(strong evaluation)的概念——人不只是有欲望,更有对欲望进行评价的能力,能够区分哪些欲望值得追随,哪些应当被抵制。但泰勒也承认,这种强评价的能力并不是在真空中运作的。它需要特定的社会条件、文化资源和制度支撑。
我们今天面临的困境恰恰在于:现代信息环境系统性地削弱了强评价的运作条件。 当短期低价值信号的显著性持续压过长期高价值信号时,一个人即便拥有清晰的价值判断,也难以让这种判断持续地组织自己的日常行为。
这不再只是个人意志的问题,而是一个关于显著性分配的结构性正义问题。谁有权力设计什么更显著、什么更容易被看到、什么更频繁地进入人的意识前台?在当下的技术环境中,这种权力主要掌握在平台型企业手中。
这也解释了为什么「再提醒自己一下」「再努力一点」常常不起作用。问题不在于缺少一条提醒,而在于整个注意力环境的竞争规则就对长期价值不友好。你不是在一个空白平面上与自己斗争,而是在一个被平台、产品逻辑和社交机制高度塑形过的环境里,与经过精心设计的显著性机制对抗。
五、可编程的显著性:认知主权的新起点
正是在这个背景下,AI 带来的一个重要变化开始显得格外有意义。
过去,精细地设计显著性——设计什么以什么方式、在什么时机、以什么频率进入一个人的注意力——这种能力基本只属于机构和平台。而 AI 开始让这种能力部分地回到个体手中。
一个人现在可以低成本地为自己设计:某个信号何时出现、以何种形式出现、是否结合个人历史行为做动态调整、是否根据当天情境做自适应。这就是我所说的可编程的显著性。
这个概念的哲学意义在于:它开始松动过去那种个体面对大型系统时的单向被动关系。过去,个体面对平台设计的显著性结构,更多只有防御性的应对——关掉通知、删除应用、提高自控。而现在,个体开始拥有了建设性的可能——主动为自己长期珍视的价值搭建信息基础设施。
阿伦特曾将自由理解为「开端」(natality)的能力——自由不只是不受干预,更是能够在世界中发起新事物、创造新结构的能力。从这个角度看,一个人用 AI 为自己搭建服务于健康、阅读、深度思考的系统,恰恰是在行使一种阿伦特意义上的自由。他不是在消极地抵抗外部侵扰,而是在积极地为自己创建一种新的注意力秩序。
AI 真正改变的不只是编码效率,而是一个更根本的结构——一个人从模糊意图到可运行系统之间的距离。 过去,这两者之间隔着产品设计、工程实现、界面交互、数据记录、反馈逻辑和持续迭代的高门槛。现在,一个人可以低成本地把自己珍视的价值——健康、阅读、冥想、写作——变成一个真正作用于日常生活的系统。
六、叙事与制度:个人改变的双重条件
但如果我们止步于此,就会把问题过度简化为技术乐观主义。事实上,一个系统是否真正服务于人的长期价值,取决于一个更深层的条件:叙事与制度的互相校准。
赫拉利在《Nexus》中有一个深刻的洞察:信息从来不只是事实的载体。历史上推动大规模合作的,往往不是最接近事实的东西,而是更能连接人、制造共同叙事、嵌入制度流程的东西。故事让人愿意相信,制度让人持续行动。两者共同维持了复杂社会的运转。
将这个洞见缩小到个人层面,我们会发现完全同构的结构。一个人的长期自我改变,同样依赖两个要素的配合:
叙事——关于「我是谁」「我重视什么」「我在成为什么样的人」的自我理解。麦金太尔在《追寻美德》中强调,人的道德生活不是一系列孤立的决策,而是一个有统一性的叙事。我们需要一个关于自己的故事,来为日常行动提供方向和意义。
制度——那些看似枯燥但让价值得以持续运行的结构:提醒、记录、反馈、回顾、规则调整、节律安排。它们负责把价值从语言层带到运行层,把叙事变成会反复生效的机制。
这里存在一个根本性的张力。叙事没有制度的支撑,会沦为自我感动——你有大量关于理想自我的表述,但生活中没有任何机制让这些表述兑现。而制度失去了叙事的指引,则会退化为官僚主义的自我控制——你精确地打卡、记录、完成指标,却早已遗忘了做这些事的初衷。
好的个人系统,必须让叙事和制度保持动态的互相校准。 叙事提供「为什么值得」的回答;制度提供「如何让它持续生效」的路径;而现实和反馈则提供对两者的检验和修正。
七、跨时间的自我治理
这一分析还可以进一步深化。
人的很多困难,源于一个基本事实:「不同时间的我」并不是一个稳定一致的治理主体。早晨的你想健康,下午的你被工作淹没,晚上的你只想躺着。情绪好的你相信长期主义,疲惫的你只想立刻舒服一点。
从这个角度看,所谓自我管理,首先不是「一个统一意志如何命令自己」,而是「不同时间、不同状态的自己如何被协调」。你真正需要治理的,不只是当下的行动,而是时间中的多个版本的自己。
信息系统的意义由此变得非常明确:它是一种跨时间管理自己的装置。 它让过去某个清醒时刻作出的价值判断,持续地作用于后来的自己。系统之所以有力量,不是因为它更聪明,而是因为它更稳定。它把不稳定的人连接进一个相对稳定的结构。
从这个意义上讲,系统不是替代你,而是在扩大「你」作为一个跨时间主体的连续性。未来一个人越来越重要的能力,不只是会不会做事,而是会不会构造那些可以跨时间维护自己目标的机制。
八、代理指标劫持与自我纠错的必要
这就引出了一个至关重要的问题:什么才是一个「好」系统?
一个常见的误解是,好系统就是高效、稳定、自动化的系统。但效率本身并不保证价值方向的正确。一个能稳定放大错误方向的系统,不会因为运转流畅就变成好系统。
福柯对现代治理术的分析在此具有警示意义:权力最有效的运作方式,往往不是直接的压迫,而是通过设定正常与异常的标准、通过量化和分类、通过看似中立的管理技术来塑形主体。当一个人的自我系统过度依赖量化指标——打卡天数、完成率、连续记录——他实际上可能正在经历一种自我施加的福柯式治理:代理指标悄悄替代了原目标,工具反转为主人。
你开始为数字而喝水,为 streak 而阅读,为时长而冥想。系统的目标被偷换了,但因为表面上一切运转良好,这种偷换极难被察觉。
与之相伴的还有一种更深层的风险:感受力的退化。 系统本来是为了增强一个人对自身状态的觉察。但如果系统过强、提醒过密、外部指标过于替代内在感受,最终可能导致一个人与自身经验之间的距离越来越远。他不再「感受到」自己渴了,而是等系统告诉他该喝水了。
梅洛-庞蒂所强调的那种身体与世界之间的原初交往——前反思的、直接的、具身性的感知——在过度系统化的生活中反而可能被削弱。系统原本应当像一面放大镜,帮助人更清晰地感知自身;但如果它变成了义肢,就可能反过来替代了人的直接感受能力。
因此,好的系统的核心标准不是效率,而是自我纠错的能力。 如果把这一判断工程化,一个健康的个人注意力网络大概需要五个层次:
传感器层——让微弱信号可见。身体状态、阅读节律、情绪波动、专注质量,都需要被感知。
翻译器层——把模糊感受转化为可处理的信息形式。把「我觉得不太对劲」翻译成「这里有一个可以响应的模式」。
反对派层——这是最缺的一层。系统中必须有某种机制来质疑系统本身:这套东西真的在帮我吗?我的指标还对应着真实目标吗?AI 在这里的高阶用途,不只是做助手,更是做审稿人和异议者。
选举层——任何规则都不应永久有效。系统必须内置废除旧规则、替换旧策略的正当路径。否则人会被自己曾经设计的东西反向控制。
宪法层——最高的一层。始终提醒:指标只是工具,不是目标。喝水不是为了数字,阅读不是为了页数,冥想不是为了打卡。当工具和目标冲突时,目标具有最高优先级。
九、AI 的双面性:纠错机构还是宣传部?
在这里,我们还必须正视 AI 本身的双面性。
只要「什么能成为信息」这件事变得可被精细设计,那就意味着它既可能被用来帮助人,也可能被用来操控人;既可能被个体拿来重建生活,也可能被平台和系统进一步拿来占领个体。
如果一个人的 AI 系统只负责夸奖他、鼓励他、平滑他的不安、维护他的自我叙事,它就很容易变成个人宣传部。它会让人感觉被支持,却未必帮人更接近真实。如果它能温和但坚决地指出使用者正在忽视什么、逃避什么、被什么代理指标牵走,那它才有可能成为个人纠错系统的一部分。
AI 最好的未来角色,不是做一个永远顺着情绪走的伴侣型工具,而是一个既理解你、又敢于对你保持一定认知张力的系统。
十、自律的重构:从人格品质到治理能力
以上分析汇聚起来,指向了一个关于「自律」的深层重构。
传统的理解将自律视为一种人格品质:能忍耐、能克制、能坚持。这种理解预设了一个统一的意志主体,通过自身的力量来抵抗外部诱惑和内在惰性。
但在当代信息环境中,这种理解越来越不够用了。因为真正影响一个人行为轨迹的,已经不只是当下一次次的意志决斗,而是他身处怎样的信息环境、怎样的显著性结构、怎样的反馈机制。
在这样的条件下,自律正在发生一次深刻的概念转型:从「扛住」转向「治理」。 它不再只是一种内在品质的展现,而越来越像是一种系统设计和系统维护的能力——治理自己的注意力结构,治理什么持续进入前台,治理系统如何服务于价值而不是反噬价值,治理不同时间点的自己如何形成连续性。
自由也因此获得了一层新的含义。在信息密度极高、显著性竞争极强的时代,自由不再只是消极意义上的「不受干涉」,也不只是积极意义上的「自我实现」。它还包含一层新的维度:是否有能力设计自己的注意力入口,是否有能力让自己真正珍视的事物在日常生活中获得持续的因果地位。
没有自己的信息生态,人的注意力就几乎必然被更强的外部生态接管。没有自己的显著性结构,人的长期价值就几乎必然被更响亮的短期刺激压过去。
结语
从这个意义上说,一个人为自己编写的喝水 App 虽然微小,却具有哲学上的示范意义。它示范了一种在 AI 时代开始成为可能的新能力:让个体不再只是被动地被信息环境塑形,而是开始主动参与到塑造自己注意力结构的过程中来。
但这种可能性也伴随着严肃的责任。AI 可以帮助你建造系统,却不能替你决定系统应当服务于什么。它可以提供无数关于「好生活」的模板,但关于「什么是我的好生活」这个问题,最终的判断权仍然——也必须——属于你自己。
最重要的问题也许不是「AI 会不会替代人」,而是:人会不会放弃建造自己? 一旦系统可以越来越多地替你安排、总结、建议、决策,你就面临一个微妙的诱惑——把关于「什么重要」的定义权也一并交出去。这时人真正失去的不是某项技能,而是自我建造的主动权。
人的尊严,在 AI 时代,某种程度上恰恰体现在这里:不是拒绝使用系统,而是在使用系统的同时,依然保有为自己设定方向、为自己搭建纠错机制、为自己保留最终解释权的意愿和能力。