思考笔记

李文业的思考笔记


  • 首页

  • 关于

  • 分类

  • 归档

阅读清单

发表于 2026/03/16 | 分类于 定时任务生成

当前阅读总时间是:19,918.5小时

你今天还差多少达成目标 11小时
AI工具使用时长 2,346.5小时
冥想时长(本月) 898.42(7.83)小时
你已经读了多少本书 3625本
阅读全文 »

量化炒股入门:把凭感觉买卖变成用系统做决策(James Clear 风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

2003 年,英国自行车队连续近一百年没有在环法赛上获胜。然后他们请来了一位新教练戴夫·布雷斯福德。他没有重新发明自行车,也没有引进什么秘密训练法。他做的事情很朴素:把骑车这件事拆成几百个微小环节,然后在每个环节上改善 1%——坐垫高度、轮胎气压、骑手睡眠、手部清洁方式。五年后,英国队在环法和奥运会上都拿了冠军。

量化炒股的逻辑和这个故事惊人地相似。

大多数人第一次听到「量化炒股」,想到的是几块屏幕、跳动的数字、一个自动赚钱的程序。这个画面不算完全错,但它遮住了最重要的部分。量化的核心不是找到一个神秘公式,而是把交易这件事拆成可以被检验的环节,然后在每个环节上做得更系统、更诚实、更可复现。

在 A 股的官方定义里,程序化交易是「通过计算机程序自动生成或下达交易指令进行证券交易」。相关规定已于 2024 年施行,沪深交易所实施细则落地,深交所明确个人投资者也可以参与。量化不是灰色地带,而是一种有明确规则和合规要求的交易方式。

学量化的第一步,不是去找「胜率最高的指标」或者「年化 80% 的神策略」。第一步是建立一个认知——

量化不替你思考。它只是逼你把思考变成系统。

你原来凭感觉做的判断,在量化里必须变成明确条件。你原来靠「应该没事」硬扛的亏损,必须变成事先定义好的风险阈值。你原来在行情好时无所不能、行情差时怀疑人生的情绪波动,在量化里都会被记录、被检验。

量化最大的价值,不是让你立刻赚更多钱,而是把「我觉得」变成「在什么条件下我会这么做,以及这么做的长期结果大概是什么」。这就是从「靠目标驱动」到「靠系统驱动」的转变。

一、量化炒股到底是什么

把交易拆开看,它就是一串连续的决定:买什么、什么时候买、买多少、什么时候卖、亏多少停、赚多少走、什么时候空仓、什么时候降仓位。

主观交易者在看到行情之后临时做这些决定。量化交易者先把这些问题回答好,再用规则和程序去执行。

这个区别看一个例子就够了。

一个主观交易者说:「这只 ETF 最近走势不错,感觉要突破了。」这句话听上去像判断,但它经不起追问。什么叫「走势不错」?什么叫「要突破」?突破到什么程度算成立?回落多少算失败?仓位该多大?第二天低开怎么办?

这些问题没答案,所谓「交易逻辑」只是情绪和印象的混合物。

量化的第一步,就是把模糊语言翻译成规则语言。比如把「感觉要突破」翻译成:「若收盘价创过去 60 个交易日新高,且 20 日均线向上、成交额不低于过去 20 日均值的 0.8 倍,则于下一交易日开盘买入,仓位 30%;若收盘价跌破 20 日均线则卖出。」

这套规则未必赚钱。但它有两个主观判断没有的优点:可执行,可回测。

这就是量化的本质——把交易从「临场发挥」变成「规则系统」。就像《原子习惯》里说的:不要关注目标,要关注系统。目标是「我要赚钱」,系统是「我用什么规则做决策、怎么检验、怎么改进」。

量化系统可以简单到一条均线加一条止损线,也可以复杂到多因子加机器学习。但不管多复杂,做的都是同一件事:用明确规则替代模糊直觉。

一个成熟的量化系统至少包含四层。研究层提出假设——市场里可能存在什么规律。验证层用历史数据检验假设是否成立。执行层把信号转成订单。风控层在系统出错或市场异常时保护账户。

很多人以为核心是公式。其实核心是系统——是这四层之间的配合方式。

二、四种常见误解

关于量化,最常见的误解有四种。有意思的是,每一种误解都来自同一个心理根源:人们总希望找到一条不需要持续努力的捷径。

误解一:量化等于人工智能

很多人觉得只有用了深度学习才算量化。事实上,大量真正有效的策略都非常朴素——趋势跟随、资产轮动、均值回归、再平衡。只要规则明确、可回测、可执行、可管理风险,就是量化。

很多初学者一上来就想做 AI 选股,连数据清洗和信号定义都没弄清就放弃了。这就像一个人还没养成每天跑步的习惯,就去报名超级马拉松。先从小习惯开始,比一步到位更重要。

误解二:量化等于高频交易

高频交易是量化的一个很窄的分支,需要超低延迟和专业基础设施。沪深交易所的认定标准是:单个账户每秒申报撤单 300 笔以上或单日 20000 笔以上。

个人投资者真正适合做的是日频或周频策略。你的优势在于你可以慢、可以简单、可以专注。就像习惯养成一样,持续做简单但正确的事,远比偶尔做一次复杂的事更有效。

误解三:量化天然更客观

程序减少了情绪干扰,但不会自动消灭偏见。你用什么数据、怎么复权、如何定义信号、有没有偷看未来数据、回测里忽略了多少成本——这些偏差,程序一个都不会帮你修正。

量化把自欺欺人的方式从「拍脑袋」升级成了「写代码骗自己」。认识到这一点,恰恰是成长的开始。

误解四:量化是一劳永逸的赚钱机器

市场环境会变,资金结构会变,策略拥挤度会变。量化系统不是设置好就不用管的闹钟,而是需要持续校准的仪器。就像健身一样——你不会因为去了三个月健身房就「永远健康」了。系统需要维护,习惯需要坚持。

三、一个量化系统的完整结构

学量化,最重要的不是记住指标名称,而是先在脑子里形成系统地图。

你可以把量化系统想象成五个环环相扣的习惯,每一个都不可或缺。

数据层——「身份认同」的基础。 没有干净的数据,一切都是空中楼阁。你至少需要行情数据、交易日历、标的信息、复权信息。核心问题不是「有没有数据」,而是数据是否干净、连续、口径一致,是否能还原当时真实可得的信息。

策略层——「提示」和「渴望」。 这里负责把想法翻译成信号。趋势会延续?定义趋势。强者恒强?把「强」转成指标。相信均值回归?把偏离度写成公式。策略层做的不是讲故事,而是写条件链。

组合层——「反应」的设计。 很多人只关心「买什么」,忽略「买多少」。仓位管理往往比选标的更重要。全仓还是等权?按波动率调整还是设暴露上限?组合层回答的是:即便信号对了,我该以什么方式承接这个判断。

执行层——「奖赏」的真实兑现。 信号不等于成交。你是收盘生成信号、下一开盘成交?考虑了滑点吗?考虑了成交量约束吗?执行层不光鲜,但它决定了你的研究离真实世界有多远。

风控与复盘层——「环境设计」。 成熟的系统不只抓机会,还要限制错误。单日亏损过大是否触发降仓?数据更新失败是否自动中止?还要有日志和报告,记录每个操作的原因。没有复盘的量化不是系统,是自动化的冲动。

好的量化项目未必复杂,但一定结构清楚。就像好的习惯系统——简单、明确、可持续。

四、为什么 A 股新手更适合从 ETF 开始

在习惯养成里有一个核心原则:从最小可行版本开始。 不要想着第一天就做到完美,先做到「足够小、能完成」。

ETF 就是量化的最小可行版本。

它帮你隔离了大量个股层面的复杂性:业绩爆雷、黑天鹅、停牌断层、题材熄火、ST 和退市风险。你在 ETF 上先把数据、回测、信号、报告的完整闭环打通,学习效率会高很多。

对初学者来说,建造研究系统比追求 alpha 重要得多。个股策略会迅速把你拖进复杂度泥潭——股票池选择、财务数据频率、调仓日和财报日对齐、停牌处理、涨跌停限制、分红送转、成分股回溯。这些都值得学,但它们是第二阶段的课题。

ETF 更像一块干净的实验台。你可以很快做出完整闭环:下载数据 → 计算信号 → 生成持仓 → 跑净值曲线 → 算指标 → 做报告 → 样本外验证。

对个人开发者来说,「先把小系统跑起来」的成就感极其重要。这就像习惯养成中的「两分钟法则」——先做两分钟能做到的事。量化最怕的不是策略差,而是工程项目太大,最后什么都没做完。

在 A 股语境里,证监会明确提出「先报告、后交易」。入门者先做研究、回测、信号输出、日报生成,再逐步走向半自动决策支持,是更务实也更合规的路径。

五、数据:量化的地基,也是最大的坑

量化世界有一句老话:垃圾进,垃圾出。

几乎所有初学者都在数据层吃亏。因为大多数人把精力花在策略公式上,却发现真正决定结果有没有意义的,是那些看起来很琐碎的细节:交易日对齐了吗?复权正确吗?停牌日有空缺吗?某些字段在当时能不能拿到?

以 Tushare Pro 为例。A 股日线接口默认是未复权行情,停牌期间不提供数据。这些信息看起来只是 API 说明,对量化来说却是生死线级别的细节。

忘了复权,趋势信号会被分红扭曲。没意识到停牌无数据,回测会把「没交易」误当成「价格稳定」。没用交易日历对齐,不同标的之间的比较会错位。

复权其实很简单。它只是说:历史价格要放在同一把尺子上看。基金分红或股票送转之后不做处理,价格图会出现假断层,你的均线和突破信号都会被误导。

还有一个重要概念叫「点时可得性」——你在某个交易日做决策时,到底能看到哪些信息?如果某份财报 4 月 30 日才发布,你在 4 月 10 日的回测里就不能用其中的数据。

量化里最值钱的一种诚实:承认当时的你不知道后来发生的事。

实用建议:建立本地数据缓存。 把数据源当采集器,本地 Parquet 或 SQLite 当真相源。先落地、清洗、标准化,再由回测模块读取。这样不仅更快,更重要的是可复现。

数据问题不是解决一次就没事了。每引入新资产、新字段,问题都会重新出现。成熟的做法是默认数据迟早会出问题,在系统里为校验、缺失处理和异常中止留好位置。就像习惯系统需要「防失败机制」一样,数据系统也需要。

六、新手最值得先掌握的两类策略

「到底先学哪种策略?」这是入门者最焦虑的问题。

我的建议:先学趋势,再学轮动。不是因为最赚钱,而是因为最适合当学习框架。就像你学编程应该先写 Hello World,而不是直接做操作系统。

趋势跟随

最典型的是双均线策略。规则很简单:短均线上穿长均线买入,跌破卖出。或者更简单——收盘价站上长期均线就持有,跌破就空仓。

趋势策略直观、容易回测。你很快会看到它真正的面貌:单边上涨时能吃到大段行情,震荡市里来回打脸。

但它的真正价值不在于赚多少,而在于它会逼你面对一系列关键问题:信号按收盘价还是盘中生成?成交假设放在下一开盘还是下一收盘?参数该固定还是搜索?手续费和滑点会不会把优势吃掉?

极简版实践: 一只宽基 ETF,20 日和 60 日均线。20 日在 60 日上方且空仓就买,跌回下方且持仓就卖。跑出净值曲线,观察回撤和换手频率。

做完这一轮,你得到的不是圣杯,而是第一份真正属于自己的量化实验报告。这份报告就是你的「第一个小胜利」——它会给你继续走下去的动力。

ETF 轮动

背后的想法是:强势资产可能继续强势。选几个 ETF,按过去一段时间的收益打分,定期持有得分最高的。加绝对动量过滤:标的本身收益为正时才买入,否则空仓。

轮动比趋势多了一层横向比较,但没有个股多因子那么复杂。你可以快速学到组合调仓、排序逻辑、再平衡频率、换手率控制这些更贴近真实资产配置的能力。

关于多因子和机器学习

可以最终走到那里,但别当第一站。那个世界的复杂度会瞬间包围你:财务数据时效性、幸存者偏差、行业中性化、极值处理、样本穿越、特征泄露。

先把简单系统做扎实。大厦是一砖一瓦建起来的,不是一夜之间从天上掉下来的。

七、回测:量化里最重要,也最容易骗人的环节

量化最吸引人的地方是回测。量化最危险的地方也是回测。

一条漂亮的历史净值曲线,会产生一种几乎无法抗拒的错觉:过去这么有效,未来也差不多。但回测不是承诺——它只是在一组历史条件下、基于一套假设做的模拟实验。

回测有五个经典陷阱。理解它们比学会任何指标都重要。

1. 未来函数。 在历史里使用了当时不可能知道的信息。比如用收盘价假设盘中成交,用季报公布后的数据在公布前选股。不会报错,但结果是虚构的。

2. 幸存者偏差。 只拿今天还在的标的回看过去。退市的、清盘的被无声删掉了。就像你只看成功案例来总结「成功法则」——这不叫研究,叫自我安慰。

3. 信号与成交混淆。 收盘后才能确认信号,却假设当日就能买入。一个细节让回测大幅缩水。

4. 忽略交易成本。 零摩擦世界里的惊艳策略,加入真实成本后变平庸甚至转负。

5. 过拟合。 不断调参数直到找到在过去完美的组合。这组参数很可能只是「刚好适配历史」。过拟合最坏的地方是它给你最强的心理奖励——「找到了!」——恰恰在你最该怀疑的时候。

成熟的回测会设计一整套防自欺机制:样本内外拆分、walk-forward 滚动验证、参数敏感性分析、不同市场阶段对比、强制加入成本、数据版本固定。

这就像养成好习惯需要「环境设计」一样——你不能靠意志力来保证诚实,你需要设计一套让你很难骗自己的流程。

回测真正的价值不是让你兴奋,而是让你清醒。

八、怎样读懂一份回测报告

大多数人看回测报告,第一眼盯着总收益率。这没错,但如果只看这个数字,很容易被误导。

一份有用的报告至少回答四个问题:赚不赚钱?过程难不难熬?靠什么赚的?什么情况下最脆弱?

收益。 年化收益率必须放在风险背景里看。年化 18% 最大回撤 55%,和年化 12% 最大回撤 12%,不能用简单算术比。决定能不能长期拿住的,是亏损的可承受性。

回撤。 最大回撤是账户从高点到低点最深的那个坑。数学不对称:回撤 10% 需涨 11% 回本,回撤 20% 需涨 25%,回撤 50% 需涨 100%。风控不是保守,是复利的数学前提。就像习惯中断后的恢复——中断越久,重新开始越难。不要让回撤「中断」你的复利。

夏普、波动率、卡玛比率。 衡量收益的平滑程度和回撤效率。过程像心电图一样剧烈抽搐的策略,几乎无法坚持。

胜率。 高胜率不等于高收益。80% 胜率每次小赚偶尔大亏,总体可能是负的。真正重要的是盈亏比和长期期望值。

换手率。 太高意味着成本和心理疲劳被放大。低频、稳定、能解释的策略,比高频炫目的策略更适合长期推进。这就像好习惯——简单、可持续、不需要英雄式的意志力。

成熟的报告包含:分年度表现、月度收益分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。

九、风控不是附属品,而是系统的一部分

很多人把风控理解成「出问题了就止损」。这太窄了。

风控不是补丁。它应该从策略设计的第一天就存在。你设计的不是「怎样赚」,而是「怎样在可能赚钱的同时不被打死」。就像好的习惯系统,关键不在于巅峰时能做到多好,而在于低谷时能守住多少。

仓位——最基础的风控。 10% 仓位和满仓是两个完全不同的游戏。仓位管理的本质不是让收益变低,而是让你有资格活到下一次机会。这就是「永远不要跌出游戏」的原则。

分散和暴露管理。 几个看似不同的 ETF 可能高度相关。分散不是数量问题,是暴露结构问题。

退出机制。 什么时候减仓、空仓、停止交易、认定策略失效,都应该前置。退出不靠情绪。你可以用价格、波动率、回撤、信号反转来定义退出,但不要让「再等等看」成为默认。

操作和工程层面。 数据更新失败怎么办?接口异常怎么办?回测结果突变怎么办?工程失误造成的损失可能比市场波动更大。

风控不是悲观。是提前承认自己一定会犯错,然后为错误设计边界。就像习惯系统里的「实施意图」——提前决定好「如果 X 发生,我就做 Y」,而不是等问题出现再临时决定。

十、把量化当技术项目来做

如果你把量化只当几个公式,会很快碰到天花板。让量化变成可持续能力的,是工程化。

这就像健身——偶尔去一次健身房不会改变你的身体,但建立一套每周训练的系统会。

项目结构要清晰。 数据采集、清洗、策略、回测、指标、报告各有边界。不要塞进一个 Notebook。量化项目没有边界,每个新需求都会引入混乱。

结果要可复现。 今天跑出来的结果下周还能复现吗?配置文件、数据版本、日志输出、结果归档——这些是区分业余和专业的分界线。

研究和执行分离。 研究提出和验证假设。执行翻译成操作。最好的第一阶段不是自动下单,而是每天更新数据 → 计算信号 → 生成报告 → 输出候选动作 → 人工确认。系统化加人工风控。

测试要有敬畏心。 均线计算对不对?交易日对齐对不对?手续费有没有重复扣?最可怕的错误不是程序崩溃,而是程序看起来正常运行却在给你错误结论。

量化是交易、数据、统计、工程和自我管理的交叉点。会写策略的人很多。能把系统搭稳的人,才是真正有护城河的人。

十一、一个适合个人开发者的 90 天入门路径

好的习惯系统从不要求你一步登天。它要求你:先做到,再做好,最后做得更好。

量化入门也是如此。用三个月做出一个小闭环,而不是用半年追求一个顶级系统。

第一个月:做到

目标只有一个——跑通最简单的单策略回测。

  • 选一两只宽基 ETF
  • 建立本地数据缓存
  • 写一个双均线策略
  • 跑出净值曲线、收益、最大回撤、交易记录

不追求策略多强。只要逻辑清楚、结果可重复、能解释每笔交易为什么发生。这就是你的「两分钟版本」——最小可行习惯。

第二个月:做好

从单策略升级到可比较的小平台。

  • 加入 ETF 轮动策略
  • 增加参数配置文件
  • 加入样本内外拆分、交易成本和滑点
  • 生成 Markdown 或 HTML 报告

到这一步,你不再是在「试着写个策略」,而是在做一个研究工具。

第三个月:做得更好

验证而非炫技。

  • Walk-forward 验证
  • 参数敏感性分析
  • 切换不同 ETF 池子测试
  • 每天自动生成次日候选持仓

关键不是系统越来越复杂,而是复杂一点之后还能保持清晰和可解释。

三个月后你可能还没赚到大钱。但你会拥有一套可持续迭代的金融实验系统。就像你养成了一个好习惯——它不会在第一天就改变你的人生,但它会随着时间的推移,产生复合效应。

十二、为什么很多回测很好看,实盘却很难受

几乎每个做量化的人都会遇到这个问题。

回测知道结局,实盘不知道。 回测里你看到完整曲线,知道哪次下跌只是暂时的。实盘里未来是黑的。连续亏损三周时,你不知道这是正常波动还是策略失效。

这就像看别人的习惯养成故事——你看到的是结果,看不到中间那些想放弃的日子。

实盘比回测多了大量摩擦。 忘记更新数据、手动确认时犹豫、实际成交和假设不一致、流动性不足、系统异常。单笔看不大,长期叠加显著改变结果。

回测时会不自觉地挑自己喜欢的结果。 不好看的参数和时段被无意识筛掉。实盘亏钱时,不是市场不讲理,而是你研究时就偏向了自己想看的答案。

实盘和回测之间最重要的桥梁,不是找更强的策略,而是:让假设更接近现实,让执行更接近纪律,让心理预期更接近真实的亏损体验。

成熟的量化不是回测有多漂亮,而是回测和实盘之间的落差有多小。

十三、几个高频问题的真回答

零基础能学量化吗? 能。需要一组基础能力:一点 Python,一点数据处理,一点统计常识,一点交易规则理解,再加长期做项目的耐心。真正难的不是写第一段代码,而是把杂乱知识拼成稳定系统。就像养成习惯,难的不是第一天,而是第三十天。

必须先学高级数学和机器学习? 不必。入门阶段最重要的是把简单规则做正确。先学会定义问题、清洗数据、做回测、看报告、控风险。很多人不是输在不会高级数学,而是输在不会老老实实做基础工作。

资金小有必要做量化吗? 有。入门阶段最大的产出是方法,不是收益。小资金反而适合做实验。就像学习任何技能——先用低风险的方式练习,等到真正上场时你已经有了肌肉记忆。

要不要一开始就全自动下单? 通常不必。A 股程序化交易有明确规则和报告要求。先做研究、回测、信号输出、人工确认,就是完整闭环。自动化应该是系统成熟后自然发生的事。

神策略能直接抄吗? 可以研究,但先问四个问题:数据口径?执行假设?成本计算?样本外成立吗?很多公开策略最厉害的地方,不是真的无敌,而是省略了让结果变差的细节。

回测不够漂亮就没价值? 不一定。真实可用的策略往往只是「逻辑清楚、回撤可控、样本外没崩」。平庸但稳定,比惊艳但脆弱更有价值。就像好习惯不需要多么耀眼,关键是你能坚持多久。

什么时候算真正入门? 当你能完整回答这些问题的时候:系统为什么可能有效?依赖什么前提?最可能在哪里失效?成本和摩擦是什么?风险边界在哪里?失效时你怎么处理?

能回答这些,才说明你从「写代码的人」变成了「做系统的人」。

结语

量化炒股听起来像金融技术。做久了你会发现,它训练的首先是一种思维方式——系统思维。

把模糊直觉翻译成清楚规则。把想象中的优势放进严格验证。把「我可能是对的」换成「我怎样证明自己不是在骗自己」。

它不是圣杯,不会消灭亏损和焦虑。它甚至比主观交易更残酷——它会把你的错误一条条暴露出来,没有「运气不好」的借口。

但正因如此,量化才值得学。它会逼你把交易从情绪反应变成系统工程,从运气驱动变成流程驱动,从一时冲动变成长期可复盘的能力。

真正的量化入门,不是找到一套神秘公式。而是开始愿意承认:市场很复杂,自己会犯错,任何优势都必须经过检验,任何收益都要付出风险代价,任何系统都需要维护。

就像好习惯一样——量化不会在第一天就改变你的交易结果。但如果你认真对待它,持续迭代,它会随着时间产生复合效应。

三个月后你可能还看不出太大变化。一年后你回头看,会发现自己已经走得很远了。

而这种缓慢但持续的进步,才是量化最有价值的地方。

量化炒股入门:把凭感觉买卖变成用系统做决策(Nassim Taleb 风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

让我先说一件让大多数量化爱好者不舒服的事:你脑子里关于量化的画面——几块屏幕、跳动的数字、一个自动赚钱的程序——不仅是简化,而且是危险的简化。它把一种需要深刻怀疑精神的活动,包装成了一种机械性的确定感。

量化的核心,不是「更聪明地预测市场」。恰恰相反,它的核心是承认自己不够聪明,所以需要一套严格的规则来约束自己的愚蠢。

把原本模糊的、情绪化的、临场拍板的交易决策,翻译成一套可以写下来的规则——可检验、可复盘、可证伪。注意最后两个字:可证伪。这是区分量化和自我安慰的关键标准。

在 A 股语境里,这件事的法规边界其实已经划定。证监会把程序化交易定义为「通过计算机程序自动生成或下达交易指令进行证券交易」,2024 年起施行,沪深交易所实施细则落地,深交所明确个人投资者可以参与。量化不是灰色地带,而是有规则、有边界、有合规要求的正规行为。

但法规能给你的只是许可,不是能力。而大多数人连入门的第一步都走错了——他们去找「胜率最高的指标」,去搜「年化 80% 的神策略」。这不是学习,这是迷信。

真正的第一步是建立一个认知:量化不替你思考,它只是逼你把思考暴露出来。你原来凭感觉做的判断,必须变成明确条件。你原来靠「应该没事」硬扛的亏损,必须变成事先定义好的阈值。你原来在行情好时自信膨胀、行情差时自我怀疑的情绪波动,在量化里都要被记录,然后被无情地检验。

量化不是更聪明地猜。它是更严格地执行,和更诚实地面对自己猜错的频率。

一、量化炒股到底是什么

交易拆开来看,就是一串决定:买什么?什么时候买?买多少?什么时候卖?亏多少停?赚多少走?什么时候空仓?什么时候降仓位?

主观交易者通常在看到行情之后临时做这些决定。量化交易者在行情发生之前就把这些问题回答好,然后用规则和程序执行。

看上去很简单的区别,背后是一整套认识论的转变。

一个主观交易者说:「这只 ETF 最近走势不错,感觉要突破了。」

这句话有一个致命问题:它不可证伪。什么叫「走势不错」?用什么度量?什么叫「要突破」?突破到什么程度算成立?回落多少算失败?仓位该多大?第二天低开怎么办?

把这些问题一旦写清楚,你会发现:大多数人嘴里的「交易逻辑」,其实只是情绪、印象和事后叙事的混合物。他们不是在做判断,而是在讲故事——给自己听的故事。

量化的第一步就是把这种叙事翻译成可以被检验的规则。把「感觉要突破」翻译成:「若收盘价创 60 日新高,且 20 日均线向上、成交额不低于 20 日均值的 0.8 倍,则下一交易日开盘买入,仓位 30%;收盘价跌破 20 日均线则卖出。」

这套规则可能赚钱,也可能不赚钱。但它有一个叙事永远没有的品质:它可以被证伪。你拿历史数据一跑,它是什么就是什么。没有借口,没有「如果当时……」,没有「下次运气会好一些」。

这就是量化的本质:把交易从叙事变成实验。系统可以简单到一条均线,也可以复杂到多因子加机器学习。但复杂还是简单不是重点。重点是:规则是明确的,结论是可检验的,错误是可被发现的。

量化不天然等于高深,不天然等于 AI。它首先是一种知识论立场——我愿意让自己的想法接受数据的检验——其次才是技术栈。

一个成熟的量化系统有四层:研究层提出假设,验证层检验假设,执行层把信号变成订单,风控层在系统出错时保护账户。大多数人以为核心是公式。错了。核心是风控层。因为任何公式都会在某些条件下失效,而风控决定了失效时你还能不能活着。

二、为什么很多人一听量化就误解

关于量化的四种流行误解,每一种都反映了人类面对不确定性时的某种心理弱点。

第一种:量化等于人工智能。 这种误解来源于人们对「复杂 = 有效」的天真信仰。好像只有用了神经网络、深度学习,才算量化。事实上,大量真正赚钱的策略都极其朴素——趋势跟随、资产轮动、均值回归、再平衡。它们不需要任何复杂模型。但只要规则明确、可回测、可执行、可管理风险,它就是量化。

我见过太多人一上来就想做 AI 选股,连数据清洗都没弄清楚就放弃了。他们不是败给了市场,而是败给了自己对复杂性的迷恋。

第二种:量化等于高频交易。 高频交易是量化的一个分支,但它是极窄的一支,需要超低延迟、海量订单和专业级基础设施。沪深交易所已给出明确标准:单个账户每秒申报撤单 300 笔以上,或单日 20000 笔以上,才算高频交易。

个人投资者跟机构比速度,就像用自行车跟高铁赛跑。你真正该练的不是速度,而是规则设计、数据处理、回测纪律和风控能力。你的优势恰恰在于你可以慢——日频甚至周频,不受规模约束,不受客户压力。

第三种:量化天然比主观更客观。 这是最危险的误解,因为它让你放松了对自身偏见的警觉。程序能减少情绪干扰,但程序不会自动消灭偏见。你用什么数据、怎么复权、如何定义信号、有没有偷看未来数据、回测里忽略了多少成本、参数是不是调到了「刚好对过去最好看」的位置——这些偏差,程序一个都帮不了你。

量化并不消灭自欺欺人。它只是把自欺欺人的工具从「直觉」升级成了「代码」。如果你觉得这很讽刺,那说明你开始理解量化了。

第四种:量化是一劳永逸的印钞机。 这种想法暴露了人类对稳定性的幻觉。市场是一个复杂适应性系统——参与者会学习、会模仿、会改变行为。资金结构会变,交易制度会变,流动性会变,策略拥挤度会变。一个策略一旦被足够多的人使用,它就会开始自我毁灭。

量化系统不是修好就能永远运行的水龙头。它更像一台在地震带上运行的实验装置——需要持续校准、持续维护、持续怀疑自己是不是已经坏了。

三、一个量化系统到底长什么样

学量化不是背指标。是先在脑子里建立一张系统地图。把量化系统想象成流水线,五段各有职责。

数据层。 量化的地基。你至少需要行情数据、交易日历、标的信息、复权信息。有些策略还需要财务数据、指数成分等。但真正的问题不是「有没有数据」,而是「数据是否干净、连续、口径一致,是否能还原当时真实可得的信息」。数据层的任何疏忽,都会在下游被放大——而且是以你察觉不到的方式被放大。

策略层。 负责把想法翻译成信号。你认为趋势会延续?定义「趋势」。认为强者恒强?把「强」转成可排序的指标。相信均值回归?把「偏离程度」写成公式。策略层做的不是讲故事,而是写条件链——可以被机器执行、被历史数据检验的条件链。

组合层。 大多数新手只关心「买什么」,忽略「买多少」。但仓位管理往往比选标的更重要。全仓还是等权?按波动率调整还是设行业暴露上限?组合层回答的是:即便信号对了,我该以什么方式承接这个判断,才不会因为一次错误就被市场消灭。

执行层。 信号不是成交,成交不一定等于回测里假设的价格。你是收盘后生成信号、下一开盘成交?考虑了滑点吗?考虑了成交量约束吗?考虑了买不进或卖不出的异常情况吗?执行层不光鲜,但它是连接理论和现实的桥梁。桥断了,理论再漂亮也没用。

风控与复盘层。 这是整个系统里最重要的一层,尽管大多数人把它当成最不重要的。单日亏损过大是否触发降仓?组合回撤是否触发停机?数据更新失败是否自动中止?还要有日志和报告,让你知道每一个操作的原因。没有复盘的量化不是系统,是自动化的赌博。

好的量化项目未必复杂,但一定结构清楚。哪怕只做一只 ETF 的双均线策略,把五层都想明白,学到的东西也远比抄一段「神代码」多得多。

四、为什么 A 股新手更适合从 ETF 开始

先别碰个股。从 ETF 做起。

不是个股不值得做,而是 ETF 帮你隔离了太多你不该在第一阶段处理的复杂性:业绩爆雷、黑天鹅、停牌断层、题材股熄火、ST 和退市风险。这些都是「肥尾事件」——发生概率低但后果极端。你在还没学会游泳的时候,不应该去鲨鱼出没的海域。

ETF 上先把数据、回测、信号、报告打通,学习效率会高很多。

还有一个更本质的原因:对初学者来说,建造研究系统本身比追求 alpha 重要得多。个股策略会迅速把你拖进复杂性的泥潭——股票池选择、财务数据频率、调仓日和财报日对齐、停牌处理、涨跌停限制、分红送转、成分股变更回溯。这些问题都值得学,但它们适合当第二阶段的课题。

ETF 更像一块干净的实验台。你可以快速跑出完整闭环:下载数据、计算信号、生成持仓、跑净值曲线、算指标、做报告、做样本外验证。

在 A 股语境里,这也更符合监管逻辑。证监会明确提出「先报告、后交易」,程序化交易投资者需先报告相关信息。对入门者来说,先做研究、回测、信号输出,再逐步走向半自动决策支持,是比「一上来就无人值守自动报单」稳妥得多的路径。

量化最怕的不是策略差,而是工程项目起得太大,最后什么都没做完。先做小,做完,做对。这比什么都重要。

五、数据:量化的地基,也是最大的坑

垃圾进,垃圾出。这句话你大概听过一百遍了。但它之所以被反复说,恰恰是因为几乎所有人都会在数据层栽跟头——包括那些自以为不会的人。

大多数人把精力花在策略公式上,结果发现真正决定结果有没有意义的,是一些「无聊的」细节:交易日对齐了吗?复权对了吗?停牌日有空缺吗?代码映射稳定吗?某些字段在当时是不是根本不可得?

以 Tushare Pro 为例。它的文档提供了 trade_cal 交易日历、fund_daily ETF 日线、fund_adj 复权因子等接口。A 股日线接口明确说明默认是未复权行情,停牌期间不提供数据。

这些不是 API 细节。这是「你的策略到底在研究真实的市场,还是在研究一个虚构的市场」的分界线。忘了复权,均线信号会被分红扭曲。没意识到停牌期间无数据,回测会把「没交易」误当成「价格稳定」。没用交易日历对齐,不同标的之间的比较就是在比两把不同长度的尺子量出来的结果。

复权一点不高深。它只是说:历史价格必须放在同一把尺子上看。分红或送转后不做处理,价格图会突然断层。你的均线、涨跌幅、突破信号都会被这个假断层误导。你以为找到了无敌策略,其实只是让错误数据给你编了一个好听的故事。

还有一个大多数人不想面对的问题:点时可得性。你在某个交易日做决策时,到底能看到哪些信息?财报 4 月 30 日发布,你在 4 月 10 日的回测里就不能用它的数据。某只股票后来被剔出指数,不代表你可以假装当时就知道。

这是量化里最深层的诚实测试:你能不能假装自己不知道已经知道的事情?大多数人做不到。但做不到这一点,你的回测就不是实验,而是小说。

对个人开发者的实用建议:建立本地缓存。把数据源当采集器,把本地 Parquet 或 SQLite 当真相源。先落地、清洗、标准化,再由回测模块读取。不仅更快,更重要的是可复现。

数据问题永远不会「解决一次就没事了」。每引入新资产、新频率、新字段,问题都会重新出现。成熟的量化思维是:默认数据迟早会出问题,系统里必须为此留出位置。

六、新手最值得先掌握的两类策略

先学趋势,再学轮动。理由不是它们最赚钱,而是它们最适合当训练场——让你在可控的复杂度里建立正确的工作习惯。

趋势跟随。 最典型的是双均线策略:短均线上穿长均线买入,跌破卖出。或者更简单——收盘价站上长期均线就持有,跌破就空仓。

趋势策略的真正价值不在于它能赚多少。它的价值在于,它会把你不想面对的问题一个个逼到你面前:信号按收盘价还是盘中生成?成交假设放在下一开盘还是下一收盘?参数该固定还是搜索?手续费和滑点会不会把微弱优势吃掉?

极简版本:一只宽基 ETF,20 日和 60 日均线。20 日在 60 日上方且空仓就买,跌回下方且持仓就卖。跑出净值曲线,观察回撤、换手频率、不同市场阶段的表现。

做完这一轮,你得到的不是圣杯,而是你的第一份量化实验报告。而一份诚实的实验报告,比一百个虚假的回测曲线更有价值。

ETF 轮动。 背后的逻辑是动量效应:强势资产可能继续强势。选几个 ETF,按过去一段时间的收益打分,定期持有得分最高的。加一个绝对动量过滤:标的本身收益为正或站在长期均线上方才买入,否则空仓。

轮动比趋势多了横向比较,但没有个股多因子那么复杂。你可以快速学会组合调仓、排序逻辑、再平衡频率、换手率控制等更接近真实资产配置的问题。

至于多因子和机器学习——可以最终走到那里,但别当第一站。那个世界的复杂度会瞬间吞没准备不足的人:财务数据时效性、幸存者偏差、行业中性化、极值处理、样本穿越、特征泄露。先在简单系统上建立正确习惯,再去碰复杂的东西。

七、回测:量化里最重要,也最容易骗人的环节

让我说一句你可能不想听的话:回测是量化里最危险的工具。

不是因为它没用,而是因为它太有说服力了。一条漂亮的历史净值曲线,能产生一种几乎催眠般的确信感:过去这么有效,未来也差不多。但回测不是预言。它只是在一组特定历史条件下、基于一套特定假设做出的模拟。改变任何一个前提——数据、规则、假设——结论就可能反转。

回测有五个经典陷阱。每一个都不会让你的代码报错,但每一个都能让你的结论从「有效」变成「虚构」。

未来函数。 在历史里使用了当时不可能知道的信息。用收盘价假设盘中成交。用季报公布后的数据选季报公布前的股票。用今天存活的 ETF 名单做过去的策略。未来函数不报错,但它让你的实验变成了开卷考试——而你自己还以为是闭卷的。

幸存者偏差。 只拿今天还活着的标的回看过去。退市的、清盘的、边缘化的,全被你无声删掉了。这就像只采访百岁老人来研究长寿秘诀——你永远不知道那些 50 岁就去世的人是不是做了完全相同的事。

信号与成交混淆。 收盘后才能确认信号,却假设当日收盘就能买入。一个细节就能让漂亮的回测缩水一大截。

忽略交易成本。 很多策略只在零摩擦的理想世界里好看。加入佣金、印花税、滑点和换手率约束后,惊艳变平庸,甚至直接转负。这些策略不是「差一点点」就能成功——它们从一开始就是纸上谈兵。

过拟合。 你不断调参数——20 日改 23 日,再改 27 日,加成交量过滤,加波动率阈值——直到找到一组在过去完美的参数。恭喜你,你刚完成了一次精确的自我欺骗。你不是在发现规律,你是在对历史数据做修辞。过拟合最可恶的地方在于它给你最强的心理奖励——「我找到了!」——恰恰在你最需要怀疑自己的时候。

成熟的回测需要一整套防自欺机制:样本内外拆分、walk-forward 滚动验证、参数敏感性分析、不同市场阶段对比、强制加入成本、数据版本固定。

回测的价值不是让你兴奋。它的价值是让你在兴奋的时候还能保持清醒。

八、怎样读懂一份回测报告

大多数人看回测报告的方式是错的。他们盯着总收益率,然后被大数字催眠。

一份有用的回测报告至少回答四个问题:赚不赚钱?过程能不能忍?靠什么赚的?在哪里最脆弱?

收益率必须放在风险背景里看。年化 18% 最大回撤 55%,和年化 12% 最大回撤 12%,哪个更好?如果你的回答是「当然是 18%」,那你还没准备好做量化。因为你大概率扛不过 55% 的回撤——没有人在真实经历 55% 的亏损时还能保持理性。

最大回撤是账户从高点到低点最深的那个坑。数学上有一个不对称的事实:回撤 10% 需涨 11% 回本,回撤 20% 需涨 25%,回撤 50% 需涨 100%。这不是对称的游戏。这是一个深刻的不对称——它意味着保护本金不是保守,而是数学上的必要。

夏普、波动率、卡玛比率帮你判断收益是平滑的还是剧烈抽搐的。过程像心电图一样剧烈的策略,在真实持有中几乎不可能坚持。大多数人不是被市场打败的——他们是被自己的情绪打败的。

胜率是最容易误导人的指标。80% 胜率的策略如果每次小赚偶尔大亏,总体可能是负的。35% 胜率的策略如果靠少数大赚覆盖大量小亏,反而能赚钱。真正重要的不是赢了几次,而是赢的时候赢多少、输的时候输多少、长期期望值是正还是负。

换手率也关键。太忙的策略在真实世界里几乎不可能如回测般执行——成本、滑点和心理疲劳会把看似微小的摩擦放大成致命的劣势。

成熟的报告应该有分年度表现、月度分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。

九、风控不是附属品,而是系统的一部分

如果你把风控理解成「出了问题就止损」,那你对风险的理解还停留在幼儿园水平。

风控不是补丁。它应该在策略诞生的第一秒就存在。你设计的不是「怎样赚钱」,而是「怎样在可能赚钱的同时,确保一次错误不会杀死你」。

仓位是最基础的风控。 同一策略,10% 仓位和满仓,体验天差地别。仓位管理的本质不是让收益变低——它是让你有资格继续存在。市场不会因为你亏了就暂停。能否留在桌上,是你有没有复利可能的前提条件。

我把这叫做「生存第一原则」:在不确定的环境里,活着比赢更重要。因为死的人没有第二次机会。

分散和暴露管理是第二层。 几个看似不同的 ETF 可能高度相关。分散不是数量问题,而是暴露结构问题。真正的分散是确保你的风险来源是多样的,而不只是标的名称是多样的。

退出机制是第三层。 什么时候减仓、空仓、停止交易、认定策略失效,都应该前置。不是用极端紧的止损把系统剪碎,而是确保退出不依赖情绪。你可以用价格、波动率、回撤、信号反转甚至系统错误率来定义退出——但不要让「再等等看」成为默认。

操作和工程层面的风控是第四层。 数据更新失败怎么办?接口异常怎么办?回测结果突然变了怎么办?对个人开发者来说,工程失误、参数写错、数据污染造成的损失,可能比市场波动更大。

风控不是悲观主义。风控是你和灾难之间的最后一道墙。你不是在证明自己永远正确——你是在确保自己错了的时候不会被消灭。

十、把量化当技术项目来做,才会越做越稳

把量化只当几个公式,你会很快碰到天花板。真正让量化变成可持续能力的,是工程化。

对个人开发者来说尤其如此——你没有机构的平台和团队,得自己搭。

项目结构要清晰。 数据采集、清洗、策略、回测、指标、报告,各有边界。不要把一切塞进一个 Notebook。量化项目一旦没有边界,每个新需求都会引入新的混乱。

结果要可复现。 今天跑出来的结果,下周还能复现吗?换台电脑还知道改了什么吗?配置文件、数据版本、日志、结果归档——这些看起来不「性感」的东西,恰恰是区分业余和专业的分界线。

研究和执行要分开。 研究模块提出和验证假设,执行模块把假设翻译成操作。最好的第一阶段不是自动下单,而是每天更新数据、计算信号、生成报告、输出候选动作,由人工确认。

要对测试有敬畏心。 均线对不对?交易日对齐对不对?手续费有没有重复扣?量化里最可怕的错误不是程序崩溃——那至少你知道出了问题。最可怕的是程序看起来正常运行,却在悄悄给你错误的结论。这种错误不会发出警报,但会在真实世界里让你付出真金白银。

量化是交易、数据、统计、工程和自我管理的交叉点。会写策略的人很多,能把系统搭稳的人少之又少。

十一、一个适合个人开发者的 90 天入门路径

「三个月做出一个小闭环」——而不是「半年做出顶级系统」。个人项目最怕贪大。先跑通,再做深。

第一个月:跑通最简单的单策略回测。 一两只宽基 ETF,本地数据缓存,双均线策略,净值曲线、收益、最大回撤、交易记录。不追求策略多强——逻辑清楚、结果可重复、能解释每笔交易的原因。这比什么都重要。

第二个月:升级到可比较的小平台。 加入 ETF 轮动,增加参数配置,加入样本内外拆分和交易成本,生成报告。到这一步你不是在试写策略,而是在建造研究工具。

第三个月:验证而非炫技。 Walk-forward 验证,参数敏感性分析,不同 ETF 池子测试,每天自动生成次日候选持仓。关键不是系统越来越复杂,而是复杂一点之后还能保持清晰和可解释。

三个月后你大概率还没赚到大钱。但你会拥有一个更重要的东西:一套可持续迭代的金融实验系统。这个系统才是你真正的资产——不是里面的某个策略。

十二、为什么很多回测很好看,实盘却很难受

每个做量化的人都会遇到这个问题。

回测面对的是已经发生的世界。你知道结局。你知道哪次下跌只是暂时的,哪里后来会创新高。这种「知道结局」的感觉,会让你严重低估真正面对未知时的心理冲击。

实盘面对的是正在发生、你不知道结局的世界。连续亏损三周时,你不知道这是正常波动还是策略永久失效。这种不确定性不会因为你有一套量化系统就消失。

实盘还比回测多了大量摩擦——忘记更新数据、手动确认时犹豫、实际成交和假设不一致、流动性不足、节假日和系统异常。单笔看不大,长期叠加会改变结果。

还有一个大多数人不愿承认的原因:人在回测时会挑自己喜欢的结果。不好看的参数、不好看的时段、不好看的样本,被无意识地筛掉了。你以为自己在做客观研究,其实在给自己想看的结论寻找证据。这在心理学里叫确认偏误——它是人类认知里最顽固的缺陷之一。

实盘和回测之间真正的桥梁,不是找更强的策略。而是让假设更接近现实,让执行更接近纪律,让心理预期更接近真实的亏损体验。

成熟的量化不是回测有多漂亮,而是回测和实盘之间的落差有多小。

十三、几个高频问题的真回答

零基础能学量化吗? 能。但需要一组能力:一点 Python,一点数据处理,一点统计常识,一点交易规则理解,再加长期做项目的耐心。真正难的不是第一段代码,而是把杂乱知识拼成稳定系统。

必须先学高级数学和机器学习? 不必。入门阶段最重要的是把简单规则做正确。很多人不是输在不会高级数学,而是输在不会老老实实做基础工作。先把定义问题、清洗数据、做回测、看报告、控风险这些基本功做到位。

资金小有必要做量化吗? 有。量化入门最大的产出不是收益,而是方法。小资金反而适合做实验——输得起的时候是最好的学习时机。

要不要一开始就全自动下单? 不要。A 股程序化交易有明确规则和报告要求。先做研究、回测、信号输出、人工确认。自动化应该是系统成熟后的自然结果,不是「显得高级」的装饰。

神策略能直接抄吗? 可以研究。但先问四个问题:数据口径?执行假设?成本计算?样本外表现?很多公开策略最厉害的地方不是真的无敌,而是省略了让结果变差的所有细节。

回测不够漂亮就没价值? 恰恰相反。太漂亮的回测反而可疑。真实可用的策略往往只是「逻辑清楚、回撤可控、样本外没崩」。平庸但稳定,远比惊艳但脆弱更有价值。脆弱的东西,在真实世界里迟早会碎。

什么时候算真正入门? 当你能回答这些问题的时候:系统为什么可能有效?依赖什么前提?最可能在哪里失效?成本和摩擦是什么?风险边界在哪里?失效时你怎么处理?

能回答这些,才说明你从「写代码的人」变成了「做系统的人」。

结语

量化听起来像金融技术。做久了你会发现,它首先是一种认识论训练。

它训练你把模糊直觉翻译成可证伪的规则。把想象中的优势放进严格验证。把历史里的漂亮结果放进现实摩擦里重新审视。把「我可能是对的」换成「我怎样才能发现自己是错的」。

它不是圣杯。不会消灭亏损和焦虑。它甚至比主观交易更残酷——它会把你的错误一条条暴露出来,不留余地。

但正因如此,它才值得学。因为在一个充满不确定性的世界里,唯一比「知道答案」更有价值的能力,是「知道自己不知道答案」。

真正的量化入门,不是找到一套神秘公式。而是开始愿意承认:市场很复杂,自己会犯错,任何优势都必须经过检验,任何收益都要付出风险代价,任何系统都需要维护。

到了那一步,你写的就不再只是买卖程序,而是一套帮助自己在不确定世界里做出更稳定决策的工具——同时始终提醒自己:这套工具也可能是错的。

而这种清醒,才是量化最有价值的地方。

量化炒股入门:把凭感觉买卖变成用系统做决策(Naval Ravikant 风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

量化不是更聪明地猜。它是承认自己不够聪明,然后用规则来弥补。

大多数人对量化的想象——几块屏幕、跳动的数字、自动赚钱的程序——抓住了表面,遮住了本质。量化的核心是把模糊的、情绪化的交易行为,翻译成可以写下来、检验、复盘、迭代的规则系统。

这件事在 A 股已经有了明确的法规边界。证监会把程序化交易定义为通过计算机程序自动生成或下达交易指令进行证券交易,2024 年施行,深交所细则明确个人投资者也可以参与。量化不是灰色地带,而是有规则、有边界的正规交易方式。

学量化的第一步不是找神策略。第一步是理解:量化不替你思考,它只是逼你把思考变得更严格、更诚实。

凭感觉的判断必须变成明确条件。靠「应该没事」硬扛的亏损必须变成事先定义好的阈值。行情好时的自大和行情差时的自疑,都要被记录和检验。

量化最大的价值不是让你赚更多,而是逼你把「我觉得」变成「在什么条件下我会这么做,以及这么做的长期结果大概是什么」。

一、量化炒股到底是什么

交易就是一串决定:买什么、什么时候买、买多少、什么时候卖、亏多少停、赚多少走、什么时候空仓。

主观交易者临时做这些决定。量化交易者提前回答这些问题,用规则执行。

区别看一个例子就够了。

主观交易者说:「这只 ETF 走势不错,感觉要突破了。」这句话没有信息量。什么叫走势不错?什么叫要突破?突破到什么程度算成立?回落多少算失败?仓位多大?这些问题没答案,所谓交易逻辑只是情绪和印象的混合物。

量化做的第一步是翻译。把「感觉要突破」翻译成:若收盘价创 60 日新高,且 20 日均线向上、成交额不低于 20 日均值的 0.8 倍,则下一交易日开盘买入,仓位 30%;跌破 20 日均线则卖出。

这套规则未必赚钱。但它可执行、可回测。这两个特性是主观判断永远不具备的。

量化的本质:把交易从临场发挥变成规则系统。简单到一条均线,复杂到多因子加机器学习,做的都是同一件事。

量化先是方法论,后是技术栈。先是认知,后是工具。

一个成熟的量化系统有四层。研究层提出假设。验证层检验假设。执行层把信号变成订单。风控层在系统出错时保护账户。大多数人以为核心是公式。核心是系统设计。

二、四种常见误解

量化等于 AI。 不是。大量赚钱的策略很朴素——趋势跟随、资产轮动、均值回归。规则明确、可回测、可执行,就是量化。AI 只是工具箱里的一把扳手,不是整个工具箱。

量化等于高频交易。 高频只是量化的窄窄一支。它需要超低延迟和专业基础设施。沪深交易所认定标准:每秒 300 笔以上或单日 20000 笔以上才算高频。个人投资者真正适合做的是日频或周频策略。你的优势在于可以慢。

量化天然更客观。 程序减少情绪干扰,但不消灭偏见。数据怎么选、复权怎么做、有没有偷看未来、成本算了没有——这些偏差不会因为你写了代码就消失。量化把自欺欺人从拍脑袋升级成了写代码骗自己。

量化是一劳永逸的赚钱机器。 市场是复杂适应性系统。环境会变,资金结构会变,策略拥挤度会变。量化系统需要持续校准、维护、复盘。它不是水龙头,是实验装置。

三、系统的五层结构

量化系统是一条流水线。

数据层。 行情数据、交易日历、标的信息、复权信息。核心问题不是有没有数据,而是数据是否干净、连续、口径一致,是否能还原当时真实可得的信息。

策略层。 把想法翻译成信号。趋势会延续?定义趋势。强者恒强?把强转成可排序指标。均值回归?把偏离程度写成公式。策略层写的不是故事,是条件链。

组合层。 回答「买多少」。仓位管理往往比选标的更重要。全仓还是等权,按波动率调整还是设行业暴露上限,这些选择显著影响最终结果。

执行层。 信号不等于成交。收盘生成信号、下一开盘成交?考虑滑点了吗?考虑成交量约束了吗?执行层决定了研究离现实有多远。

风控与复盘层。 限制错误。单日亏损过大触发降仓?数据更新失败自动中止?日志和报告记录每个操作的原因。没有复盘的量化是自动化赌博。

好的量化项目未必复杂,但一定结构清楚。

四、为什么从 ETF 开始

先别碰个股。ETF 更适合当第一站。

ETF 帮你隔离了大量不该在第一阶段处理的复杂性——业绩爆雷、黑天鹅、停牌断层、题材熄火、ST 和退市风险。

对初学者来说,建造系统比追求 alpha 重要得多。个股策略会迅速把你拖入复杂度泥潭——股票池选择、财务数据频率、调仓日和财报日对齐、停牌处理、涨跌停限制、分红送转、成分股回溯。这些都值得学,但是第二阶段的事。

ETF 像一块干净的实验台。你可以很快跑出完整闭环:下载数据、计算信号、生成持仓、跑净值曲线、算指标、做报告、做样本外验证。

量化最怕的不是策略差,而是工程项目太大,最后什么都没做完。先做小,做完,做对。

在 A 股语境里,证监会提出「先报告、后交易」。入门者先做研究、回测、信号输出、日报生成,再逐步走向半自动决策支持,是更务实的路径。

五、数据:地基,也是最大的坑

垃圾进,垃圾出。几乎所有初学者都在数据层吃亏。

大多数人把精力花在策略公式上,结果发现真正决定结果有没有意义的,是那些看起来琐碎的细节:交易日对齐了吗?复权对了吗?停牌日有空缺吗?某些字段当时能不能拿到?

以 Tushare Pro 为例。A 股日线接口默认未复权,停牌期间不提供数据。这些 API 细节在量化里是生死线:忘了复权,信号被扭曲;没意识到停牌无数据,「没交易」被误当成「价格稳定」;没对齐交易日历,不同标的之间的比较就是错的。

复权不高深。它只是说历史价格要放在同一把尺子上看。不做处理,价格图会出现假断层,策略信号会被误导。

点时可得性也很关键。你在某个交易日做决策时能看到什么信息?财报 4 月 30 日发布,4 月 10 日的回测里不能用。量化里最值钱的诚实:承认当时的你不知道后来发生的事。

实用原则:建立本地缓存。数据源当采集器,本地 Parquet 或 SQLite 当真相源。先落地、清洗、标准化,再由回测模块读取。可复现比速度重要。

数据问题不会「解决一次就没事了」。每引入新资产、新字段,问题重新出现。成熟思维:默认数据迟早会出问题,系统里必须为此留位置。

六、先学趋势,再学轮动

不是因为最赚钱,而是因为最适合当学习框架。

趋势跟随。 双均线策略:短均线上穿长均线买入,跌破卖出。或者收盘价站上长期均线持有,跌破空仓。

趋势策略的价值不在于收益。它逼你面对关键问题:信号按收盘价还是盘中生成?成交假设在下一开盘还是下一收盘?参数固定还是搜索?手续费和滑点会不会把优势吃掉?

极简版本:一只宽基 ETF,20 日和 60 日均线。20 日在 60 日上方且空仓就买,跌回下方且持仓就卖。做完你得到的不是圣杯,是你的第一份量化实验报告。

ETF 轮动。 几个 ETF 按过去一段时间的收益打分,定期持有得分最高的。加绝对动量过滤:标的本身收益为正才买入,否则空仓。

轮动比趋势多了横向比较,但没有个股多因子那么复杂。你会学到组合调仓、排序逻辑、再平衡频率、换手率控制。

轮动策略会让你意识到:量化不是预测一切,而是在有限标的中做相对更优的选择。

多因子和机器学习可以最终走到。但别当第一站。先把简单系统做扎实。

七、回测的五个陷阱

量化最吸引人的是回测。量化最危险的也是回测。

一条漂亮的历史净值曲线会让你相信:过去有效,未来也差不多。但回测不是承诺。它是在一组历史条件下、基于一套假设做的模拟实验。改变任何前提,结论可能反转。

未来函数。 在历史里使用了当时不可能知道的信息。收盘价假设盘中成交。季报数据提前用于选股。今天存活的 ETF 名单做过去的策略。不报错,但结果是虚构的。

幸存者偏差。 只拿今天还在的标的回看过去。退市的、清盘的被你删掉了。

信号与成交混淆。 收盘后才能确认信号,却假设当日就能成交。一个细节让漂亮回测大幅缩水。

忽略交易成本。 零摩擦世界里的惊艳策略,加入真实成本后变平庸甚至转负。

过拟合。 不断调参数直到找到完美的历史组合。这组参数很可能只是刚好适配过去。过拟合给你最强的心理奖励——「找到了!」——恰恰在你最该怀疑的时候。

防自欺机制:样本内外拆分、walk-forward 滚动验证、参数敏感性分析、不同市场阶段对比、强制加入成本、数据版本固定。

回测的价值不是让你兴奋。是让你清醒。

八、读懂回测报告

第一眼盯总收益率没错。只盯这一个数字就错了。

一份有用的报告回答四个问题:赚不赚?难不难熬?靠什么赚的?什么情况下最脆弱?

年化 18% 最大回撤 55%,和年化 12% 最大回撤 12%,不能用简单算术比。决定能不能长期拿住的,是亏损的可承受性,不是收益的上限。

最大回撤是账户从高点到低点最深的坑。数学上不对称:回撤 10% 需涨 11% 回本,回撤 20% 需涨 25%,回撤 50% 需涨 100%。风控不是保守,是复利的数学前提。

夏普、波动率、卡玛比率衡量收益的平滑程度和回撤效率。过程剧烈抽搐的策略,在真实持有中几乎无法坚持。

胜率容易误导。80% 胜率每次小赚偶尔大亏,总体可能是负的。35% 胜率靠少数大赚覆盖大量小亏,反而赚钱。真正重要的是盈亏比和长期期望值。

换手率太高意味着成本被放大。低频、稳定、能解释的策略,比高频炫目的策略更适合长期推进。

成熟的报告包含:分年度表现、月度分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。

九、风控是系统的一部分

风控不是出问题了才止损。它从策略诞生的第一秒就该存在。

你设计的不是「怎样赚」。是「怎样在可能赚的同时不被打死」。

仓位。 最基础的风控。10% 仓位和满仓是两个完全不同的游戏。仓位管理的本质不是降低收益,而是确保你有资格活到下一次机会。市场不会因为你亏了就暂停。

分散和暴露管理。 几个看似不同的 ETF 可能高度相关。分散是暴露结构问题,不是数量问题。

退出机制。 什么时候减仓、空仓、停止交易、认定策略失效,都要前置。退出不靠情绪。你可以用价格、波动率、回撤、信号反转或系统错误率来定义退出。但不要让「再等等看」成为默认选项。

操作和工程层面。 数据更新失败、接口异常、回测结果突变。工程失误造成的损失可能比市场波动更大。

风控不是悲观。是提前承认自己一定会犯错,然后为错误设计边界。

十、工程化才是护城河

把量化当几个公式,会很快碰到天花板。让量化变成可持续能力的,是工程化。

清晰的项目结构。 数据采集、清洗、策略、回测、指标、报告各归各位。不要塞进一个 Notebook。没有边界的项目,每加一个需求都在引入混乱。

可复现。 今天的结果下周还能复现吗?重视配置文件、数据版本、日志输出、结果归档。认真复盘时最痛苦的不是亏损,是不知道为什么得到这个结果。

研究和执行分离。 研究提出和验证假设。执行翻译成操作。第一阶段不是自动下单,而是每天更新数据、计算信号、生成报告、输出候选动作,人工确认。系统化加人工风控。

测试的敬畏心。 均线对不对?交易日对齐对不对?手续费重复扣了没有?最可怕的错误不是程序崩溃,是程序看起来正常运行,悄悄给你错误结论。

会写策略的人很多。能把系统搭稳的人很少。差距不在策略,在工程。

十一、90 天路径

三个月做出一个小闭环。不是半年做出顶级系统。先跑通,再做深。

第一个月。 一两只宽基 ETF,本地数据缓存,双均线策略,净值曲线、收益、最大回撤、交易记录。不追求策略强。逻辑清楚、结果可重复、能解释每笔交易。

第二个月。 加入 ETF 轮动。参数配置。样本内外拆分。交易成本和滑点。生成报告。从试写策略变成做研究工具。

第三个月。 Walk-forward 验证。参数敏感性分析。不同 ETF 池子测试。每天自动生成次日候选持仓。关键不是更复杂,是复杂了还能清晰和可解释。

三个月后你可能没赚到大钱。但你拥有了一套可持续迭代的金融实验系统。这个系统是你真正的杠杆——它能被复用、被改进、被累积。策略可能过时,但做系统的能力不会。

十二、回测好看,实盘难受

每个做量化的人都会遇到。

回测面对已经发生的世界。你知道结局。实盘面对你不知道结局的世界。连续亏损三周时,你不知道这是正常波动还是永久失效。

实盘还多了大量摩擦——忘记更新数据、手动确认犹豫、实际成交和假设不一致、流动性不足、系统异常。单笔看不大,长期叠加改变结果。

还有一个不太被承认的原因:人在回测时会挑自己喜欢的结果。不好看的参数和时段被无意识筛掉。

实盘和回测之间的桥梁不是找更强的策略。是让假设更接近现实,让执行更接近纪律,让心理预期更接近真实的亏损体验。

成熟的量化不是回测有多漂亮。是回测和实盘之间的落差有多小。

十三、高频问题

零基础能学吗? 能。需要一点 Python、一点数据处理、一点统计常识、一点交易规则理解、一点做项目的耐心。难的不是第一段代码,是把杂乱知识拼成稳定系统。

必须先学高级数学? 不必。入门阶段最重要的是把简单规则做正确。

资金小有必要吗? 有。入门阶段产出的是方法,不是收益。小资金适合做实验。

一开始就全自动下单? 不必。先做研究、回测、信号输出、人工确认。自动化是系统成熟后的自然结果。

神策略能直接抄? 可以研究。先问:数据口径、执行假设、成本计算、样本外表现。公开策略最厉害的地方常常是省略了让结果变差的细节。

回测不漂亮就没价值? 恰恰相反。太漂亮的反而可疑。真实可用的策略往往只是「逻辑清楚、回撤可控、样本外没崩」。平庸但稳定,胜过惊艳但脆弱。

什么时候算入门? 当你能回答:系统为什么可能有效?依赖什么前提?最可能在哪里失效?成本和摩擦是什么?风险边界在哪里?失效时怎么处理?

能回答这些,你开始从写代码的人变成做系统的人。

结语

量化训练的不是交易技巧。是一种思维方式。

把模糊直觉翻译成清楚规则。把想象中的优势放进严格验证。把「我可能是对的」换成「我怎样证明自己不是在骗自己」。

它不消灭亏损和不确定性。它甚至比主观交易更残酷——错误会被一条条暴露,没有「运气不好」的借口。

但正因如此,它才值得投入。

量化把交易从情绪反应变成系统工程。把运气驱动变成流程驱动。把一时冲动变成长期可复盘的能力。

真正的入门不是找到神秘公式。是开始承认:市场复杂,自己会犯错,任何优势都要检验,任何收益都要付出风险代价,任何系统都要维护。

到那一步,你写的不是买卖程序。是帮助自己在不确定世界里做出更稳定决策的工具。

这才是量化的杠杆所在:不是放大收益,而是放大你做决策的质量。

量化炒股入门:把凭感觉买卖变成用系统做决策(阮一峰风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

引言

很多人第一次听到「量化炒股」,脑子里浮现的画面大概是这样的:好几块屏幕,上面跳着各种数字,一段程序在自动买卖,钱源源不断进账。

这个想象不算完全错误,但它把最重要的东西遮住了。

量化的核心,不是「神秘算法」,也不是「全自动赚钱」。它做的事情其实很简单:把你原来模糊的、凭感觉的交易决策,变成一套写得出来、测得过去、改得了的规则。

在 A 股的官方定义里,这叫「程序化交易」——通过计算机程序自动生成或下达交易指令。证监会的相关规定已于 2024 年施行,沪深交易所的实施细则也已落地。深交所细则明确写了,个人投资者也可以进行程序化交易。

换句话说,量化不是灰色地带,而是一种有明确规则和合规要求的交易方式。

学量化的第一步,不是去找「胜率最高的指标」,也不是搜「年化 80% 的神策略」,而是先建立一个基本认知——

量化不替你思考。它只是逼你把思考写清楚。

你原来凭感觉做的判断,在量化里必须变成明确的条件表达式。你原来靠「应该没事」硬扛的亏损,必须变成事先定义好的风险阈值。量化不是「更聪明地猜」,而是「更严格地执行」和「更诚实地检验」。

一、量化炒股到底是什么

把交易拆开来看,它其实就是一串连续的决定:

  • 买什么?
  • 什么时候买?
  • 买多少?
  • 什么时候卖?
  • 亏多少停?
  • 赚多少走?
  • 什么时候该空仓?
  • 什么时候该降低仓位?

主观交易者通常是看到行情之后,临时做这些决定。量化交易者则是提前把这些问题回答好,然后用规则和程序去执行。

一个例子

假设有一个主观交易者说:「这只 ETF 最近走势不错,感觉要突破了。」

这句话听上去像判断,但仔细一想,它其实没有提供多少有用信息。什么叫「走势不错」?什么叫「要突破」?突破到什么程度算成立?回落多少算失败?仓位该放多大?第二天低开怎么办?

这些问题没有答案的话,所谓「交易逻辑」其实只是情绪和印象的混合物。

量化做的第一步,就是把这种模糊语言翻译成明确规则。比如:

若收盘价创过去 60 个交易日新高,且 20 日均线向上、成交额不低于过去 20 日均值的 0.8 倍,则于下一交易日开盘买入,仓位 30%;若收盘价跌破 20 日均线则卖出。

这套规则未必赚钱,但它有两个主观判断没有的优点:

  1. 可执行——任何人拿到这段描述,都能做出相同操作。
  2. 可回测——你可以拿历史数据检验它过去的表现。

这就是量化的本质:把交易从「临场发挥」变成「规则系统」。

系统可以简单——一条均线加一条止损线就够了。也可以复杂——多因子、机器学习、组合优化。但不管复杂还是简单,它做的始终是同一件事:用明确的规则替代模糊的直觉。

量化系统的四个层次

一个成熟的量化系统,通常包含四层:

层次 职责
研究层 提出假设——市场里可能存在什么规律
验证层 用历史数据检验假设是否成立
执行层 把信号转成实际订单
风控层 在系统出错或市场异常时保护账户

很多人以为量化的核心是「公式」,其实真正拉开差距的,是公式背后的系统设计能力。

二、关于量化的四种常见误解

误解一:量化 = 人工智能

很多人觉得,只有用了神经网络、深度学习,才算量化。

其实不是。大量真实可用的量化策略都很朴素:趋势跟随、资产轮动、均值回归、再平衡策略、事件驱动规则。它们可能根本没用到复杂模型,但只要规则明确、可回测、可执行、可管理风险,就是量化。

误解二:量化 = 高频交易

高频交易确实属于量化的一个分支,但它很窄。高频强调的是超低延迟、海量订单和专业级基础设施。

沪深交易所已给出明确认定标准:单个账户每秒申报撤单达 300 笔以上,或单日达 20000 笔以上,才算高频交易。

对个人投资者来说,真正适合做的是日频或周频的中低频策略。你该练的是规则设计、数据处理、回测纪律和风控能力,而不是跟机构比速度。

误解三:量化天然更客观

程序确实能减少情绪干扰,但程序不会自动消灭偏见。

你用什么数据、怎么做复权、如何定义信号、有没有偷看未来数据、回测里有没有忽略成本——这些偏差,程序一个都不会帮你修正。量化并不消灭自欺欺人,它只是把自欺欺人的方式从「拍脑袋」变成了「写代码」。

误解四:量化是一劳永逸的赚钱机器

市场环境会变,资金结构会变,交易制度会变,流动性会变,策略拥挤度也会变。量化系统不是修好就不用动的水龙头,它更像一台需要持续维护和校准的实验装置。

三、一个量化系统的完整结构

学量化,最重要的不是记住指标名称,而是先在脑子里形成一张系统地图。

一个量化系统可以想象成一条流水线,分五段:

1. 数据层

量化的地基。你至少需要:

  • 行情数据(开高低收、成交量等)
  • 交易日历
  • 标的信息
  • 复权信息

有些策略还需要财务数据、指数成分、公告事件、行业分类等。

数据层要解决的核心问题不是「有没有数据」,而是数据是否干净、连续、口径一致,是否能还原当时真实可得的信息。

2. 策略层

负责把想法翻译成信号。

  • 认为趋势会延续?→ 定义什么是「趋势」
  • 认为强者恒强?→ 把「强」转成可排序的指标
  • 相信均值回归?→ 把「偏离程度」写成公式

策略层做的不是讲故事,而是写条件链。

3. 组合层

回答「买多少」的问题。

很多人只关心「买什么」,忽略了仓位管理。但实际上,你是全仓还是等权,是按波动率调整还是设行业暴露上限,这些选择对结果的影响,往往比选标的更大。

4. 执行层

信号 ≠ 成交。

你是收盘生成信号、下一开盘成交?还是假设收盘价成交?考虑了滑点吗?考虑了成交量约束吗?执行层不光鲜,但它决定了研究离真实世界有多远。

5. 风控与复盘层

成熟的系统不只抓机会,还要限制错误:

  • 单日亏损过大 → 触发降仓?
  • 组合回撤过大 → 触发停机?
  • 数据更新失败 → 自动中止?

还要有报告和日志,让你知道每天的操作是什么原因触发的。

没有复盘,量化就不是系统,而只是自动化的冲动。

四、为什么 A 股新手更适合从 ETF 开始

我建议新手先从 ETF 做起,不要一上来就碰个股。原因有三个。

第一,ETF 帮你隔离了大量个股层面的极端事件。 业绩爆雷、黑天鹅、停牌复牌断层、题材股瞬间熄火、ST 和退市风险——这些在 ETF 层面都被大幅平滑了。

第二,对初学者来说,建造研究系统比追求 alpha 更重要。 个股策略会迅速把你拖入复杂度的泥潭——股票池选择、财务数据频率、调仓日和财报日对齐、停牌处理、涨跌停限制、分红送转……这些都值得学,但它们更适合当第二阶段的课题。

第三,ETF 让你可以很快跑出一个完整闭环:

1
下载数据 → 计算信号 → 生成持仓 → 跑净值曲线 → 算指标 → 做报告 → 样本外验证

对个人开发者来说,「先把小系统跑起来」的成就感至关重要。量化最怕的不是策略差,而是工程项目起得太大,最后什么都没做完。

在 A 股语境里,证监会明确提出「先报告、后交易」,程序化交易投资者需先报告相关信息后方可进行程序化交易。对入门者来说,先做研究、回测、信号输出、日报生成,再逐步走向半自动决策支持,是更务实的路径。

五、数据:量化的地基,也是最大的坑

量化世界里有一句老话:垃圾进,垃圾出。

几乎所有初学者都会在数据层吃亏。因为大多数人把精力花在策略公式上,结果发现真正决定结果有没有意义的,是那些看起来很琐碎的细节。

常见的数据陷阱

问题 影响
忘了复权 趋势信号被分红/送转扭曲
没处理停牌期间无数据 把「没交易」误当成「价格稳定」
没用交易日历对齐 不同标的之间的对比错位
使用了当时不可得的数据 回测结果不可信

以 Tushare Pro 为例,它的 A 股日线接口默认是未复权行情,停牌期间不提供数据。这些 API 细节对量化来说是生死线级别的信息。

什么是复权?

复权其实很简单。它就是告诉你:历史价格要放在同一把尺子上看。

如果一只基金分了红,或者一只股票发了送转,你不做处理,价格图会突然出现一个「断层」。而你的策略如果基于均线、涨跌幅、突破等指标,就会被这个假断层误导。

什么是点时可得性?

你在某个交易日做决策时,到底能看到哪些信息?

比如某份财报 4 月 30 日发布,那你在 4 月 10 日的回测里就不能使用其中的利润数据。某只股票后来被剔出指数,也不代表你可以假装当时就知道它会被剔除。

量化里最值钱的一种诚实:承认「当时的你,不知道后来发生的事」。

实用建议:建立本地数据缓存

不要每次研究都在线拉取全部历史数据,也不要让策略直接耦合外部接口。推荐的做法:

1
数据源(Tushare 等)→ 采集器 → 本地存储(Parquet / SQLite)→ 回测模块

这样做的好处:

  • 速度更快
  • 结果可复现——今天和三个月后的结果能在同一份数据快照上对比

最后提醒一句:数据问题不是「解决一次就没事了」。每引入新资产、新频率、新字段,问题都会重新出现。成熟的做法是:默认数据迟早会出问题,在系统里为数据校验、缺失处理和异常中止留出位置。

六、新手最值得先掌握的两类策略

「到底先学哪种策略?」这是入门者最常问的问题。

我的建议:先学趋势,再学轮动。不是因为它们最赚钱,而是因为它们最适合当学习框架。

第一类:趋势跟随

最典型的代表是双均线策略。

规则很朴素:

  • 短周期均线向上穿过长周期均线 → 买入
  • 反向跌破 → 卖出

或者更简单:收盘价站上某条长期均线就持有,跌破就空仓。

趋势策略直观、容易理解、容易回测。你很快就能看到它的真实面貌:单边上涨时能吃到大段行情,震荡市里则来回打脸。

但它的真正价值在于,它会逼你面对一系列关键的技术问题:

  • 信号按收盘价还是盘中生成?
  • 成交假设放在下一开盘还是下一收盘?
  • 均线参数该固定还是做网格搜索?
  • 空仓时持有现金还是货币 ETF?
  • 手续费和滑点会不会把微弱优势吃掉?

极简版实践: 选一只宽基 ETF(比如沪深 300 ETF),每天收盘后检查 20 日均线和 60 日均线。20 日在 60 日上方且空仓就买,跌回下方且持仓就卖。跑出净值曲线,观察最大回撤和换手频率。

做完这一轮,你得到的不是「圣杯」,而是你的第一份量化实验报告。

第二类:ETF 轮动

背后的想法是:强势资产在一段时间内可能继续强势。

做法是选几个 ETF,按过去一段时间的收益或波动率打分,定期持有得分最高的。为避免在熊市里硬选「最强的弱者」,可以加一个绝对动量过滤:标的本身收益为正时才买入,否则空仓。

轮动策略比单一趋势多了一层「横向比较」,但又没有个股多因子那么复杂。你可以快速学到组合调仓、排序逻辑、再平衡频率、换手率控制这些更贴近实际的能力。

关于多因子和机器学习

不是不能碰,但建议别当第一站。那个世界的复杂度会瞬间包围你:财务数据时效性、幸存者偏差、行业中性化、极值处理、样本穿越、特征泄露……

先把简单系统做扎实,再往那边走。

七、回测:量化里最重要,也最容易骗人的环节

量化最吸引人的地方是回测——你可以在历史上验证策略。

量化最危险的地方也是回测——一条漂亮曲线太容易让你产生错觉。

回测不是未来收益的承诺。它只是在一组历史条件下、基于一套假设做出的模拟实验。

回测的五个经典陷阱

1. 未来函数

在历史里使用了当时不可能知道的信息。比如用当日收盘价假设盘中成交,或用季报公布后的数据在公布前选股。不会报错,但会让结果好得不真实。

2. 幸存者偏差

只拿今天还存在、表现不错的标的回看过去。退市的、清盘的、边缘化的,被你无声删掉了。

3. 信号 ≠ 成交

收盘后才能确认信号,却假设当日收盘就能买入。一个细节就能让漂亮的回测大幅缩水。

4. 忽略交易成本

很多策略只在零成本的理想世界里好看。加入佣金、印花税、滑点后,从惊艳变成平庸甚至转负。

5. 过拟合

不断调参数——20 日改 23 日,再改 27 日,加各种过滤条件——直到找到一组在过去完美的参数。这组参数很可能只是「刚好适配历史数据」,并不代表发现了稳定的规律。

怎样防止自欺

成熟的回测会设计一套防自欺机制:

  • 样本内/外拆分
  • Walk-forward 滚动验证
  • 参数敏感性分析
  • 不同市场阶段对比
  • 强制加入成本和滑点
  • 固定数据版本,确保可复现

回测真正的价值不是让你兴奋,而是让你清醒。

八、怎样读懂一份回测报告

很多人看回测报告,第一眼盯着总收益率。这没错,但如果只看这个数字,很容易被误导。

一份有用的回测报告,至少要回答四个问题:

  1. 赚不赚钱?
  2. 过程难不难熬?
  3. 靠什么赚钱?
  4. 什么情况下最容易失效?

关键指标说明

指标 说明
年化收益率 长期复利增长速度。必须配合风险指标一起看
最大回撤 从高点到低点最深的坑。回撤 50% 需要涨 100% 才能回本
夏普比率 衡量收益的「平滑程度」。越高越好
卡玛比率 年化收益 / 最大回撤。衡量回撤效率
胜率 高胜率 ≠ 高收益。要同时看盈亏比
换手率 太高意味着成本被放大

一个年化 18%、最大回撤 55% 的策略,和一个年化 12%、最大回撤 12% 的策略,不能简单用收益率来判断高下。对大多数人来说,真正决定能不能长期拿住的,是亏损过程的可承受性。

成熟的报告应该包含:分年度表现、月度收益分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。

九、风控不是附属品,而是系统的一部分

很多人把风控理解成「出问题了就止损」。这太窄了。

风控不是补丁,它应该从策略设计的第一天就存在。

四层风控

第一层:仓位管理

同一策略,10% 仓位和满仓,体验完全不同。仓位管理的本质不是让收益变低,而是让你有资格活到下一次机会。

第二层:分散和暴露管理

几个看似不同的 ETF 可能高度相关。分散不是数量越多越好,而是暴露结构是否真正不同。

第三层:规则内的退出机制

什么时候减仓、空仓、停止交易、认定策略失效,都应该提前定义好。退出机制不该靠情绪临时决定。

第四层:操作和工程层面

数据更新失败怎么办?接口异常怎么办?回测结果和昨天不一致怎么办?对个人开发者来说,工程失误造成的损失可能比市场波动更大。

风控不是悲观主义,而是对复杂世界保持清醒的方式。

十、把量化当技术项目来做

如果你把量化只当成几个公式,会很快碰到天花板。真正让量化变成可持续能力的,是工程化。

项目结构

建议把量化项目组织成清晰的模块:

1
2
3
4
5
6
├── data/          # 数据采集和清洗
├── strategy/ # 策略定义
├── backtest/ # 回测引擎
├── metrics/ # 指标计算
├── report/ # 报告生成
└── config/ # 参数配置

不要把所有逻辑塞进一个 Notebook。量化项目一旦没有边界,每加一个需求都会把原来的东西拖垮。

可复现性

今天跑出来的结果,下周还能复现吗?

成熟的项目一定重视:

  • 配置文件
  • 数据版本
  • 日志输出
  • 随机种子
  • 结果归档

研究和执行分离

最好的第一阶段不是自动下单,而是:

1
每天定时更新数据 → 计算信号 → 生成报告 → 输出候选动作 → 人工确认

这样既保留了系统化,又保留了最后一道人工风控。

测试

策略代码不是能跑就行,还要能被验证。均线计算、交易日对齐、仓位更新、手续费扣除、回撤计算——这些都是可以(也应该)写测试的。

量化里最可怕的错误,不是程序崩溃,而是程序看起来正常,却在悄悄给你错误结论。

十一、一个适合个人开发者的 90 天入门路径

第一个月:跑通最简单的单策略回测

  • 选一两只宽基 ETF
  • 建立本地数据缓存
  • 写一个双均线策略
  • 跑出净值曲线、收益、最大回撤、交易记录

目标:逻辑清楚,结果可重复,能解释每笔交易为什么发生。

第二个月:升级到可比较的小平台

  • 加入 ETF 轮动策略
  • 增加参数配置文件
  • 加入样本内外拆分、交易成本和滑点
  • 生成 Markdown 或 HTML 报告

到这一步,你已经不是在「试着写个策略」,而是在做一个研究工具了。

第三个月:验证而非炫技

  • Walk-forward 验证
  • 参数敏感性分析
  • 切换不同 ETF 池子测试
  • 每天自动生成次日候选持仓

关键不是系统越来越复杂,而是复杂一点之后还能保持清晰和可解释。

三个月之后,你可能还没赚到大钱。但你会拥有一套可持续迭代的金融实验系统——这个系统本身就是你最大的收获。

十二、为什么很多回测很好看,实盘却很难受

这个问题几乎每个做量化的人都会遇到。

原因一:回测知道结局,实盘不知道。 回测里你看到完整的净值曲线,知道哪次下跌只是暂时的。实盘里未来是黑的,连续亏损三周时你不知道这是正常波动还是策略失效。

原因二:实盘比回测多了大量摩擦。 忘记更新数据、手动确认时犹豫、实际成交和假设不一致、流动性不足、节假日和系统异常。单笔看不大,长期叠加会显著改变结果。

原因三:回测时会不自觉地挑自己喜欢的结果。 不好看的参数、不好看的时段被无意识筛掉。实盘亏钱时,不是市场不讲理,而是你研究时就已经偏向了自己想看的答案。

成熟的量化,不是回测有多漂亮,而是回测和实盘之间的落差有多小。

十三、几个高频问题的真回答

零基础能学量化吗?

能。需要一组基础能力:一点 Python,一点数据处理,一点统计常识,一点交易规则理解,再加长期做项目的耐心。真正难的不是第一段代码,而是把杂乱知识拼成稳定系统。

必须先学高级数学和机器学习?

不必。入门阶段最重要的是把简单规则做正确。先学会定义问题、清洗数据、做回测、看报告、控风险。

资金小有必要做量化吗?

有。入门阶段最大的产出是方法,不是收益。小资金反而适合做实验。

要不要一开始就全自动下单?

通常不必。A 股程序化交易有明确规则和报告要求。先做研究、回测、信号输出、人工确认,就是完整闭环。

神策略能直接抄吗?

可以研究,但先问四个问题:数据口径?执行假设?成本计算?样本外成立吗?

回测不够漂亮就没价值?

不一定。真实可用的策略往往只是「逻辑清楚、回撤可控、样本外没崩」。平庸但稳定,比惊艳但脆弱更有价值。

什么时候算真正入门?

当你能完整回答这些问题的时候:

  • 系统为什么可能有效?
  • 依赖什么前提?
  • 最可能在哪里失效?
  • 成本和摩擦是什么?
  • 风险边界在哪里?
  • 失效时你怎么处理?

能回答这些,才说明你开始从「写代码的人」变成「做系统的人」。

结语

量化炒股听起来像金融技术。做久了你会发现,它训练的首先是一种思维方式:

  • 把模糊直觉翻译成清楚规则
  • 把想象中的优势放进严格验证
  • 把历史里的漂亮结果放进现实摩擦里重新审视
  • 把「我可能是对的」换成「我怎样证明自己不是在骗自己」

它不是圣杯,不会消灭亏损和焦虑。它甚至比主观交易更残酷——它会把你的错误一条条暴露出来。

但也正因如此,量化才值得学。它会逼你把交易从情绪反应变成系统工程,从运气驱动变成流程驱动。

真正的量化入门,是开始愿意承认:市场很复杂,自己会犯错,任何优势都必须经过检验,任何收益都要付出风险代价,任何系统都需要维护。

到了那一步,你写的就不再只是买卖程序,而是一套帮助自己在不确定世界里做出更稳定决策的工具。

(完)

量化炒股入门:把凭感觉买卖变成用系统做决策(Paul Graham 风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

大多数人对量化炒股的第一印象是错的。

他们想象的画面大概是这样的:几块屏幕、一堆跳动的数字、一段会自动买卖的程序。好像只要把代码写出来,钱就会自己跑进账户。这个画面并非完全荒唐,但它把最重要的东西遮住了。

量化的核心既不是神秘算法,也不是全自动赚钱。它做的事情其实很朴素:把你原来模糊的、情绪化的、临时拍脑袋的交易决定,翻译成一套可以写下来、可以检验、可以复盘、可以改进的规则。

这件事在 A 股的官方语境里其实已经说得很清楚了。证监会把程序化交易定义为「通过计算机程序自动生成或下达交易指令进行证券交易的行为」,相关规定 2024 年起施行,沪深交易所的实施细则也已落地。深交所细则明确写了,程序化交易投资者可以包括个人投资者。换句话说,量化不是什么灰色地带的玩法,而是一种有明确边界、有工程要求、也有合规要求的正规交易方式。

真正想学量化的人,第一步不应该是去找「胜率最高的指标」,也不是搜「年化 80% 的神策略」。第一步应该是建立一个认知:量化不替你思考,它只是逼你把思考变得更严格。

你原来凭感觉做的判断,在量化里必须变成明确条件。你原来靠「应该没事」硬扛的亏损,在量化里必须变成事先定义好的阈值。你原来在牛市里觉得自己是天才、在熊市里怀疑人生的那种情绪波动,在量化里都会被记录下来,然后被检验。

再直白一点说:量化不是更聪明地猜,而是更严格地执行,和更诚实地检验。它最大的价值不是立刻把你变成赚钱机器,而是逼你把「我觉得」变成「在什么条件下我会这么做,以及这么做的长期结果大概是什么」。

一、量化炒股到底是什么

如果你把交易拆开看,会发现它其实就是一串连续的问题:买什么?什么时候买?买多少?什么时候卖?亏多少停?赚多少走?什么时候该空仓?什么时候该减仓?

主观交易者通常是看到行情之后临时做决定。量化交易者则是先把这些问题回答好,再用规则和程序去执行。

区别在哪?举个最简单的例子。

一个主观交易者可能会说:「这只 ETF 最近走势不错,感觉要突破了。」

这句话看上去像判断,但仔细想想,它的信息量几乎为零。什么叫「走势不错」?什么叫「要突破」?突破到什么程度算成立?回落多少算失败?仓位是 20% 还是 100%?第二天低开怎么办?第三天反包又怎么办?

这些问题一旦没有明确答案,所谓的「交易逻辑」其实只是情绪、印象和故事的混合物。

量化做的第一件事,就是把这种模糊语言翻译成机器能理解的规则。比如把「感觉要突破」翻译成:「若收盘价创过去 60 个交易日新高,且 20 日均线向上、成交额不低于过去 20 日均值的 0.8 倍,则于下一交易日开盘买入,仓位 30%;若收盘价跌破 20 日均线则卖出。」

这套规则未必赚钱。但它比主观判断多了两个巨大的优势:第一,它可执行——任何人拿到这段描述都能做出相同操作;第二,它可回测——你能拿历史数据验证它过去的表现。

这就是量化的本质:把交易从「临场发挥」变成「规则系统」。

这个系统可以很简单——一条均线加一条止损线就够了。也可以很复杂——多因子、机器学习、组合优化、执行算法。但不管复杂还是简单,它做的始终是同一件事:用明确的规则替代模糊的直觉。

所以量化不天然等于高深,也不天然等于 AI。它首先是一种方法论,其次才是技术栈。

进一步说,量化也不只管「什么时候买卖」。一个成熟的量化系统至少包含四层。第一层是研究层,负责提出假设:市场里可能存在什么规律。第二层是验证层,用历史数据检验假设是否成立。第三层是执行层,把信号转成实际订单。第四层是风控层,在系统出错、市场异常、模型失效时保护你的账户。

大多数人以为量化的核心是公式。其实真正拉开差距的,是公式背后的系统设计能力。

二、为什么很多人一听量化就误解

关于量化,市场里最常见的误解有四种。有趣的是,这四种误解恰好构成了一条完整的错误认知链。

第一种误解:量化等于人工智能。

很多人觉得,好像只有用了神经网络、深度学习、强化学习,才配叫量化。这完全不对。大量真实可用的量化策略都非常朴素——趋势跟随、资产轮动、均值回归、再平衡、事件驱动。它们可能根本没用到任何复杂模型,但只要规则明确、可回测、可执行、可管理风险,就是量化。

很多初学者一上来就想做「AI 选股」,结果连数据清洗、信号定义、交易成本、样本外验证都没弄清楚,项目就已经烂尾了。这就像一个还没学会走路的人非要去练跑酷。

第二种误解:量化等于高频交易。

高频交易确实属于量化的一部分,但它只是量化世界里非常窄的一个分支。高频强调的是超低延迟、海量订单、微观结构优势,这些东西需要专业级的基础设施。沪深交易所已经给出了明确的高频交易认定标准:单个账户每秒申报撤单达到 300 笔以上,或单日达到 20000 笔以上。

这个标准其实反过来提醒了初学者一件事:你没必要幻想自己在跟机构比速度。你真正该练的是规则设计、数据处理、回测纪律和风控能力。个人投资者真正适合做的,是日频或周频的中低频策略。

第三种误解:量化天然比主观交易更客观。

这个误解尤其危险,因为它听上去很有道理。程序确实能减少情绪干扰,但程序不会自动消灭人的偏见。你用什么数据、怎么做复权、如何定义信号、有没有偷看未来数据、回测里是否忽略了滑点和手续费、参数是不是被你调到了「刚好对历史最有效」的位置——这些偏差,程序一个都帮不了你。

换句话说,量化并不消灭自欺欺人。它只是把自欺欺人的方式从「拍脑袋」升级成了「写代码骗自己」。

第四种误解:量化是一劳永逸的赚钱机器。

很多人以为,只要找到一套历史上有效的规则,往后就能自动印钞。这种想法非常危险。市场环境会变,资金结构会变,交易制度会变,流动性会变,策略拥挤度会变,甚至你依赖的数据接口和口径也可能变。

量化系统不是修好就不用动的水龙头。它更像一台需要持续校准、持续维护、持续复盘的实验装置。没有你想象中那么浪漫,但比你以为的更接近真实世界的运行方式。

三、一个量化系统到底长什么样

想真正学会量化,最重要的不是背几个指标名称,而是先在脑子里形成一张系统地图。你可以把量化系统想象成一条流水线,每一段解决不同的问题。

数据层。 没有数据,量化连起步都不可能。你至少需要行情数据、交易日历、标的信息、复权信息。有些策略还需要财务数据、指数成分、公告事件、行业分类。但数据层真正要解决的问题,不是「有没有数据」,而是「数据是否干净、连续、口径一致,是否能还原当时真实可得的信息」。

策略层。 这里负责把想法翻译成信号。你认为趋势会延续?那就把「趋势」定义清楚。你觉得强者恒强?那就把「强」转成一个可以排序的指标。你相信均值回归?那就把「偏离程度」写成公式。策略层做的不是「编一个故事」,而是「写一条条件链」。

组合层。 很多人一开始只关心「买什么」,却忽略「买多少」。但实际上,仓位管理往往比选标的更重要。你是单标的全仓,还是多标的等权,还是按波动率调整仓位,还是设置行业暴露上限?这些选择会显著影响最终结果。组合层回答的是:即便信号正确,我该以什么方式去承接这个判断。

执行层。 信号不是成交。成交也未必是你回测里设想的价格。你是收盘生成信号、下一开盘成交,还是假设收盘价成交?你考虑了滑点吗?考虑了成交量约束吗?考虑了无法买入或卖出的异常情况吗?执行层不光鲜,但它决定了你的研究离真实世界有多远。

风控与复盘层。 成熟的系统不仅要抓机会,还要限制错误。单日亏损过大是否触发降仓?组合回撤是否触发停机?数据更新失败时是否自动中止?异常行情时是否切回人工确认?还要有报告和日志,让你知道每天为什么买、为什么卖、为什么没动。

没有复盘,量化就不是系统,而只是自动化的冲动。

真正好的量化项目,未必起步复杂,但一定结构清楚。你哪怕只做一只 ETF 的双均线策略,只要把这五层都想明白,学到的东西也远比「抄来一段神奇代码」多得多。

四、为什么 A 股新手更适合从 ETF 开始

我的建议是:先别碰个股量化,先从 ETF 做起。

不是因为个股不值得做,而是因为 ETF 更适合当第一块实验台。它天然帮你平滑掉了很多个股层面的极端事件:业绩爆雷、黑天鹅、停牌复牌断层、题材股瞬间熄火、ST 和退市风险。你在 ETF 上先把数据、回测、信号、报告打通,学习效率会高很多。

还有一个经常被忽略的原因。对初学者来说,研究系统本身比追求 alpha 更重要。

个股策略会很快把你拖进一个复杂世界——股票池怎么选?财务数据用季度值还是滚动值?调仓日和财报发布日期怎么对齐?停牌怎么办?涨跌停买卖不了怎么办?分红送转怎么处理?成分股变更怎么回溯?这些问题都值得学,但它们更适合当第二阶段的课题。

ETF 的好处在于,你可以很快跑出一个完整闭环:下载数据、计算信号、生成持仓、跑净值曲线、算指标、做报告、再做样本外验证。对个人开发者来说,这种「先把小系统跑起来」的成就感至关重要。量化最怕的不是策略差,而是工程项目起得太大,最后什么都没做完。

在 A 股语境里,这种路径也更务实。证监会发布程序化交易管理规定时明确提出「先报告、后交易」,要求投资者按规定报告账户、资金、交易、软件等信息后才可进行程序化交易。对刚入门的人来说,最合适的路径不是一上来就做「无人值守自动报单」,而是先做研究、回测、信号输出、日报生成,再逐步走向半自动决策支持。

把合规意识放在项目初期,比等到准备实盘时再补课要稳得多。

五、数据:量化的地基,也是最大的坑

量化世界里有句老话:垃圾进,垃圾出。

几乎所有初学者都会在数据层吃亏。大多数人把精力花在「策略公式」上,却发现真正决定结果有没有意义的,反而是一些琐碎的细节:交易日是不是对齐了?复权是不是正确?停牌日期有没有空缺?代码映射是否稳定?历史数据有没有重复?某些字段在当时到底能不能拿到?

以 Tushare Pro 为例,它的文档分别提供了 trade_cal 交易日历接口、fund_daily ETF 日线接口、fund_adj 基金复权因子接口。A 股日线接口则明确说明,默认是未复权行情,且停牌期间不提供数据。

这些看上去只是 API 说明,但对量化来说它们几乎是生死线:忘了复权,趋势信号会被分红拆分扭曲;没意识到停牌期间没数据,回测时就可能把「没交易」误当成「价格稳定」;没用交易日历做对齐,不同标的之间的比较就会错位。

很多人一听「复权」就觉得头大。其实复权一点不高深。它只是告诉你:历史价格必须放在同一把尺子上看。如果一只基金分了红,或者一只股票送了股,你不做处理,价格图会突然断一截。而你的策略如果是基于均线、涨跌幅、突破或动量算出来的,它们就会被这次「假断层」误导。结果不是你找到了无敌策略,而是你让错误数据制造了虚假信号。

还有一个容易被忽略的问题:点时可得性。也就是说,你在某个交易日做决策时,到底能看到哪些信息?比如某份财报 4 月 30 日才发布,那你在 4 月 10 日的回测里就不能用其中的数据;某只股票后来被剔出指数,也不代表你可以假装当时就知道它会被剔除。

量化里最值钱的一种诚实,就是承认:当时的你,不知道后来发生的事。

对个人开发者还有一条极其实用的原则:建立本地缓存。不要每次研究都重新在线拉取全部历史数据,也不要让策略直接耦合外部接口。最稳妥的做法是把数据源当「采集器」,把本地 Parquet 或 SQLite 当「真相源」。先落地、清洗、标准化,再由回测模块读取。这样不仅更快,更重要的是可复现——今天的结果、下周的结果、三个月后的结果,至少能在同一份数据快照上讲得通。

最后提醒一句:数据问题不是「前面解决一次就没事了」。每引入一种新资产、新频率、新字段,数据问题都会重新出现。成熟的量化思维不是默认数据没问题,而是默认数据「迟早会出问题」,所以系统里必须给校验、缺失处理、更新日志和异常中止留出位置。

六、新手最值得先掌握的两类策略

「到底先学哪种策略?」这大概是入门者最焦虑的问题。

我的建议很简单:先学趋势,再学轮动。不是因为它们一定最赚钱,而是因为它们最适合当学习框架。

第一类:趋势跟随。

最典型的代表是双均线策略。规则非常朴素:短周期均线向上穿过长周期均线时买入,反向跌破时卖出。或者更简单——收盘价站上某条长期均线就持有,跌破就空仓。

趋势策略直观、容易理解、容易回测。你很快就能看到它真正的优缺点:单边上涨时能吃到大段行情;震荡市里则来回打脸,反复被「洗」。

但趋势策略真正的价值不在于它本身能赚多少,而在于它会逼你思考一系列关键问题:信号按收盘价生成还是盘中生成?成交假设放在下一开盘还是下一收盘?均线参数应该固定还是做网格搜索?空仓时持有现金还是货币 ETF?手续费和滑点会不会把微弱优势吃掉?

一个看似简单的双均线策略,已经足够把量化研究的大多数基本功带出来。

你可以从一个极简版本开始:只研究一只宽基 ETF,每天收盘后检查 20 日均线和 60 日均线。20 日在 60 日上方且当前空仓,就下一交易日开盘买入;20 日跌回 60 日下方且当前持仓,就下一交易日开盘卖出。然后观察净值曲线、最大回撤、换手频率、震荡市表现、趋势市表现。做完这一轮,你得到的不是「圣杯」,而是第一份真正属于自己的量化实验报告。

第二类:ETF 轮动。

背后的想法是:强势资产在一段时间内可能继续强势,弱势资产可能继续弱势。选几个宽基、行业或风格 ETF,按过去 20 日、60 日、120 日的收益或波动率打分,然后在固定周期内持有得分最高的一只或几只。为了避免「在熊市里硬选最强的弱者」,还可以加一个绝对动量过滤:只有入选标的本身收益为正或站在长期均线上方时,才允许买入,否则空仓。

轮动策略比单一趋势多了一层「横向比较」,但又没有个股多因子那么复杂。你可以很快学会组合调仓、排序逻辑、持仓上限、再平衡频率、换手率控制、候选池设计。更重要的是,轮动会让你意识到:量化不是「预测一切」,而是在有限标的中做相对更优的选择。

至于多因子选股和机器学习选股——我不是说不能碰,但别当第一站。一旦进入那个世界,你立刻会被包围:财务数据点时可得性、幸存者偏差、行业中性化、极值处理、缺失值填补、样本内外穿越、标签定义、特征泄露……这些不是「多看几篇教程」就能跨过去的。

真正高效的路径,通常不是一上来就堆模型,而是先把一个简单系统做扎实。

七、回测:量化里最重要,也最容易骗人的环节

量化最吸引人的地方,是它可以回测。量化最危险的地方,也恰恰在于此。

一条漂亮的历史净值曲线,很容易让人产生错觉:既然过去这么有效,未来应该也差不多。但回测不是未来收益的承诺。它只是你在一组历史条件下、基于一套明确假设做出的模拟实验。

这句话听上去平淡无奇,但你真的理解它之后,整个量化认知会上一个台阶。回测问的不是「这套策略能不能赚钱」,而是「如果过去按这套规则交易,在我设定的成交、成本、数据和风险假设下,会发生什么」。注意关键词:过去、规则、假设。改掉任意一个前提,结论都可能完全不同。

回测里有五个经典陷阱。

第一,未来函数。 你在历史里偷偷使用了当时不可能知道的信息。比如当日收盘后才能确定的价格,却被假设成盘中就能成交;季报公布之后的数据,被提前用于公布之前的选股;多年后才知道「哪些 ETF 活到了今天」,却拿这个名单去做过去的策略。未来函数不会让代码报错,但会让结果好得不真实。

第二,幸存者偏差。 你拿今天还存在、还活跃、表现还不错的标的去回看过去,于是得到一个漂亮的历史结论。但那些中途退市、清盘、边缘化的标的,已经被你无声地删掉了。

第三,信号和成交混淆。 很多人回测时默认「看到信号就按当日收盘买入」。但现实中你通常收盘后才能确认信号,所以更合理的假设是「下一交易日开盘成交」。就这一个细节,就能让很多漂亮的回测收益大幅缩水。

第四,忽略交易成本。 很多策略优势本来就不厚,只是在「零成本、零摩擦」的理想世界里才显得出色。一旦加入佣金、印花税、买卖价差、滑点和换手率约束,策略就从「惊艳」变成「平庸」,甚至直接转负。

第五,过拟合。 你不断调参数——20 日均线改 23 日,再改 27 日,加成交量过滤,再加波动率阈值。最后终于找到一组在 2017 到 2024 年特别好看的参数组合。问题是,这组参数可能只是「刚好适配过去」,并不代表它抓住了稳定的市场规律。过拟合最坏的地方在于,它会给你一种「我找到答案了」的心理奖励,恰恰让你最难承认自己只是在对历史做修辞。

所以,成熟的回测不只是「跑出一张净值图」,而是设计一整套防自欺的机制:样本内外拆分、walk-forward 滚动验证、参数敏感性分析、不同市场阶段对比、强制加入成本和滑点、数据版本固定以确保可复现。

回测真正的价值,不是让你兴奋,而是让你清醒。

八、怎样读懂一份回测报告

大多数人看到回测结果,第一眼盯的永远是总收益率。这没错,但如果你只看这一个数字,很容易被误导。

一份真正有用的回测报告,至少要同时回答四个问题:赚不赚钱?难不难拿?靠什么赚钱?在什么情况下最容易失效?

关于收益。 年化收益率当然重要。但任何收益率都必须放在风险背景里看。一个年化 18%、最大回撤 55% 的策略,和一个年化 12%、最大回撤 12% 的策略,不能用「18 大于 12」的小学算术来判断高下。对大多数人来说,真正决定能不能长期拿住的,不是收益上限,而是亏损过程的可承受性。

关于回撤。 最大回撤是最核心的指标之一——账户历史中从高点跌到低点最深的那次。很多人口头上说能接受大回撤,实际一到连续下跌就崩溃。回撤最残酷的地方在于它不是线性恢复的:回撤 10% 需要涨 11% 回本,回撤 20% 需要涨 25%,回撤 50% 需要涨 100%。一旦真正理解这件事,就会明白风控不是保守,而是复利的前提。

关于夏普、波动率、卡玛比率。 这些指标不是提供一个神奇评分,而是帮你判断收益的平滑程度和回撤效率。一个策略如果收益很高但过程像心电图一样剧烈抽搐,真实持有中的心理成本会非常高。很多人不是被市场打败,而是被自己的情绪打败。

关于胜率。 高胜率不等于高收益。一个策略可能 80% 的交易都在小赚,但剩下 20% 会把盈利全吃回去。另一个策略可能只有 35% 的胜率,却靠少数大赚覆盖大量小亏。比起单看胜率,更有意义的是同时看盈亏比、期望值、单笔收益分布、连续亏损次数。量化真正值得研究的,从来不是「赢了几次」,而是「赢的时候赢多少,输的时候输多少,长期下来值不值得做」。

关于换手率。 很多回测很惊艳,问题出在太「忙」了——今天买明天卖后天再买。成本、滑点、执行偏差和心理疲劳都会被高频切换放大。对个人投资者来说,低频、稳定、能解释的策略,往往比高频、炫目的策略更适合长期推进。

真正成熟的回测报告,不只是一张总表,还应该有分年度表现、月度收益分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。你不是在挑一张好看的图片,而是在判断一台系统值不值得继续投入时间和资金。

九、风控不是附属品,而是系统的一部分

很多初学者把风控理解成「出了问题就止损」。这太窄了。

风控不是补丁。它应该从策略诞生那一刻起就和策略长在一起。你设计的不是「怎样赚」,而是「怎样在可能赚钱的同时不被轻易打死」。

第一层:仓位。 同一套策略,10% 仓位和满仓运行,给人的体验完全不同。很多人不是败在策略上,而是败在仓位不匹配自己的承受能力。仓位管理的本质不是让收益变低,而是让你有资格活到下一次机会。市场不会因为你亏了就停下来等你。能否留在桌上,决定你有没有复利的可能。

第二层:分散和暴露管理。 哪怕只做 ETF,也不意味着可以随便堆仓。几个看似不同的 ETF,背后可能高度相关。几个看似分散的方向,真正下跌时可能一起跌。分散不是数量越多越好,而是暴露结构是否真正不同。量化风控要做的,是让组合知道自己到底押了什么。

第三层:规则内的退出机制。 什么时候减仓?什么时候空仓?什么时候停止交易?什么时候认定策略失效?这些都应该尽量前置。我不是鼓励用极端紧的止损把系统剪碎,而是提醒你:退出机制不该靠情绪临时决定。你可以用价格、波动率、回撤、相关性、信号反转甚至系统错误率来定义退出,但最好不要让「再等等看」成为默认选项。

第四层:操作和工程层面的风控。 数据更新失败怎么办?接口异常怎么办?某只标的停牌怎么办?回测结果突然和昨天不一致怎么办?信号生成后人工复核发现异常怎么办?这些不是「技术细节」,而是实打实的风险来源。对个人开发者来说,工程失误、参数写错、数据污染、逻辑错误,同样足以造成真实损失。

风控不是悲观主义。它是对复杂世界保持清醒的方式。你不是在证明自己永远正确,而是在提前承认自己一定会犯错,并为错误设计边界。

十、把量化当技术项目来做,才会越做越稳

如果你把量化只当成「几个买卖公式」,你会很快碰到天花板。真正让量化变成可持续能力的,是工程化。

这一点对个人开发者格外重要。你不是坐在机构里,有现成平台、数据团队、运维团队和执行团队。你得自己搭系统。

项目结构要清晰。 数据采集一层,数据清洗一层,策略定义一层,回测引擎一层,指标计算一层,报告生成一层,入口又是一层。不要把所有逻辑塞进一个 Notebook,更不要把下载数据、计算信号、画图、出报告混成一锅。量化项目一旦没有边界,后续每加一个需求都会把原来的东西拖垮。

结果要可复现。 今天跑出来的结果,下周还能不能复现?换一台电脑、换一个数据目录、换一个参数文件,你还知道自己改了什么吗?成熟的量化项目一定重视配置文件、数据版本、日志输出、随机种子、结果归档。因为一旦认真复盘,最痛苦的不是亏损,而是「我不知道自己为什么得到这个结果」。

研究和执行要分开。 研究模块提出和验证假设,执行模块把假设翻译成操作流程。对个人开发者来说,最好的第一阶段不是自动下单,而是每天定时更新数据、计算信号、生成报告、输出候选动作,再由人工确认。这样既保留了系统化,又保留了最后一道人工风控。等系统足够稳定,再逐步提高自动化程度。

要对测试有敬畏心。 策略代码不是写出来能跑就行,还要能被验证。均线算得对不对?交易日对齐对不对?仓位更新对不对?手续费有没有重复扣?回撤计算是否准确?量化里最可怕的一类错误,不是程序报错,而是程序看起来正常运行,却在悄无声息地给你错误结论。

从这个意义上说,量化最迷人的地方在于它是交易、数据、统计、工程和自我管理的交叉点。你做得越久越会发现:会写策略的人很多,能把系统搭稳的人并不多。

十一、一个适合个人开发者的 90 天入门路径

如果你真的准备开始,我建议用「三个月做出一个小闭环」的思路,而不是「半年做出顶级系统」的幻想。个人项目最怕贪大。最有效的方式永远是先跑通,再做深。

第一个月:跑通最简单的单策略回测。 选一两只宽基 ETF,建立本地数据缓存,写一个最简单的双均线策略,跑出净值曲线、收益、最大回撤和交易记录。这个阶段不追求策略多强,只要系统逻辑清楚、结果能重复、你能解释每一笔交易为什么发生,就算成功。

第二个月:从单策略实验升级到可比较的小平台。 加入一个 ETF 轮动策略,增加参数配置文件,加入样本内外拆分、交易成本和滑点,生成 Markdown 或 HTML 报告,自动输出关键指标、年度收益、回撤区间和交易摘要。到这一步,你已经不是在「试着写个策略」,而是在做一个研究工具了。

第三个月:验证而非炫技。 做 walk-forward 验证,尝试参数敏感性分析,把策略切到不同 ETF 池子测试,尝试每天收盘后自动生成次日候选持仓建议。这个阶段最重要的不是让系统越来越复杂,而是看它在复杂一点之后,能不能保持清晰、稳定和可解释。

三个月之后,你很可能还没赚到什么大钱。但你会拥有一个真正重要的东西:一套可以持续迭代的金融实验系统。接下来无论学因子、学选股、学组合优化还是学风险模型,都会站在一个坚实得多的起点上。

十二、为什么很多回测很好看,实盘却很难受

这个问题几乎每个做量化的人都会遇到。答案没有那么神秘。

回测面对的是「已经发生的世界」。你看到完整的净值曲线,知道哪里只是暂时下跌,哪里后来会创新高,哪里虽然痛苦但扛一扛就过去了。

实盘面对的是「正在发生、而你不知道结局的世界」。连续亏损三周时,你不知道这是正常波动还是策略永久失效的开端。一段漂亮上涨之后,你也不知道它是趋势起点还是最后的疯狂。量化能减少情绪,但不能消灭不确定性。

另一个原因是实盘比回测多了大量摩擦。你可能忘了更新数据,可能手动确认时犹豫,可能实际成交价和假设不一致,可能碰上流动性不足,可能因为节假日、停牌、系统异常影响执行。单笔看不大,长期叠加却会显著改变结果。

还有一个不太被承认但很关键的原因:人在回测时会不自觉地挑自己喜欢的东西。你可能无意识地筛掉了不好看的参数、不好看的时段、不好看的样本,只留下了符合预期的部分。实盘亏钱时,不是市场突然不讲理了,而是你研究时就已经偏向了自己想看的答案。

所以,实盘和回测之间最重要的桥梁,不是「找更强的策略」,而是让回测假设更接近真实、让执行流程更接近纪律、让自己对亏损的心理预期更接近现实。

真正成熟的量化,不是回测有多漂亮,而是回测和实盘之间的落差有多小。

十三、几个高频问题的真回答

零基础能学量化吗?

能。但别指望靠看几篇文章就进入盈利阶段。量化需要的是一组基础能力:一点 Python,一点数据处理,一点统计常识,一点交易规则理解,再加一点长期做项目的耐心。真正难的不是第一段代码,而是把杂乱知识拼成稳定系统。

是不是必须先学高级数学和机器学习?

不是。入门阶段最重要的能力不是推导更复杂的公式,而是把简单规则做正确。先学会定义问题、清洗数据、做回测、看报告、控风险,再去追求模型复杂度。很多人不是输在「不会高级数学」,而是输在「不会老老实实做基础工作」。

资金小还有必要做量化吗?

有必要。对大多数个人投资者来说,量化入门阶段最大的产出不是收益,而是方法。小资金反而适合做实验、练系统、练执行、练复盘。把它当成一门工程实践,收获会比「立刻赚到多少钱」更扎实。

要不要一开始就做全自动下单?

通常没必要。尤其在 A 股环境下,程序化交易有明确的规则框架和报告要求。先做研究、回测、信号输出、人工确认,已经是完整闭环了。自动化不应当是「显得高级」的装饰,而应当是系统足够稳定后顺理成章的结果。

神策略能不能直接抄?

可以研究,但不要直接信。任何公开策略,哪怕思路没问题,也要先问四个问题:数据口径是什么?执行假设是什么?成本怎么算?样本外是否成立?很多「公开神策略」最厉害的地方,不是它真的无敌,而是它省略了最容易让结果变差的细节。

回测不够漂亮,是不是就说明策略没价值?

不一定。很多新手只想看「极致漂亮」的曲线,结果反而被过拟合骗走。一个真实可用的策略,很多时候只是「没那么惊艳,但逻辑清楚、回撤可控、样本外没崩、能长期拿住」。量化世界里,平庸但稳定,常常比惊艳但脆弱更有价值。

什么时候才算真正入门?

不是你第一次写出策略的时候,也不是你第一次回测盈利的时候。而是你第一次能完整回答这些问题的时候:这套系统为什么可能有效?它依赖什么前提?它最可能在哪里失效?成本和摩擦是什么?风险边界在哪里?失效时你准备怎么处理?

能回答这些,才说明你开始从「写代码的人」变成「做系统的人」。

结语

量化听起来像金融技术。做久了你会发现,它首先是在训练一种思维方式。

把模糊的直觉翻译成清楚的规则。把想象中的优势放进严格的验证。把历史里的漂亮结果放进现实摩擦里重新审视。把「我可能是对的」换成「我怎样证明自己不是在骗自己」。

它不是圣杯,不会消灭亏损和焦虑。它甚至会比主观交易更残酷,因为它会把你的错误一条条暴露出来,让你没法轻易用「这次运气不好」糊弄过去。

但也正因如此,量化才值得学。它会逼你把交易从情绪反应变成系统工程,把运气驱动变成流程驱动,把一时冲动变成长期可复盘的能力。

真正的量化入门,不是背会更多术语,也不是找到一套神秘公式。而是开始愿意承认:市场很复杂,自己会犯错,任何优势都必须经过检验,任何收益都要付出风险代价,任何系统都需要维护。

到了那一步,你写的就不再只是买卖程序,而是一套帮助自己在不确定世界里做出更稳定决策的工具。

而这,才是量化最有价值的地方。

量化炒股入门:把凭感觉买卖变成用系统做决策(Morgan Housel 风格)

发表于 2026/03/15 | 分类于 AI专题

量化炒股入门:把凭感觉买卖变成用系统做决策

本文仅供学习交流,不构成投资建议。

1990 年代末,长期资本管理公司(LTCM)的合伙人们拥有当时金融世界里最强大的头脑——两位诺贝尔经济学奖得主、一群顶尖数学家和物理学家、一套精密到令人敬畏的量化模型。然后他们差点炸掉整个金融体系。

这个故事通常被当作量化的反面教材。但它真正说明的不是量化无用,而是量化最深层的教训:模型能告诉你概率,但不能替你承受后果。

很多人第一次听到「量化炒股」,脑子里浮现的是几块屏幕、跳动的数字、一个自动赚钱的程序。这个画面有一半是对的——量化确实涉及程序和数据。但它遮住了真正重要的另一半。

量化的核心,不是找到一个神秘公式,而是把原本模糊的、情绪化的、临场拍板的交易行为,变成一套可以写下来、可以检验、可以复盘、可以迭代的规则系统。

在 A 股的官方语境里,这件事的边界其实已经画得很清楚。证监会把程序化交易界定为「通过计算机程序自动生成或下达交易指令进行证券交易」,相关规定于 2024 年施行,沪深交易所实施细则也已落地。深交所细则明确,个人投资者也可以进行程序化交易。量化不是什么灰色地带,而是一种有明确规则、有合规要求的交易方式。

但这里有一个很多人会忽视的心理学事实:人们学量化的动机,往往不是「我想让决策更系统」,而是「我想找到一种更确定的赚钱方式」。这两者之间的区别,比大多数人以为的要大得多。

量化不是替你消灭不确定性。它只是把你面对不确定性时的反应,从「拍脑袋」换成了「按规则来」。你原来凭感觉做的判断,在量化里必须变成明确条件。你原来靠「应该问题不大」硬扛的亏损,在量化里必须变成事先定义好的风险阈值。你原来在行情好时无所不能、行情差时怀疑人生的情绪波动,在量化里会被一条条记录下来,然后被检验。

说得再直白一点:量化不是更聪明地猜,而是更严格地执行,和更诚实地检验。它最大的价值不是立刻把你变成赚钱机器,而是逼你把「我觉得」变成「在什么条件下我会这么做,以及这么做的长期结果大概是什么」。

一、量化炒股到底是什么

把交易这件事拆开看,它其实由一串连续的决定组成:买什么,什么时候买,买多少,什么时候卖,亏多少停,赚多少走,什么时候该空仓,什么时候该降低仓位。

主观交易者通常是看到行情之后临时做决定。量化交易者则是先把这些问题回答好,再用规则和程序去执行。

举一个简单的例子就能看出区别。

一个主观交易者说:「这只 ETF 最近走势不错,感觉要突破了。」这句话听上去像判断,但它经不起追问。什么叫「走势不错」?什么叫「要突破」?突破到什么程度算成立?回落多少算失败?仓位该放多大?第二天低开怎么办?这些问题一旦没有答案,所谓的「交易逻辑」,其实只是情绪、印象和叙事的混合物。

量化的第一步,就是把模糊语言翻译成规则语言。把「感觉要突破」翻译成:「若收盘价创过去 60 个交易日新高,且 20 日均线向上、成交额不低于过去 20 日均值的 0.8 倍,则于下一交易日开盘买入,仓位 30%;若收盘价跌破 20 日均线则卖出。」

这套规则未必赚钱。但它有两个主观判断没有的优点:它可执行,它可回测。

这就是量化的本质——把交易从临场发挥转成规则系统。系统可以简单到一条均线,也可以复杂到多因子加机器学习。但不论复杂还是简单,它做的始终是同一件事:用明确规则替代模糊直觉。

量化不天然等于高深,也不天然等于 AI。它首先是方法论,其次才是技术栈。

一个成熟的量化系统至少包含四层。研究层负责提出假设——市场里可能存在什么规律。验证层用历史数据检验假设是否成立。执行层把信号转成订单。风控层在系统出错、市场异常、模型失效时保护账户。

很多人以为量化的核心是公式。其实真正拉开差距的,是公式背后的系统设计能力。这就像写小说,文笔当然重要,但真正分高下的是结构。

二、为什么很多人一听量化就误解

关于量化的误解,最常见的有四种。它们之所以流行,是因为每一种都迎合了人们心中某种关于确定性的渴望。

第一种:量化等于人工智能。 好像只有用了深度学习、神经网络,才算量化。事实上,大量真实可用的量化策略都很朴素——趋势跟随、资产轮动、均值回归、再平衡、事件驱动。它们可能根本没用到复杂模型,但只要规则明确、可回测、可执行、可管理风险,就是量化。

很多初学者一上来就想做 AI 选股,结果连数据清洗和信号定义都没弄清楚就放弃了。这就像一个人想建摩天大楼,但连地基怎么打都不知道。

第二种:量化等于高频交易。 高频交易确实是量化的一个分支,但它只是很窄的一支。高频强调超低延迟、海量订单、微观结构优势,需要专业级基础设施。沪深交易所已给出明确认定标准:单个账户每秒申报撤单达 300 笔以上,或单日达 20000 笔以上。

这个标准反过来提醒初学者:你没必要想象自己在和机构拼速度。个人投资者真正适合做的,是日频或周频的中低频策略。你该练的是规则设计、数据处理、回测纪律和风控能力。

第三种:量化天然比主观更客观。 这个误解尤其微妙。程序确实减少了情绪干扰,但程序不会自动消灭偏见。你用什么数据、怎么做复权、如何定义信号、有没有偷看未来数据、回测里忽略了多少成本——这些偏差不会因为你写了代码就消失。

量化并不消灭自欺欺人。它只是把自欺欺人的方式,从「拍脑袋」升级成了「写代码骗自己」。这听起来很讽刺,但这恰恰是量化最值得敬畏的地方。

第四种:量化是一劳永逸的赚钱机器。 很多人以为找到一套过去有效的规则,就能自动印钞。但市场环境会变,资金结构会变,交易制度会变,流动性会变,策略拥挤度会变。

1987 年,投资组合保险策略在理论上完美无缺。直到黑色星期一那天,所有使用这个策略的机构同时执行同一方向的操作,策略本身成了崩盘的放大器。一个完美的系统,被它自己的流行毁掉了。

量化系统不是修好就永远不用动的水龙头。它更像一台需要持续校准、持续维护的实验装置。

三、一个量化系统到底长什么样

学量化,最重要的不是背指标名称,而是先在脑子里形成一张系统地图。你可以把量化系统想象成一条流水线,五段各有分工。

数据层是地基。你至少需要行情数据、交易日历、标的信息、复权信息,有些策略还需要财务数据、指数成分等。数据层解决的问题不是「有没有数据」,而是「数据是否干净、连续、口径一致,是否能还原当时真实可得的信息」。

策略层负责把想法翻译成信号。你认为趋势会延续?那就把「趋势」定义出来。你认为强者恒强?那就把「强」转成可排序的指标。策略层做的不是「讲一个好听的故事」,而是「写一条严格的条件链」。

组合层回答的是「买多少」。很多人只关心买什么,却忽略了仓位管理。但实际上,你是全仓还是等权,是按波动率调整还是设置行业暴露上限,这些选择对最终结果的影响,往往比选哪只标的更大。

执行层决定了研究离现实有多远。信号不等于成交。你是收盘生成信号、下一开盘成交?考虑了滑点吗?考虑了成交量约束吗?这一层不光鲜,但至关重要。

风控与复盘层负责限制错误。单日亏损过大是否触发降仓?数据更新失败时是否自动中止?还要有日志和报告,让你知道今天的每一个操作是什么原因触发的。没有复盘,量化就不是系统,只是自动化的冲动。

好的量化项目未必复杂,但一定结构清楚。哪怕只做一只 ETF 的双均线策略,把这五层想明白,收获也远比抄一段代码多得多。

四、为什么 A 股新手更适合从 ETF 开始

我见过太多人在学量化的第一天就想做个股选股。他们的热情可以理解,但路径选错了。

ETF 更适合当第一站,不是因为个股不值得做,而是因为 ETF 帮你隔离了太多新手不该同时处理的复杂性:业绩爆雷、黑天鹅事件、停牌复牌断层、题材股瞬间熄火、ST 和退市风险。你在 ETF 上先把数据、回测、信号、报告的完整闭环打通,学习效率会高很多。

还有一个更深层的原因。对初学者来说,研究系统本身比追求 alpha 重要得多。

个股策略会迅速把你拖进复杂度漩涡——股票池怎么选?财务数据用季度值还是滚动值?调仓日和财报发布如何对齐?停牌怎么处理?涨跌停限制怎么应对?分红送转怎么处理?成分股变更怎么回溯?

这些都值得学。但它们更适合当第二阶段的课题。

ETF 更像一块实验台。你可以很快做出完整闭环:下载数据、计算信号、生成持仓、跑净值曲线、算指标、做报告、做样本外验证。对个人开发者来说,「先把小系统跑起来」的成就感至关重要。量化最怕的不是策略差,而是工程项目起得太大,最后什么都没做完。

在 A 股语境里,这也更符合合规逻辑。证监会发布程序化交易管理规定时提出「先报告、后交易」,要求投资者先报告相关信息后方可进行程序化交易。对入门者来说,先做研究、回测、信号输出、日报生成,再逐步走向半自动决策支持,把合规意识放在项目初期,系统设计会更稳。

五、数据:量化的地基,也是最大的坑

垃圾进,垃圾出。这句话在量化世界里被说了无数遍,依然有几乎所有初学者在数据层吃亏。

原因很简单:大多数人把精力花在策略公式上,却发现真正决定结果有没有意义的,是一些看似琐碎的细节——交易日有没有对齐,复权是不是正确,停牌日有没有空缺,代码映射是否稳定,某些字段在当时是否真的可得。

以 Tushare Pro 为例,它的文档提供了 trade_cal 交易日历接口、fund_daily ETF 日线接口、fund_adj 基金复权因子接口。A 股日线 daily 文档明确说明默认是未复权行情,停牌期间不提供数据。

这些看起来只是 API 说明。但对量化来说,它们是生死线级别的细节。忘了复权,趋势信号会被分红扭曲。没意识到停牌期间没数据,回测时就可能把「没交易」误当成「价格稳定」。没用交易日历对齐,不同标的之间的对比就会错位。

复权听起来高级,其实一点都不复杂。它只是告诉你:历史价格必须放在同一把尺子上看。基金分红或股票送转之后,你不做处理,价格图上会突然出现一个断层。如果你的策略基于均线、涨跌幅、突破或动量,就会被这个假断层误导。你以为自己找到了无敌策略,其实只是让错误数据制造了虚假信号。

还有一个极易被忽略的概念:点时可得性。你在某个交易日做决策时,到底能看到哪些信息?如果某份财报 4 月 30 日才发布,你在 4 月 10 日的回测里就不能用它的利润数据。某只股票后来被剔出指数,不代表你可以假装当时就知道它会被剔除。

这里有一个关于人性的深刻洞察:人类天然不擅长假装自己不知道已经知道的事情。但量化要求你恰恰做到这一点。量化里最值钱的一种诚实,就是承认「当时的你,不知道后来发生的事」。

对个人开发者来说还有一条实用原则:建立本地缓存。不要每次都在线拉取全部数据,不要让策略直接耦合外部接口。把数据源当采集器,把本地 Parquet 或 SQLite 当真相源。先落地、清洗、标准化,再由回测模块读取。这样不仅更快,更重要的是可复现。

数据问题不是解决一次就没事了。每引入新资产、新频率、新字段,问题都会重新出现。成熟的量化思维不是默认数据没问题,而是默认数据「迟早会出问题」。

六、新手最值得先掌握的两类策略

「到底先学哪种策略?」这是入门者最焦虑的问题。

我的建议:先学趋势,再学轮动。不是因为它们最赚钱,而是因为它们最适合当学习框架。

趋势跟随。 最典型的代表是双均线策略:短周期均线向上穿过长周期均线时买入,跌破时卖出。或者更简单——收盘价站上某条长期均线就持有,跌破就空仓。

趋势策略直观、容易回测。你很快会看到它真正的面貌:单边上涨时能吃到大段行情,震荡市里则来回打脸。

但它的真正价值不在于赚多少,而在于它会逼你面对一系列关键问题:信号按收盘价还是盘中生成?成交假设放在下一开盘还是下一收盘?参数该固定还是搜索?空仓时持有现金还是货币 ETF?手续费和滑点会不会把微弱优势吃掉?

你可以从极简版本开始:只看一只宽基 ETF,每天收盘后检查 20 日和 60 日均线。20 日在 60 日上方且空仓就买,跌回下方且持仓就卖。然后观察净值曲线、最大回撤、换手频率。做完这一轮,你得到的不是圣杯,而是你的第一份量化实验报告。

这份报告的价值远远超过它展示的收益率。它教会你的是一种思考方式。

ETF 轮动。 背后的想法很直觉:强势资产可能继续强势,弱势资产可能继续弱势。选几个 ETF,按过去一段时间的收益或波动率打分,然后定期持有得分最高的。为避免在熊市里硬选最强的弱者,加一个绝对动量过滤:入选标的本身收益为正或站在长期均线上方时才买入,否则空仓。

轮动策略比趋势多了一层横向比较,但没有个股多因子那么复杂。你可以快速学会组合调仓、排序逻辑、再平衡频率、换手率控制这些更接近真实资产配置的能力。

至于多因子选股和机器学习——不是不能碰,但别当第一站。那个世界的复杂度会立刻吞没你:财务数据时效性、幸存者偏差、行业中性化、极值处理、样本穿越、特征泄露……先把简单系统做扎实,再往那边走。

七、回测:量化里最重要,也最容易骗人的环节

量化最吸引人的地方是回测。量化最危险的地方也是回测。

一条漂亮的历史净值曲线,会让你产生一种几乎无法抗拒的错觉:既然过去这么有效,未来也应该差不多。但回测不是承诺。它只是在一组历史条件下、基于一套假设做出的模拟实验。

回测问的不是「能不能赚钱」,而是「如果过去按这套规则来,在这些假设下,会发生什么」。关键词是:过去、规则、假设。任意改变其中一个前提,结论可能完全不同。

回测有五个经典陷阱。理解它们,比学会任何一个指标都重要。

未来函数——在历史里使用了当时不可能知道的信息。比如用当日收盘价假设盘中就能成交,用季报公布后的数据选季报公布前的股票。它不会让代码报错,但会让结果好得不真实。

幸存者偏差——拿今天还存在、表现还不错的标的去回看过去。那些中途退市或清盘的标的,被你无声地删掉了。就像只采访成功的创业者来研究「创业成功的秘诀」。

信号与成交混淆——很多人回测时假设看到信号就能按当日收盘买入。但你通常收盘后才能确认信号,更合理的假设是下一交易日开盘成交。一个细节就能让漂亮的回测大幅缩水。

忽略交易成本——很多策略只在零成本的理想世界里好看。一旦加入佣金、印花税、滑点和换手率约束,策略就从惊艳变成平庸。

过拟合——你不断调参数,20 日均线改 23 日,再试 27 日,加成交量过滤,加波动率阈值,最后找到一组在 2017 到 2024 年完美的参数组合。但这组参数可能只是「刚好适配过去」。过拟合最可怕的地方在于,它给你的心理奖励最大——「我找到答案了」——恰恰让你最难承认自己只是在装饰历史。

成熟的回测要设计一整套防自欺机制:样本内外拆分、walk-forward 滚动验证、参数敏感性分析、不同市场阶段对比、强制加入成本、数据版本固定。

丹尼尔·卡尼曼说过一句话:「我们对自己了解程度的自信,远远超过我们实际了解的程度。」这句话放在量化回测里同样成立。回测真正的价值不是让你兴奋,而是让你清醒。

八、怎样读懂一份回测报告

大多数人看回测结果,第一眼盯的是总收益率。这没错,但如果只看这个数字,你几乎一定会被误导。

一份有用的回测报告至少回答四个问题:赚不赚钱?过程难不难熬?靠什么赚的?什么情况下最容易失效?

收益当然重要。但任何收益率必须放在风险背景里看。一个年化 18%、最大回撤 55% 的策略,和一个年化 12%、最大回撤 12% 的策略,不能用小学算术来比大小。因为真正决定你能不能长期拿住的,不是收益上限,而是亏损过程的可承受性。

最大回撤是最核心的指标之一。它不是抽象数字,而是账户里那个从高点到低点最深的坑。这里有一个不对称的数学事实:回撤 10% 需要涨 11% 回本,回撤 20% 需要涨 25%,回撤 50% 需要涨 100%。

这个不对称意味着什么?它意味着风控不是保守,而是复利的前提条件。

夏普、波动率、卡玛比率帮你判断收益的平滑程度。一个收益很高但过程像心电图一样剧烈抽搐的策略,在真实持有中的心理成本非常高。很多人不是被市场打败,而是被自己的情绪打败。

胜率常常误导新手。高胜率不等于高收益。一个 80% 胜率的策略,如果每次小赚而偶尔大亏,总收益可能是负的。另一个 35% 胜率的策略,靠少数大赚覆盖大量小亏,反而能赚钱。比胜率更重要的是盈亏比、期望值和收益分布。

换手率也很关键。很多回测看上去惊艳,问题出在太忙了。成本、滑点、执行偏差和心理疲劳都会被高频切换放大。

成熟的回测报告应该有分年度表现、月度收益分布、回撤区间、持仓变化、交易摘要、参数说明、成本假设和失败阶段分析。你不是在选一张好看的图片,而是在判断一台系统值不值得投入时间和资金。

九、风控不是附属品,而是系统的一部分

大多数人把风控理解成一句「出了问题就止损」。这太窄了。

风控不是补丁。它应该从策略诞生那一刻就和策略长在一起。你设计的不是「怎样赚钱」,而是「怎样在可能赚钱的同时不被轻易打死」。

仓位是最基础的风控。同一套策略,10% 仓位和满仓运行,体验完全不同。很多人不是败在策略上,而是败在仓位超出了自己的承受能力。仓位管理的本质不是让收益变低,而是让你有资格活到下一次机会。

这里有一个很多人不愿意接受的事实:市场不会因为你上一笔亏了就停下来等你。能否持续留在桌上,决定你有没有复利的可能。

分散和暴露管理是第二层。哪怕只做 ETF,也不能随便堆仓。几个看似不同的 ETF 可能高度相关。分散不是数量问题,而是暴露结构问题。量化风控要做的,是让组合知道自己到底押了什么。

退出机制是第三层。什么时候减仓?什么时候空仓?什么时候停止交易?什么时候认定策略失效?这些都应该前置。不是鼓励极端紧的止损,而是提醒你:退出机制不该靠情绪临时决定。你可以用价格、波动率、回撤、信号反转甚至系统错误率来定义退出,但最好不要让「再等等看」成为默认选项。

操作和工程层面的风控是第四层。数据更新失败怎么办?接口异常怎么办?回测结果突然和昨天不一致怎么办?对个人开发者来说,工程失误、参数写错、数据污染同样足以造成真实损失。

风控不是悲观主义。它是你和复杂世界之间的一道缓冲。你不是在证明自己永远正确,而是在提前承认自己一定会犯错,然后为错误设计边界。

十、把量化当技术项目来做,才会越做越稳

如果你把量化只当成几个公式,会很快碰到天花板。真正让量化变成可持续能力的,是工程化。

对个人开发者来说这一点格外重要——你没有机构里的现成平台和专业团队,得自己搭系统。

项目结构要清晰。 数据采集、数据清洗、策略定义、回测引擎、指标计算、报告生成,各归各位。不要把所有逻辑塞进一个 Notebook。量化项目一旦没有边界,每加一个需求都会把原来的东西拖垮。

结果要可复现。 今天的结果,下周还能复现吗?换一台电脑还能知道自己改了什么吗?成熟的项目一定重视配置文件、数据版本、日志输出和结果归档。因为认真复盘时最痛苦的不是亏损,而是「我不知道自己为什么得到这个结果」。

研究和执行要分开。 研究模块提出和验证假设,执行模块翻译成操作流程。最好的第一阶段不是自动下单,而是每天更新数据、计算信号、生成报告、输出候选动作,由人工确认。这样既保留系统化,又保留最后一道人工风控。

要对测试有敬畏心。 均线算得对不对?交易日对齐对不对?手续费有没有重复扣?量化里最可怕的错误,不是程序报错,而是看起来正常运行却在悄悄给你错误结论。

沃伦·巴菲特有句话说得好:「只有退潮的时候,你才知道谁在裸泳。」在量化里,退潮就是那些你没测试过的边界情况。

十一、一个适合个人开发者的 90 天入门路径

如果你真的准备开始,我建议用「三个月做出一个小闭环」的思路。个人项目最怕贪大,最有效的方式永远是先跑通,再做深。

第一个月:跑通最简单的单策略回测。 选一两只宽基 ETF,建立本地数据缓存,写一个双均线策略,跑出净值曲线、收益、最大回撤和交易记录。不追求策略多强,只要逻辑清楚、结果可重复、你能解释每笔交易为什么发生。

第二个月:从单策略升级到可比较的小平台。 加入 ETF 轮动策略,增加参数配置,加入样本内外拆分和交易成本,生成报告。到这一步你已经不是在试写策略,而是在做研究工具。

第三个月:验证而非炫技。 做 walk-forward 验证,做参数敏感性分析,把策略切到不同池子测试,尝试每天自动生成次日候选持仓。最重要的不是系统越来越复杂,而是复杂一点之后还能保持清晰和可解释。

三个月后你可能还没赚到大钱。但你会拥有一个更重要的东西:一套可持续迭代的金融实验系统。这个系统本身就是你最大的资产。

十二、为什么很多回测很好看,实盘却很难受

这个问题几乎每个做量化的人都会遇到。

回测面对的是「已经发生的世界」——你知道哪次下跌只是暂时的,哪次回撤后来会创新高。但实盘面对的是「正在发生、你不知道结局的世界」。连续亏损三周时,你不知道这是正常波动还是永久失效。

这就是知道结局和不知道结局之间的区别。它的影响比大多数人以为的大得多。

实盘还比回测多了大量摩擦——忘记更新数据、手动确认时犹豫、实际成交价和假设不一致、流动性不足、节假日和系统异常。单笔看不大,长期叠加会显著改变结果。

还有一个不太被承认的原因:人在回测时会不自觉地挑自己喜欢的结果。你可能无意识地筛掉了不好看的参数、时段和样本。实盘亏钱时,不是市场不讲理了,而是你研究时就已经偏向了自己想看的答案。

实盘和回测之间最重要的桥梁,不是「找更强的策略」,而是让假设更接近现实,让执行更接近纪律,让心理预期更接近真实的亏损体验。

成熟的量化,不是回测有多漂亮,而是回测和实盘之间的落差有多小。

十三、几个高频问题的真回答

零基础能学量化吗? 能。但需要一组基础能力的组合:一点 Python,一点数据处理,一点统计常识,一点交易规则理解,再加长期做项目的耐心。真正难的不是第一段代码,而是把杂乱知识拼成稳定系统。

必须先学高级数学和机器学习吗? 不必。入门阶段最重要的是把简单规则做正确。先学会定义问题、清洗数据、做回测、看报告、控风险。很多人不是输在不会高级数学,而是输在不会老老实实做基础工作。

资金小有必要做量化吗? 有。量化入门阶段最大的产出不是收益,而是方法。小资金反而适合做实验。把它当工程实践,收获会比「立刻赚到多少钱」更扎实。

要不要一开始就全自动下单? 通常不必。A 股程序化交易有明确规则框架和报告要求。先做研究、回测、信号输出、人工确认,就是完整闭环。自动化应该是系统成熟后顺理成章的结果,而不是显得高级的装饰。

神策略能直接抄吗? 可以研究,但要先问四个问题:数据口径是什么?执行假设是什么?成本怎么算?样本外成立吗?很多公开策略最厉害之处,不是真的无敌,而是省略了最容易让结果变差的细节。

回测不够漂亮,说明策略没价值吗? 不一定。真实可用的策略很多时候只是「逻辑清楚、回撤可控、样本外没崩、能长期拿住」。平庸但稳定,常常比惊艳但脆弱更有价值。

什么时候才算真正入门? 不是写出第一个策略的时候,也不是第一次回测盈利的时候。而是你第一次能完整回答这些问题的时候:系统为什么可能有效?依赖什么前提?最可能在哪里失效?成本和摩擦是什么?风险边界在哪里?失效时你打算怎么办?

能回答这些,才说明你开始从「写代码的人」变成「做系统的人」。

结语

量化炒股听起来像金融技术。做久了你会发现,它训练的首先是一种面对不确定性的态度。

把模糊的直觉翻译成清楚的规则。把想象中的优势放进严格验证。把历史的漂亮结果放进现实摩擦里重新审视。把「我可能是对的」换成「我怎样证明自己不是在骗自己」。

它不是圣杯,不会消灭亏损和焦虑。它甚至比主观交易更残酷——它会把你的错误一条条暴露出来,让你没法用「运气不好」糊弄过去。

但正因如此,它才值得学。

摩根·豪泽尔在《金钱心理学》里写过一句话:「在金融领域,最重要的技能不是智商或数学能力,而是在长时间里保持理性的能力。」量化不会让你变聪明。但如果你认真对待它,它会帮你在需要理性的时候,多一层保护。

真正的量化入门,不是背会更多术语,也不是找到一套神秘公式。而是开始愿意承认:市场很复杂,自己会犯错,任何优势都必须经过检验,任何收益都要付出风险代价,任何系统都需要维护。

到了那一步,你写的就不再只是买卖程序,而是一套帮助自己在不确定世界里做出更稳定决策的工具。

而这,才是量化最有价值的地方。

被重新定价的不是劳动,而是人的位置(Nassim Taleb 风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——Nassim Taleb 风格:切肤之痛,反脆弱

一条朴素的真理

有人问:AI 能不能代替游戏工作室里那些「搬砖」的人?紧接着有人回答:很多时候,雇一个愿意长时间坐在电脑前的人,比烧 AI 的算力还便宜。

这句话听起来像玩笑。但它击中的是一个多数人不敢面对的事实:市场对人类劳动的定价,从来就不是按照「你有多聪明」来算的。

我在整个职业生涯中反复强调一件事:不要听人们说什么,要看他们把钱押在哪里。那些声称「人才是最宝贵资源」的公司,转头就会用一个月几千块钱雇人做需要高度通用智能才能完成的任务。他们嘴上说的是「低端劳动」,实际购买的是一个廉价的通用 agent——一个能看屏幕、判断异常、处理例外、在系统崩溃时临时拼凑解决方案的活人。

这就是我要讨论的第一个核心问题。

廉价劳动力是被长期低估的通用智能

整个社会对「低端劳动」有一种结构性的误读。

人们以为,坐在电脑前做重复操作的人提供的只是「手」——点击、拖拽、切换窗口。但这是一种彻头彻尾的胡说八道。一个人坐在那里,他同时在做以下所有事情:

识别界面是否正常。判断弹窗是异常还是预期内的。区分网络问题和系统问题。在流程卡住时凭经验尝试解决方案。在没有人给他写规则手册的情况下,自己发明临时规则。在整个系统不完美的前提下,凑合着把事情做完。

这最后一条是最重要的。人类最被低估的能力,是在不完美条件下把事情糊过去的能力。 这种能力没有名字,没有证书,没有学位,也几乎没有市场在为它单独定价。但它存在于每一个所谓「低端工人」的每一天劳动中。

我把这种能力叫做**「通用模糊适应性」**。它和智商无关,和学历无关,和你能不能在白板上推导公式无关。它是一种在现实世界的毛边和阴影里活下去的能力。

而 AI 恰恰最缺的就是这个。AI 的惊艳发生在一切大致正确的时候;一旦脱离它熟悉的分布,它会从「看起来像天才」瞬间坠落到「让人头皮发麻」。这不是 AI 的 bug,这是所有形式化系统的根本限制。

所以,当你用一个月几千块钱雇一个人的时候,你买到的不是一双手。你买到的是一个极其廉价的通用适应系统,一个能在规则缝隙里活下去的生物体。市场对他的定价方式不是「你提供了多复杂的认知服务」,而是「你愿意接受多低的工资」。

这是一种结构性的掠夺。它之所以能持续,是因为提供这种能力的人太多了,多到市场不必为它支付公平的价格。

自动化最大的敌人不是重复,而是例外——或者说,尾部风险

人们总说重复性工作最容易被自动化。我对这种说法的容忍度为零。

说这种话的人,显然从来没有真正运营过一个自动化系统。一个场景即使 95% 的时间在按流程跑,也不代表它适合彻底自动化。因为自动化的成本不是由那 95% 的顺利时刻决定的,而是由那 5% 的例外决定的。

这就是尾部风险的逻辑。我在金融领域谈了二十年尾部风险,但这个概念在劳动领域同样适用。一个系统运行一千次没出事,不代表第一千零一次不会炸掉。而系统一旦炸掉,你需要的不是更好的算法,而是一个能在混乱中做出决定的人。

人类劳动力在这里的优势不在于更高效,而在于反脆弱。一个人面对异常时,他不会崩溃——他会刷新页面、切换窗口、重新登录、停一停再试、甚至在完全没有理论支撑的情况下凭直觉找到临时方案。这些行为在标准效率评估里看起来很蠢。但在现实世界里,「能在混乱中存活」本身就是最高价值的能力。

AI 则相反。AI 是一个极度脆弱的系统——它在预期分布内表现完美,在预期之外则可能灾难性地失败。很多人想象的未来是「AI 替代人」,现实更可能是「AI 做掉了标准部分,把所有脏活、碎活、兜底的活留给人」。于是人的工作不是消失了,而是变得更无聊、更琐碎、更像一个「系统的守夜人」。

真正麻烦的地方在于:这种守夜人的劳动更难获得成就感,更难产生主体性,更像一个人类形态的安全阀。

「切肤之痛」原则:谁离后果近,谁就更值钱

现在让我说到本文最核心的判断。

在我的整个思想体系中,有一条比什么都重要的原则:不要听一个不承担后果的人给你的建议。 一个人有没有「切肤之痛」(skin in the game),决定了他的判断是否值得信赖。

把这条原则搬到 AI 时代的劳动分析中,你会得到一个极其清晰的结论:

未来最值钱的位置,不是「谁更聪明」,而是「谁离真实后果更近」。

什么叫离后果近?就是你的决定一旦出错,后果会直接砸到你身上。你面对客户的时候,客户会冲你发火,不是冲模型发火。你签字的时候,法律责任落在你头上,不是落在工作流头上。你拍板的时候,资源会按照你的判断分配,分配错了,损失是真实的。

相反,那些离后果很远的位置——只负责转述、整理、包装、初步分析、做标准化表达——看起来体面、专业、高智力,但它们不承担后果。它们是组织中的「认知缓冲层」。过去这层缓冲有价值,因为能稳定处理符号的人本来就稀缺。但当大模型打进来之后,这层缓冲会首先被挤压。

AI 最先掏空的,不是底层,而是中层那些「没有切肤之痛的符号处理者」。

一个在工地上协调资源、处理突发的人,可能比一个在办公室里写报告的人更安全。不是因为前者更聪明,而是因为前者每天都在和真实后果打交道。他的产出一旦出错,后果是即时的、可见的、无法用漂亮的 PPT 糊过去的。

这就是为什么我反复强调:衡量一个位置的稳固程度,不要看它的技能复杂度,要看它离真实后果有多近。

AI 正在把认知劳动变成资本品——这意味着什么?

让我把分析再推深一层。

AI 对社会的冲击不只是「提高生产率」。更深的变化是:它正在把一部分原本只能由人在现场完成的认知劳动,转化为可以被复制、部署、叠加和扩张的资本品。

过去,一个文案写稿、一个程序员写代码、一个分析师做汇报,这些事情强烈依赖个人此刻此地的脑力投入。你可以雇人,但无法把他的能力从人身上完整剥离出来。人的能力和人的时间绑定在一起,这就是劳动的基本形态。

AI 改变了这件事。模型、提示词、工作流、知识库一旦搭建完成,一部分认知产出就不再依赖「某个人此刻坐在这里动脑」,而开始表现出资本的特征——可复制、可规模化、边际成本递减。

这就像工业革命时体力劳动被机械化。只不过这次被资本化的是认知能力。过去属于人的「会想、会写、会拼接、会总结」的能力,正在以系统的形式被沉淀下来。

后果是什么?不是所有人立刻失业,而是大量依赖出售脑力时间的人,议价能力逐步下降。 以前是「你必须雇这个人来做」,以后是「这个人只要负责监督和修正系统输出即可」。很多人的身份会从「生产者」悄悄变成「校对者」「审核员」「兜底人」。

能力 ≠ 议价权。这是一条铁律。

在旧世界,人们信奉一条朴素逻辑:只要我足够能干,我就应该获得更好的位置。

这条逻辑正在失效。

能力和议价权正在脱钩。 如果你的能力只是高质量地完成别人定义好的局部任务,那你的强大可能只是让你成为一个更高性能、更值得压榨的模块。只要这个模块的输入输出足够清晰,系统就总会尝试替换它、自动化它、或者用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些能沉淀为结构的能力。什么叫沉淀为结构?是你不仅会做一件事,而且能决定这件事应该怎么被做、用什么标准验收、出问题由谁接手、哪些风险必须提前被纳入。

只有当你的能力变成了标准、流程、接口、规则、信任和组织依赖的协调机制时,它才不再只是「你能干」,而会变成「系统离不开你这个位置」。

模块可以被替换。节点不行。

模块的特征是清楚的:输入明确,输出明确,拿掉之后系统损失一点产能,但很快能补上。节点则不同:节点连接多个环节、理解上下文、影响资源流向、协调不同目标、传递信任、承担后果。拿掉一个真正的节点,损失的不只是产量——判断、协同、记忆和组织摩擦成本会一起上升。

AI 会把大量模块级能力变便宜,但它反而会放大节点的价值。当执行越来越廉价时,能整合执行的人就更稀缺;当生成越来越容易时,能验证、约束和组织生成的人就更重要。

当执行变便宜,定义问题的人会越来越贵

价值正在向上游流动。上游在哪里?在定义问题、确定目标、划定边界、设定指标、决定优先级的地方。

AI 擅长在目标给定后快速展开。但什么才是正确的目标?哪些指标值得优化?哪些指标会制造错觉?这个项目应该追求短期增长还是长期留存?这些不是技术问题,而是判断问题。

AI 只能在既定目标函数内狂奔。真正影响组织命运的,往往是目标函数本身。

很多人把「定义问题」误解成开会、画 PPT、说空话。错了。定义问题是最难、最稀缺、也最容易被低估的劳动。因为定义不像执行那样能直接产出成品,却决定了系统是在正确方向上高速前进,还是在错误方向上高效坠毁。

AI 越强,定义能力就越像操盘权,而不是辅助能力。

人越来越贵的地方:约束、责任和承诺

模型天然倾向于优化目标函数。给它一个方向,它就会沿着那个方向尽可能推进。但现实社会不是单目标优化机器。任何真正重要的事情,都充满了边界和代价:不能为了效率牺牲安全,不能为了增长破坏信任,不能为了速度无视法律。

这就需要一种和「生成」完全不同的能力——约束能力。约束不是保守,不是拖后腿。约束是知道目标之外还有后果,知道指标之外还有现实,知道局部最优可能毁掉整体。

约束之所以贵,根本原因在于它背后连接着责任。系统出错时,不是模型去面对客户,不是工作流去承担信誉损失。最终总要有一个人站出来说:这件事我们负责。这种负责不只是道德姿态,它是社会协作的基础。别人愿意把资源和信任交给你,是因为他们相信一旦出了问题,系统里有可以追索的主体。

AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。 这是技术与治理之间最核心的鸿沟。

主体性危机:比失业更深的伤害

人们担心失业,这是最直接的恐惧。但更深的危机是主体性的丧失。

什么是主体性?就是你能感到「我在做的事和我是谁有关」「我不是在执行,我在判断、选择、承担」「这个结果里有我的意志」。

当 AI 吞掉了工作中最能体现能力感和创造感的部分,把人推向审核、校正、兜底的位置时,很多人会感到一种隐秘的空心化:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。你仍然被需要,但被需要的方式不再是「你是创造者」,而是「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说,比简单的失业更难承受。因为它伤害的不只是收入,而是人格和尊严。

一个没有切肤之痛的人会告诉你「这是进步,你应该适应」。但我要说的是:当一个人的工作被剥离到只剩下兜底和签字时,他就不再是一个完整的行动者,而只是一个带有人类签名的安全阀。

结论:不要让自己变成一个高性能模块

让我把话说到最尖锐的地方。

AI 时代真正危险的人,不是能力差的人,而是那些能力不错、工作勤奋、效率很高,却长期只在「别人定义好的目标里」奔跑的人。他们是组织里的优等生——执行力强、配合度高、产出稳定。但他们从来没有训练自己去定义任务、质疑任务、重组任务。

一旦 AI 可以接管越来越多的执行,这些人最容易被重新分类为「监督机器的熟练操作员」。

所以,我的建议极其简单:

不要追求变成一个更快、更精准、更高性能的模块。要追求变成一个离后果更近、能施加约束、敢做出承诺、拿掉之后系统会乱的节点。

不要只问「我能不能干这个活」。要问「我做的东西有没有沉淀成一个别人必须围绕我来组织的结构」。

不要只提高执行速度。要训练自己定义问题、设置边界、承担责任、连接现实、建立信任。

因为 AI 越强,模块越便宜,节点越贵。被机器拿走的也许只是某项技能。但如果你把位置守住——把切肤之痛守住——你就仍然是系统中那个无法被轻易删除的人。

不要让自己变得更像机器那样高效。要让自己成为那个即使机器遍地都是,仍然不可省略的人。

这才是 AI 时代唯一值得信赖的生存策略。其他的都是噪声。

被重新定价的不是劳动,而是人的位置(Paul Graham 风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——Paul Graham 风格:小切口,大纵深

有人在网上问了一个很接地气的问题:既然 AI 已经能看屏幕、理解界面、控制鼠标了,那游戏工作室那种「搬砖」模式,以后是不是可以全让 AI 来?紧接着有人补了一句更接地气的:很多时候,雇一个愿意坐在电脑前重复操作的人,比烧 AI 的算力还便宜。

这句话听起来像玩笑,但我越想越觉得它触碰到了 AI 时代最深的问题。

⸻

先说一个容易被忽视的事实:那些坐在电脑前做重复操作的人,他们卖的其实不是「手」。

表面上看,他们只是在点鼠标、切窗口、按流程执行。但如果你真的试过把这件事完全自动化,你会发现情况远比想象中复杂。因为一个人坐在那里,他其实在同时做很多件事:判断界面是不是正常,识别弹窗是异常还是预期内的,区分网络问题和系统问题,在流程卡住时凭经验尝试各种方案,在没有任何规则手册的情况下自己发明临时规则。

最重要的是,他有一种在不完美的现实里将就着把事情做下去的能力。系统卡了?刷新一下。流程不通?换个路径试试。莫名其妙报错?等一会儿再来。这些行为在效率评估里看起来很笨,但在真实世界里,「能糊过去」本身就是极高价值的能力。

所以那些看起来「低端」的劳动力,实际上是在极低价格上出售一种高适应性的通用智能。市场对他们的计价方式不是按照「你提供了多复杂的认知服务」来估值,而是按照「你愿意接受多低的工资」来出价。这就是为什么,在很多场景下,最先进的 AI 反而不一定比最便宜的人力更划算——不是 AI 不聪明,而是人类那种混杂着常识、经验、模糊判断和临场应变的能力,一旦被拆散后逐个用技术实现,成本远高于我们对它的直觉估计。

⸻

这又引出了第二个问题:自动化到底怕什么?

人们总说重复性工作最容易被自动化。这只说对了一半。真正决定自动化成败的,往往不是那 80% 的重复,而是剩下那 20% 的例外。一个场景即使 95% 的时间在顺利运行,只要那 5% 的异常足够复杂,系统就必须为它支付大量隐形成本:监控、告警、规则更新、异常恢复、人工介入。这些成本平时不显眼,可一旦算进去,很多「看上去很省人力」的自动化项目最终变成了「一群人盯着机器干活,专门给机器擦屁股」。

人类在这里的优势不是效率更高,而是能在例外里活下去。一个系统卡住了,人会顺手尝试各种办法——这些办法可能没有理论支撑,但往往能解决问题。AI 则不同:它在情况大致正确的时候表现惊艳,一旦碰到不在预期内的异常链条,就很容易从「看起来聪明」迅速坠落成「让人头皮发麻」。

所以未来更可能的图景不是「AI 把人替掉」,而是「AI 做掉了标准部分,把例外处理留给人」。人的工作不会消失,但会发生「监督化」「兜底化」「审核化」——你不再亲自做每一步,但必须始终在场,作为系统背后的守夜人。

⸻

现在说到真正让我觉得有意思的部分。

如果 AI 的冲击是按照上面这个模式展开的,那它最先冲击的是谁?

很多人的直觉是:最先被冲击的应该是最底层、最简单、最重复的工作。但事实可能恰好相反。

AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板、流程说明。于是最先感受到巨大冲击的,常常不是那些最体力化的工作,而是大量中层、体面、受过教育、长期处理符号的白领岗位。写标准报告、整理会议纪要、生成初稿、制作常规方案、完成样板代码——这些工作的薪资之所以曾经不低,很大程度上不是因为它们本质上神秘,而是因为过去「能稳定处理符号的人」本来就稀缺。大模型直接打进了这个层面。

这意味着 AI 的冲击不是「由下往上」的,而更像是「由中间向两边扩散」。那些工作内容高度数字化、输出能被拆解成标准输入输出的岗位,会比很多贴近现实现场的工作更早承压。

一个坐在办公室里写报告的人,未必比一个现场协调突发的人更安全。因为前者的劳动更接近纯符号层,后者始终在和现实接口打交道。

⸻

再往深一层看,会发现 AI 正在做一件更根本的事:它在把认知劳动变成资本品。

过去,一个人写文案、写代码、做分析,这些事强烈依赖个人此刻此地的脑力投入。你可以雇人,但无法把能力从人身上完整剥离出来。人的能力和人的时间绑定在一起。

AI 改变了这件事。模型、提示词、工作流、知识库一旦搭好,一部分认知产出就不再依赖「某个人此刻坐在这里动脑」,而开始表现出资本的特征——可复制、可规模化、边际成本递减。

这很像工业革命把体力劳动机械化。只不过这次被资本化的是认知能力。后果不是所有人立刻失业,而是大量依赖出售脑力时间的人,议价能力逐步下降。很多人的身份会从「生产者」悄悄变成「校对者」「审核员」「兜底人」。

⸻

这就引出了一个我觉得非常重要的判断:在 AI 时代,能力和议价权正在脱钩。

过去大家相信一个朴素的逻辑:只要我足够能干,我就应该获得更好的位置。这条逻辑正在松动。

如果你的能力只是高质量地完成别人定义好的任务,那你的强大可能只是让你成为一个更高性能的模块。只要这个模块的输入输出足够清晰,系统总会尝试替换它、自动化它、或者用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些能沉淀为结构的能力——你不仅会做一件事,而且能决定这件事应该怎么被做、用什么标准验收、出问题由谁接手、哪些风险必须提前纳入。只有当你的能力变成了标准、流程、接口、信任和组织依赖的协调机制时,它才不再只是「你能干」,而会变成「系统离不开你」。

这就是模块和节点的区别。模块拿掉后系统损失一点产能,但很快能补上。节点拿掉后,连目标理解、跨环节协调、风险判断和责任承担也一起消失。AI 会把大量模块级能力变便宜,但它反而会放大节点的价值。

⸻

如果执行在变便宜,那价值一定会向上游流动。上游在哪里?在定义问题、确定目标、划定边界的地方。

AI 非常擅长在目标已给定的情况下快速展开。但什么才是正确的目标?哪些指标值得优化,哪些会制造错觉?这类问题不是技术展开问题,而是判断问题。AI 只能在既定目标函数内狂奔,真正影响命运的往往是目标函数本身。

同样,人越来越贵的地方不在于产出,而在于约束和责任。模型天然倾向于优化单一目标,但现实充满了边界和代价。知道什么时候必须停下来复核、什么风险绝不能冒、什么看似漂亮的数据不能信——这些约束能力背后连接的是责任。系统出错的时候,最终总要有人站出来说「这件事我们负责」。AI 可以扩张执行能力,但无法替代社会意义上的承诺能力。

⸻

说到最后,我觉得 AI 引发的最深层危机不是失业,而是主体性。

当越来越多的工作被拆成可替换的模块后,人可能会逐渐失去一种更根本的东西:我在做的事和我是谁有关。我不是在执行,我在判断、选择、承担。这个结果里有我的意志。

当 AI 吞掉了工作中最能体现创造感的部分,把人推向审核和兜底的位置时,很多人会感到一种空心化:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。

所以 AI 时代最值得追问的不是「我还能不能干这个活」,而是「我正在把自己训练成什么样的人」。如果你只是在让自己更快、更熟练、更像一个高性能模块,你可能短期很受欢迎,长期却越来越危险。但如果你在训练自己理解整体、定义问题、设置边界、承担责任、连接现实、建立信任,那么 AI 越强,你的位置反而越稳。

归根结底,被重新定价的不只是劳动,而是人在系统中的位置。你是一个容易被替换的执行模块,还是一个拿掉后系统会乱的关键节点?你是在卖可拆分的劳动切片,还是在积累判断权、约束力和责任承载力?

这些问题,比「AI 会不会抢走工作」重要得多。

不要只想着如何让自己更像机器那样高效。要想清楚,怎样让自己成为那个即使机器遍地都是,仍然不可省略的人。

被重新定价的不是劳动,而是人的位置(刘瑜风格)

发表于 2026/03/14 | 分类于 AI专题

被重新定价的不是劳动,而是人的位置

——刘瑜风格:不动声色的犀利

一个不太体面的起点

让我们从一个不太体面的话题开始。

有人问:AI 能不能代替游戏工作室里的「搬砖工」?就是那些长时间坐在电脑前,重复点击、刷副本、做任务、倒卖虚拟资源的人。紧接着有人补了一句极其现实的话:在很多场景下,雇一个活人的成本,可能还没有让 AI 来做一样的事贵。

这句话之所以让我停下来想了很久,不是因为它有趣,而是因为它不小心揭开了一个我们很少认真面对的问题:当我们说一个人「便宜」的时候,我们到底在说什么?

我们以为我们在说他的技能简单。但其实我们在说的是:这个人提供的极其复杂的服务,被市场用一种极其粗暴的方式定了一个极低的价。

你以为你在买一双手,其实你在买一整个操作系统

一个坐在电脑前做重复操作的人,表面上看只是在点鼠标。但如果你真的试过把他的工作完全自动化,你会发现一件令人不安的事:你需要做的远比你想象的多。

因为他其实在同时做很多件你没注意到的事情。他在判断界面是否正常,在识别弹窗是预期内的还是异常的,在区分是网络问题还是系统问题,在流程卡住时凭经验尝试各种非标准解决方案,在没有规则手册的情况下自己发明临时规则。

最重要的是,他有一种能力——一种我们极少谈论、也不知道该怎么命名的能力——就是在一切都不太对的情况下,将就着把事情做下去。

这种能力,如果放到技术语言里描述,大概叫「高适应性的通用智能在非标准环境中的鲁棒执行」。听起来很高级。但市场给它的定价,是一个月几千块。

为什么?因为能提供这种服务的人太多了。不是因为这种能力简单,而是因为供给太大。就像空气对生命极其重要,但没人会为一口空气付费——除非你在太空站里。

AI 的出现,正在让我们第一次「看见」这些曾经隐形的能力。因为当你试图用技术替代它们的时候,你会发现成本高得惊人。我们平时看不起一个「只会坐在那里做重复劳动的人」,很大程度上是因为我们把他复杂的认知劳动误读成了简单的动作劳动。

自动化害怕的不是重复,而是例外

有一个关于自动化的流行说法:重复性工作最容易被替代。这句话我只同意一半。

准确地说,被替代掉的通常是那 80% 的标准流程。但决定一个自动化项目成败的,往往是剩下那 20% 的例外。甚至可能只是那 5%。

这就像一个城市 95% 的时间不发洪水,但你不能因此不建防洪堤。那 5% 的异常,可能需要你为它支付巨大的基础设施成本。自动化也一样——你需要为例外配备监控、告警、规则更新、异常恢复、人工介入机制。这些成本平时看不见,可一旦算进去,很多「看上去省人力」的自动化项目最终变成了「一群人专门给机器擦屁股」。

人类在这里的优势非常朴素:他能在例外里凑合着活下去。系统卡了,他会刷新页面试试。流程不通,他会换个路径。报错了,他会等一下再来。没有理论支撑?没关系,先试一个笨办法。

AI 则不一样。AI 在「一切大致正确」的时候表现惊艳,但一旦碰到超出预期的异常链条,它很容易从天才瞬间坠落为灾难。

所以未来更可能的图景不是「AI 把人替掉」,而是「AI 做掉了标准部分,把脏活碎活兜底的活留给人」。人的工作不是消失了,而是变得更无聊、更琐碎——你不再是创造者,而是系统的守夜人。

这就引出一个令人不安的问题:如果 AI 把工作中最有技术感、最有创造感的部分吃掉了,却把最烦最碎的部分留下来,那人的主体性到底是在被解放,还是在被抽空?

AI 最先吃掉的不是底层,而是「格式化的中层」

工业时代给我们留下一个很深的直觉:机器会先替代最底层、最简单的工作,然后慢慢向上爬。

但 AI 时代不完全是这样。因为 AI 最强的地方不是替代「手」,而是侵入「符号系统」——语言、文本、代码、表格、模板、标准化分析。

于是最先感受到巨大冲击的,常常不是体力劳动者,而是大量中层白领:写标准报告的人、整理会议纪要的人、做常规方案的人、完成样板代码的人。他们的薪资之所以曾经不低,不是因为工作本身神秘,而是因为过去「能稳定处理符号的人」比较稀缺。大模型直接打进了这个层面。

打个比方。如果把劳动市场想象成一栋大楼,AI 的冲击波不是从一楼开始往上推的,而是从中间楼层开始向两侧扩散的。那些工作内容高度数字化、输出可以被标准化、远程就能完成的楼层,震感最强。

一个坐在办公室里写报告的人,未必比一个现场处理突发的人更安全。因为前者的劳动更接近纯符号层——而纯符号恰好是 AI 最擅长的领域。后者虽然看起来「不高级」,却始终在和真实后果打交道。

这让人想起一个古老的悖论:那些看起来最高级、最体面的工作,有时反而因为离现实太远而更脆弱。而那些「低端」的、贴近现场的工作,反而因为持续和混乱打交道而更顽强。

认知劳动正在被资本化——这意味着什么?

AI 对劳动市场最深层的冲击还不是替代某个岗位。更深的变化是:它正在把一部分原本只能由人在现场完成的认知劳动,转化为可以被复制和规模化的资本品。

过去,你雇一个人写文案、写代码、做分析,你买的是他此刻此地的脑力。你无法把能力从人身上剥离出来。能力和时间绑定,这是劳动的基本形态。

AI 改变了这一点。模型、工作流、知识库一旦搭好,一部分产出就不再依赖「某个人此刻在动脑」,而开始像资本一样运作——可复制、可规模化、边际成本递减。

后果是什么?不是所有人立刻失业。而是大量依赖出售脑力时间的人,议价能力逐步下降。很多人的身份从「生产者」悄悄变成「校对者」「审核员」「兜底人」。以前是「你必须雇这个人来做」,以后是「这个人只需要负责检查系统输出就行」。

能力不等于议价权——这是一条正在硬化的规律

在旧世界里,有一条朴素逻辑:只要我足够能干,我就应该获得更好的回报。

这条逻辑正在出现裂缝。

如果你的能力只是高质量地完成别人定义好的任务,那你的强大可能只是让你成为一个更好用的零件。只要这个零件的输入输出足够清晰,系统就总会尝试用更便宜的方式复制它。

真正能转化为议价权的,不是孤立的能力,而是那些沉淀成了结构的能力——你不仅会做一件事,而且能决定这件事怎么做、用什么标准验收、出问题由谁负责。只有当你的能力变成了标准、流程、信任和组织依赖的协调机制时,你才不只是「能干」,而是「不可省略」。

这就是模块和节点的区别。模块拿掉后系统损失一点产能但很快能补上。节点拿掉后,目标理解、跨环节协调、风险判断和责任承担会一起消失。

AI 会把大量模块级能力变便宜,但反而会放大节点的价值。

执行变便宜之后,谁会变贵?

当执行成本在下降时,价值会向上游流动。上游在哪里?在定义问题、确定目标、划定边界的地方。

AI 擅长在目标给定后快速展开。但什么是正确的目标?哪些指标值得优化?哪些指标在制造错觉?这不是技术问题,是判断问题。

同时,人越来越贵的地方不在于产出,而在于约束和责任。模型天然倾向于沿着目标函数全力冲刺,但现实世界充满了「你不能因为追求 X 就牺牲 Y」的约束。知道什么时候必须停下来、什么风险绝不能冒、什么漂亮的数据不能信——这些约束能力背后连接的是责任。系统出错时,不是模型去面对客户,最终总要有人站出来说「这件事我们负责」。

AI 可以大幅扩张执行能力,但无法替代社会意义上的承诺能力。

比失业更深的东西:主体性危机

人们当然会担心失业。但更深的危机是主体性的丧失。

什么是主体性?就是你能感到「我做的事和我是谁有关」「我不只是在执行,我在判断、选择、承担」「这个结果里有我的意志和署名」。

现代人很大程度上是通过工作来定义自己的。「我是程序员」「我是设计师」「我是分析师」——这些不只是职业标签,也是身份标签。当 AI 把工作中最能体现能力感和创造感的部分吞掉后,很多人会发现:你还在工作,但越来越像在替系统看守边界。你还在产出,但产出越来越不是从你这里生发出来的。你仍然被需要,但被需要的方式从「你是创造者」变成了「你是最后一道保险」。

这种「审核员化」对很多知识工作者来说,可能比简单的失业更难承受。因为它伤害的不只是收入,而是人格和尊严。

AI 的悖论就在这里:它一方面能提高效率、释放时间,另一方面却可能在心理层面把人从「行动者」推向「监督者」,从「作者」推向「审稿人」。

最危险的不是没有能力,而是长期住在别人写好的目标函数里

最后让我说一个我觉得最重要的判断。

AI 时代真正危险的人,不是能力差的人,而是那些能力不错、工作勤奋,却长期只在「别人定义好的目标里」奔跑的人。

他们过去是组织中的优等生——执行力强、配合度高、产出稳定。但他们很少训练自己去定义任务、质疑任务、重组任务。一旦 AI 接管了越来越多的执行,他们最容易被重新分类为「监督机器的熟练操作员」。

所以真正需要保护的,不只是你的岗位,更是你对目标的参与权、对标准的影响力、对后果的感受能力,以及你为某件事署名的勇气。只有这些东西还在,你才不是一个被系统临时调用的模块。

AI 时代最值得反复追问的不是「我还能不能干这个活」,而是「我正在把自己训练成什么样的人」。如果你只是在让自己更快、更熟练、更像一个高性能模块,你也许会在短期内很受欢迎,却在长期里越来越危险。

但如果你在训练自己理解整体、定义问题、设置边界、承担责任,那么 AI 越强,你的位置反而越稳。

被重新定价的不只是劳动。被重新定价的是人在世界中的位置。

而你的位置,从来不是由你的能力决定的——它是由你和后果之间的距离决定的。

12…33下一页

328 日志
9 分类
RSS
© 2017 — 2026 李文业
由 Hexo 强力驱动
|
主题 — NexT.Muse
粤ICP备17160932号