AI时代,出海生意要“慢下来,提速”:认知才是未来

AI提示词2小时前更新 jinlian
0 0

我跟你说,这几年量化投资这个圈子,变化真的很大。过去十来年,大家主要比拼速度。谁的数据快,谁的延迟低,谁的模型跑得猛,谁就厉害。那会儿,就像赛跑,谁跑得快谁赢。但是现在呢?不一样了。这个竞争的重心,已经挪到了别的地方。大家不再只看单点优势了。现在,比的是系统认知能力

以前,我们研究员做量化,主要是找数据,然后构建模型。后来,我们发现光靠一个模型不行。得把数据、模型、交易、风险控制,这些环节都串起来。而且,还要让它们之间能互相配合。这就像盖房子,以前我们只关注砖头结实不结实,现在我们关注整个建筑的结构。

我觉得,这个行业现在拼的是系统化竞争。谁能把这些环节整合得好,谁就能看得更远。人工智能(AI)技术现在也进来了。它正在改变我们处理数据的方式。它让我们的模型更深入。它也让团队的合作模式变了。

AI时代,出海生意要“慢下来,提速”:认知才是未来

比如,以前信息处理很慢,现在AI让它快很多。因子挖掘也变聪明了。交易和风险控制,AI也帮了大忙。它不仅提高效率,还能让我们的策略找到以前找不到的**“认知Alpha”**。什么是认知Alpha?就是从那些深层次的信息里找机会,比如管理层说话的语气变了。

未来几年,我看中频区间可能会是主战场。什么是中频?就是分钟级到周度这个范围。而且,随着AI工具越来越多,大家都能用,平台和系统能力可能就变成基本配置了。但是,机构之间到底谁更强,最后还是得看谁有独家的数据,谁的算法更厉害。

三主线框架:数据、模型与组织架构

要说清楚量化行业是怎么发展的,我觉得可以分成三条线看。这三条线,不是独立的,它们是互相影响的。

第一条是数据。以前我们只用结构化数据,就是那些规规矩矩的财务报表、行情数据。现在,另类数据越来越多,比如新闻、社交媒体信息、卫星图像。所以,数据变得更广、更深了。我们不仅要看数据的量,更要看它的质量,看我们能不能从里面挖出东西。

第二条是模型。早期我们用线性模型,就是很简单的那种。后来有了机器学习,模型变得复杂了。现在,生成式AI也来了。它让模型变得更智能,能做更复杂的事情。这代表我们从简单的统计分析,走向了AI驱动的认知型决策

第三条是组织架构。以前我们投研,就像工厂流水线,一步接一步。现在,AI技术让**多智能体(Multi-Agent)**协作成为可能。这就像把一个大任务,分成很多小任务,让不同的智能体去完成,它们还能互相沟通。这样一来,团队协作就更高效了,系统也更聪明,有“大脑”能“反思”。

这三条线,每一条都在飞速发展。它们一起推动着整个行业往前走。

Quant 1.0到Quant 4.0

我把量化投资的发展,简单分成了四个阶段,这样你可能更容易理解。

Quant 1.0:经典因子模型阶段(2000年代-2010年代初)
那时候,我们主要玩多因子线性模型。就是找到一些跟股票价格相关的因子,比如市盈率、市值大小。我们觉得,这些因子能解释股票的涨跌。那时候,主要靠研究员的经验和金融理论知识。大家把财报、行情数据挖得很细。这有点像手工时代,很看重人的经验和逻辑。

Quant 2.0:技术进阶阶段(2010年代中期)
后来,市场上的数据变多了,比如Level-2订单簿数据,能看到更详细的交易信息。我们开始做价量因子。就是研究价格和交易量的关系。我们还尝试用更高级的数学方法,比如动态调整因子权重,或者把因子组合起来。但是,大部分时候,我们还是先有人工的想法,然后用统计数据去验证。这就像给旧车换了个新发动机,跑得更快了,但车的骨架没变。

Quant 3.0:机器学习&另类模型阶段(2015-2023年)
这是一个大转变!另类数据大规模出现了,比如供应链数据、新闻数据。我们发现,这些数据里藏着很多信息。同时,机器学习模型开始被广泛使用。它能从海量数据里自动找规律。我们用这些新数据和新模型,发现了很多以前找不到的信号。但是,在这个阶段,数据处理、因子挖掘、组合优化这些环节,还是分开做的。它们之间联系不紧密。结果就是,研究流程很长,出了问题也很难找到原因。整个系统有点像一堆好零件,但是没完全组装成一个整体。

Quant 4.0:Agentic Infrastructure时代(2024年至今)
现在,我们进入了Quant 4.0时代。我理解,它不是要造一个全自动交易的机器人。它更像是对整个投研基础设施的升级。它的目标是,通过多智能体(Multi-Agent)协作,把投研的每一个步骤都变成标准化的模块。这些模块可以编辑,也可以互相配合。这样一来,我们研究一个新策略的时间,就能大大缩短。而且,每一个步骤都有记录,可以追溯,可以重复验证。

我要强调一点,Quant 4.0不是要取代像XGBoost神经网络这些经典的机器学习模型。这些模型还在发挥作用。AI智能体就像是给它们装了一个“智能外壳”。这个外壳让它们工作更有效率,更稳定。毕竟,现在大部分的超额收益(Alpha),还是靠这些经典模型从价格、交易量和基本面特征里挖掘出来的。Agentic Infrastructure的价值,就是让这个挖掘和优化模型的过程,变得更顺畅,更高效。

头部量化机构实践:从”速度竞赛”到”预测与工程化”能力

你看看那些国际上的量化对冲基金大公司,他们最近的变化很明显。

  1. 他们不再只追求低延迟交易的速度。他们把重心放在了中频的预测能力上。
  2. 他们把AI大模型放进投研流程。这样做的目的是让研究更有效率,系统更稳定。

这些变化,我们从人才流动上也能看出来。过去一年,好多DeepMind这种AI大厂的顶尖人才,都去了Jane StreetBalyasnyMillennium这些量化机构。这说明大家都在往这个方向转。

案例一:Man Group的Agentic AI实践
Man Group是全球最大的对冲基金之一。他们公开介绍了一个叫AlphaGPT的东西。他们说,这是一个智能AI研究工作流(agentic AI research workflow)。这是什么意思呢?它能在研究员设定的方法下,自动生成研究想法,自己写代码,然后去回测。这样,从一个研究想法到能跑的策略原型,时间就大大缩短了。

但是,Man Group强调,他们保留了人工审核的环节。AI可以提高研究效率,但是策略的假设对不对,经济逻辑有没有问题,最后要不要上线,这些都还得通过人类的投资委员会来决定。这样能避免AI模型做出“看着合理但实际不能用”的策略。这说明,Quant 4.0的核心思想是**“AI帮助人做决策,而不是取代人做决策”**。

案例二:Hudson River Trading——从”微秒竞赛”到”AI驱动的短期预测”
Hudson River Trading(HRT)以前是高频交易的代表。他们以速度快出名。但是,HRT人工智能实验室的负责人说了,以前那种拼微秒延迟的套利优势,现在越来越小了。市场竞争太激烈。

所以,HRT现在也在变。他们提出了**“慢下来以提速”的概念。这不是说他们变慢了,而是说他们把重心放在了AI驱动的中频策略(Mid-Frequency)**上。他们持仓的时间,从微秒级延长到了分钟级甚至几天。他们用统计方法和预测模型,根据市场微观结构数据,做更可靠的预测。这说明,光靠速度已经不行了,得靠预测能力和“智慧”。

Agentic Copilot普及:提高“生产率”,而非创造 Alpha

头部机构在自己搭建系统,但是普通AI产品开源项目也在快速发展。这让**智能体工作流(Agentic Workflow)**正在快速普及。

最近一两个月,国外的Agentic产品更新很快。它们不只停留在对话聊天,已经能执行更复杂的任务了。比如,Anthropic的Claude Cowork,它能帮你读文件,写文档,还能直接连到Google Drive、FactSet等软件去执行任务。开源领域也有像OpenClaw这样的**“行动型Agent”框架**。这些框架能把你的对话、工具使用、还有当时的状态都记录在自己的系统里。这样你就不用太依赖那些闭源的AI大厂。

我认为,这些能执行任务的智能体成熟以后,对整个量化行业会产生很大的影响。它会降低我们开发和运营的成本。那些资源不多的中小型机构,也能用更低的成本,搭建起自动化的“取数-清洗-回测-报告”流程。

但是,我们也要清醒地认识到:Agentic Copilot它只是提高了研究的**“生产率”。它不会直接帮你创造超额收益(Alpha)。相反,当大家都用这些通用智能体的时候,研究方法和策略反而更容易变得一样。到时候,大家都在用差不多的工具和算力,单靠一个AI-Agent**,很难持续赚钱。可持续的超额收益,还是得靠机构自己独有的高质量数据、精细的组合管理模型,还有准确的交易执行能力。这些才是真正的核心竞争力。

信息处理:LLM重塑另类数据的加工流程

咱们A股市场,公告多,格式也复杂。很多重要信息都藏在这些文本里,而且很看重上下文的意思。比如定增方案、问询函回复、股权激励这些,可能长达几百页。大语言模型(LLM)的出现,正在改变我们处理这些另类数据的方式。它在信息加工环节,解决了数据清洗这个大问题。它能把那些非结构化的文本,变成能直接用于交易的标准化信号。这是LLM最基础也最重要的价值

从NLP工具升级为通用语言基座

以前,我们要处理公告这些文本,得用分词、正则匹配这些老办法。每种公告类型,比如定增、回购,都得单独写规则去提取信息。这个工作量很大。而且,只要公告格式一变,我们写的规则就不能用了,维护起来特别麻烦。LLM作为一种通用语言模型,带来了两个方面的突破。

第一,它让成本大大降低了。LLM零样本学习能力。就是说,你不用教它,它也能直接从几百页的公告里,准确找出关键信息。这样一来,我们处理一份新公告的成本就低很多。

第二,它能理解上下文和捕捉预期差。这才是最厉害的。LLM不只是提取文字,它能理解这些文字背后的意思。比如,它能看出管理层说话的语气变了,或者某个措辞的细微变化。这些变化,往往预示着市场还没有发现的预期差。我感觉,这让量化策略开始有了一种**“认知Alpha”**的能力。它能从更深层次的文本信息里,找到投资机会。这在某种程度上,缩小了量化研究和基本面研究之间的距离。

RAG:投研落地的可靠基础设施

LLM很强大,但是它有一个缺点,就是可能会出现幻觉问题,胡乱编造信息。而且,它的训练数据是截止到某个时间点的,不能实时更新。在实际的投资场景中,这些问题都可能导致大麻烦。所以,检索增强生成(RAG)技术就变得非常重要。它就像一座桥梁,连接了LLM和我们实际的策略应用。

RAG有很多好处。

  1. 它让策略过程可审计。RAG的工作流程是“检索-引用-生成”。就是说,它会先从数据库里找相关信息,然后引用这些信息,最后才生成结果。这样,策略是怎么来的,用了哪些信息,每一步都能查到。这在风险控制和合规方面非常重要。
  2. 它让模型更准确。RAG可以结合我们自己的内部知识库。比如,我们可以把最新的金融报告、行业研报放进去。这样,LLM就能根据这些最新的、专业的数据来生成结果。它更懂金融,也更准确。
  3. 它让知识更新更灵活。大模型的训练非常耗时耗钱,更新很慢。但是RAG可以实时检索最新的信息。这样,LLM生成的信息就是最新的,避免了因为信息过时而出现的问题。

总之,RAG技术让LLM变得更可靠,更适合金融投资。它让我们的量化策略能够**“有据可查”**。

因子挖掘:从穷举试错到逻辑驱动的进化

Alpha因子的挖掘,一直是我们量化研究的一个难题。

  • 我们人工挖掘因子,优点是逻辑很清晰,知道这个因子为什么会有效。但是,我们能挖的范围很有限。人脑的产能不够用。
  • **遗传规划(GP)**方法呢,它能尝试很多种组合,覆盖范围很广。但是,它挖出来的因子,往往缺乏经济学逻辑。我们不知道它为什么有效,而且这种因子通常很快就失效了。这就像“黑盒”一样,出了问题很难归因。

现在,LLM多智能体(Multi-Agent)技术结合起来,提供了一条新路子。这条路是基于逻辑的探索。它不再是盲目地尝试,而是有逻辑地去生成因子。这更像是在构建一个能自我反思,能抗衰减Alpha挖掘流水线

路径对比:人工、GP与LLM

人工挖掘:逻辑清晰但产能受限
A股市场里,很多有效的因子都藏着很深的逻辑。比如,我们发现“融资融券的限制”会影响股价,或者“北向资金的偏好”能带来机会。人工挖掘的好处就是,我们能构建完整的逻辑。这样,在做投资组合的时候,也能更好地控制风险。但是,现在财务数据越来越细,高频数据越来越多,还有各种另类数据,这些信息太多了。靠人工去探索,效率太低,很难覆盖所有可能性。

遗传规划(GP):覆盖面广但可解释性低
GP算法很擅长通过不断变异和组合,去搜索各种因子组合。它覆盖的范围确实很广。但是,它只有一个目标,就是让因子表现好。这样很容易过度拟合历史数据。它挖出来的因子,往往是数据驱动的,容易扎堆。而且,GP生成的那些复杂公式,我们很难理解其中的金融逻辑。如果因子失效了,我们根本不知道是什么原因。这给我们的归因工作带来了大麻烦。

LLM赋能:基于辩论机制的可解释生成
LLM可不是一个简单的翻译工具。它更像一个有逻辑推理能力的研究员。但是,单个LLM模型也可能出错,比如生成幻觉信息,或者逻辑有漏洞。所以,有研究(比如FactorMAD, 2025)提出了Multi-Agent辩论框架。这种模式,不再是“你给我指令,我给你生成结果”那么简单。它引入了**“提议-批判-修正”**的机制。这就像一个研究团队在开会,有人提想法,有人专门挑毛病。这样能确保我们最后选用的因子,既有逻辑,又稳定。

案例:FactorMAD会辩论的因子挖掘框架
**FactorMAD(Factor Mining via Multi-Agent Debate)**这个框架,就是通过模拟人类研究员的合作和争论,来提高因子质量。

  • 核心机制:双重角色的对抗
    这个框架厉害的地方是,它不像传统GP算法那样随机变异。FactorMAD引入了两个有不同角色的智能体:
    1. Proposer Agent(提案智能体):它会根据对市场的理解(比如“量价背离”这个原理),提出一个新因子的思路,然后写出初始的因子计算代码。
    2. Debater Agent(批判智能体):这个智能体扮演的是“风险控制”的角色。它不直接生成因子,而是专门负责“找茬”。它会检查提案智能体写的代码有没有用了未来数据,逻辑是不是太复杂,或者有没有违反金融常识。
  • 迭代进化:提案智能体收到批判意见后,必须自己反思,修改代码。经过几轮“辩论”之后,如果大家都没意见了,这个因子才会被提交到回测系统。

通过这种基于辩论的Multi-Agent架构,因子挖掘就不再是盲目搜索。它变成了一种认知博弈。这样挖出来的因子,不再只是简单地拟合历史数据。它经过了模拟分析师的多轮逻辑辩论,带有清晰的投资逻辑。这样的因子,才更可靠,更有效。

架构升级:Multi-Agent从流水线到认知型系统

以前的量化投研系统,大部分都是流水线架构。数据清洗、因子计算、模型预测、组合优化,一步接一步。这种模式虽然实现了自动化,但面对复杂多变的市场,它也有问题。比如,模型预测失败了,我们很难知道是为什么。是市场环境变了,还是数据出错了?模型没办法自己解释,也无法像人一样“反思”和“修正”。

过去几年,也有人提端到端(end-to-end)模型。它想把所有环节都连起来,简化流程。但是,在实际的投研中,这种模型往往像个“黑盒”。我们不知道它内部是怎么运作的,出了问题很难归因,也很难和风控系统结合。

现在,我注意到一些头部量化机构,已经开始用多智能体(Multi-Agent)来改造他们的研究流程。比如ManGroup介绍了他们的AlphaGPT,它就用了agentic workflow。把研究流程分成了“思路—代码—评估”这几个角色。

为何需要Multi-Agent?

在我看来,Multi-Agent的本质,就是把我们的投研系统,升级成一个有认知分工的“组织”。我们可以把系统拆成很多模块,就像真实的资管公司有数据团队、研究团队、风控团队一样。它把那些以前需要人去协调的团队协作,变成了代码。这样,传统的机器学习模型,比如量价模型,就有了“大脑”。这个“大脑”能统筹全局,也能自己反思。

架构对比:流水线、端到端、Multi‑Agent(从“自动化”到“组织化”)

我觉得Multi-Agent不是要完全取代流水线或端到端架构。它更像是给这些架构,又加了一个**“组织层”**。Multi-Agent的加入,能把以前需要人来完成的协作,变得更明确,更高效。

  • 流水线架构:它自动化程度高,分工清楚。但是,它缺乏反馈机制。如果模型预测错了,很难找到原因。它也不太能适应复杂变化。
  • 端到端架构:它能简化流程,减少中间步骤。但是,它像个“黑盒”,我们不知道它内部怎么运作。可解释性差,也难和风控结合。
  • Multi-Agent架构:它有认知分工,能自我反思和修正。而且,每一步都可追溯。它像给系统装上了“大脑”,能思考,能进化。

案例:Trading Agents——模拟真实的量化公司组织架构
有一篇叫《TradingAgents》的论文,介绍了一个框架。它就是模仿真实量化私募的投研架构设计的。它把交易系统分成不同的功能模块,比如数据团队、研究团队、独立风控团队。

Multi-Agent这个概念不新鲜。但是,LLM带来了实质性的变化。它让那些以前需要人主观判断的投研环节,也能变得模块化、流程化。而且,它还能和风控、组合系统形成一个闭环,每一步都能追溯。

Multi-Agent不是否定以前的量化模型。它给这些模型装上了大脑和感官。它让量化投资从单纯的数据算法竞争,升级到了系统认知能力的竞争。

所以,最实际的Quant 4.0落地形式,其实是混合架构。在这个架构下,AI智能体主要负责一些认知型工作。比如,从新闻和公告里提取特征,识别市场状态,排查数据问题,或者让整个流程顺利闭环。而那些具体的因子打分、合成、组合优化,还是交给基础的机器学习模型来完成。这样结合,既能保留传统量价模型的稳定收益,又能增加认知型信息带来的收益。两全其美。

LLM之外的AI量化:持续创新

前面我们主要说了LLM、RAG和Agent是怎么改变信息处理和投研流程的。现在,我们把目光放到LLM之外。过去两三年,在机器学习(ML)模型层面,也出现了几个值得关注的新趋势。

第一是预测侧的“基座化”。这主要说的是时序基础模型(TSFM)。它强调跨资产、跨频率的通用时序表征。

第二是决策侧的“系统化”。这主要是强化学习模型(RL)。它强调多智能体端到端模式的一体化架构。

预测侧基座模型:TSFM

时序基础模型(TSFM),就是把**“基础模型(Foundation Model)”的概念,用在了时间序列数据**上。它通过分析海量、跨资产、跨频率、跨市场的时间序列数据,提炼出通用的时间模式。然后,它就能很方便地用在各种下游任务上,比如预测、分类、异常检测。

TSFM最大的优点,是它的泛化能力迁移学习能力。它在万亿级的时间点上学习,能找到普适性的时间规律。这种零样本学习的模式,让模型可以直接用在它没见过的新任务或新数据集上。不用调整参数,就能直接用。这在金融领域特别重要。比如,当有新股票上市,或者遇到数据不多的新兴市场时,传统模型可能就无能为力了。但是TSFM就能发挥作用,因为它已经学到了很多通用的时间规律。

决策侧优化模型:强化学习RL

强化学习(RL)模型,最擅长处理连续决策的任务。它就像一个棋手。每一步,它会观察市场状态,然后决定下一步怎么走(比如下单、调仓、对冲)。市场给出反馈后,它会根据这个反馈,不断优化自己的策略。它的目标是让长期收益最大化,或者让交易成本最小化。

这和我们平时“先预测再决策”的方法不一样。RL采用端到端模式,直接输出动作。它更适合处理那些多步决策中,预测误差可能积累,而且约束条件不断变化的情况。

我认为,强化学习在量化领域,更有可能先用在那些目标明确、反馈清晰的小问题上。比如:

  • 交易执行:在控制冲击成本、滑点和流动性的前提下,帮你拆分订单,优化交易路径。
  • 动态风控与仓位管理:在控制回撤、敞口和风险预算的条件下,帮你动态调整仓位。

这些问题,还可以扩展到期权做市、波动率交易、动态资产配置等更广泛的交易场景。它们本质上都是在明确的约束和收益反馈下,去优化长期策略。所以,在方法上,它们和执行、风控问题是相通的。强化学习在这个领域有很大的潜力。

展望:中频或成主战场,Quant 4.0时代的能力重估

我们回顾一下过去两年。量化行业以前主要比拼两件事:一是挖出更厉害的单一预测信号;二是追求更快的硬件响应速度。但是,现在大模型(LLM)和多智能体(Multi-Agent)技术都来了。我感觉,行业已经到了一个新的转折点。竞争的重点,正在从“单个模型预测多准”,转向**“整个系统的研究和实现能力”**。

从信号挖掘走向认知构建

这种转变,背后是超额收益(Alpha)来源的深层变化。以前我们量化的优势,主要靠分析价格、交易量数据和结构化的财务指标,从中找统计规律。这叫“技术Alpha”。现在,LLMAgent技术的加入,让量化策略有机会去挖掘**“认知Alpha”。但我要说清楚,认知Alpha不是要取代技术Alpha**,它们是互相补充的。基础的机器学习模型,比如处理价格动量、反转和微观结构的那些,它们依然是量化收益的“基本盘”。

AI系统的到来,有两点好处。

  1. 它能理解海量公告、问询函和新闻舆情的语义。这样,它就能捕捉到传统模型看不到的“管理层预期差”。这就像给量化策略装上了“眼睛”,能看到以前看不到的东西。
  2. 它能用Agent,大大提高传统机器学习模型迭代和优化的速度。

这种结合,正在缩小量化研究基本面研究之间的距离。

而且,现在信息传播太快了。新媒体环境下,各种信息产生、传播、发酵都很快。市场轮动也加速了,信号的有效期越来越短。这给我们投研系统提出了更高的要求。我们不仅要能把非结构化信息实时变成标准化信号,还要能把“研究到策略”的时间大大缩短,才能适应市场的快速变化。

主战场或为中频赛道

在各种时间尺度里,我倾向于认为中频区间(分钟级到周度),将成为AI技术落地的主战场。为什么呢?因为它在这几个方面,找到了很好的平衡:

  • 数据充足:和那些数据稀疏的低频段比,中频有足够的数据样本。这能支撑Transformer等复杂模型进行训练和微调。
  • 延迟容忍度高:和毫秒级的高频段比,中频对延迟的容忍度高一些。这能让Multi-Agent系统在做决策前,有时间进行多轮逻辑辩论、风控和压力测试。这样能保证策略更稳健。
  • 交易机会丰富:中频区间有很多交易机会。而且,它也容易受到冲击成本的影响。AI在这里,能更好地优化交易执行模型,也能挖掘认知Alpha

所以,我觉得中频赛道未来会变得非常热闹。

Quant 4.0时代的能力重估

未来的量化投研系统,可能会是这样的:

  • 上游:一个实时更新的多模态知识库。里面有各种数据和信息。
  • 中游:通过多智能体辩论机制来挖掘因子,生成代码。
  • 下游:独立的交易执行智能体风控智能体来完成交易闭环。
    或者,它会像一个**“指挥官”**。能实时监控市场,动态调整不同频率策略的风险预算。

但是,我们必须清醒地认识到:通用AI工具(比如Openclaw、Cowork这些)和算力会很快普及。到时候,单个模型的预测优势,还有最初级的流程自动化带来的红利,都会很快消失。一个能涵盖“数据—研究—交易—监控—归因”所有环节的AI-Agent投研平台,很可能就会变成未来Quant 4.0时代所有机构都必须具备的基础设施

既然这种系统化平台只是进入这个行业的门槛,它就不能成为我们最终的护城河。我认为,未来能带来**可持续超额收益(Alpha)**的,最终还是会回归到以下几个方面:

  • 高质量的私有数据储备:你有没有别人没有的独家数据?这些数据可能是特殊渠道获得的,或者经过你独家加工的。
  • 精细的组合管理与执行能力:光有好的策略还不够。怎么把这些策略组合起来,管理好风险,并高效地执行交易,这非常关键。
  • 深厚的风险管理体系:市场波动大,控制风险比赚钱更重要。一个完善的风控体系,是量化投资的生命线。
  • 高水平的人才团队:再好的AI工具,也需要人来用,来调优。顶尖的科学家和研究员,是推动系统进化的核心力量。
  • 快速迭代与适应能力:市场变化太快。谁能更快地学习,更快地适应,更快地调整策略,谁就能在这个市场里活下来,而且活得更好。

总的来说,量化的竞争焦点,正在从单纯的“速度快”转向**“认知深”。在大家工具都差不多的时代,谁能把最顶级的AI基础设施**,和自己机构深厚的数据资产、组合能力、风控能力紧密结合,谁就能在这个快速变化的市场中,不断地创造超额收益

© 版权声明

相关文章

暂无评论

暂无评论...