QuantaAlpha

GitHub
599 113 较难 1 次阅读 今天插件Agent语言模型
AI 解读 由 AI 自动生成,仅供参考

QuantaAlpha 把“写论文”式的因子研究流程自动化:只需用中文或英文描述你的研究方向,例如“寻找能预测 A 股短期反转的微观结构因子”,它便调用大语言模型生成多样化假设,再用进化算法在真实行情数据上自动挖掘、变异、验证因子,最终输出可直接落地的 alpha 因子及回测报告。整个过程像一条自我演化的轨迹,无需手工调参或反复试错。

它解决了传统量化研究“灵感枯竭 + 代码繁琐 + 验证耗时”的三重痛点,把数周的工作量压缩到数小时,并显著降低因子过拟合风险。

适合量化研究员、基金经理、金融科技开发者,以及对因子投资感兴趣的高校师生。只需具备基础 Python 环境即可上手,也提供 Web 界面零代码体验。

技术亮点:大模型驱动的“假设-代码”双空间约束搜索、轨迹级进化策略、零样本跨市场迁移能力,并内置可复现的实验框架与可视化仪表盘。

使用场景

一家 30 人规模的多策略量化私募正在筹备 2025 年 A 股中高频选股产品线,需要在 6 周内交付 20 条年化 IR>2 的 alpha 因子,用于 5 亿规模实盘。

没有 QuantaAlpha 时

  • 研究员先花 3 天人工阅读 200 篇研报,再写 50 行代码做特征工程,结果只筛出 3 条勉强可用的因子,信息比率 1.4,远不达标。
  • 因子迭代靠“调参+暴力回测”,每次改动都要跑 4 小时全量数据,一周只能迭代两轮,时间被拖垮。
  • 不同研究员的因子命名、数据口径、回测框架不一致,合并到母策略时冲突频发,PM 每晚手动对齐到 2 点。
  • 因子逻辑全靠人脑记忆,离职同事留下的 .ipynb 没人敢动,知识断层导致新人 2 个月才能上手。

使用 QuantaAlpha 后

  • 研究员在 Web 界面输入“挖掘与北向资金瞬时冲击相关的短期反转因子”,30 分钟后系统返回 18 条候选因子,其中 7 条 IR>2.3,直接达标。
  • 每条因子附带可解释代码与可视化轨迹,研究员一键 fork 后 10 分钟完成二次进化,日迭代次数从 2 次提升到 12 次。
  • 框架自动生成统一命名、数据校验与回测脚本,PM 用 Dashboard 拖拽即可把 20 条因子打包成策略,合并冲突降为 0。
  • 所有因子、假设、实验记录自动写入知识图谱,新人 3 天即可复现并改进老因子,团队离职交接成本下降 80%。

QuantaAlpha 让 6 周交付 20 条高质量 alpha 因子从“不可能任务”变成“一个下午就能验收”的常规流程。

运行环境要求

操作系统
  • Linux
  • Windows
GPU

未说明

内存

未说明

依赖
notes原生开发环境为 Linux,Windows 需额外设置 CONDA_DEFAULT_ENV;首次运行需下载约 900 MB 数据集(cn_data.zip + daily_pv.h5);LLM 调用依赖外部 API(OpenAI、DashScope 等),无需本地 GPU
python3.10+
setuptools-scm
qlib
openai
huggingface-hub
QuantaAlpha hero image

快速开始

QuantaAlpha框架概览

🌟 QuantaAlpha:基于LLM的因子挖掘自进化框架

🧬 通过基于轨迹的自进化、多样化规划初始化、轨迹级进化以及结构化假设—代码约束,实现卓越的量化阿尔法

🌐 英文 | 中文


🎯 概述

QuantaAlpha 通过将LLM智能与进化策略相结合,彻底改变了您发现量化阿尔法因子的方式。只需描述您的研究方向,即可见证因子通过自进化轨迹被自动挖掘、进化并验证。

💬 研究方向 → 🧩 多样化规划 → 🔄 轨迹 → ✅ 验证后的阿尔法因子

演示:以下是完整的从研究方向到因子挖掘及回测界面的简短演示。

▶ 点击播放QuantaAlpha端到端工作流演示。


📊 性能

1. 因子表现

零样本迁移

CSI 300因子迁移到CSI 500/S&P 500

2. 关键结果

维度 指标 表现
预测能力 信息系数(IC) 0.1501
排名IC 0.1465
策略收益 年化超额收益(ARR) 27.75%
最大回撤(MDD) 7.98%
卡尔马比率(CR) 3.4774
主实验结果

🚀 快速入门

🔬 实验:论文复现设置与指标定义 — 英文 · 中文

1. 克隆与安装

git clone https://github.com/QuantaAlpha/QuantaAlpha.git
cd QuantaAlpha
conda create -n quantaalpha python=3.10
conda activate quantaalpha
# 以开发模式安装包
SETUPTOOLS_SCM_PRETEND_VERSION=0.1.0 pip install -e .

# 安装额外依赖
pip install -r requirements.txt

2. 配置环境

cp configs/.env.example .env

编辑.env文件以配置您的设置:

# === 必需:数据路径 ===
QLIB_DATA_DIR=/path/to/your/qlib/cn_data      # Qlib数据目录
DATA_RESULTS_DIR=/path/to/your/results         # 输出目录

# === 必需:LLM API ===
OPENAI_API_KEY=your-api-key
OPENAI_BASE_URL=https://your-llm-provider/v1   # 例如DashScope、OpenAI
CHAT_MODEL=deepseek-v3                         # 或gpt-4、qwen-max等
REASONING_MODEL=deepseek-v3

3. 准备数据

QuantaAlpha需要两类数据:Qlib市场数据(用于回测)和预计算的价格—成交量HDF5文件(用于因子挖掘)。为方便起见,我们已在HuggingFace上提供了所有这些数据。

数据集https://huggingface.co/datasets/QuantaAlpha/qlib_csi300

文件 描述 大小 使用
cn_data.zip Qlib原始市场数据(A股,2016–2025) 493 MB 用于Qlib初始化与回测
daily_pv.h5 预计算的完整价格—成交量数据 398 MB 用于因子挖掘
daily_pv_debug.h5 预计算的调试子集(较小) 1.41 MB 用于因子挖掘(调试/验证)

为什么提供HDF5文件? 系统在首次运行时可以从Qlib数据自动生成daily_pv.h5,但这一过程非常缓慢。下载预构建的HDF5文件可节省大量时间。

第一步:下载

# 方案A:使用huggingface-cli(推荐)
pip install huggingface_hub
huggingface-cli download QuantaAlpha/qlib_csi300 --repo-type dataset --local-dir ./hf_data

# 方案 B:使用 wget
```bash
mkdir -p hf_data
wget -P hf_data https://huggingface.co/datasets/QuantaAlpha/qlib_csi300/resolve/main/cn_data.zip
wget -P hf_data https://huggingface.co/datasets/QuantaAlpha/qlib_csi300/resolve/main/daily_pv.h5
wget -P hf_data https://huggingface.co/datasets/QuantaAlpha/qlib_csi300/resolve/main/daily_pv_debug.h5

第二步:解压并放置文件

# 1. 解压 Qlib 数据
unzip hf_data/cn_data.zip -d ./data/qlib

# 2. 将 HDF5 文件放入默认数据目录
mkdir -p git_ignore_folder/factor_implementation_source_data
mkdir -p git_ignore_folder/factor_implementation_source_data_debug

cp hf_data/daily_pv.h5       git_ignore_folder/factor_implementation_source_data/daily_pv.h5
cp hf_data/daily_pv_debug.h5  git_ignore_folder/factor_implementation_source_data_debug/daily_pv.h5

注意daily_pv_debug.h5 在放入 debug 目录时必须重命名为 daily_pv.h5

第三步:配置 .env 中的路径

# 指向解压后的 Qlib 数据目录(必须包含 calendars/、features/、instruments/)
QLIB_DATA_DIR=./data/qlib/cn_data

# 实验结果输出目录
DATA_RESULTS_DIR=./data/results

如果希望将 HDF5 数据目录放在其他位置,也可以通过环境变量进行自定义:

# 可选:覆盖默认的 HDF5 数据路径
FACTOR_CoSTEER_DATA_FOLDER=/your/custom/path/factor_source_data
FACTOR_CoSTEER_DATA_FOLDER_DEBUG=/your/custom/path/factor_source_data_debug

4. 运行因子挖掘

./run.sh "<your input>"

# 示例:按研究方向运行
./run.sh "价格-成交量因子挖掘"

# 示例:使用自定义因子库后缀运行
./run.sh "微观结构因子" "exp_micro"

实验会自动进行 alpha 因子的挖掘、演化与验证,并将所有发现的因子保存到 all_factors_library*.json 文件中。

5. 独立回测

挖掘完成后,可将因子库中的因子组合起来进行全周期回测:

# 使用自定义因子进行回测
python -m quantaalpha.backtest.run_backtest \
  -c configs/backtest.yaml \
  --factor-source custom \
  --factor-json all_factors_library.json

# 与 Alpha158(20) 基线因子组合回测
python -m quantaalpha.backtest.run_backtest \
  -c configs/backtest.yaml \
  --factor-source combined \
  --factor-json all_factors_library.json

# 干预式回测(仅加载因子,跳过回测)
python -m quantaalpha.backtest.run_backtest \
  -c configs/backtest.yaml \
  --factor-source custom \
  --factor-json all_factors_library.json \
  --dry-run -v

结果会保存到 configs/backtest.yaml 中指定的目录(experiment.output_dir)。

📘 需要帮助?请查阅我们详尽的 用户指南,了解高级配置、实验复现及详细使用示例。


🖥️ Web 界面

QuantaAlpha 提供了一个基于网页的仪表盘,您可以通过可视化界面完成整个工作流程——无需命令行操作。

conda activate quantaalpha
cd frontend-v2
bash start.sh
# 访问 http://localhost:3000
  • ⚙️ 设置:直接在界面中配置 LLM API、数据路径及实验参数
  • ⛏️ 因子挖掘:通过自然语言输入启动实验,并实时监控进度
  • 📚 因子库:浏览、搜索并筛选所有已发现的因子及其质量分类
  • 📈 独立回测:选择因子库并运行全周期回测,查看可视化结果

🪟 Windows 部署

QuantaAlpha 是为 Linux 原生开发的。以下是在 Windows 10/11 上运行的部署指南。

技术细节请参阅 docs/WINDOWS_COMPAT.md

与 Linux 的主要区别

功能 Linux Windows
开始挖掘 ./run.sh "direction" python launcher.py mine --direction "direction"
启动前端 bash start.sh 分别启动后端和前端(见下文)
.env 路径格式 /home/user/data C:/Users/user/data(使用正斜杠)
额外配置 必须设置 CONDA_DEFAULT_ENV(见下文)
rdagent 补丁 自动应用(quantaalpha/compat/rdagent_patches.py

安装

# 1. 安装 Miniconda(安装时勾选“添加到 PATH”)
# 2. 创建 conda 环境
conda create -n quantaalpha python=3.11 -y
conda activate quantaalpha

# 3. 克隆并安装
git clone https://github.com/QuantaAlpha/QuantaAlpha.git
cd QuantaAlpha
set SETUPTOOLS_SCM_PRETEND_VERSION=0.1.0
pip install -e .

配置 .env

copy configs\.env.example .env

编辑 .env — 路径使用 正斜杠

QLIB_DATA_DIR=C:/Users/yourname/path/to/cn_data
DATA_RESULTS_DIR=C:/Users/yourname/path/to/results
CONDA_ENV_NAME=quantaalpha
CONDA_DEFAULT_ENV=quantaalpha    # ← Windows 上必需

运行

# 因子挖掘
python launcher.py mine --direction "price-volume factor mining"

# 独立回测
python -m quantaalpha.backtest.run_backtest -c configs/backtest.yaml --factor-source custom --factor-json data/factorlib/all_factors_library.json -v

Web 前端(可选)

需要 Node.js(v18+)。在两个终端中分别启动:

# 终端 1 — 后端 API
cd frontend-v2 && python backend/app.py

# 终端 2 — 前端
cd frontend-v2 && npm install && npm run dev

访问 http://localhost:3000。

故障排除

错误 解决方法
CondaConf conda_env_name: Input should be a valid string .env 中添加 CONDA_DEFAULT_ENV=quantaalpha
UnicodeEncodeError: 'gbk' 执行 chcp 65001 或设置 PYTHONIOENCODING=utf-8
Failed to resolve import "@radix-ui/react-hover-card" cd frontend-v2 && npm install

💬 用户社区

微信群
微信群

🤝 贡献

我们欢迎各种形式的贡献,以使 QuantaAlpha 更加完善!以下是您可以参与的方式:

  • 🐛 Bug 报告:发现了 bug?提交 issue,帮助我们修复。
  • 💡 功能请求:有好点子?发起讨论,提出新功能建议。
  • 📝 文档与教程:改进文档、添加使用示例或编写教程。
  • 🔧 代码贡献:提交 PR,修复 bug、提升性能或增加新功能。
  • 🧬 新因子:分享您自己运行中发现的高质量因子,造福社区。

🙏 致谢

特别感谢:

  • Qlib - 微软推出的量化投资平台
  • RD-Agent - 微软研发的自动化研发框架(NeurIPS 2025)
  • AlphaAgent - 多智能体阿尔法因子挖掘框架(KDD 2025)

🌐 关于 QuantaAlpha

  • QuantaAlpha 由来自清华大学、北京大学、中科院、卡内基梅隆大学、香港科技大学等高校的教授、博士后、博士及硕士生团队于2025年4月创立。

🌟 我们的使命是探索智能的“量子”本质,开创智能体研究的“阿尔法”前沿——从CodeAgent自我进化智能,再到金融与跨领域专用智能体,我们致力于重新定义人工智能的边界。

✨ 在2026年,我们将继续在以下方向开展高质量研究:

  • CodeAgent:端到端的现实世界任务自主执行
  • DeepResearch:深度推理与检索增强型智能
  • Agentic Reasoning / Agentic RL:基于智能体的推理与强化学习
  • 自我进化与协同学习:多智能体系统的进化与协调

📢 欢迎对这些方向感兴趣的学生和研究人员加入我们!

🔗 团队主页QuantaAlpha
📧 邮箱quantaalpha.ai@gmail.com

🌐 关于 AIFin Lab

AIFin Lab 由上海财经大学的张立文教授发起,深耕AI + 金融、统计学与数据科学的交叉领域。团队汇聚了来自上海财经大学、福建师范大学、东南大学、卡内基梅隆大学、香港中文大学等顶尖院校的前沿学者。我们致力于构建一个涵盖数据、模型、基准测试与智能提示的全方位“全链路”体系。

📢 我们诚邀全球范围内对智能体安全与金融智能充满热情的优秀本科生、硕士生及博士生,以及相关领域的研究人员加入 AIFin Lab!

📧 邮箱aifinlab.sufe@gmail.com(请抄送至 zhang.liwen@shufe.edu.cn

期待您的来信!


📖 引用

如果您在研究中发现 QuantaAlpha 有用,请引用我们的工作:

@misc{han2026quantaalphaevolutionaryframeworkllmdriven,
      title={QuantaAlpha:一个用于LLM驱动的阿尔法因子挖掘的进化框架}, 
      author={韩俊、张硕、李伟、杨志、董一帆、胡图、袁家洛、于晓敏、朱宇墨、娄方奇、郭欣、刘兆伟、江天怡、安瑞川、刘景平、吴彪、陈荣泽、王坤毅、王一帆、胡森、孔新兵、张立文、陈荣浩、王华灿},
      year={2026},
      eprint={2602.07085},
      archivePrefix={arXiv},
      primaryClass={q-fin.ST},
      url={https://arxiv.org/abs/2602.07085}, 
}

⭐ 星标历史

星标历史图表


⭐ 如果 QuantaAlpha 对您有帮助,请为我们点个星!

由 QuantaAlpha 团队用心打造

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架