vortex
Vortex 是一个新一代列式文件格式和工具包,专为高性能数据处理场景设计。它解决了大数据领域常见的文件读写性能瓶颈问题,特别适合需要频繁读取、分析大规模结构化数据的开发者使用。
Vortex 在性能方面表现突出:随机读取速度比主流的 Apache Parquet 快约 100 倍,完整扫描快 10-20 倍,写入速度快 5 倍,同时保持了相近的压缩率。它采用零拷贝方式与 Apache Arrow 内存格式无缝集成,数据无需额外转换即可在不同系统间流转。架构上,Vortex 支持可插拔的编码系统、类型系统、压缩策略和布局策略,开发者可以根据具体业务需求灵活定制。
作为 Linux 基金会(LF AI & Data)旗下的开源项目,Vortex 提供了 Apache-2.0 许可证,确保了代码的中立性和长期可用性。它已经支持与 Arrow、DataFusion、DuckDB、Spark、Pandas、Polars 等主流数据工具的集成,Apache Iceberg 支持也即将推出。
对于需要构建高性能数据系统、处理海量数据的工程师和数据架构师来说,Vortex 是一个值得关注的选择。
使用场景
一家中型电商平台的数据工程师小张,负责构建用户行为分析系统,每天需要处理数十亿条用户点击、浏览、购买日志,并支持运营团队的实时查询和机器学习团队的离线特征提取。
没有 vortex 时
- 查询等待时间长:运营团队查询"过去7天北京地区用户购买转化率"这样的常见分析,需要等待 3-5 分钟,因为 Parquet 文件扫描太慢,团队经常抱怨"查个数据比写代码还慢"
- 随机采样困难:机器学习团队需要从海量日志中随机抽取特定用户的行为序列做特征工程,但 Parquet 的随机访问性能差,抽取 10 万用户数据要耗时 15 分钟以上
- 宽表性能瓶颈:用户行为日志包含 200+ 字段(商品信息、用户画像、上下文等),Parquet 对这种超宽表的元数据解析效率很低,每次打开文件都要重新扫描 schema
- 存储成本高:虽然 Parquet 压缩率尚可,但为了加速查询不得不额外创建多个物化视图或索引,存储成本居高不下
- 集成繁琐:需要先将 Parquet 转为 Arrow 格式才能给 DataFusion 或 Polars 使用,数据转换过程既耗时又容易出错
使用 vortex 后
- 查询秒级响应:相同查询在 vortex 下只需 2-3 秒即可返回结果,运营团队可以快速迭代分析思路,实时探索数据规律
- 极速随机访问:随机抽取 10 万用户行为数据只需 10 秒左右,比之前快了近 100 倍,机器学习团队的特征工程效率大幅提升
- 宽表零元数据开销:vortex 的零拷贝元数据机制让 200+ 字段的宽表文件打开几乎无延迟,团队不再需要为不同分析场景拆分文件
- 压缩与性能兼得:在保持与 Parquet 相当压缩率的同时,扫描和写入速度提升 10-20 倍,存储成本显著降低
- 无缝现代数据栈:原生支持 Arrow 零拷贝读取,直接对接 DataFusion、Spark、Pandas、Polars,消除格式转换的繁琐和错误风险
vortex 让海量用户行为数据的分析从"等待几分钟"变成"秒级响应",真正释放了数据的实时价值。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🌪️ Vortex
Join the community on Slack! | Documentation | Performance Benchmarks
概述
Vortex 是一个专为高性能数据处理设计的下一代列式文件格式和工具包。它是构建对象存储支持的数据系统最快、最可扩展的格式。它提供:
极速性能
- 随机读取速度提升 100 倍(对比现代 Apache Parquet)
- 扫描速度提升 10-20 倍
- 写入速度提升 5 倍
- 相似的压缩比
- 零拷贝/零解析元数据的高效宽表支持
可扩展架构
- 基于 Apache DataFusion 的可扩展方法建模
- 可插拔的编码系统、类型系统、压缩策略和布局策略
- 与 Apache Arrow 零拷贝兼容
开源、中立治理
- Linux Foundation(LF AI & Data)项目
- Apache-2.0 许可
集成
- Arrow、DataFusion、DuckDB、Spark、Pandas、Polars 等
- Apache Iceberg(即将推出)
🟢 开发状态:库 API 可能会随版本变化,但现在我们认为文件格式是稳定的。从 0.36.0 版本开始,Vortex 的所有未来版本都将保持文件格式的向后兼容性(即能够读取任何早期版本 >= 0.36.0 写入的文件)。
核心特性
核心能力
- 逻辑类型 - 清晰分离逻辑模式与物理布局
- 零拷贝 Arrow 集成 - 与 Apache Arrow 数组无缝转换
- 可扩展编码 - 带有内置优化的可插拔物理布局
- 级联压缩 - 支持嵌套编码方案
- 高性能计算 - 针对编码数据优化的计算内核
- 丰富的统计信息 - 用于优化的延迟加载摘要统计
技术架构
逻辑与物理设计
Vortex 严格分离逻辑和物理关注点:
- 逻辑层:定义数据类型和模式
- 物理层:处理编码和存储实现
- 内置编码:与 Apache Arrow 的内存格式兼容
- 扩展编码:优化的压缩方案(RLE、字典等)
快速入门
安装
Rust Crate
所有功能都通过主 vortex crate 导出。
cargo add vortex
Python 包
uv add vortex-data
命令行工具(vx)
要浏览 Vortex 文件的结构,可以使用 vx 命令行工具。
# Install latest release
cargo install vortex-tui --locked
# Or build from source
cargo install --path vortex-tui --locked
# Usage
vx browse <file>
开发环境设置
前置条件(macOS)
# Optional but recommended dependencies
brew install flatbuffers protobuf # For .fbs and .proto files
brew install duckdb # For benchmarks
# Install Rust toolchain
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
# or
brew install rustup
# Initialize submodules
git submodule update --init --recursive
# Setup dependencies with uv
uv sync --all-packages
基准测试
使用 vx-bench 运行比较引擎(DataFusion、DuckDB)和格式(Parquet、Vortex)的基准测试:
# Install the benchmark orchestrator
uv tool install "bench_orchestrator @ ./bench-orchestrator/"
# Run TPC-H benchmarks
vx-bench run tpch --engine datafusion,duckdb --format parquet,vortex
# Compare results
vx-bench compare --run latest
完整文档请参阅 bench-orchestrator/README.md。
性能优化
为获得最佳性能,我们建议使用 MiMalloc:
#[global_allocator]
static GLOBAL_ALLOC: MiMalloc = MiMalloc;
项目信息
许可证
基于 Apache License, Version 2.0 许可。
治理
Vortex 是一个独立的开源项目,不受任何单一公司控制。Vortex Project 是 Linux Foundation Projects 的子项目。治理模式记录在 CONTRIBUTING.md 中,并受 技术宪章 条款的约束。
贡献
在贡献之前,请务必阅读 CONTRIBUTING.md。
报告安全漏洞
如果您发现安全漏洞,请发送邮件至 vuln-report@vortex.dev。
商标
Copyright © Vortex a Series of LF Projects, LLC. 有关使用条款、商标政策和其他项目政策,请参阅 https://lfprojects.org
致谢
Vortex 项目极大地受益于学术界和开源社区的开创性工作。
Vortex 相关研究
- BtrBlocks - 高效列式压缩
- FastLanes & FastLanes on GPU - 高性能整数压缩
- FSST - 快速随机访问字符串压缩
- ALP & G-ALP - 自适应无损浮点压缩
- Procella - YouTube 的统一数据系统
- Anyblob - 高性能对象存储访问
- ClickHouse - 人人可用的快速分析
- MonetDB/X100 - 超流水线查询执行
- Morsel-Driven Parallelism:面向多核时代的 NUMA 感知查询评估格式
- The FastLanes File Format - 表达式运算符
Vortex 在研究中的应用
开源项目灵感
- Apache Arrow
- Apache DataFusion
- parquet2 - 由 Jorge Leitao 开发
- DuckDB
- Velox 和 Nimble
感谢所有与社区分享知识和代码的贡献者!🚀
版本历史
0.67.02026/03/300.66.02026/03/260.65.02026/03/250.64.02026/03/160.63.02026/03/110.62.02026/03/090.61.02026/03/030.60.02026/02/260.59.42026/02/180.59.32026/02/180.59.22026/02/180.59.12026/02/180.59.02026/02/180.59.0-rc.02026/02/100.58.02026/01/070.57.22026/01/060.57.12026/01/060.57.02026/01/060.57.0-rc.02025/12/080.56.02025/11/17常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。
scikit-learn
scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最
keras
Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。
