spaCy
spaCy 是一款专为 Python 打造的高性能自然语言处理(NLP)库,旨在将前沿的学术研究转化为可直接应用于实际产品的工业级解决方案。它主要解决了开发者在处理文本数据时面临的效率瓶颈与技术落地难题,让用户无需从零构建复杂模型,即可快速实现分词、词性标注、句法分析、命名实体识别及文本分类等核心任务。
这款工具非常适合软件工程师、数据科学家以及需要构建生产级 NLP 应用的研究人员使用。无论是初创团队还是大型企业,都能利用 spaCy 稳健地处理多语言文本数据。其独特的技术亮点在于极致的运行速度与现代化的架构设计:底层采用 Cython 优化以确保高效执行,同时深度融合了 BERT 等预训练 Transformer 模型,支持多任务学习。此外,spaCy 提供了覆盖 70 多种语言的预训练管道,并配备了完整的生产就绪型训练系统与便捷的模型部署方案,让从实验到上线的全流程管理变得简单顺畅。作为商业友好的开源项目,它在保持 MIT 许可开放性的同时,确保了企业级应用所需的稳定性与维护支持。
使用场景
某电商公司的数据团队需要每天从全球各地的用户评论中提取产品缺陷和提及的品牌,以生成质量监控报告。
没有 spaCy 时
- 开发人员不得不手动编写复杂的正则表达式来提取人名、地名和品牌名,一旦遇到拼写变体或非标准格式,提取准确率极低。
- 处理多语言评论(如英语、德语、日语混合)时,需要为每种语言单独寻找并集成不同的轻量级库,导致代码库臃肿且维护困难。
- 由于缺乏高效的词性标注和依存句法分析,难以判断用户是在“赞扬电池续航”还是“抱怨电池发热”,情感倾向分析经常出错。
- 面对百万级的日增评论数据,基于纯 Python 编写的传统 NLP 脚本运行缓慢,往往需要数小时才能完成当日数据的预处理。
使用 spaCy 后
- 直接调用 spaCy 预训练的命名实体识别(NER)模型,无需编写规则即可精准识别全球主流品牌及特定产品部件,大幅降低漏检率。
- 利用其支持的 70 多种语言管道,同一套代码架构即可无缝切换处理不同语种的评论,显著简化了工程部署流程。
- 借助高精度的依存句法分析,系统能准确捕捉形容词与名词的修饰关系,从而正确区分用户对同一功能点的正反两面评价。
- 凭借底层 Cython 优化和工业级设计,数据处理速度提升数十倍,原本需数小时的任务现在仅需几分钟即可完成,实现了近实时监控。
spaCy 将原本繁琐脆弱的文本清洗工作转化为高效、精准的标准化流程,让团队能将精力真正聚焦于业务洞察而非底层算法调试。
运行环境要求
- Linux
- macOS
- Windows
- 可选(非必需)
- 如需加速需 NVIDIA GPU 及 CUDA 兼容环境,具体型号和显存取决于所选模型大小
未说明(取决于模型大小,小型模型仅需几百 MB,大型 Transformer 模型推荐 16GB+)

快速开始
spaCy:工业级自然语言处理
spaCy 是一个用于 Python 和 Cython 的 高级自然语言处理 库。它基于最新的研究成果,并从一开始就专为实际产品开发而设计。
spaCy 提供了 预训练的管道,目前支持 70 多种语言 的分词和模型训练。它拥有最先进的速度和用于标注、句法分析、命名实体识别、文本分类 等任务的 神经网络模型,并支持与 BERT 等预训练 Transformer 模型 结合的多任务学习。此外,spaCy 还配备了一个生产就绪的 训练系统,以及简便的模型打包、部署和工作流管理功能。spaCy 是商业开源软件,采用 MIT 许可证 发布。
💫 版本 3.8 已发布! 请在此处查看发行说明。
📖 文档
| 文档 | |
|---|---|
| ⭐️ spaCy 101 | 刚接触 spaCy?这里有一切你需要了解的内容! |
| 📚 使用指南 | 如何使用 spaCy 及其各项功能。 |
| 🚀 v3.0 新特性 | 新功能、向后不兼容变更及迁移指南。 |
| 🪐 项目模板 | 你可以克隆、修改并运行的端到端工作流。 |
| 🎛 [API 参考] | spaCy API 的详细参考文档。 |
| ⏩ GPU 处理 | 使用支持 CUDA 的 GPU 来加速 spaCy 的处理。 |
| 📦 模型 | 下载适用于 spaCy 的预训练管道。 |
| 🦙 大型语言模型 | 将 LLM 集成到 spaCy 管道中。 |
| 🌌 [生态社区] | spaCy 生态系统中的插件、扩展、演示和书籍。 |
| ⚙️ spaCy VS Code 扩展 | 用于处理 spaCy 配置文件的额外工具和功能。 |
| 👩🏫 在线课程 | 在这门免费且互动式的在线课程中学习 spaCy。 |
| 📰 博客 | 阅读 Explosion 公司关于 spaCy 和 Prodigy 的最新开发进展、版本发布、技术分享等内容。 |
| 📺 视频 | 我们的 YouTube 频道,提供视频教程、技术演讲等丰富内容。 |
| 🔴 直播 | 每周与 Matt 一起实时开发 spaCy,并畅聊自然语言处理相关话题。 |
| 🛠 [更新日志] | 变更记录与版本历史。 |
| 💝 [贡献] | 如何为 spaCy 项目及其代码库做出贡献。 |
| 👕 周边商品 | 通过独特、定制设计的周边商品来支持我们及我们的工作! |
![]() |
由 spaCy 核心开发团队提供的定制化 NLP 咨询、实施及战略建议。流程精简、可直接投入生产、结果可预测且易于维护。发送邮件给我们或填写我们的 5 分钟问卷,我们将尽快与你联系! 了解更多 → |
💬 提问渠道
spaCy 项目由 spaCy 团队 维护。请理解,我们无法通过电子邮件提供一对一的支持。同时,我们认为公开分享的帮助更有价值,这样更多人可以从中受益。
| 类型 | 平台 |
|---|---|
| 🚨 Bug 报告 | GitHub 问题追踪器 |
| 🎁 功能请求与建议 | GitHub 讨论区 · 直播 |
| 👩💻 使用问题 | GitHub 讨论区 · Stack Overflow |
| 🗯 一般讨论 | GitHub 讨论区 · 直播 |
特性
- 支持 70+ 种语言
- 针对不同语言和任务的 预训练管道
- 使用 BERT 等预训练 Transformer 模型进行多任务学习
- 支持预训练的 词向量 和嵌入
- 行业领先的运行速度
- 生产就绪的 训练系统
- 基于语言学原理的 分词
- 用于命名实体识别、词性标注、依存句法分析、句子切分、文本分类、词形还原、形态分析、实体链接等功能的组件
- 可通过 自定义组件 和属性轻松扩展
- 支持在 PyTorch、TensorFlow 等框架中使用自定义模型
- 内置语法和 NER 的 可视化工具
- 简单的 模型打包、部署和工作流管理
- 稳健且经过严格评估的准确性
📖 更多详情,请参阅 事实、数据与基准测试。
⏳ 安装 spaCy
详细的安装说明请参阅 文档。
- 操作系统: macOS / OS X · Linux · Windows (Cygwin, MinGW, Visual Studio)
- Python 版本: Python >=3.7, <3.13(仅 64 位)
- 包管理器: pip · conda(通过
conda-forge)
pip
通过 pip,spaCy 发布了源码包和二进制 wheel 文件。在安装 spaCy 及其依赖项之前,请确保您的 pip、setuptools 和 wheel 均为最新版本。
pip install -U pip setuptools wheel
pip install spacy
若需安装用于词形还原和归一化的额外数据表,可运行 pip install spacy[lookups],或单独安装
spacy-lookups-data。该 lookups 包用于创建包含词形还原数据的空白模型,以及对尚未提供预训练模型且未借助第三方库的语言进行词形还原。
使用 pip 时,通常建议在虚拟环境中安装软件包,以避免修改系统状态:
python -m venv .env
source .env/bin/activate
pip install -U pip setuptools wheel
pip install spacy
conda
您也可以通过 conda-forge 通道从 conda 安装 spaCy。有关包含构建配方和配置的 feedstock,请查看
此仓库。
conda install -c conda-forge spacy
更新 spaCy
某些 spaCy 更新可能需要下载新的统计模型。如果您正在使用 spaCy v2.0 或更高版本,可以使用 validate 命令检查已安装的模型是否兼容;如果不兼容,则会显示更新方法的详细信息:
pip install -U spacy
python -m spacy validate
如果您曾训练过自己的模型,请注意训练输入和运行时输入必须一致。更新 spaCy 后,我们建议您使用新版本 重新训练模型。
📖 关于从 spaCy 2.x 升级到 spaCy 3.x 的详细信息,请参阅 迁移指南。
📦 下载模型包
spaCy 的预训练管道可以作为 Python 包 安装。这意味着它们是您应用程序的一部分,与其他模块无异。模型可以通过 spaCy 的 download 命令安装,也可以手动通过指定路径或 URL 进行安装。
| 文档 | |
|---|---|
| [可用管道] | 详细的管道描述、准确率数据和基准测试。 |
| [模型文档] | 详细的使用和安装说明。 |
| [训练] | 如何基于您的数据训练自定义管道。 |
# 为您的 spaCy 安装下载最匹配的特定模型版本
python -m spacy download en_core_web_sm
# 使用 pip 安装 .tar.gz 归档或来自路径或 URL 的 .whl 文件
pip install /Users/you/en_core_web_sm-3.0.0.tar.gz
pip install /Users/you/en_core_web_sm-3.0.0-py3-none-any.whl
pip install https://github.com/explosion/spacy-models/releases/download/en_core_web_sm-3.0.0/en_core_web_sm-3.0.0.tar.gz
加载和使用模型
要加载一个模型,可以使用 spacy.load(),传入模型名称或指向模型数据目录的路径。
import spacy
nlp = spacy.load("en_core_web_sm")
doc = nlp("This is a sentence.")
你也可以直接通过模型的完整名称导入它,然后调用其 load() 方法,无需传递任何参数。
import spacy
import en_core_web_sm
nlp = en_core_web_sm.load()
doc = nlp("This is a sentence.")
📖 更多详细信息和示例,请参阅 模型文档。
⚒ 从源代码编译
安装 spaCy 的另一种方式是克隆其 GitHub 仓库,然后从源代码构建。如果你希望对代码库进行修改,这种方式通常更为常见。你需要确保已搭建好开发环境,包括带有头文件的 Python 发行版、编译器、 pip、 virtualenv 和 git。其中编译器的配置最为复杂,具体操作取决于你的操作系统。
| 平台 | |
|---|---|
| Ubuntu | 通过 apt-get 安装系统级依赖:sudo apt-get install build-essential python-dev git 。 |
| Mac | 安装最新版本的 XCode及其“命令行工具”。macOS 和 OS X 系统默认预装了 Python 和 git。 |
| Windows | 安装与你的 Python 解释器编译时所使用的版本相匹配的 Visual C++ Build Tools 或 Visual Studio Express。 |
有关更详细的说明,请参阅关于 从源代码编译 spaCy 的文档以及 快速入门小工具,以获取适用于你所在平台和 Python 版本的正确命令。
git clone https://github.com/explosion/spaCy
cd spaCy
python -m venv .env
source .env/bin/activate
# 确保使用最新版本的 pip
python -m pip install -U pip setuptools wheel
pip install -r requirements.txt
pip install --no-build-isolation --editable .
若需安装附加组件:
pip install --no-build-isolation --editable .[lookups,cuda102]
🚦 运行测试
spaCy 自带一套
全面的测试套件。为了运行这些测试,通常需要先克隆仓库并从源代码构建 spaCy。这样做还会安装在 requirements.txt 中定义的必要开发依赖项和测试工具。
另外,你也可以在已安装的 spacy 包中直接运行 pytest 来执行测试。别忘了先通过 spaCy 的
requirements.txt 安装测试所需的工具:
pip install -r requirements.txt
python -m pytest --pyargs spacy
版本历史
release-v3.8.142026/03/29release-v3.8.132026/03/23release-v3.8.122026/03/23release-v3.8.112025/11/17release-v3.8.102025/11/17release-v3.8.92025/11/13release-v3.8.82025/11/07release-v3.8.72025/05/23release-v3.8.62025/05/19release-v3.8.32024/12/11release-v3.8.22024/10/01prerelease-v3.8.0.dev02024/09/09prerelease-v3.7.6a2024/08/20v3.7.52024/06/05v3.7.42024/02/15v3.7.22023/10/16v3.7.12023/10/05v3.7.02023/10/02v3.6.12023/08/08v3.6.02023/07/07常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

