crewAI
crewAI 是一个轻量级且极速的 Python 框架,专为编排角色扮演与自主运行的 AI 智能体而设计。它旨在解决单一 AI 模型在处理复杂任务时能力有限的问题,通过让多个具备不同角色和目标的智能体像团队一样协作,共同拆解并完成高难度工作流。
这款工具非常适合开发者、技术研究人员以及希望构建企业级自动化流程的工程团队使用。无论是需要快速原型的初创项目,还是对安全性、可扩展性有严格要求的生产环境,crewAI 都能提供灵活的支持。
其独特的技术亮点在于完全从零构建,不依赖 LangChain 或其他现有代理框架,从而在保持代码简洁的同时,赋予开发者对底层逻辑的精准控制权。除了基础的“智能体小组(Crews)”模式外,它还推出了面向企业生产的"Flows"架构,支持细粒度的事件驱动控制和高效的单大模型调用调度。此外,配套的 AMP 套件提供了统一的控制平面,具备实时追踪、可观测性及高级安全合规功能,帮助用户轻松监控和管理大规模智能体系统,是实现高效、可靠 AI 自动化的理想选择。
使用场景
某电商运营团队需要每日从全球新闻、社交媒体和竞品网站中收集信息,自动生成包含市场趋势分析、竞品动态及营销建议的综合日报。
没有 crewAI 时
- 流程割裂且低效:开发人员需编写大量胶水代码串联多个独立脚本,分别负责抓取、分析和写作,维护成本极高且容易出错。
- 角色能力单一:单个 AI 模型难以同时兼顾“严谨的数据核实”与“创造性的营销文案”,导致报告要么数据准确但枯燥,要么文笔生动但事实存疑。
- 缺乏协同机制:不同任务间无法自动传递上下文,前一步的分析结果无法直接指导后一步的写作,人工介入校对和整合耗时耗力。
- 错误难以追踪:当报告出现幻觉或数据偏差时,由于缺乏统一的观测面板,很难定位是哪个环节的逻辑出了问题。
使用 crewAI 后
- 自动化编排流畅:通过定义“研究员”、“分析师”和“主编”三个专属 Agent,crewAI 自动 orchestrates(编排)它们按顺序协作,无需手动编写复杂的流程控制代码。
- 专业角色各司其职:研究员专注全网检索并验证数据,分析师深度解读趋势,主编负责润色文风,三者发挥各自特长,产出内容既专业又具可读性。
- 智能上下文共享:Agent 之间自动共享中间成果,分析师直接基于研究员的清洗数据进行推理,主编则依据分析结论撰写建议,实现了无缝的流水线作业。
- 全链路可观测:利用 crewAI 的追踪功能,团队能实时监控每个 Agent 的执行日志和耗时,快速优化表现不佳的角色提示词,确保输出稳定可靠。
crewAI 将原本碎片化的单点 AI 调用升级为具备协作智慧的自动化团队,让复杂任务的处理效率提升了数倍。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
快速灵活的多智能体自动化框架
CrewAI 是一个精简、极速的 Python 框架,完全从零开始构建——完全独立于 LangChain 或其他智能体框架。它为开发者提供了高层次的简洁性和低层次的精确控制能力,非常适合创建适用于任何场景的自主智能体。
- CrewAI Crews:优化自主性和协作智能。
- CrewAI Flows:用于构建和部署多智能体系统的企业级生产架构。支持细粒度的事件驱动控制、单次 LLM 调用实现精准的任务编排,并原生支持 Crews。
通过我们在 learn.crewai.com 社区课程中认证的超过 10 万名开发者,CrewAI 正迅速成为企业级 AI 自动化领域的标准。
CrewAI AMP 套件
CrewAI AMP 套件是一套面向需要安全、可扩展且易于管理的代理驱动自动化的企业而设计的综合解决方案。
您可以免费试用该套件中的Crew 控制平面。
Crew 控制平面主要特性:
- 追踪与可观性:实时监控和追踪您的 AI 代理及工作流,包括指标、日志和追踪信息。
- 统一控制平面:用于管理、监控和扩展 AI 代理及工作流的集中式平台。
- 无缝集成:轻松连接现有企业系统、数据源和云基础设施。
- 高级安全性:内置强大的安全和合规措施,确保安全部署和管理。
- 可操作洞察:实时分析和报告,以优化性能和决策制定。
- 全天候支持:专门的企业级支持团队,确保无中断运行并快速解决问题。
- 本地部署与云端部署选项:根据您的安全和合规要求,可在本地或云端部署 CrewAI AMP。
CrewAI AMP 专为企业打造,旨在提供强大可靠的整体解决方案,将复杂的业务流程转变为高效智能的自动化流程。
目录
- 为什么选择 CrewAI?
- 入门指南
- 关键特性
- 理解 Flows 和 Crews
- CrewAI 与 LangGraph 对比
- 示例
- 将 Crew 连接到模型
- CrewAI 与其他框架对比
- 常见问题解答 (FAQ)
- 贡献
- 遥测
- 许可证
为什么选择 CrewAI?
CrewAI 开启了多智能体自动化真正的潜力,无论采用 AI 代理群组还是事件流,都能提供速度、灵活性和控制力的最佳组合:
- 独立框架:从零开始构建,独立于 LangChain 或任何其他智能体框架。
- 高性能:针对速度和最小资源消耗进行了优化,从而实现更快的执行。
- 灵活的底层定制:在高层和底层都拥有完全的自定义自由——从整体工作流和系统架构到精细的代理行为、内部提示词和执行逻辑。
- 适用于所有用例:已被证明对简单任务以及高度复杂的真实世界企业级场景均有效。
- 强大的社区支持:背后是一个迅速壮大的社区,拥有超过10 万名认证开发者,提供全面的支持和资源。
CrewAI 使开发者和企业能够自信地构建智能自动化系统,弥合简单性、灵活性和性能之间的差距。
入门指南
按照本教程设置并运行您的第一个 CrewAI 代理。
学习资源
通过我们的综合课程学习 CrewAI:
- 使用 CrewAI 构建多智能体系统——掌握多智能体系统的基础知识
- 实践多智能体与高级用例——深入探讨高级实现
理解流程与团队
CrewAI 提供了两种强大且相辅相成的方法,它们可以无缝协作,构建复杂的 AI 应用程序:
团队:由具有真正自主性和能动性的 AI 代理组成的团队,通过基于角色的协作共同完成复杂任务。团队能够实现:
- 代理之间的自然、自主决策
- 动态的任务委派和协作
- 具有明确目标和专长的专门化角色
- 灵活的问题解决方式
流程:生产就绪的事件驱动型工作流,可对复杂自动化进行精确控制。流程提供:
- 针对现实场景的细粒度执行路径控制
- 任务之间安全、一致的状态管理
- AI 代理与生产环境 Python 代码的干净集成
- 用于复杂业务逻辑的条件分支
CrewAI 的真正强大之处在于将团队和流程相结合。这种协同作用使您能够:
- 构建复杂的生产级应用
- 在自主性与精确控制之间取得平衡
- 处理复杂的现实场景
- 维持整洁、易于维护的代码结构
开始安装
要开始使用 CrewAI,请按照以下简单步骤操作:
1. 安装
请确保您的系统上已安装 Python >=3.10 <3.14。CrewAI 使用 UV 进行依赖管理和软件包处理,从而提供顺畅的设置和执行体验。
首先,安装 CrewAI:
uv pip install crewai
如果您希望安装包含额外工具的 crewai 软件包及其可选功能,可以使用以下命令:
uv pip install 'crewai[tools]'
上述命令不仅会安装基础软件包,还会添加需要更多依赖才能运行的附加组件。
依赖问题排查
如果在安装或使用过程中遇到问题,以下是一些常见的解决方法:
常见问题
ModuleNotFoundError: 没有名为 'tiktoken' 的模块
- 显式安装 tiktoken:
uv pip install 'crewai[embeddings]' - 如果使用 embedchain 或其他工具:
uv pip install 'crewai[tools]'
- 显式安装 tiktoken:
无法为 tiktoken 构建 wheel 包
- 确保已安装 Rust 编译器(参见上述安装步骤)
- 对于 Windows 用户:请确认已安装 Visual C++ Build Tools
- 尝试升级 pip:
uv pip install --upgrade pip - 如果问题仍然存在,可以使用预编译的 wheel 包:
uv pip install tiktoken --prefer-binary
2. 使用 YAML 配置设置您的团队
要创建一个新的 CrewAI 项目,运行以下 CLI(命令行界面)命令:
crewai create crew <project_name>
该命令会创建一个新项目文件夹,其结构如下:
my_project/
├── .gitignore
├── pyproject.toml
├── README.md
├── .env
└── src/
└── my_project/
├── __init__.py
├── main.py
├── crew.py
├── tools/
│ ├── custom_tool.py
│ └── __init__.py
└── config/
├── agents.yaml
└── tasks.yaml
现在您可以开始开发自己的团队,编辑 src/my_project 文件夹中的文件。main.py 文件是项目的入口点,crew.py 文件是定义团队的地方,agents.yaml 文件是定义代理的地方,而 tasks.yaml 文件则是定义任务的地方。
要自定义您的项目,您可以:
- 修改
src/my_project/config/agents.yaml来定义您的代理。 - 修改
src/my_project/config/tasks.yaml来定义您的任务。 - 修改
src/my_project/crew.py来添加您自己的逻辑、工具和特定参数。 - 修改
src/my_project/main.py来为您的代理和任务添加自定义输入。 - 将您的环境变量添加到
.env文件中。
一个简单的顺序流程团队示例:
实例化您的团队:
crewai create crew latest-ai-development
根据您的实际需求修改文件:
agents.yaml
# src/my_project/config/agents.yaml
researcher:
role: >
{topic} 高级数据研究员
goal: >
探索 {topic} 领域的前沿发展
backstory: >
您是一位经验丰富的研究员,擅长挖掘 {topic} 领域的最新进展。以能够找到最相关的信息并以清晰简洁的方式呈现著称。
reporting_analyst:
role: >
{topic} 报告分析师
goal: >
基于 {topic} 数据分析和研究结果撰写详细报告
backstory: >
您是一位一丝不苟的分析师,对细节有着敏锐的洞察力。以善于将复杂数据转化为清晰简明的报告而闻名,使他人能够轻松理解并采取行动。
tasks.yaml
# src/my_project/config/tasks.yaml
research_task:
description: >
对 {topic} 进行全面研究
确保找到任何有趣且相关的信息,考虑到当前年份为 2025 年。
expected_output: >
关于 {topic} 的 10 条要点列表
agent: researcher
reporting_task:
description: >
审阅您获得的内容,并将每个主题扩展为报告中的完整章节。
确保报告内容详尽,涵盖所有相关信息。
expected_output: >
一份完整的报告,包含主要主题及各自的详细信息。
格式为 Markdown,不含 '```'
agent: reporting_analyst
output_file: report.md
crew.py
# src/my_project/crew.py
from crewai import Agent, Crew, Process, Task
from crewai.project import CrewBase, agent, crew, task
from crewai_tools import SerperDevTool
from crewai.agents.agent_builder.base_agent import BaseAgent
from typing import List
@CrewBase
class LatestAiDevelopmentCrew():
"""最新AI发展团队"""
agents: List[BaseAgent]
tasks: List[Task]
@agent
def researcher(self) -> Agent:
return Agent(
config=self.agents_config['researcher'],
verbose=True,
tools=[SerperDevTool()]
)
@agent
def reporting_analyst(self) -> Agent:
return Agent(
config=self.agents_config['reporting_analyst'],
verbose=True
)
@task
def research_task(self) -> Task:
return Task(
config=self.tasks_config['research_task'],
)
@task
def reporting_task(self) -> Task:
return Task(
config=self.tasks_config['reporting_task'],
output_file='report.md'
)
@crew
def crew(self) -> Crew:
"""创建最新AI发展团队"""
return Crew(
agents=self.agents, # 自动由 @agent 装饰器创建
tasks=self.tasks, # 自动由 @task 装饰器创建
process=Process.sequential,
verbose=True,
)
main.py
#!/usr/bin/env python
# src/my_project/main.py
import sys
from latest_ai_development.crew import LatestAiDevelopmentCrew
def run():
"""
运行团队。
"""
inputs = {
'topic': 'AI 代理'
}
LatestAiDevelopmentCrew().crew().kickoff(inputs=inputs)
3. 运行你的团队
在运行团队之前,请确保已在 .env 文件中将以下密钥设置为环境变量:
- OpenAI API 密钥(或其他 LLM API 密钥):
OPENAI_API_KEY=sk-... - Serper.dev API 密钥:
SERPER_API_KEY=YOUR_KEY_HERE
锁定依赖项并使用 CLI 命令安装它们,但首先请导航到你的项目目录:
cd my_project
crewai install (可选)
要运行你的团队,可在项目根目录下执行以下命令:
crewai run
或
python src/my_project/main.py
如果由于使用 Poetry 而发生错误,请运行以下命令来更新你的 crewai 包:
crewai update
你应该会在控制台看到输出,并且会在项目根目录下生成 report.md 文件,其中包含完整的最终报告。
除了顺序流程之外,你还可以使用层次流程,该流程会自动为定义的团队分配一名经理,以通过委派和结果验证来妥善协调任务的规划与执行。在此处了解更多关于流程的信息。
核心特性
CrewAI 是一个精简、独立、高性能的多 AI 代理框架,它提供了简单性、灵活性和精确控制,同时避免了其他代理框架中存在的复杂性和局限性。
- 独立且精简:完全独立于 LangChain 等其他框架,执行速度更快,资源需求更轻。
- 灵活且精准:可通过直观的 Crews 或精确的 Flows 轻松编排自主代理,从而为你的需求实现完美平衡。
- 无缝集成:轻松结合 Crews(自主性)和 Flows(精确性),创建复杂的现实世界自动化流程。
- 深度定制:从高层次的工作流到低层次的内部提示和代理行为,均可进行全方位定制。
- 可靠性能:无论是在简单任务还是复杂的企业级自动化中,都能提供一致的结果。
- 蓬勃发展的社区:拥有完善的文档支持和超过 10 万名认证开发者,能够提供卓越的支持与指导。
选择 CrewAI,轻松构建强大、适应性强且可用于生产的 AI 自动化系统。
示例
你可以在 CrewAI-examples 仓库 中测试不同的真实场景下的 AI 团队示例:
快速教程
编写职位描述
查看此示例的代码 或观看下方视频:
旅行计划器
查看此示例的代码 或观看下方视频:
股票分析
查看此示例的代码 或观看下方视频:
同时使用 Crews 和 Flows
当 Crews 与 Flows 结合使用时,CrewAI 的强大功能才能真正展现出来,从而创建出复杂的自动化流程。CrewAI 流支持逻辑运算符,如 or_ 和 and_,用于组合多个条件。这些运算符可以与 @start、@listen 或 @router 装饰器一起使用,以创建复杂的触发条件。
or_:当满足任何指定条件时触发。and_:当所有指定条件均满足时触发。
以下是如何在 Flow 中编排多个 Crew 的示例:
from crewai.flow.flow import Flow, listen, start, router, or_
from crewai import Crew, Agent, Task, Process
from pydantic import BaseModel
# 定义结构化状态以实现精确控制
class MarketState(BaseModel):
sentiment: str = "neutral"
confidence: float = 0.0
recommendations: list = []
class AdvancedAnalysisFlow(Flow[MarketState]):
@start()
def fetch_market_data(self):
# 展示使用结构化状态进行低级别控制
self.state.sentiment = "analyzing"
return {"sector": "tech", "timeframe": "1W"} # 这些参数与任务描述模板匹配
@listen(fetch_market_data)
def analyze_with_crew(self, market_data):
# 通过专业化角色展示团队的自主性
analyst = Agent(
role="高级市场分析师",
goal="运用专家见解进行深入市场分析",
backstory="您是一位经验丰富的分析师,以识别细微的市场模式而闻名"
)
researcher = Agent(
role="数据研究员",
goal="收集并验证支持性市场数据",
backstory="您擅长寻找和关联多种数据源"
)
analysis_task = Task(
description="分析{sector}行业的过去{timeframe}数据",
expected_output="带有置信度评分的详细市场分析报告",
agent=analyst
)
research_task = Task(
description="寻找支持性数据以验证分析结果",
expected_output="相互印证的证据及潜在矛盾点",
agent=researcher
)
# 展示团队的自主运作
analysis_crew = Crew(
agents=[analyst, researcher],
tasks=[analysis_task, research_task],
process=Process.sequential,
verbose=True
)
return analysis_crew.kickoff(inputs=market_data) # 将market_data作为命名输入传递
@router(analyze_with_crew)
def determine_next_steps(self):
# 展示基于条件路由的流程控制
if self.state.confidence > 0.8:
return "high_confidence"
elif self.state.confidence > 0.5:
return "medium_confidence"
return "low_confidence"
@listen("high_confidence")
def execute_strategy(self):
# 展示复杂的决策制定过程
strategy_crew = Crew(
agents=[
Agent(role="策略专家",
goal="制定最优市场策略")
],
tasks=[
Task(description="根据分析结果制定详细策略",
expected_output="分步行动计划")
]
)
return strategy_crew.kickoff()
@listen(or_("medium_confidence", "low_confidence"))
def request_additional_analysis(self):
self.state.recommendations.append("收集更多数据")
return "需要进一步分析"
本示例展示了如何:
- 使用Python代码进行基础数据操作
- 创建并执行Crews作为工作流中的步骤
- 使用Flow装饰器管理操作顺序
- 根据Crews的结果实现条件分支
将您的Crew连接到模型
CrewAI支持通过多种连接方式使用不同的LLM。默认情况下,您的代理在查询模型时会使用OpenAI API。不过,还有其他几种方法可以让您的代理连接到模型。例如,您可以通过Ollama工具配置代理使用本地模型。
有关配置代理与模型连接的详细信息,请参阅CrewAI连接LLM页面。
CrewAI与其他框架的比较
CrewAI的优势:CrewAI通过其独特的Crews和Flows架构,将自主代理智能与精确的工作流控制相结合。该框架在高层次编排和低层次自定义方面都表现出色,能够构建具有细粒度控制的复杂生产级系统。
- LangGraph:虽然LangGraph为构建代理工作流提供了基础,但其方法需要大量的样板代码和复杂的状态管理模式。该框架与LangChain的高度耦合可能会限制在实现自定义代理行为或与外部系统集成时的灵活性。
附注:CrewAI在某些场景下相比LangGraph具有显著的性能优势,例如在这一QA任务示例中,CrewAI的执行速度是LangGraph的5.76倍(查看对比),而在一些编码任务中,CrewAI也以更快的速度完成了任务,并获得了更高的评估分数(详细分析)。
- Autogen:尽管Autogen擅长创建能够协同工作的对话型代理,但它缺乏内在的过程概念。在Autogen中,协调代理之间的交互需要额外的编程,随着任务规模的扩大,这可能会变得复杂且繁琐。
- ChatDev:ChatDev将过程的概念引入了AI代理领域,但其实现方式相当僵化。ChatDev中的自定义功能有限,且并不面向生产环境,这可能阻碍其在实际应用中的可扩展性和灵活性。
贡献
CrewAI是开源项目,我们欢迎各位贡献。如果您希望参与贡献,请:
- 克隆仓库。
- 为您的功能创建一个新分支。
- 添加您的功能或改进。
- 提交拉取请求。
- 我们非常感谢您的投入!
安装依赖
uv lock
uv sync
虚拟环境
uv venv
预提交钩子
pre-commit install
运行测试
uv run pytest .
运行静态类型检查
uvx mypy src
打包
uv build
本地安装
uv pip install dist/*.tar.gz
遥测
CrewAI 使用匿名遥测来收集使用数据,主要目的是通过将精力集中在最常用的功能、集成和工具上,帮助我们改进该库。
至关重要的是要理解,不会收集任何数据,包括提示、任务描述、智能体的背景故事或目标、工具的使用情况、API 调用、响应、智能体处理的任何数据,以及密钥和环境变量,除非符合上述例外情况。当 share_crew 功能启用时,会收集详细数据,包括任务描述、智能体的背景故事或目标以及其他特定属性,以便在尊重用户隐私的前提下提供更深入的洞察。用户可以通过将环境变量 OTEL_SDK_DISABLED 设置为 true 来禁用遥测功能。
收集的数据包括:
- CrewAI 的版本
- 以便我们了解有多少用户正在使用最新版本
- Python 的版本
- 以便我们决定支持哪些版本
- 操作系统的总体信息(例如 CPU 数量、macOS/Windows/Linux)
- 以便我们知道应该重点关注哪些操作系统,以及是否可以构建特定于操作系统的功能
- 团队中智能体和任务的数量
- 以便我们在内部使用类似的用例进行测试,并向用户普及最佳实践
- 正在使用的团队流程
- 以便了解我们应该将精力集中在哪些方面
- 智能体是否使用记忆功能或允许委派
- 以便了解我们是否需要改进这些功能,甚至将其移除
- 任务是并行执行还是串行执行
- 以便了解我们是否应该更加关注并行执行
- 正在使用的语言模型
- 以更好地支持最常用的语言
- 团队中智能体的角色
- 以便了解高层次的用例,从而构建更好的工具、集成和示例
- 可用工具的名称
- 以便了解在公开可用的工具中,哪些工具使用得最多,从而对其进行改进
用户可以选择参与进一步的遥测,通过将 Crew 对象上的 share_crew 属性设置为 True 来共享完整的遥测数据。启用 share_crew 后,将收集详细的团队和任务执行数据,包括任务的 goal、backstory、context 和 output。这能够在尊重用户分享选择的同时,提供对使用模式的更深入洞察。
许可证
CrewAI 根据 MIT 许可证 发布。
常见问题解答 (FAQ)
一般问题
功能与能力
- CrewAI 能否处理复杂的用例?
- 我能否将 CrewAI 与本地 AI 模型一起使用?
- Crews 与 Flows 有何不同?
- CrewAI 比 LangChain 有哪些优势?
- CrewAI 是否支持微调或训练自定义模型?
资源与社区
企业级功能
问:CrewAI 到底是什么?
答:CrewAI 是一个独立、轻量且快速的 Python 框架,专为编排自主智能体而设计。与 LangChain 等框架不同,CrewAI 不依赖外部依赖项,因此更加轻量、快速且简单。
问:如何安装 CrewAI?
答:使用 pip 安装 CrewAI:
uv pip install crewai
如需安装其他工具,可使用:
uv pip install 'crewai[tools]'
问:CrewAI 是否依赖 LangChain?
答:否。CrewAI 完全从零开始构建,不依赖 LangChain 或其他智能体框架。这确保了其轻量、快速和灵活的体验。
问:CrewAI 能否处理复杂的用例?
答:是的。CrewAI 在简单和高度复杂的实际场景中都表现出色,提供了从内部提示到复杂工作流编排的多层次深度定制选项。
问:我能否将 CrewAI 与本地 AI 模型一起使用?
答:当然可以!CrewAI 支持多种语言模型,包括本地模型。借助 Ollama 和 LM Studio 等工具,可以实现无缝集成。更多详情请参阅 LLM 连接文档。
问:Crews 与 Flows 有何不同?
答:Crews 提供自主智能体协作,非常适合需要灵活决策和动态交互的任务。Flows 则提供精确的事件驱动控制,非常适合管理详细的执行路径和安全的状态管理。您可以将两者无缝结合,以达到最佳效果。
问:CrewAI 比 LangChain 有哪些优势?
答:CrewAI 提供更简单、更直观的 API,执行速度更快,结果更可靠、更一致,文档完善,并拥有活跃的社区——这些都解决了与 LangChain 相关的常见批评和局限性。
问:CrewAI 是开源的吗?
答:是的,CrewAI 是开源的,并积极鼓励社区贡献和合作。
问:CrewAI 会收集用户数据吗?
答:CrewAI 仅出于改进目的收集匿名遥测数据。敏感数据,如提示、任务或 API 响应,绝不会被收集,除非用户明确启用相关功能。
问:在哪里可以找到真实的 CrewAI 示例?
答:请查看 CrewAI-examples 仓库,其中包含旅行计划、股票分析和招聘等实际用例示例。
问:我如何为 CrewAI 做贡献?
答:我们热烈欢迎您的贡献!请 fork 该仓库,创建自己的分支,实施更改并提交 pull request。有关详细指南,请参阅 README 中的“贡献”部分。
问:CrewAI AMP 提供哪些额外功能?
答:CrewAI AMP 提供统一控制平面、实时可观测性、安全集成、高级安全性、可操作的洞察以及专门的 24/7 企业级支持等先进功能。
问:CrewAI AMP 是否适用于云端和本地部署?
答:是的,CrewAI AMP 同时支持基于云和本地部署的选项,使企业能够满足其特定的安全和合规要求。
问:我可以免费试用 CrewAI AMP 吗?
答:是的,您可以通过免费访问 Crew Control Plane 来体验 CrewAI AMP 套件的部分功能。
问:CrewAI 是否支持微调或训练自定义模型?
答:是的,CrewAI 可以与自定义训练或微调过的模型集成,帮助您为智能体注入特定领域的知识和更高的准确性。
问:CrewAI 智能体能否与外部工具和 API 进行交互?
答:当然可以!CrewAI 智能体能够轻松集成外部工具、API 和数据库,从而充分利用现实世界的数据和资源。
问:CrewAI 适合用于生产环境吗?
答:是的,CrewAI 专为生产级标准设计,确保在企业级部署中的可靠性、稳定性和可扩展性。
问:CrewAI 的可扩展性如何?
答:CrewAI 具有极高的可扩展性,既能支持简单的自动化任务,也能处理涉及大量智能体和复杂任务的大型企业级工作流。
问:CrewAI 是否提供调试和监控工具?
答:是的,CrewAI AMP 包含先进的调试、追踪以及实时可观测性功能,可简化自动化流程的管理和故障排查。
问:CrewAI 支持哪些编程语言?
答:CrewAI 主要基于 Python 构建,但通过其灵活的 API 集成能力,能够轻松与使用任何编程语言编写的服务和 API 进行对接。
问:CrewAI 是否为初学者提供学习资源?
答:是的,CrewAI 通过 learn.crewai.com 提供丰富的入门级教程、课程和文档,支持各层次的开发者学习和使用。
问:CrewAI 能否自动化“人机协作”工作流?
答:是的,CrewAI 完全支持“人机协作”工作流,能够在人类专家与 AI 智能体之间实现无缝协作,从而提升决策质量。
版本历史
1.14.2rc12026/04/151.14.2a52026/04/151.14.2a42026/04/141.14.2a32026/04/131.14.2a22026/04/101.14.2a12026/04/081.14.12026/04/081.14.1rc12026/04/081.14.02026/04/071.14.0a42026/04/071.14.0a32026/04/061.14.0a22026/04/061.13.02026/04/021.13.0a72026/04/021.13.0a62026/04/011.13.0a52026/04/011.13.0a42026/03/311.13.0a32026/03/311.13.0rc12026/03/271.13.0a22026/03/26常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。




