claude-code-settings

GitHub
1.4k 210 中等 1 次阅读 今天MITAgent开发框架语言模型图像
AI 解读 由 AI 自动生成,仅供参考

claude-code-settings 是一个为 Claude Code 量身定制的设置、技能和子代理集合,旨在提升开发效率和代码编写体验。它提供了多种技能,如基于规格的开发流程、代码分析、GitHub 集成和知识管理,帮助开发者更高效地完成任务。

这个工具解决了传统开发中手动配置繁琐、自动化程度低的问题,通过预设的技能和代理,简化了复杂任务的执行流程,让开发者可以专注于核心逻辑,而不是重复性操作。

适合需要频繁使用 AI 辅助编码的开发者,特别是那些希望优化工作流、提升自动化水平的用户。研究人员或设计师如果涉及代码生成与分析,也可以从中受益。

其独特之处在于支持多种执行模式、模型选择以及自动化的长任务处理,同时兼容 GitHub Copilot 和 LiteLLM 代理,增强了灵活性和扩展性。

使用场景

某位全栈开发者正在为一个电商平台开发新功能,需要频繁与 GitHub 集成、编写代码、分析现有系统,并管理项目知识库。他希望提高开发效率,减少重复性工作。

没有 claude-code-settings 时

  • 需要手动配置 Claude 的各项设置,过程繁琐且容易出错。
  • 缺乏自动化技能支持,如无法直接调用 Codex CLI 实现代码生成或执行任务。
  • GitHub 集成和代码分析等功能需要额外插件或工具,难以统一管理。
  • 在处理长时间运行的任务时,缺乏自动化的流程控制和状态跟踪能力。
  • 知识管理依赖外部工具,无法与 Claude 流畅协作,影响整体开发效率。

使用 claude-code-settings 后

  • 可通过插件市场一键安装并配置 Claude 的开发相关设置,简化了初始化流程。
  • 直接集成 codex-skill 和 autonomous-skill,实现代码自动生成、任务自动化执行,显著提升工作效率。
  • 提供 GitHub 集成和代码分析等子代理,使版本控制和代码审查更加高效。
  • 支持长时间任务的自动化处理,无需人工干预,任务状态可追踪。
  • 内置知识管理功能,便于在开发过程中快速检索和整理技术文档与项目信息。

claude-code-settings 让开发者能够更专注于核心业务逻辑,而非重复性配置和工具管理。

运行环境要求

操作系统
  • Linux
  • macOS
GPU

需要 NVIDIA GPU,显存 8GB+,CUDA 11.7+

内存

16GB+

依赖
notes建议使用 conda 管理环境,首次运行需下载约 5GB 模型文件。部分技能(如 nanobanana-skill)需要配置 GEMINI_API_KEY,并安装 Google Gemini API 相关依赖。
python3.8+
litellm
google-genai
Pillow
python-dotenv
yt-dlp
chrome-devtools-mcp
claude-code-settings hero image

快速开始

Claude Code 设置/技能,用于 Vibe 编码

这是一套精心挑选的 Claude Code 设置、技能和子代理集合,旨在提升开发工作流。该配置包含专门用于功能开发(基于规范的工作流)、代码分析、GitHub 集成以及知识管理的技能和子代理。

关于 OpenAI Codex 的设置、配置和自定义提示,请参阅 feiskyer/codex-settings

设置

使用 Claude Code 插件

/plugin marketplace add feiskyer/claude-code-settings

# 安装主插件(技能和代理)
/plugin install claude-code-settings

# 或者单独安装各项技能
/plugin install codex-skill               # Codex 自动化
/plugin install autonomous-skill          # 长时间运行任务自动化
/plugin install nanobanana-skill          # 图像生成
/plugin install kiro-skill                # Kiro 工作流
/plugin install spec-kit-skill            # Spec-Kit 工作流
/plugin install youtube-transcribe-skill  # YouTube 字幕提取

注意:

使用 npx 技能

npx skills 可以仅用于为您的 AI 编码工具安装技能。

# 列出技能
npx -y skills add -l feiskyer/claude-code-settings

# 安装所有技能
npx -y skills add --all feiskyer/claude-code-settings

# 手动选择要安装的技能列表
npx -y skills add feiskyer/claude-code-settings

手动设置

# 备份原始 Claude 设置
mv ~/.claude ~/.claude.bak

# 克隆 claude-code-settings
git clone https://github.com/feiskyer/claude-code-settings.git ~/.claude

# 安装 LiteLLM 代理
pip install -U 'litellm[proxy]'

# 启动 LiteLLM 代理(监听 http://0.0.0.0:4000)
litellm -c ~/.claude/guidances/litellm_config.yaml

# 为了方便起见,使用 tmux 在后台运行 LiteLLM 代理
# tmux new-session -d -s copilot 'litellm -c ~/.claude/guidances/litellm_config.yaml'

启动后,您将看到:

...
请访问 https://github.com/login/device 并输入代码 XXXX-XXXX 进行认证。
...

打开该链接,登录并认证您的 GitHub Copilot 账户。

注意:

  1. 默认配置是利用 LiteLLM 代理服务器 作为 LLM 网关连接到 GitHub Copilot。您也可以使用 copilot-api 作为代理(记得将端口改为 4141)。

  2. 确保您的账户中已启用以下模型;如果未启用,请替换为您自己的模型名称:

    • ANTHROPIC_DEFAULT_SONNET_MODEL:claude-sonnet-4.6
    • ANTHROPIC_DEFAULT_OPUS_MODEL:claude-opus-4.6
    • ANTHROPIC_DEFAULT_HAIKU_MODEL:gpt-5-mini

技能

技能是 可重用的能力,它们教会 Claude 如何完成特定任务。可以通过 /skill-name [参数] 调用,或根据上下文自动触发。只需安装您需要的技能:

codex-skill - 将任务交由 Codex CLI 处理

codex-skill

非交互式自动化模式,使用 OpenAI Codex 实现无人值守的任务执行。当您希望利用 codex、gpt-5 或 gpt-5.1 来实现 Claude 设计的功能或计划时使用。

安装:

/plugin marketplace add feiskyer/claude-code-settings
/plugin install codex-skill

主要特点:

  • 多种执行模式(只读、写入工作区、完全权限)
  • 支持模型选择(gpt-5、gpt-5.1、gpt-5.1-codex 等)
  • 无需批准提示即可自主执行
  • 支持 JSON 输出,获得结构化结果
  • 支持断点续传

要求: 已安装 Codex CLI(npm i -g @openai/codexbrew install codex

autonomous-skill - 长时间运行任务自动化

autonomous-skill

使用双代理模式(初始化器 + 执行器),在多个会话中执行复杂、长时间运行的任务,并自动延续会话。

安装:

/plugin marketplace add feiskyer/claude-code-settings
/plugin install autonomous-skill

主要特点:

  • 双代理模式(初始化器创建任务列表,执行器完成任务)
  • 自动跨会话延续并跟踪进度
  • 任务隔离,每个任务都有独立目录(.autonomous/<task-name>/
  • 通过 task_list.mdprogress.md 持久化进度
  • 使用 Claude CLI 进行无头模式执行

使用方法:

您:“请使用 autonomous skill 构建一个待办事项应用的 REST API”
Claude:“[创建 .autonomous/build-rest-api-todo/,初始化任务列表,开始执行]”

要求: 已安装 Claude CLI

nanobanana-skill - 使用 Gemini nanobanana 绘制图像

nanobanana-skill

通过 nanobanana 使用 Google Gemini API 生成或编辑图像。当您需要创建、生成或编辑图像时使用。

安装:

/plugin marketplace add feiskyer/claude-code-settings
/plugin install nanobanana-skill

主要特点:

  • 支持多种宽高比的图像生成
  • 图像编辑功能
  • 多种模型选项(gemini-3-pro-image-preview、gemini-2.5-flash-image 等)
  • 分辨率选项(1K、2K、4K)
  • 支持多种宽高比(正方形、竖屏、横屏、超宽屏)

要求:

  • ~/.nanobanana.env 中配置 GEMINI_API_KEY
  • 安装 Python3,并配备 google-genai、Pillow、python-dotenv(通过插件目录中的 pip install -r requirements.txt 安装)
youtube-transcribe-skill - 提取 YouTube 字幕

youtube-transcribe-skill

从 YouTube 视频链接中提取字幕/文本。

安装:

/plugin marketplace add feiskyer/claude-code-settings
/plugin install youtube-transcribe-skill

主要特点:

  • 两种提取方式:CLI(快速)和浏览器自动化(备用)
  • 自动选择字幕语言(zh-Hans、zh-Hant、en)
  • 浏览器方法采用高效的 DOM 提取
  • 将字幕保存为本地文本文件

要求:

  • yt-dlp(用于 CLI 方法)
  • chrome-devtools-mcp(用于浏览器自动化方法)
deep-research - 多代理研究编排

深度研究

用于深度研究的多智能体编排工作流。将研究目标分解为并行子目标,启动 claude -p 子进程,汇总结果,并交付精炼的报告。

触发条件: “深度调研”、“deep research”、“wide research”、“multi-agent research” 或系统性研究需求

核心功能

  • 多智能体编排:将研究目标拆分为并行子任务,通过 claude -p 执行
  • 技能优先:优先使用已安装的技能,其次使用 MCP 工具(firecrawl → exa),最后使用 WebFetch/WebSearch
  • 结构化交付:生成基于文件的报告,包含执行摘要,而非聊天消息
  • 逐章细化:通过源验证进行迭代式润色
  • 全面日志记录:包括调度器日志、每项任务的日志以及原始数据缓存
  • 规模感知执行:从微型(1–2 个任务)到大型(15 个以上)任务,采用适当的并行化策略

应用场景

  • 系统性网页/文档研究
  • 竞争/行业分析
  • 批量 URL/数据集处理
  • 长篇写作与证据整合

目录结构

.research/<name>/
├── prompts/           # 子任务提示
├── child_outputs/     # 子进程输出
├── logs/              # 执行日志
├── raw/               # 缓存的原始数据
└── final_report.md    # 精炼后的交付成果

使用方法

你:“深度调研一下 AI Agent 框架的现状”
Claude:“[启动侦察,提出子目标,等待确认,然后编排并行研究]”
kiro-skill - 交互式功能开发

kiro-skill

从创意到实现的交互式功能开发工作流。

触发条件: “kiro”,或对 .kiro/specs/ 目录的引用

安装

/plugin marketplace add feiskyer/claude-code-settings
/plugin install kiro-skill

工作流程

  1. 需求 → 定义需要构建的内容(EARS 格式,包含用户故事)
  2. 设计 → 确定如何构建(架构、组件、数据模型)
  3. 任务 → 创建可执行的实施步骤(测试驱动、增量式)
  4. 执行 → 逐一实施任务

使用方法

你:“我需要创建一个 kiro 功能规范,用于用户认证”
Claude:“[自动使用 kiro-skill]”
spec-kit-skill - 基于宪章的开发

spec-kit-skill

GitHub Spec-Kit 集成,用于基于宪章的规范驱动开发。

触发条件: “spec-kit”、“speckit”、“constitution”、“specify” 或对 .specify/ 目录的引用

安装

/plugin marketplace add feiskyer/claude-code-settings
/plugin install spec-kit-skill

先决条件

# 安装 spec-kit CLI
uv tool install specify-cli --from git+https://github.com/github/spec-kit.git

# 初始化项目
specify init . --ai claude

7 阶段工作流

  1. 宪章 → 确立指导原则
  2. 指定 → 定义功能需求
  3. 澄清 → 解决歧义(最多 5 个问题)
  4. 规划 → 制定技术策略
  5. 任务 → 生成按依赖关系排序的任务
  6. 分析 → 验证一致性(只读)
  7. 实施 → 执行实施

使用方法

你:“让我们为这个项目制定一份宪章”
Claude:“[自动使用 spec-kit-skill,检测 CLI,引导完成各阶段]”
reflection - 会话分析与 CLAUDE.md 改进

reflection

分析开发会话,捕捉学习成果,并改进 Claude Code 指令。支持两种模式:

  • 快速模式/reflection):分析聊天记录,识别并实施 CLAUDE.md 改进
  • 深度模式/reflection deep):全面会话分析,涵盖已解决的问题、模式、用户偏好、系统理解及知识缺口
eureka - 技术突破文档化

eureka

记录技术突破,并将其转化为可操作、可复用的文档。在 breakthroughs/ 目录中创建结构化的突破文件,包含问题/洞见/实施/影响等部分,并维护可搜索的索引。

使用方法

你:“/eureka 将 API 响应时间从 2 秒缩短至 100 毫秒,通过实现请求批处理”
Claude:“[创建 breakthroughs/2025-01-15-api-request-batching.md,更新 INDEX.md]”
translate - 技术文章中文翻译

translate

采用三步法(直接翻译、问题识别、重新诠释)将英文或日文技术文章翻译成自然流畅的中文。保留 Markdown 格式,技术术语和品牌名称保持原样。

使用方法

你:“/translate [粘贴文本或提供文件路径]”
Claude:“[输出精炼的中文译文]”
command-creator - 创建 Claude Code 自定义命令

command-creator

创建具有规范结构、前端信息和最佳实践的 Claude Code 自定义斜杠命令。

github-fix-issue - 端到端修复 GitHub 问题

github-fix-issue

从分析到分支创建、实施、测试及 PR 提交,全程修复 GitHub 问题。

github-review-pr - 审查 GitHub 拉取请求

github-review-pr

以详细、多角度的代码分析审查 GitHub 拉取请求,使用并行子代理进行置信度评分和误报过滤。

skill-creator - 创建并评估代理技能

skill-creator

通过迭代评估循环、量化指标和描述优化,创建、优化并评估代理技能。

代理

agents/ 目录包含专门的 AI 子代理,扩展了 Claude Code 的能力。

可用代理
  • pr-reviewer - GitHub 拉取请求的专业代码评审员
  • github-issue-fixer - GitHub 问题解决专家
  • instruction-reflector - 分析并改进 Claude Code 指令
  • deep-reflector - 全面会话分析与学习成果捕捉
  • insight-documenter - 技术突破文档化专家
  • ui-engineer - UI/UX 开发专家
  • command-creator - 专家,擅长创建新的 Claude Code 自定义命令

设置

示例设置 - 针对各类模型提供商及部署方案的预配置设置。

可用设置

copilot-settings.json

使用 GitHub Copilot 代理的 Claude Code。将 Anthropic API 的基础 URL 指向本地主机:4141。

litellm-settings.json

使用 LiteLLM 网关的 Claude Code。将 Anthropic API 的基础 URL 指向本地主机:4000。

deepseek-settings.json

使用 DeepSeek v3.1 的 Claude Code(通过 DeepSeek 官方的 Anthropic 兼容 API)。

qwen-settings.json

通过阿里巴巴的 DashScope API 使用 Qwen 模型的 Claude Code。借助 claude-code-proxy 使用 Qwen3-Coder-Plus 模型。

siliconflow-settings.json

使用 SiliconFlow API 的 Claude Code。采用 Moonshot AI 的 Kimi-K2-Instruct 模型。

vertex-settings.json

使用 Google Cloud Vertex AI 的 Claude Code。采用 Claude Opus 4 模型,并结合 Google Cloud 项目设置。

azure-settings.json

用于在 Azure AI(Anthropic 兼容端点)上使用 Claude Code 的配置。指向 Azure AI 服务端点。

azure-foundry-settings.json

用于在 Azure AI Foundry 原生模式下使用 Claude Code 的配置。启用 CLAUDE_CODE_USE_FOUNDRY 标志,搭配 Claude Opus 4.1 + Sonnet 4.5 模型。

minimax.json

用于在 MiniMax API 上使用 Claude Code 的配置。采用 MiniMax-M2 模型。

openrouter-settings.json

使用 OpenRouter API 的 Claude Code。OpenRouter 通过统一的 API 提供对众多模型的访问。注意:ANTHROPIC_API_KEY 必须留空,而 ANTHROPIC_AUTH_TOKEN 则需填写您的 OpenRouter API 密钥。

脚本

scripts/ 目录包含用于维护您的 Claude Code 部署的实用 Shell 脚本。

脚本 描述
update-cc-plugins.sh 一次性更新所有已安装的 Claude Code 市场及插件/技能

使用方法:

bash ~/.claude/scripts/update-cc-plugins.sh

局限性

Claude Code 中的 WebSearch 工具是 Anthropic 特有的工具, 并且在未使用官方 Anthropic API 时不可用。因此,如果您需要网页搜索功能,就必须将 Claude Code 连接到外部的网页搜索 MCP 服务器,例如 Tavily MCPBrave MCPFirecrawl MCPDuckDuckGo Search MCP

常见问题

VSCode 中 Claude Code 2.0+ 扩展的登录问题

对于 VSCode 中的 Claude Code 2.0+ 扩展,如果您未使用 Claude.ai 订阅,请手动将环境变量添加到您的 vscode settings.json 文件中:

{
  "claude-code.environmentVariables": [
    {
      "name": "ANTHROPIC_BASE_URL",
      "value": "http://localhost:4000"
    },
    {
      "name": "ANTHROPIC_AUTH_TOKEN",
      "value": "sk-dummy"
    },
    {
      "name": "ANTHROPIC_MODEL",
      "value": "opusplan"
    },
    {
      "name": "ANTHROPIC_DEFAULT_SONNET_MODEL",
      "value": "claude-sonnet-4.6"
    },
    {
      "name": "ANTHROPIC_DEFAULT_OPUS_MODEL",
      "value": "claude-opus-4.6"
    },
    {
      "name": "ANTHROPIC_DEFAULT_HAIKU_MODEL",
      "value": "gpt-5-mini"
    },
    {
      "name": "DISABLE_NON_ESSENTIAL_MODEL_CALLS",
      "value": "1"
    },
    {
      "name": "DISABLE_TELEMETRY",
      "value": "1"
    },
    {
      "name": "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC",
      "value": "1"
    }
  ]
}

请注意,还需在 ~/.claude/config.json 中配置相应内容,以跳过 Claude.ai 登录。

缺少 API 密钥与 API 密钥无效的问题

请确保您在 ANTHROPIC_AUTH_TOKEN 中配置的 API 密钥已添加至 ~/.claude.json 中的已批准 API 密钥列表,例如:

{
  "customApiKeyResponses": {
    "approved": [
      "sk-dummy"
    ],
    "rejected": []
  },
  ... (您的其他设置)
}

指南

参考文献

许可证

本项目采用 MIT 许可证发布 - 详情请参阅 LICENSE

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架