context-portal

GitHub
762 83 简单 2 次阅读 昨天Apache-2.0开发框架数据工具Agent
AI 解读 由 AI 自动生成,仅供参考

Context Portal(简称 ConPort)是一个面向开发者的 AI 记忆库工具。它本质上是一个 MCP(Model Context Protocol)服务器,能够为你的项目建立专属的知识图谱,帮助 AI 助手更好地理解你的代码库。

在实际开发中,AI 助手往往对你的项目架构、设计决策和业务逻辑一无所知,导致给出的建议不够准确。ConPort 正是为了解决这个痛点而设计的——它会系统性地记录项目中的关键信息,包括架构设计、技术选型、待办事项等,并建立它们之间的关联关系。当 AI 需要了解项目背景时,可以快速从记忆库中检索相关信息,从而提供更精准的上下文感知建议。

ConPort 支持语义搜索和向量嵌入,能够实现真正的 RAG(检索增强生成)体验。它使用 SQLite 作为存储,每个项目独立建库,数据结构化且易于查询。目前已支持 Roo Code、CLine、Windsurf、Cursor 等主流 AI 编程助手。

简单来说,如果你希望在 IDE 中获得更懂你项目的 AI 辅助,或者想让团队协作时的 AI 上下文保持一致,ConPort 是一个值得尝试的解决方案。

使用场景

一名后端开发工程师正在维护一个微服务架构的电商系统,项目涉及订单、库存、支付、用户等多个领域模块,已迭代开发近一年。他日常使用 AI 编码助手(如 Roo Code)辅助开发,几乎每天都会与 AI 协作处理需求。

没有 context-portal 时

  • 每次让 AI 修改代码时,都要先花时间解释项目的架构模式、技术选型理由和模块依赖关系,沟通成本很高
  • AI 不了解之前做过的技术决策和原因,例如为什么选择分库分表、为什么某个接口要加分布式锁,容易提出与现有设计冲突的方案
  • 项目中有特定的业务术语和领域模型(如"预售单""SKU 组合""履约时效"),AI 经常理解错误,导致生成的代码逻辑不对
  • 之前解决过的线上问题和踩过的坑无法被复用,AI 可能重复给出类似的错误方案
  • 当需要查找历史需求文档或技术方案时,只能用关键词搜索,经常找不到语义相关但表述不同的内容

使用 context-portal 后

  • 项目架构、技术选型、领域模型等核心知识被结构化存储在知识图谱中,AI 可以随时查询,一句话就能获取完整的项目背景
  • 之前的技术决策和讨论被记录为上下文条目,AI 清楚"为什么这样做",给出的方案与现有设计保持一致
  • 项目特定术语和业务规则被明确定义为知识条目,AI 对业务概念的理解更准确,生成的代码逻辑符合业务预期
  • 之前的线上问题处理经验被沉淀下来,AI 可以参考类似问题的解决方案,避免重复踩坑
  • 向量嵌入和语义搜索让相关内容被智能关联,即使表述不同也能找到真正相关的信息

context-portal 让 AI 助手真正"记住"整个项目的上下文,开发者在每次对话中无需重复解释项目背景,AI 就能给出更准确、更贴合项目实际的相关建议。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

不需要

内存

未说明

依赖
notes这是一个基于 Python/FastAPI 的 MCP 服务器,不需要 GPU。使用 SQLite 数据库(每个工作区一个数据库文件,自动创建)。推荐使用 uv 作为包管理器进行环境管理。服务器主要通过 STDIO 模式与 IDE 集成运行。数据库迁移使用 Alembic 管理。
python3.8+
fastapi
alembic
context-portal hero image

快速开始


Context Portal MCP (ConPort)

(这是一个记忆库!)


Roo Code Logo    CLine Logo    Windsurf Cascade Logo    Cursor IDE Logo


一个基于数据库的 Model Context Protocol (MCP) 服务器,用于管理结构化的项目上下文,专为 IDE 和其他接口中的 AI 助手和开发者工具设计。


什么是 Context Portal MCP 服务器 (ConPort)?

Context Portal (ConPort) 是你项目的记忆库。它是一个帮助 AI 助手更好地理解你的特定软件项目的工具,通过以结构化的方式存储重要信息,如决策、任务和架构模式。想象它就像在构建一个项目特定的知识库,AI 可以轻松访问并使用它来为你提供更准确和更有帮助的响应。

它的功能:

  • 跟踪项目决策、进度和系统设计。
  • 存储自定义项目数据(如术语表或规格说明)。
  • 帮助 AI 快速找到相关的项目信息(如智能搜索)。
  • 使 AI 能够使用项目上下文来提供更好的响应(RAG)。
  • 与简单的基于文本文件的记忆库相比,在管理、搜索和更新上下文方面更加高效。

ConPort 为 AI 助手提供了存储、检索和管理各种类型项目上下文的强大而结构化的方式。它有效地构建了一个项目特定的知识图谱,捕获决策、进度和架构等实体及其关系。这个结构化的知识库,通过**向量嵌入(vector embeddings)增强以支持语义搜索,然后作为检索增强生成(Retrieval Augmented Generation,RAG)**的强大后端,使 AI 助手能够访问精确、最新的信息,从而提供更具上下文感知能力的准确响应。

它用更可靠且可查询的数据库后端(每个工作区一个 SQLite 数据库)取代了旧的基于文件的上下文管理方式。ConPort 旨在成为一个通用的上下文后端,兼容支持 MCP 的各种 IDE 和客户端接口。

主要功能包括:

  • 使用 SQLite 进行结构化上下文存储(每个工作区一个数据库,自动创建)。
  • 使用 Python/FastAPI 构建的 MCP 服务器(context_portal_mcp)。
  • 完整的已定义 MCP 工具套件用于交互(参见下面的"可用的 ConPort 工具")。
  • 通过 workspace_id 支持多工作区。
  • 主要部署模式:STDIO,用于紧密的 IDE 集成。
  • 支持构建动态项目知识图谱,明确呈现上下文项目之间的关系。
  • 包含向量数据存储语义搜索功能,为高级 RAG 提供支持。
  • 作为**检索增强生成(RAG)**的理想后端,为 AI 提供精确、可查询的项目记忆。
  • 提供结构化上下文,AI 助手可以利用它与兼容的 LLM 提供商进行提示缓存(prompt caching)
  • 使用 Alembic 迁移管理数据库架构演进,确保无缝更新和数据完整性。

前置要求

在开始之前,请确保已安装以下软件:

  • Python: 建议使用 3.8 或更高版本。
    • 下载 Python
    • 确保在安装过程中将 Python 添加到系统的 PATH(特别是在 Windows 上)。
  • uv: (强烈推荐)一个快速的 Python 环境和包管理器。使用 uv 可以显著简化虚拟环境创建和依赖安装。

安装和配置(推荐)

推荐使用 uvx 直接从 PyPI 执行包来安装和运行 ConPort。这种方法无需手动创建和管理虚拟环境。

uvx 配置(推荐用于大多数 IDE)

在你的 MCP 客户端设置(例如 mcp_settings.json)中,使用以下配置:

{
  "mcpServers": {
    "conport": {
      "command": "uvx",
      "args": [
        "--from",
        "context-portal-mcp",
        "conport-mcp",
        "--mode",
        "stdio",
        "--workspace_id",
        "${workspaceFolder}",
        "--log-file",
        "./logs/conport.log",
        "--log-level",
        "INFO"
      ]
    }
  }
}
  • commanduvx 会为你处理环境。
  • args:包含运行 ConPort 服务器的参数。
  • ${workspaceFolder}:此 IDE 变量用于自动提供当前项目工作区的绝对路径。
  • --log-file:可选:服务器日志写入的文件路径。如果未提供,日志将定向到 stderr(控制台)。有助于持久化日志和调试服务器行为。
  • --log-level:可选:设置服务器的最小日志级别。有效选项为 DEBUGINFOWARNINGERRORCRITICAL。默认为 INFO。在开发或故障排除期间设置为 DEBUG 以获取详细输出。

重要提示:许多 IDE 在启动 MCP 服务器时不会展开 ${workspaceFolder}。请使用以下安全选项之一:

  1. --workspace_id 提供绝对路径。
  2. 启动时省略 --workspace_id,依赖每次调用时提供的 workspace_id(如果你的客户端在每次调用时都提供此参数,则推荐此方式)。

替代配置(启动时不使用 --workspace_id):

{
  "mcpServers": {
    "conport": {
      "command": "uvx",
      "args": [
        "--from",
        "context-portal-mcp",
        "conport-mcp",
        "--mode",
        "stdio",
        "--log-file",
        "./logs/conport.log",
        "--log-level",
        "INFO"
      ]
    }
  }
}

如果你省略 --workspace_id,服务器将跳过预初始化,并在第一次工具调用时使用该调用中提供的 workspace_id 初始化数据库。


开发者安装(从 Git 仓库)

开发和测试 ConPort 最合适的方式是在 IDE 中将其作为 MCP 服务器运行,使用上述配置。这可以测试 STDIO 模式和真实客户端行为。

如果需要针对本地检出的代码和虚拟环境运行,可以将 MCP 客户端配置为通过 uv run 和你的 .venv/bin/python 启动开发服务器:

{
  "mcpServers": {
    "conport": {
      "command": "uv",
      "args": [
        "run",
        "--python",
        ".venv/bin/python",
        "--directory",
        "<path to context-portal repo> ",
        "conport-mcp",
        "--mode",
        "stdio",
        "--log-file",
        "./logs/conport-dev.log",
        "--log-level",
        "DEBUG"
      ],
      "disabled": false
    }
  }
}

注意:

  • --directory 设置为你的仓库路径;这将使用你的本地检出和 venv 解释器。
  • 日志将写入 ./logs/conport-dev.log,并使用 DEBUG 详细级别。

本地环境设置

通过 Git 仓库进行开发或贡献的设置。

  1. 克隆仓库

    git clone https://github.com/GreatScottyMac/context-portal.git
    cd context-portal
    
  2. 创建虚拟环境

    uv venv
    

    使用 shell 标准激活方式激活它(例如在 macOS/Linux 上使用 source .venv/bin/activate)。

  3. 安装依赖

    uv pip install -r requirements.txt
    
  4. 在 IDE 中运行(推荐) 使用上面显示的 "uvx Configuration" 或开发 uv run 配置来配置 IDE 的 MCP 设置。这是对 ConPort 在 STDIO 模式下最具代表性的测试。

  5. 可选:CLI 帮助

    uv run python src/context_portal_mcp/main.py --help
    

注意:

  • 关于 --workspace_id 行为和 IDE 路径处理,请参阅上面 "uvx Configuration" 部分的指导。许多 IDE 不会展开 ${workspaceFolder}

关于升级前的清理工作(包括清除 Python 字节码缓存),请参阅 v0.2.4_UPDATE_GUIDE.md

与 LLM 代理一起使用(自定义指令)

通过向 LLM 提供特定的自定义指令或系统提示,可以显著增强 ConPort 与 LLM 代理配合使用的效果。本仓库包含针对不同环境定制的策略文件:

  • 对于 Roo Code:

    • roo_code_conport_strategy:包含在 Roo Code VS Code 扩展中运行的 LLM 的详细指令,指导它们如何使用 ConPort 工具进行上下文管理。

  • 对于 CLine:

    • cline_conport_strategy:包含在 Cline VS Code 扩展中运行的 LLM 的详细指令,指导它们如何使用 ConPort 工具进行上下文管理。

  • 对于 Windsurf Cascade:

    • cascade_conport_strategy:针对与 Windsurf Cascade 环境集成的 LLM 的特定指导。重要提示:在 Cascade 中启动会话时,需要明确告诉 LLM:
    Initialize according to custom instructions
    
  • 对于通用/平台无关的使用:

    • generic_conport_strategy:为任何支持 MCP 的 LLM 提供平台无关的指令集。它强调使用 ConPort 的 get_conport_schema 操作来动态发现确切的 ConPort 工具名称及其参数,指导 LLM 何时以及为何执行概念交互(如记录决策或更新产品上下文),而不是硬编码特定的工具调用细节。

如何使用这些策略文件:

  1. 识别与你的 LLM 代理环境相关的策略文件。
  2. 复制该文件的全部内容
  3. 将其粘贴到 LLM 的自定义指令或系统提示区域。方法因 LLM 平台而异(IDE 扩展设置、Web UI、API 配置)。

这些指令使 LLM 能够:

  • 从 ConPort 初始化和加载上下文。
  • 使用新信息更新 ConPort(决策、进度等)。
  • 管理自定义数据和关系。
  • 理解 workspace_id 的重要性。 启动会话的重要提示: 为确保 LLM 代理正确初始化和加载上下文,尤其是在可能不会在第一条消息时严格遵守自定义指令的界面中,最好以明确的指令开始你的交互,例如: Initialize according to custom instructions. 这可以帮助提示代理执行其策略文件中定义的 ConPort 初始化序列。

新策略集:mem4sprint(新增内容)

仓库包含了一个专注于冲刺规划和运营流程的新策略/文档集:

  • conport-custom-instructions/mem4sprint.md — 关于使用扁平类别和有效 FTS 前缀的简洁指导和模式。
  • conport-custom-instructions/mem4sprint.schema_and_templates.md — 元模式、紧凑启动器、FTS 查询规则和最小化运营调用配方。

主要亮点:

  • 扁平类别模型(例如 artifactsrfc_docretrospectiveProjectGlossarycritical_settings)。
  • 仅支持有效的 FTS5 前缀:category:key:value_text: 用于自定义数据;summary:rationale:implementation_details:tags: 用于决策。
  • 处理程序层查询规范化;数据库层保持不变。

发布说明摘要:

  • 添加了 mem4sprint 策略/文档,包含扁平类别和明确的 FTS 规则。
  • 简化了示例,并包含最小化运营调用配方。
  • 文档阐明了 IDE 工作区路径处理以支持 MCP。

在工作区中首次使用 ConPort

当你首次在新项目或现有项目工作区中使用 ConPort 时,ConPort 数据库(context_portal/context.db)将在不存在时由服务器自动创建。为了帮助引导初始项目上下文,特别是产品上下文,请考虑以下事项:

使用 projectBrief.md 文件(推荐)

  1. 创建 projectBrief.md:在项目工作区的根目录中,创建一个名为 projectBrief.md 的文件。
  2. 添加内容:在此文件中添加项目的高级概述,包括:
    • 项目的主要目标或目的
    • 关键功能或组件
    • 目标受众或用户
    • 整体架构风格或关键技术(如果已知)
    • 其他定义项目的基础信息
  3. 自动提示导入:当使用提供的 ConPort 自定义指令集(如 roo_code_conport_strategy)的 LLM 代理在workspace中初始化时,它会:
    • 检查 projectBrief.md 是否存在
    • 如果找到,它会读取文件并询问你是否愿意将其内容导入 ConPort 产品上下文(Product Context)
    • 如果你同意,内容将被添加到 ConPort,为项目的产品上下文提供即时基线

手动初始化

如果未找到 projectBrief.md,或者你选择不导入它:

  • LLM 代理(根据其自定义指令引导)通常会通知你 ConPort 产品上下文似乎未初始化。
  • 它可能会主动帮助你手动定义产品上下文,可能通过列出workspace中的其他文件来收集相关信息。

通过提供初始上下文,无论是通过 projectBrief.md 还是手动输入,你都能让 ConPort 和连接的 LLM 代理从一开始就更好地理解项目的基础。

自动工作区检测

ConPort 可以自动确定正确的 workspace_id,因此你无需在 MCP 客户端配置中硬编码绝对路径。这对于无法在启动 MCP 服务器时展开 ${workspaceFolder} 的 IDE 特别有用。

检测功能默认启用,可通过 CLI 标志控制:

标志:

  • --auto-detect-workspace(默认:启用)开启自动检测。
  • --no-auto-detect 禁用检测(此时必须提供显式的 --workspace_id 或每个工具的 workspace_id)。
  • --workspace-search-start <path> 可选的向上搜索起始目录(默认为当前工作目录)。

工作原理(多策略):

  1. 强指标(快速路径):查找包含以下任一文件的高置信度项目根目录:package.json.gitpyproject.tomlCargo.tomlgo.modpom.xml
  2. 多个通用指标:如果目录中存在 ≥2 个通用指标(README、许可证、构建文件等),则被视为根目录。
  3. 现有 ConPort 工作区context_portal/ 目录的存在表示一个有效的workspace。
  4. MCP 环境上下文:尊重环境变量,如 VSCODE_WORKSPACE_FOLDERCONPORT_WORKSPACE(如果已设置且有效)。
  5. 回退:如果未找到任何指标,则使用起始目录(并发出警告)。

工具:

  • get_workspace_detection_info(MCP 工具)暴露一个诊断字典,包含:
    • start_path(起始路径)
    • detected_workspace(检测到的工作区)
    • detection_method(检测方法:strong_indicators | multiple_indicators | existing_context_portal | fallback)
    • indicators_found(发现的指标)
    • relevant environment variables(相关环境变量)

最佳实践:

  • 保持检测启用,除非你在多根场景下需要每个调用进行显式隔离。
  • 如果 IDE 传递字面字符串 ${workspaceFolder},ConPort 将忽略它并安全地自动检测(记录为 WARNING 级别日志)。
  • 对于调试模糊的根目录(例如嵌套仓库),运行检测信息工具以确认选择了哪个目录。

完全依赖自动检测的 MCP 启动示例:

{
  "mcpServers": {
    "conport": {
      "command": "uvx",
      "args": [
        "--from", "context-portal-mcp",
        "conport-mcp",
        "--mode", "stdio",
        "--log-level", "INFO"
      ]
    }
  }
}

显式禁用检测(强制仅使用提供的 ID):

{
  "mcpServers": {
    "conport": {
      "command": "uvx",
      "args": [
        "--from", "context-portal-mcp",
        "conport-mcp",
        "--mode", "stdio",
        "--no-auto-detect",
        "--workspace_id", "/absolute/path/to/project"
      ]
    }
  }
}

如果你有一个在深层子目录内启动的启动器,请提供更高的起始路径:

conport-mcp --mode stdio --workspace-search-start ../../

完整的原理、边缘情况和故障排除请参阅 UNIVERSAL_WORKSPACE_DETECTION.md

可用的 ConPort 工具

ConPort 服务器通过 MCP 暴露以下工具,允许与底层知识图谱进行交互。这包括由向量数据存储支持的语义搜索功能。这些工具为 AI 代理的**检索增强生成(RAG)**提供了关键的检索能力。所有工具都需要 workspace_id 参数(字符串,必填)来指定目标项目工作区。

注意:为方便起见,所有类似整数的参数都接受数字或仅包含数字的字符串(例如 "10"、"3")。服务器会去除空格并将其转换为整数,同时保留验证边界(例如 ge=1)。贡献者:@cipradu。

  • 产品上下文管理:
    • get_product_context:获取项目的整体目标、功能和架构。
    • update_product_context:更新产品上下文。接受完整的 content(对象)或 patch_content(对象)进行部分更新(在补丁中使用 __DELETE__ 作为值可删除键)。
  • 活动上下文管理:
    • get_active_context:获取当前工作重点、近期更改和待处理问题。
    • update_active_context:更新活动上下文。接受完整的 content(对象)或 patch_content(对象)进行部分更新(在补丁中使用 __DELETE__ 作为值可删除键)。
  • 决策记录:
    • log_decision:记录架构或实现决策。
      • 参数:summary(字符串,必填)、rationale(字符串,可选)、implementation_details(字符串,可选)、tags(列表[字符串],可选)。
    • get_decisions:获取已记录的决策。
      • 参数:limit(整数,可选)、tags_filter_include_all(列表[字符串],可选)、tags_filter_include_any(列表[字符串],可选)。
    • search_decisions_fts:在决策字段(摘要、理由、详情、标签)中进行全文搜索。
      • 参数:query_term(字符串,必填)、limit(整数,可选)。
    • delete_decision_by_id:根据 ID 删除决策。
      • 参数:decision_id(整数,必填)。
  • 进度跟踪:
    • log_progress:记录进度条目或任务状态。
      • 参数:status(字符串,必填)、description(字符串,必填)、parent_id(整数,可选)、linked_item_type(字符串,可选)、linked_item_id(字符串,可选)。
    • get_progress:获取进度条目。
      • 参数:status_filter(字符串,可选)、parent_id_filter(整数,可选)、limit(整数,可选)。
    • update_progress:更新现有进度条目。
      • 参数:progress_id(整数,必填)、status(字符串,可选)、description(字符串,可选)、parent_id(整数,可选)。
    • delete_progress_by_id:根据 ID 删除进度条目。
      • 参数:progress_id(整数,必填)。
  • 系统模式管理:
    • log_system_pattern:记录或更新系统/编码模式。
      • 参数:name(字符串,必填)、description(字符串,可选)、tags(列表[字符串],可选)。
    • get_system_patterns:获取系统模式。
      • 参数:tags_filter_include_all(列表[字符串],可选)、tags_filter_include_any(列表[字符串],可选)。
    • delete_system_pattern_by_id:根据 ID 删除系统模式。
      • 参数:pattern_id(整数,必填)。
  • 自定义数据管理:
    • log_custom_data:在某个分类下存储/更新自定义键值条目。值应为 JSON 可序列化对象。
      • 参数:category(字符串,必填)、key(字符串,必填)、value(任意类型,必填)。
    • get_custom_data:获取自定义数据。
      • 参数:category(字符串,可选)、key(字符串,可选)。
    • delete_custom_data:删除特定的自定义数据条目。
      • 参数:category(字符串,必填)、key(字符串,必填)。
    • search_project_glossary_fts:在 'ProjectGlossary' 自定义数据分类中进行全文搜索。
      • 参数:query_term(字符串,必填)、limit(整数,可选)。
    • search_custom_data_value_fts:在所有自定义数据值、分类和键中进行全文搜索。
      • 参数:query_term(字符串,必填)、category_filter(字符串,可选)、limit(整数,可选)。
  • 上下文链接:
    • link_conport_items:在两个 ConPort 条目之间创建关系链接,明确构建项目知识图谱
      • 参数:source_item_type(字符串,必填)、source_item_id(字符串,必填)、target_item_type(字符串,必填)、target_item_id(字符串,必填)、relationship_type(字符串,必填)、description(字符串,可选)。
    • get_linked_items:获取链接到特定条目的项目。
      • 参数:item_type(字符串,必填)、item_id(字符串,必填)、relationship_type_filter(字符串,可选)、linked_item_type_filter(字符串,可选)、limit(整数,可选)。
  • 历史和元工具:
    • get_item_history:获取产品或活动上下文的版本历史。
      • 参数:item_type("product_context" | "active_context",必填)、version(整数,可选)、before_timestamp(日期时间,可选)、after_timestamp(日期时间,可选)、limit(整数,可选)。
    • get_recent_activity_summary:提供近期 ConPort 活动的摘要。
      • 参数:hours_ago(整数,可选)、since_timestamp(日期时间,可选)、limit_per_type(整数,可选,默认值:5)。
    • get_conport_schema:获取可用 ConPort 工具及其参数的架构定义。
  • 导入/导出:
    • export_conport_to_markdown:将 ConPort 数据导出为 markdown 文件。
      • 参数:output_path(字符串,可选,默认值:"./conport_export/")。
    • import_markdown_to_conport:从 markdown 文件导入数据到 ConPort。
      • 参数:input_path(字符串,可选,默认值:"./conport_export/")。
  • 批量操作:
    • batch_log_items:在单次调用中记录多个相同类型的条目(例如决策、进度条目)。
      • 参数:item_type(字符串,必填 - 例如 "decision"、"progress_entry")、items(列表[字典],必填 - 该类型条目的 Pydantic 模型字典列表)。

深入阅读

要更深入地了解 ConPort 的设计、架构和高级使用模式,请参阅:

贡献指南

请参阅我们的 CONTRIBUTING.md 指南,了解如何为 ConPort 项目做出贡献。

许可证

本项目根据 Apache-2.0 许可证 获得许可。

致谢

  • 特别感谢 @cipradu 提出的宝贵建议,实现了数字参数的整数字符串强制转换,这改善了从各种客户端与 MCP 服务器交互时的用户体验。

数据库迁移和更新指南

有关如何管理 context.db 文件的详细说明,特别是在更新包含数据库架构更改的 ConPort 版本时,请参阅专门的 v0.2.4_UPDATE_GUIDE.md。该指南提供了手动数据迁移(导出/导入)的步骤(如有需要)以及故障排除提示。

版本历史

v0.3.132025/10/29
v0.3.52025/05/12

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架