free-claude-code

GitHub
1.6k 267 简单 1 次阅读 今天MIT语言模型Agent插件
AI 解读 由 AI 自动生成,仅供参考

free-claude-code 是一款轻量级代理工具,旨在让用户在终端、VSCode 插件或 Discord 中免费使用类 Claude Code 的编程体验,且无需 Anthropic 官方 API 密钥。它巧妙地将原本需要付费的 API 请求路由至免费或本地部署的大模型服务,如提供每分钟 40 次免费调用的 NVIDIA NIM、拥有数百种模型的 OpenRouter,以及完全本地运行的 LM Studio 和 llama.cpp。

这一方案有效解决了开发者因高昂 API 费用或区域限制而无法顺畅使用高级代码助手的问题,实现了“零成本”接入。无论是希望降低开发成本的独立程序员、需要本地隐私保护的研究人员,还是想要尝试自主编码助手的普通技术爱好者,都能从中受益。

其技术亮点在于“无缝替换”特性:用户仅需配置两个环境变量,即可让原版 Claude Code CLI 或插件直接运行,无需修改任何代码。此外,它还支持将不同模型(如 Opus、Sonnet)灵活映射到不同后端,具备智能速率限制以防止超限,甚至能解析非原生模型的思维链标签和工具调用格式,确保交互流畅自然。通过简单的扩展架构,用户还能轻松接入新的模型提供商或消息平台,是追求高效、低成本开发流程的理想选择。

使用场景

一名独立开发者需要在终端中频繁使用 Claude Code 辅助重构遗留代码,但受限于高昂的 API 费用和复杂的本地部署门槛。

没有 free-claude-code 时

  • 成本压力巨大:直接调用 Anthropic 官方 API 处理大量代码重构任务,导致每月账单迅速飙升,难以承受。
  • 本地模型接入繁琐:若想免费使用本地大模型(如 LM Studio),需手动修改 Claude Code 源码或编写复杂的中间件来适配接口。
  • 资源利用率低:无法灵活切换提供商,当某家服务限流或宕机时,开发流程被迫中断,缺乏自动降级机制。
  • 思维链支持缺失:本地开源模型输出的 <think> 标签无法被原生识别,导致推理过程显示混乱,影响阅读体验。

使用 free-claude-code 后

  • 实现零成本开发:通过配置环境变量,将请求无缝路由至 NVIDIA NIM(免费额度)或本地 LM Studio,彻底消除 API 费用。
  • 即插即用无需改码:作为轻量级代理层,无需修改 Claude Code CLI 或 VSCode 插件的任何代码,仅需设置两个变量即可生效。
  • 智能多源调度:支持将不同能力的模型(如 Opus、Sonnet)映射到不同后端,自动处理限流重试,保障开发连续性。
  • 原生思维链解析:自动解析开源模型的推理标签并转换为 Claude 原生的思考块,让本地模型的输出同样清晰易读。

free-claude-code 通过无缝桥接免费算力与原生工具链,让开发者在零成本前提下享受企业级的 AI 编程体验。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU
  • 非必需
  • 若使用本地模型(LM Studio/llama.cpp),需根据所选模型大小配置相应 GPU
  • 若使用 NVIDIA NIM/OpenRouter 云端服务,则无需本地 GPU
内存

未说明(取决于是否运行本地模型及模型大小)

依赖
notes该工具是一个代理服务器,主要依赖 'uv' 进行包管理和运行。默认推荐使用云端免费服务(NVIDIA NIM),此时对本地硬件无特殊要求。若选择完全本地运行(LM Studio 或 llama.cpp),需自行安装并运行对应的推理服务,硬件需求取决于所加载的具体大模型。支持通过环境变量灵活切换不同提供商和模型。
python3.14
uv
uvicorn
loguru
ty
ruff
pytest
free-claude-code hero image

快速开始

🤖 免费 Claude Code

免费使用 Claude Code CLI 和 VSCode,无需 Anthropic API 密钥。

许可证:MIT Python 3.14 uv 使用 Pytest 测试 类型检查:Ty 代码风格:Ruff 日志记录:Loguru

一个轻量级代理,可将 Claude Code 的 Anthropic API 请求路由至 NVIDIA NIM(每分钟 40 次免费)、OpenRouter(数百种模型)、LM Studio(完全本地运行)或 llama.cpp(本地运行并支持 Anthropic 端点)。

快速入门 · 提供商 · Discord 机器人 · 配置 · 开发 · 贡献


Free Claude Code 运行中

Claude Code 通过 NVIDIA NIM 运行,完全免费

特性

特性 描述
零成本 NVIDIA NIM 提供每分钟 40 次免费请求。OpenRouter 上有免费模型。LM Studio 可完全本地运行
即插即用 设置 2 个环境变量即可。无需修改 Claude Code CLI 或 VSCode 扩展程序
4 种提供商 NVIDIA NIM、OpenRouter(数百种模型)、LM Studio(本地)、llama.cpp(llama-server
按模型映射 可将 Opus / Sonnet / Haiku 路由到不同模型和提供商。可自由混合使用不同的提供商
思考标记支持 解析 \<think\> 标签和 reasoning_content 为原生 Claude 思考块
启发式工具解析器 将模型输出的工具调用文本自动解析为结构化工具使用
请求优化 本地拦截 5 类琐碎的 API 调用,节省配额并降低延迟
智能限流 主动滚动窗口限流 + 反应式 429 指数退避 + 可选并发上限
Discord / Telegram 机器人 远程自主编码,支持基于树状结构的线程管理、会话持久化和实时进度显示
子代理控制 任务工具拦截会强制设置 run_in_background=False。防止子代理失控
可扩展性 清晰的 BaseProviderMessagingPlatform 抽象基类。轻松添加新的提供商或平台

快速入门

前提条件

  1. 获取 API 密钥(或在本地使用 LM Studio / llama.cpp):
  2. 安装 Claude Code

安装 uv

# 安装 uv(运行该项目所需)
pip install uv

如果已安装 uv,请运行 uv self update 以获取最新版本。

克隆并配置

git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env

选择您的提供商并编辑 .env 文件:

NVIDIA NIM(每分钟 40 次免费,推荐)
NVIDIA_NIM_API_KEY="nvapi-your-key-here"

MODEL_OPUS="nvidia_nim/z-ai/glm4.7"
MODEL_SONNET="nvidia_nim/moonshotai/kimi-k2-thinking"
MODEL_HAIKU="nvidia_nim/stepfun-ai/step-3.5-flash"
MODEL="nvidia_nim/z-ai/glm4.7"                     # 备用

# 对于思考型模型(kimi、nemotron)启用此选项。其他模型(如 Mistral)则保持关闭。
NIM_ENABLE_THINKING=true
OpenRouter(数百种模型)
OPENROUTER_API_KEY="sk-or-your-key-here"

MODEL_OPUS="open_router/deepseek/deepseek-r1-0528:free"
MODEL_SONNET="open_router/openai/gpt-oss-120b:free"
MODEL_HAIKU="open_router/stepfun/step-3.5-flash:free"
MODEL="open_router/stepfun/step-3.5-flash:free"     # 备用
LM Studio(完全本地运行,无需 API 密钥)
MODEL_OPUS="lmstudio/unsloth/MiniMax-M2.5-GGUF"
MODEL_SONNET="lmstudio/unsloth/Qwen3.5-35B-A3B-GGUF"
MODEL_HAIKU="lmstudio/unsloth/GLM-4.7-Flash-GGUF"
MODEL="lmstudio/unsloth/GLM-4.7-Flash-GGUF"         # 备用
llama.cpp(完全本地运行,无需 API 密钥)
LLAMACPP_BASE_URL="http://localhost:8080/v1"

MODEL_OPUS="llamacpp/local-model"
MODEL_SONNET="llamacpp/local-model"
MODEL_HAIKU="llamacpp/local-model"
MODEL="llamacpp/local-model"
混合提供商

每个 MODEL_* 变量可以使用不同的提供商。MODEL 是未识别的 Claude 模型的备用选项。

NVIDIA_NIM_API_KEY="nvapi-your-key-here"
OPENROUTER_API_KEY="sk-or-your-key-here"

MODEL_OPUS="nvidia_nim/moonshotai/kimi-k2.5"
MODEL_SONNET="open_router/deepseek/deepseek-r1-0528:free"
MODEL_HAIKU="lmstudio/unsloth/GLM-4.7-Flash-GGUF"
MODEL="nvidia_nim/z-ai/glm4.7"                      # 备用
可选认证(限制对代理的访问)

.env 中设置 ANTHROPIC_AUTH_TOKEN 以要求客户端进行身份验证:

ANTHROPIC_AUTH_TOKEN="your-secret-token-here"

工作原理:

  • 如果 ANTHROPIC_AUTH_TOKEN 为空(默认值),则无需认证(向后兼容)。
  • 如果设置了该令牌,客户端必须通过 ANTHROPIC_AUTH_TOKEN 头部提供相同的令牌。
  • claude-pick 脚本会在配置完成后自动从 .env 中读取该令牌。

使用示例:

# 启用认证
ANTHROPIC_AUTH_TOKEN="your-secret-token-here" \
ANTHROPIC_BASE_URL="http://localhost:8082" claude

# claude-pick 会自动使用已配置的令牌
claude-pick

在以下情况下可以使用此功能:

  • 在公共网络上运行代理
  • 与他人共享服务器但限制访问
  • 希望增加一层安全性

运行它

终端1: 启动代理服务器:

uv run uvicorn server:app --host 0.0.0.0 --port 8082

终端2: 运行 Claude Code:

PowerShell

$env:ANTHROPIC_AUTH_TOKEN="freecc"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude

Bash

ANTHROPIC_AUTH_TOKEN="freecc" ANTHROPIC_BASE_URL="http://localhost:8082" claude

就是这样!Claude Code 现在将免费使用您配置的提供商。

VSCode 扩展设置
  1. 启动代理服务器(同上)。
  2. 打开设置(Ctrl + ,),搜索 claude-code.environmentVariables
  3. 单击 在 settings.json 中编辑,并添加:
"claudeCode.environmentVariables": [
  { "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:8082" },
  { "name": "ANTHROPIC_AUTH_TOKEN", "value": "freecc" }
]
  1. 重新加载扩展。
  2. 如果您看到登录界面:点击 Anthropic Console,然后授权。扩展将开始工作。您可能会被重定向到浏览器购买积分;请忽略——扩展已经可以正常工作。

要切换回 Anthropic 模型,请注释掉添加的代码块并重新加载扩展。

多模型支持(模型选择器)

claude-pick 是一个交互式模型选择器,允许您每次启动 Claude 时从当前活跃的提供商中选择任何模型,而无需编辑 .env 文件中的 MODEL

https://github.com/user-attachments/assets/9a33c316-90f8-4418-9650-97e7d33ad645

1. 安装 fzf

brew install fzf        # macOS/Linux

2. 将别名添加到 ~/.zshrc~/.bashrc

alias claude-pick="/absolute/path/to/free-claude-code/claude-pick"

然后重新加载您的 shell(source ~/.zshrcsource ~/.bashrc),并运行 claude-pick

或者使用固定模型别名(无需选择器):

alias claude-kimi='ANTHROPIC_BASE_URL="http://localhost:8082" ANTHROPIC_AUTH_TOKEN="freecc:moonshotai/kimi-k2.5" claude'

以软件包形式安装(无需克隆)

uv tool install git+https://github.com/Alishahryar1/free-claude-code.git
fcc-init        # 从内置模板创建 ~/.config/free-claude-code/.env

编辑 ~/.config/free-claude-code/.env 文件,填写您的 API 密钥和模型名称,然后:

free-claude-code    # 启动服务器

要更新:uv tool upgrade free-claude-code


工作原理

┌─────────────────┐        ┌──────────────────────┐        ┌──────────────────┐
│  Claude Code    │───────>│  Free Claude Code    │───────>│  LLM 提供商    │
│  CLI / VSCode   │<───────│  代理 (:8082)       │<───────│  NIM / OR / LMS  │
└─────────────────┘        └──────────────────────┘        └──────────────────┘
   Anthropic API                                             OpenAI 兼容格式
   格式 (SSE)                                             格式 (SSE)
  • 透明代理:Claude Code 发送标准的 Anthropic API 请求;代理将其转发到您配置的提供商
  • 按模型路由:Opus / Sonnet / Haiku 请求会解析到各自特定的后端,如果未指定则使用 MODEL 作为默认值
  • 请求优化:5 类琐碎请求(配额探测、标题生成、前缀检测、建议、文件路径提取)会被拦截并在本地响应,而不消耗 API 配额
  • 格式转换:请求会被从 Anthropic 格式转换为提供商的 OpenAI 兼容格式,并以流式传输返回
  • 思考标记<think> 标签和 reasoning_content 字段会被转换为原生的 Claude 思考块

提供商

提供商 成本 速率限制 最适合
NVIDIA NIM 免费 40 次/分钟 日常使用,慷慨的免费层级
OpenRouter 免费 / 付费 不同 模型多样性,备用选项
LM Studio 免费(本地) 无限制 隐私保护,离线使用,无速率限制
llama.cpp 免费(本地) 无限制 轻量级本地推理引擎

模型使用前缀格式:provider_prefix/model/name。无效的前缀会导致错误。

提供商 MODEL 前缀 API 密钥变量 默认基础 URL
NVIDIA NIM nvidia_nim/... NVIDIA_NIM_API_KEY integrate.api.nvidia.com/v1
OpenRouter open_router/... OPENROUTER_API_KEY openrouter.ai/api/v1
LM Studio lmstudio/... (无) localhost:1234/v1
llama.cpp llamacpp/... (无) localhost:8080/v1
NVIDIA NIM 模型

热门模型(完整列表见 nvidia_nim_models.json):

  • nvidia_nim/minimaxai/minimax-m2.5
  • nvidia_nim/qwen/qwen3.5-397b-a17b
  • nvidia_nim/z-ai/glm5
  • nvidia_nim/moonshotai/kimi-k2.5
  • nvidia_nim/stepfun-ai/step-3.5-flash

浏览:build.nvidia.com · 更新列表:curl "https://integrate.api.nvidia.com/v1/models" > nvidia_nim_models.json

OpenRouter 模型

流行的免费模型:

  • open_router/arcee-ai/trinity-large-preview:free
  • open_router/stepfun/step-3.5-flash:free
  • open_router/deepseek/deepseek-r1-0528:free
  • open_router/openai/gpt-oss-120b:free

浏览:openrouter.ai/models · 免费模型

LM Studio 模型

使用 LM Studio 在本地运行模型。在聊天或开发者选项卡中加载模型,然后将 MODEL 设置为其标识符。

具有原生工具使用支持的示例:

  • LiquidAI/LFM2-24B-A2B-GGUF
  • unsloth/MiniMax-M2.5-GGUF
  • unsloth/GLM-4.7-Flash-GGUF
  • unsloth/Qwen3.5-35B-A3B-GGUF

浏览:model.lmstudio.ai

llama.cpp 模型

使用 llama-server 在本地运行模型。确保您拥有支持工具的 GGUF 文件。将 MODEL 设置为您喜欢的任意名称(例如 llamacpp/my-model),因为 llama-server 在通过 /v1/messages 运行时会忽略模型名称。

有关详细说明和支持的模型,请参阅 Unsloth 文档: https://unsloth.ai/docs/models/qwen3.5#qwen3.5-small-0.8b-2b-4b-9b


Discord 机器人

通过 Discord(或 Telegram)远程控制 Claude Code。发送任务、实时查看进度,并管理多个并发会话。

功能:

  • 基于树状结构的消息线程:回复某条消息即可分支对话
  • 会话在服务器重启后仍可保持
  • 实时流式传输思考过程中的 token、工具调用及结果
  • 无限制的 Claude CLI 并发会话(并发数由 PROVIDER_MAX_CONCURRENCY 控制)
  • 语音笔记:发送语音消息,系统会将其转录并作为普通提示进行处理
  • 命令:/stop(取消任务;回复特定消息仅停止该任务)、/clear(重置所有会话,或回复以清除某个分支)、/stats

设置步骤

  1. 创建 Discord 机器人:前往 Discord 开发者门户,创建应用并添加机器人,复制生成的令牌。在机器人设置中启用 Message Content Intent

  2. 编辑 .env 文件:

MESSAGING_PLATFORM="discord"
DISCORD_BOT_TOKEN="your_discord_bot_token"
ALLOWED_DISCORD_CHANNELS="123456789,987654321"

在 Discord 中启用开发者模式(设置 → 高级),然后右键点击频道选择“复制 ID”。多个频道之间用逗号分隔。若为空,则不允许任何频道。

  1. 配置工作空间(Claude 将在此处运行):
CLAUDE_WORKSPACE="./agent_workspace"
ALLOWED_DIR="C:/Users/yourname/projects"
  1. 启动服务器:
uv run uvicorn server:app --host 0.0.0.0 --port 8082
  1. 通过 OAuth2 URL 生成器邀请机器人(作用域:bot,权限:读取消息、发送消息、管理消息、读取消息历史)。

Telegram

MESSAGING_PLATFORM 设置为 telegram,并进行如下配置:

TELEGRAM_BOT_TOKEN="123456789:ABCdefGHIjklMNOpqrSTUvwxYZ"
ALLOWED_TELEGRAM_USER_ID="your_telegram_user_id"

@BotFather 获取令牌;使用 @userinfobot 查找您的用户 ID。

语音笔记

在 Discord 或 Telegram 上发送语音消息,系统会将其转录并作为普通提示进行处理。

后端 描述 API 密钥
本地 Whisper(默认) Hugging Face Whisper — 免费、离线、支持 CUDA 不需要
NVIDIA NIM 通过 gRPC 提供的 Whisper/Parakeet 模型 NVIDIA_NIM_API_KEY

安装语音相关依赖:

# 如果您克隆了仓库:
uv sync --extra voice_local          # 本地 Whisper
uv sync --extra voice                # NVIDIA NIM
uv sync --extra voice --extra voice_local  # 两者都安装

# 如果您直接以包形式安装(未克隆仓库):
uv tool install "free-claude-code[voice_local] @ git+https://github.com/Alishahryar1/free-claude-code.git"
uv tool install "free-claude-code[voice] @ git+https://github.com/Alishahryar1/free-claude-code.git"
uv tool install "free-claude-code[voice,voice_local] @ git+https://github.com/Alishahryar1/free-claude-code.git"

通过 WHISPER_DEVICEcpu | cuda | nvidia_nim)和 WHISPER_MODEL 进行配置。所有语音相关变量及支持的模型值,请参阅 配置 表格。


配置

核心配置

变量 描述 默认
MODEL 备用模型(格式为 provider/model/name;无效前缀会导致错误) nvidia_nim/stepfun-ai/step-3.5-flash
MODEL_OPUS 用于 Claude Opus 请求的模型(回退至 MODEL nvidia_nim/z-ai/glm4.7
MODEL_SONNET 用于 Claude Sonnet 请求的模型(回退至 MODEL open_router/arcee-ai/trinity-large-preview:free
MODEL_HAIKU 用于 Claude Haiku 请求的模型(回退至 MODEL open_router/stepfun/step-3.5-flash:free
NVIDIA_NIM_API_KEY NVIDIA API 密钥 使用 NIM 时必需
NIM_ENABLE_THINKING 在 NIM 请求中发送 chat_template_kwargs + reasoning_budget。对于具备思考能力的模型(如 kimi、nemotron)请启用;其他模型(如 Mistral)则应设为 false false
OPENROUTER_API_KEY OpenRouter API 密钥 使用 OpenRouter 时必需
LM_STUDIO_BASE_URL LM Studio 服务器地址 http://localhost:1234/v1
LLAMACPP_BASE_URL llama.cpp 服务器地址 http://localhost:8080/v1

速率限制与超时

变量 描述 默认
PROVIDER_RATE_LIMIT 每个时间窗口内的 LLM API 请求次数 40
PROVIDER_RATE_WINDOW 速率限制的时间窗口(秒) 60
PROVIDER_MAX_CONCURRENCY 最大同时开启的提供商流数量 5
HTTP_READ_TIMEOUT 对提供商请求的读取超时时间(秒) 120
HTTP_WRITE_TIMEOUT 对提供商请求的写入超时时间(秒) 10
HTTP_CONNECT_TIMEOUT 对提供商请求的连接超时时间(秒) 2

消息与语音

变量 描述 默认值
MESSAGING_PLATFORM discordtelegram discord
DISCORD_BOT_TOKEN Discord 机器人令牌 ""
ALLOWED_DISCORD_CHANNELS 以逗号分隔的频道 ID(空表示不允许任何频道) ""
TELEGRAM_BOT_TOKEN Telegram 机器人令牌 ""
ALLOWED_TELEGRAM_USER_ID 允许的 Telegram 用户 ID ""
CLAUDE_WORKSPACE 代理运行的目录 ./agent_workspace
ALLOWED_DIR 代理允许访问的目录 ""
MESSAGING_RATE_LIMIT 每个时间窗口内的消息数量 1
MESSAGING_RATE_WINDOW 消息发送的时间窗口(秒) 1
VOICE_NOTE_ENABLED 是否启用语音备忘录处理 true
WHISPER_DEVICE cpu | cuda | nvidia_nim cpu
WHISPER_MODEL Whisper 模型(本地:tiny/base/small/medium/large-v2/large-v3/large-v3-turbo;NIM:openai/whisper-large-v3nvidia/parakeet-ctc-1.1b-asr 等) base
HF_TOKEN Hugging Face 令牌,用于加速下载(本地 Whisper,可选)
高级:请求优化标志

这些功能默认启用,会在本地拦截简单的 Claude Code 请求,以节省 API 配额。

变量 描述 默认值
FAST_PREFIX_DETECTION 启用快速前缀检测 true
ENABLE_NETWORK_PROBE_MOCK 拟真网络探测请求 true
ENABLE_TITLE_GENERATION_SKIP 跳过标题生成请求 true
ENABLE_SUGGESTION_MODE_SKIP 跳过建议模式请求 true
ENABLE_FILEPATH_EXTRACTION_MOCK 拟真文件路径提取 true

所有支持的参数请参阅 ``.env.example`


开发

项目结构

free-claude-code/
├── server.py              # 入口文件
├── api/                   # FastAPI 路由、请求检测及优化处理程序
├── providers/             # BaseProvider、OpenAICompatibleProvider、NIM、OpenRouter、LM Studio、llamacpp
│   └── common/            # 共享工具(SSE 构建器、消息转换器、解析器、错误映射)
├── messaging/             # MessagingPlatform ABC + Discord/Telegram 机器人、会话管理
├── config/                # 配置、NIM 配置、日志记录
├── cli/                   # CLI 会话及进程管理
└── tests/                 # Pytest 测试套件

命令

uv run ruff format     # 格式化代码
uv run ruff check      # 代码检查
uv run ty check        # 类型检查
uv run pytest          # 运行测试

扩展

添加一个与 OpenAI 兼容的提供商(如 Groq、Together AI 等)——扩展 OpenAICompatibleProvider

from providers.openai_compat import OpenAICompatibleProvider
from providers.base import ProviderConfig

class MyProvider(OpenAICompatibleProvider):
    def __init__(self, config: ProviderConfig):
        super().__init__(config, provider_name="MYPROVIDER",
                         base_url="https://api.example.com/v1", api_key=config.api_key)

添加一个完全自定义的提供商——直接扩展 BaseProvider 并实现 stream_response()

添加一个新的消息平台——在 messaging/ 中扩展 MessagingPlatform 并实现 start()stop()send_message()edit_message()on_message()


贡献

  • 通过 Issues 报告问题或提出功能建议
  • 添加新的 LLM 提供商(如 Groq、Together AI 等)
  • 添加新的消息平台(如 Slack 等)
  • 提高测试覆盖率
  • 目前暂不接受 Docker 集成的 PR
git checkout -b my-feature
uv run ruff format && uv run ruff check && uv run ty check && uv run pytest
# 打开一个拉取请求

许可证

MIT 许可证。详情请参阅 LICENSE

基于 FastAPIOpenAI Python SDKdiscord.pypython-telegram-bot 构建。

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架