free-claude-code
free-claude-code 是一款轻量级代理工具,旨在让用户在终端、VSCode 插件或 Discord 中免费使用类 Claude Code 的编程体验,且无需 Anthropic 官方 API 密钥。它巧妙地将原本需要付费的 API 请求路由至免费或本地部署的大模型服务,如提供每分钟 40 次免费调用的 NVIDIA NIM、拥有数百种模型的 OpenRouter,以及完全本地运行的 LM Studio 和 llama.cpp。
这一方案有效解决了开发者因高昂 API 费用或区域限制而无法顺畅使用高级代码助手的问题,实现了“零成本”接入。无论是希望降低开发成本的独立程序员、需要本地隐私保护的研究人员,还是想要尝试自主编码助手的普通技术爱好者,都能从中受益。
其技术亮点在于“无缝替换”特性:用户仅需配置两个环境变量,即可让原版 Claude Code CLI 或插件直接运行,无需修改任何代码。此外,它还支持将不同模型(如 Opus、Sonnet)灵活映射到不同后端,具备智能速率限制以防止超限,甚至能解析非原生模型的思维链标签和工具调用格式,确保交互流畅自然。通过简单的扩展架构,用户还能轻松接入新的模型提供商或消息平台,是追求高效、低成本开发流程的理想选择。
使用场景
一名独立开发者需要在终端中频繁使用 Claude Code 辅助重构遗留代码,但受限于高昂的 API 费用和复杂的本地部署门槛。
没有 free-claude-code 时
- 成本压力巨大:直接调用 Anthropic 官方 API 处理大量代码重构任务,导致每月账单迅速飙升,难以承受。
- 本地模型接入繁琐:若想免费使用本地大模型(如 LM Studio),需手动修改 Claude Code 源码或编写复杂的中间件来适配接口。
- 资源利用率低:无法灵活切换提供商,当某家服务限流或宕机时,开发流程被迫中断,缺乏自动降级机制。
- 思维链支持缺失:本地开源模型输出的
<think>标签无法被原生识别,导致推理过程显示混乱,影响阅读体验。
使用 free-claude-code 后
- 实现零成本开发:通过配置环境变量,将请求无缝路由至 NVIDIA NIM(免费额度)或本地 LM Studio,彻底消除 API 费用。
- 即插即用无需改码:作为轻量级代理层,无需修改 Claude Code CLI 或 VSCode 插件的任何代码,仅需设置两个变量即可生效。
- 智能多源调度:支持将不同能力的模型(如 Opus、Sonnet)映射到不同后端,自动处理限流重试,保障开发连续性。
- 原生思维链解析:自动解析开源模型的推理标签并转换为 Claude 原生的思考块,让本地模型的输出同样清晰易读。
free-claude-code 通过无缝桥接免费算力与原生工具链,让开发者在零成本前提下享受企业级的 AI 编程体验。
运行环境要求
- Linux
- macOS
- Windows
- 非必需
- 若使用本地模型(LM Studio/llama.cpp),需根据所选模型大小配置相应 GPU
- 若使用 NVIDIA NIM/OpenRouter 云端服务,则无需本地 GPU
未说明(取决于是否运行本地模型及模型大小)

快速开始
🤖 免费 Claude Code
免费使用 Claude Code CLI 和 VSCode,无需 Anthropic API 密钥。
一个轻量级代理,可将 Claude Code 的 Anthropic API 请求路由至 NVIDIA NIM(每分钟 40 次免费)、OpenRouter(数百种模型)、LM Studio(完全本地运行)或 llama.cpp(本地运行并支持 Anthropic 端点)。
快速入门 · 提供商 · Discord 机器人 · 配置 · 开发 · 贡献
Claude Code 通过 NVIDIA NIM 运行,完全免费
特性
| 特性 | 描述 |
|---|---|
| 零成本 | NVIDIA NIM 提供每分钟 40 次免费请求。OpenRouter 上有免费模型。LM Studio 可完全本地运行 |
| 即插即用 | 设置 2 个环境变量即可。无需修改 Claude Code CLI 或 VSCode 扩展程序 |
| 4 种提供商 | NVIDIA NIM、OpenRouter(数百种模型)、LM Studio(本地)、llama.cpp(llama-server) |
| 按模型映射 | 可将 Opus / Sonnet / Haiku 路由到不同模型和提供商。可自由混合使用不同的提供商 |
| 思考标记支持 | 解析 \<think\> 标签和 reasoning_content 为原生 Claude 思考块 |
| 启发式工具解析器 | 将模型输出的工具调用文本自动解析为结构化工具使用 |
| 请求优化 | 本地拦截 5 类琐碎的 API 调用,节省配额并降低延迟 |
| 智能限流 | 主动滚动窗口限流 + 反应式 429 指数退避 + 可选并发上限 |
| Discord / Telegram 机器人 | 远程自主编码,支持基于树状结构的线程管理、会话持久化和实时进度显示 |
| 子代理控制 | 任务工具拦截会强制设置 run_in_background=False。防止子代理失控 |
| 可扩展性 | 清晰的 BaseProvider 和 MessagingPlatform 抽象基类。轻松添加新的提供商或平台 |
快速入门
前提条件
- 获取 API 密钥(或在本地使用 LM Studio / llama.cpp):
- NVIDIA NIM:build.nvidia.com/settings/api-keys
- OpenRouter:openrouter.ai/keys
- LM Studio:无需 API 密钥。可在本地使用 LM Studio 运行。
- llama.cpp:无需 API 密钥。可在本地运行
llama-server。
- 安装 Claude Code
安装 uv
# 安装 uv(运行该项目所需)
pip install uv
如果已安装 uv,请运行 uv self update 以获取最新版本。
克隆并配置
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env
选择您的提供商并编辑 .env 文件:
NVIDIA NIM(每分钟 40 次免费,推荐)
NVIDIA_NIM_API_KEY="nvapi-your-key-here"
MODEL_OPUS="nvidia_nim/z-ai/glm4.7"
MODEL_SONNET="nvidia_nim/moonshotai/kimi-k2-thinking"
MODEL_HAIKU="nvidia_nim/stepfun-ai/step-3.5-flash"
MODEL="nvidia_nim/z-ai/glm4.7" # 备用
# 对于思考型模型(kimi、nemotron)启用此选项。其他模型(如 Mistral)则保持关闭。
NIM_ENABLE_THINKING=true
OpenRouter(数百种模型)
OPENROUTER_API_KEY="sk-or-your-key-here"
MODEL_OPUS="open_router/deepseek/deepseek-r1-0528:free"
MODEL_SONNET="open_router/openai/gpt-oss-120b:free"
MODEL_HAIKU="open_router/stepfun/step-3.5-flash:free"
MODEL="open_router/stepfun/step-3.5-flash:free" # 备用
LM Studio(完全本地运行,无需 API 密钥)
MODEL_OPUS="lmstudio/unsloth/MiniMax-M2.5-GGUF"
MODEL_SONNET="lmstudio/unsloth/Qwen3.5-35B-A3B-GGUF"
MODEL_HAIKU="lmstudio/unsloth/GLM-4.7-Flash-GGUF"
MODEL="lmstudio/unsloth/GLM-4.7-Flash-GGUF" # 备用
llama.cpp(完全本地运行,无需 API 密钥)
LLAMACPP_BASE_URL="http://localhost:8080/v1"
MODEL_OPUS="llamacpp/local-model"
MODEL_SONNET="llamacpp/local-model"
MODEL_HAIKU="llamacpp/local-model"
MODEL="llamacpp/local-model"
混合提供商
每个 MODEL_* 变量可以使用不同的提供商。MODEL 是未识别的 Claude 模型的备用选项。
NVIDIA_NIM_API_KEY="nvapi-your-key-here"
OPENROUTER_API_KEY="sk-or-your-key-here"
MODEL_OPUS="nvidia_nim/moonshotai/kimi-k2.5"
MODEL_SONNET="open_router/deepseek/deepseek-r1-0528:free"
MODEL_HAIKU="lmstudio/unsloth/GLM-4.7-Flash-GGUF"
MODEL="nvidia_nim/z-ai/glm4.7" # 备用
可选认证(限制对代理的访问)
在 .env 中设置 ANTHROPIC_AUTH_TOKEN 以要求客户端进行身份验证:
ANTHROPIC_AUTH_TOKEN="your-secret-token-here"
工作原理:
- 如果
ANTHROPIC_AUTH_TOKEN为空(默认值),则无需认证(向后兼容)。 - 如果设置了该令牌,客户端必须通过
ANTHROPIC_AUTH_TOKEN头部提供相同的令牌。 claude-pick脚本会在配置完成后自动从.env中读取该令牌。
使用示例:
# 启用认证
ANTHROPIC_AUTH_TOKEN="your-secret-token-here" \
ANTHROPIC_BASE_URL="http://localhost:8082" claude
# claude-pick 会自动使用已配置的令牌
claude-pick
在以下情况下可以使用此功能:
- 在公共网络上运行代理
- 与他人共享服务器但限制访问
- 希望增加一层安全性
运行它
终端1: 启动代理服务器:
uv run uvicorn server:app --host 0.0.0.0 --port 8082
终端2: 运行 Claude Code:
PowerShell
$env:ANTHROPIC_AUTH_TOKEN="freecc"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude
Bash
ANTHROPIC_AUTH_TOKEN="freecc" ANTHROPIC_BASE_URL="http://localhost:8082" claude
就是这样!Claude Code 现在将免费使用您配置的提供商。
VSCode 扩展设置
- 启动代理服务器(同上)。
- 打开设置(
Ctrl + ,),搜索claude-code.environmentVariables。 - 单击 在 settings.json 中编辑,并添加:
"claudeCode.environmentVariables": [
{ "name": "ANTHROPIC_BASE_URL", "value": "http://localhost:8082" },
{ "name": "ANTHROPIC_AUTH_TOKEN", "value": "freecc" }
]
- 重新加载扩展。
- 如果您看到登录界面:点击 Anthropic Console,然后授权。扩展将开始工作。您可能会被重定向到浏览器购买积分;请忽略——扩展已经可以正常工作。
要切换回 Anthropic 模型,请注释掉添加的代码块并重新加载扩展。
多模型支持(模型选择器)
claude-pick 是一个交互式模型选择器,允许您每次启动 Claude 时从当前活跃的提供商中选择任何模型,而无需编辑 .env 文件中的 MODEL。
https://github.com/user-attachments/assets/9a33c316-90f8-4418-9650-97e7d33ad645
1. 安装 fzf:
brew install fzf # macOS/Linux
2. 将别名添加到 ~/.zshrc 或 ~/.bashrc:
alias claude-pick="/absolute/path/to/free-claude-code/claude-pick"
然后重新加载您的 shell(source ~/.zshrc 或 source ~/.bashrc),并运行 claude-pick。
或者使用固定模型别名(无需选择器):
alias claude-kimi='ANTHROPIC_BASE_URL="http://localhost:8082" ANTHROPIC_AUTH_TOKEN="freecc:moonshotai/kimi-k2.5" claude'
以软件包形式安装(无需克隆)
uv tool install git+https://github.com/Alishahryar1/free-claude-code.git
fcc-init # 从内置模板创建 ~/.config/free-claude-code/.env
编辑 ~/.config/free-claude-code/.env 文件,填写您的 API 密钥和模型名称,然后:
free-claude-code # 启动服务器
要更新:
uv tool upgrade free-claude-code
工作原理
┌─────────────────┐ ┌──────────────────────┐ ┌──────────────────┐
│ Claude Code │───────>│ Free Claude Code │───────>│ LLM 提供商 │
│ CLI / VSCode │<───────│ 代理 (:8082) │<───────│ NIM / OR / LMS │
└─────────────────┘ └──────────────────────┘ └──────────────────┘
Anthropic API OpenAI 兼容格式
格式 (SSE) 格式 (SSE)
- 透明代理:Claude Code 发送标准的 Anthropic API 请求;代理将其转发到您配置的提供商
- 按模型路由:Opus / Sonnet / Haiku 请求会解析到各自特定的后端,如果未指定则使用
MODEL作为默认值 - 请求优化:5 类琐碎请求(配额探测、标题生成、前缀检测、建议、文件路径提取)会被拦截并在本地响应,而不消耗 API 配额
- 格式转换:请求会被从 Anthropic 格式转换为提供商的 OpenAI 兼容格式,并以流式传输返回
- 思考标记:
<think>标签和reasoning_content字段会被转换为原生的 Claude 思考块
提供商
| 提供商 | 成本 | 速率限制 | 最适合 |
|---|---|---|---|
| NVIDIA NIM | 免费 | 40 次/分钟 | 日常使用,慷慨的免费层级 |
| OpenRouter | 免费 / 付费 | 不同 | 模型多样性,备用选项 |
| LM Studio | 免费(本地) | 无限制 | 隐私保护,离线使用,无速率限制 |
| llama.cpp | 免费(本地) | 无限制 | 轻量级本地推理引擎 |
模型使用前缀格式:provider_prefix/model/name。无效的前缀会导致错误。
| 提供商 | MODEL 前缀 |
API 密钥变量 | 默认基础 URL |
|---|---|---|---|
| NVIDIA NIM | nvidia_nim/... |
NVIDIA_NIM_API_KEY |
integrate.api.nvidia.com/v1 |
| OpenRouter | open_router/... |
OPENROUTER_API_KEY |
openrouter.ai/api/v1 |
| LM Studio | lmstudio/... |
(无) | localhost:1234/v1 |
| llama.cpp | llamacpp/... |
(无) | localhost:8080/v1 |
NVIDIA NIM 模型
热门模型(完整列表见 nvidia_nim_models.json):
nvidia_nim/minimaxai/minimax-m2.5nvidia_nim/qwen/qwen3.5-397b-a17bnvidia_nim/z-ai/glm5nvidia_nim/moonshotai/kimi-k2.5nvidia_nim/stepfun-ai/step-3.5-flash
浏览:build.nvidia.com · 更新列表:curl "https://integrate.api.nvidia.com/v1/models" > nvidia_nim_models.json
OpenRouter 模型
流行的免费模型:
open_router/arcee-ai/trinity-large-preview:freeopen_router/stepfun/step-3.5-flash:freeopen_router/deepseek/deepseek-r1-0528:freeopen_router/openai/gpt-oss-120b:free
浏览:openrouter.ai/models · 免费模型
LM Studio 模型
使用 LM Studio 在本地运行模型。在聊天或开发者选项卡中加载模型,然后将 MODEL 设置为其标识符。
具有原生工具使用支持的示例:
LiquidAI/LFM2-24B-A2B-GGUFunsloth/MiniMax-M2.5-GGUFunsloth/GLM-4.7-Flash-GGUFunsloth/Qwen3.5-35B-A3B-GGUF
llama.cpp 模型
使用 llama-server 在本地运行模型。确保您拥有支持工具的 GGUF 文件。将 MODEL 设置为您喜欢的任意名称(例如 llamacpp/my-model),因为 llama-server 在通过 /v1/messages 运行时会忽略模型名称。
有关详细说明和支持的模型,请参阅 Unsloth 文档: https://unsloth.ai/docs/models/qwen3.5#qwen3.5-small-0.8b-2b-4b-9b
Discord 机器人
通过 Discord(或 Telegram)远程控制 Claude Code。发送任务、实时查看进度,并管理多个并发会话。
功能:
- 基于树状结构的消息线程:回复某条消息即可分支对话
- 会话在服务器重启后仍可保持
- 实时流式传输思考过程中的 token、工具调用及结果
- 无限制的 Claude CLI 并发会话(并发数由
PROVIDER_MAX_CONCURRENCY控制) - 语音笔记:发送语音消息,系统会将其转录并作为普通提示进行处理
- 命令:
/stop(取消任务;回复特定消息仅停止该任务)、/clear(重置所有会话,或回复以清除某个分支)、/stats
设置步骤
创建 Discord 机器人:前往 Discord 开发者门户,创建应用并添加机器人,复制生成的令牌。在机器人设置中启用 Message Content Intent。
编辑
.env文件:
MESSAGING_PLATFORM="discord"
DISCORD_BOT_TOKEN="your_discord_bot_token"
ALLOWED_DISCORD_CHANNELS="123456789,987654321"
在 Discord 中启用开发者模式(设置 → 高级),然后右键点击频道选择“复制 ID”。多个频道之间用逗号分隔。若为空,则不允许任何频道。
- 配置工作空间(Claude 将在此处运行):
CLAUDE_WORKSPACE="./agent_workspace"
ALLOWED_DIR="C:/Users/yourname/projects"
- 启动服务器:
uv run uvicorn server:app --host 0.0.0.0 --port 8082
- 通过 OAuth2 URL 生成器邀请机器人(作用域:
bot,权限:读取消息、发送消息、管理消息、读取消息历史)。
Telegram
将 MESSAGING_PLATFORM 设置为 telegram,并进行如下配置:
TELEGRAM_BOT_TOKEN="123456789:ABCdefGHIjklMNOpqrSTUvwxYZ"
ALLOWED_TELEGRAM_USER_ID="your_telegram_user_id"
从 @BotFather 获取令牌;使用 @userinfobot 查找您的用户 ID。
语音笔记
在 Discord 或 Telegram 上发送语音消息,系统会将其转录并作为普通提示进行处理。
| 后端 | 描述 | API 密钥 |
|---|---|---|
| 本地 Whisper(默认) | Hugging Face Whisper — 免费、离线、支持 CUDA | 不需要 |
| NVIDIA NIM | 通过 gRPC 提供的 Whisper/Parakeet 模型 | NVIDIA_NIM_API_KEY |
安装语音相关依赖:
# 如果您克隆了仓库:
uv sync --extra voice_local # 本地 Whisper
uv sync --extra voice # NVIDIA NIM
uv sync --extra voice --extra voice_local # 两者都安装
# 如果您直接以包形式安装(未克隆仓库):
uv tool install "free-claude-code[voice_local] @ git+https://github.com/Alishahryar1/free-claude-code.git"
uv tool install "free-claude-code[voice] @ git+https://github.com/Alishahryar1/free-claude-code.git"
uv tool install "free-claude-code[voice,voice_local] @ git+https://github.com/Alishahryar1/free-claude-code.git"
通过 WHISPER_DEVICE(cpu | cuda | nvidia_nim)和 WHISPER_MODEL 进行配置。所有语音相关变量及支持的模型值,请参阅 配置 表格。
配置
核心配置
| 变量 | 描述 | 默认 |
|---|---|---|
MODEL |
备用模型(格式为 provider/model/name;无效前缀会导致错误) |
nvidia_nim/stepfun-ai/step-3.5-flash |
MODEL_OPUS |
用于 Claude Opus 请求的模型(回退至 MODEL) |
nvidia_nim/z-ai/glm4.7 |
MODEL_SONNET |
用于 Claude Sonnet 请求的模型(回退至 MODEL) |
open_router/arcee-ai/trinity-large-preview:free |
MODEL_HAIKU |
用于 Claude Haiku 请求的模型(回退至 MODEL) |
open_router/stepfun/step-3.5-flash:free |
NVIDIA_NIM_API_KEY |
NVIDIA API 密钥 | 使用 NIM 时必需 |
NIM_ENABLE_THINKING |
在 NIM 请求中发送 chat_template_kwargs + reasoning_budget。对于具备思考能力的模型(如 kimi、nemotron)请启用;其他模型(如 Mistral)则应设为 false |
false |
OPENROUTER_API_KEY |
OpenRouter API 密钥 | 使用 OpenRouter 时必需 |
LM_STUDIO_BASE_URL |
LM Studio 服务器地址 | http://localhost:1234/v1 |
LLAMACPP_BASE_URL |
llama.cpp 服务器地址 | http://localhost:8080/v1 |
速率限制与超时
| 变量 | 描述 | 默认 |
|---|---|---|
PROVIDER_RATE_LIMIT |
每个时间窗口内的 LLM API 请求次数 | 40 |
PROVIDER_RATE_WINDOW |
速率限制的时间窗口(秒) | 60 |
PROVIDER_MAX_CONCURRENCY |
最大同时开启的提供商流数量 | 5 |
HTTP_READ_TIMEOUT |
对提供商请求的读取超时时间(秒) | 120 |
HTTP_WRITE_TIMEOUT |
对提供商请求的写入超时时间(秒) | 10 |
HTTP_CONNECT_TIMEOUT |
对提供商请求的连接超时时间(秒) | 2 |
消息与语音
| 变量 | 描述 | 默认值 |
|---|---|---|
MESSAGING_PLATFORM |
discord 或 telegram |
discord |
DISCORD_BOT_TOKEN |
Discord 机器人令牌 | "" |
ALLOWED_DISCORD_CHANNELS |
以逗号分隔的频道 ID(空表示不允许任何频道) | "" |
TELEGRAM_BOT_TOKEN |
Telegram 机器人令牌 | "" |
ALLOWED_TELEGRAM_USER_ID |
允许的 Telegram 用户 ID | "" |
CLAUDE_WORKSPACE |
代理运行的目录 | ./agent_workspace |
ALLOWED_DIR |
代理允许访问的目录 | "" |
MESSAGING_RATE_LIMIT |
每个时间窗口内的消息数量 | 1 |
MESSAGING_RATE_WINDOW |
消息发送的时间窗口(秒) | 1 |
VOICE_NOTE_ENABLED |
是否启用语音备忘录处理 | true |
WHISPER_DEVICE |
cpu | cuda | nvidia_nim |
cpu |
WHISPER_MODEL |
Whisper 模型(本地:tiny/base/small/medium/large-v2/large-v3/large-v3-turbo;NIM:openai/whisper-large-v3、nvidia/parakeet-ctc-1.1b-asr 等) |
base |
HF_TOKEN |
Hugging Face 令牌,用于加速下载(本地 Whisper,可选) | — |
高级:请求优化标志
这些功能默认启用,会在本地拦截简单的 Claude Code 请求,以节省 API 配额。
| 变量 | 描述 | 默认值 |
|---|---|---|
FAST_PREFIX_DETECTION |
启用快速前缀检测 | true |
ENABLE_NETWORK_PROBE_MOCK |
拟真网络探测请求 | true |
ENABLE_TITLE_GENERATION_SKIP |
跳过标题生成请求 | true |
ENABLE_SUGGESTION_MODE_SKIP |
跳过建议模式请求 | true |
ENABLE_FILEPATH_EXTRACTION_MOCK |
拟真文件路径提取 | true |
所有支持的参数请参阅 ``.env.example`。
开发
项目结构
free-claude-code/
├── server.py # 入口文件
├── api/ # FastAPI 路由、请求检测及优化处理程序
├── providers/ # BaseProvider、OpenAICompatibleProvider、NIM、OpenRouter、LM Studio、llamacpp
│ └── common/ # 共享工具(SSE 构建器、消息转换器、解析器、错误映射)
├── messaging/ # MessagingPlatform ABC + Discord/Telegram 机器人、会话管理
├── config/ # 配置、NIM 配置、日志记录
├── cli/ # CLI 会话及进程管理
└── tests/ # Pytest 测试套件
命令
uv run ruff format # 格式化代码
uv run ruff check # 代码检查
uv run ty check # 类型检查
uv run pytest # 运行测试
扩展
添加一个与 OpenAI 兼容的提供商(如 Groq、Together AI 等)——扩展 OpenAICompatibleProvider:
from providers.openai_compat import OpenAICompatibleProvider
from providers.base import ProviderConfig
class MyProvider(OpenAICompatibleProvider):
def __init__(self, config: ProviderConfig):
super().__init__(config, provider_name="MYPROVIDER",
base_url="https://api.example.com/v1", api_key=config.api_key)
添加一个完全自定义的提供商——直接扩展 BaseProvider 并实现 stream_response()。
添加一个新的消息平台——在 messaging/ 中扩展 MessagingPlatform 并实现 start()、stop()、send_message()、edit_message() 和 on_message()。
贡献
- 通过 Issues 报告问题或提出功能建议
- 添加新的 LLM 提供商(如 Groq、Together AI 等)
- 添加新的消息平台(如 Slack 等)
- 提高测试覆盖率
- 目前暂不接受 Docker 集成的 PR
git checkout -b my-feature
uv run ruff format && uv run ruff check && uv run ty check && uv run pytest
# 打开一个拉取请求
许可证
MIT 许可证。详情请参阅 LICENSE。
基于 FastAPI、OpenAI Python SDK、discord.py 和 python-telegram-bot 构建。
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。