claude-code-settings
claude-code-settings 是一个为 Claude Code 量身定制的设置、技能和子代理集合,旨在提升开发效率和代码编写体验。它提供了多种技能,如基于规格的开发流程、代码分析、GitHub 集成和知识管理,帮助开发者更高效地完成任务。
这个工具解决了传统开发中手动配置繁琐、自动化程度低的问题,通过预设的技能和代理,简化了复杂任务的执行流程,让开发者可以专注于核心逻辑,而不是重复性操作。
适合需要频繁使用 AI 辅助编码的开发者,特别是那些希望优化工作流、提升自动化水平的用户。研究人员或设计师如果涉及代码生成与分析,也可以从中受益。
其独特之处在于支持多种执行模式、模型选择以及自动化的长任务处理,同时兼容 GitHub Copilot 和 LiteLLM 代理,增强了灵活性和扩展性。
使用场景
某位全栈开发者正在为一个电商平台开发新功能,需要频繁与 GitHub 集成、编写代码、分析现有系统,并管理项目知识库。他希望提高开发效率,减少重复性工作。
没有 claude-code-settings 时
- 需要手动配置 Claude 的各项设置,过程繁琐且容易出错。
- 缺乏自动化技能支持,如无法直接调用 Codex CLI 实现代码生成或执行任务。
- GitHub 集成和代码分析等功能需要额外插件或工具,难以统一管理。
- 在处理长时间运行的任务时,缺乏自动化的流程控制和状态跟踪能力。
- 知识管理依赖外部工具,无法与 Claude 流畅协作,影响整体开发效率。
使用 claude-code-settings 后
- 可通过插件市场一键安装并配置 Claude 的开发相关设置,简化了初始化流程。
- 直接集成 codex-skill 和 autonomous-skill,实现代码自动生成、任务自动化执行,显著提升工作效率。
- 提供 GitHub 集成和代码分析等子代理,使版本控制和代码审查更加高效。
- 支持长时间任务的自动化处理,无需人工干预,任务状态可追踪。
- 内置知识管理功能,便于在开发过程中快速检索和整理技术文档与项目信息。
claude-code-settings 让开发者能够更专注于核心业务逻辑,而非重复性配置和工具管理。
运行环境要求
- Linux
- macOS
需要 NVIDIA GPU,显存 8GB+,CUDA 11.7+
16GB+

快速开始
Claude Code 设置/技能,用于 Vibe 编码
这是一套精心挑选的 Claude Code 设置、技能和子代理集合,旨在提升开发工作流。该配置包含专门用于功能开发(基于规范的工作流)、代码分析、GitHub 集成以及知识管理的技能和子代理。
关于 OpenAI Codex 的设置、配置和自定义提示,请参阅 feiskyer/codex-settings。
设置
使用 Claude Code 插件
/plugin marketplace add feiskyer/claude-code-settings
# 安装主插件(技能和代理)
/plugin install claude-code-settings
# 或者单独安装各项技能
/plugin install codex-skill # Codex 自动化
/plugin install autonomous-skill # 长时间运行任务自动化
/plugin install nanobanana-skill # 图像生成
/plugin install kiro-skill # Kiro 工作流
/plugin install spec-kit-skill # Spec-Kit 工作流
/plugin install youtube-transcribe-skill # YouTube 字幕提取
注意:
- ~/.claude/settings.json 不通过 Claude Code 插件进行配置,您需要手动配置。
使用 npx 技能
npx skills 可以仅用于为您的 AI 编码工具安装技能。
# 列出技能
npx -y skills add -l feiskyer/claude-code-settings
# 安装所有技能
npx -y skills add --all feiskyer/claude-code-settings
# 手动选择要安装的技能列表
npx -y skills add feiskyer/claude-code-settings
手动设置
# 备份原始 Claude 设置
mv ~/.claude ~/.claude.bak
# 克隆 claude-code-settings
git clone https://github.com/feiskyer/claude-code-settings.git ~/.claude
# 安装 LiteLLM 代理
pip install -U 'litellm[proxy]'
# 启动 LiteLLM 代理(监听 http://0.0.0.0:4000)
litellm -c ~/.claude/guidances/litellm_config.yaml
# 为了方便起见,使用 tmux 在后台运行 LiteLLM 代理
# tmux new-session -d -s copilot 'litellm -c ~/.claude/guidances/litellm_config.yaml'
启动后,您将看到:
...
请访问 https://github.com/login/device 并输入代码 XXXX-XXXX 进行认证。
...
打开该链接,登录并认证您的 GitHub Copilot 账户。
注意:
默认配置是利用 LiteLLM 代理服务器 作为 LLM 网关连接到 GitHub Copilot。您也可以使用 copilot-api 作为代理(记得将端口改为 4141)。
确保您的账户中已启用以下模型;如果未启用,请替换为您自己的模型名称:
- ANTHROPIC_DEFAULT_SONNET_MODEL:claude-sonnet-4.6
- ANTHROPIC_DEFAULT_OPUS_MODEL:claude-opus-4.6
- ANTHROPIC_DEFAULT_HAIKU_MODEL:gpt-5-mini
技能
技能是 可重用的能力,它们教会 Claude 如何完成特定任务。可以通过 /skill-name [参数] 调用,或根据上下文自动触发。只需安装您需要的技能:
codex-skill - 将任务交由 Codex CLI 处理
codex-skill
非交互式自动化模式,使用 OpenAI Codex 实现无人值守的任务执行。当您希望利用 codex、gpt-5 或 gpt-5.1 来实现 Claude 设计的功能或计划时使用。
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install codex-skill
主要特点:
- 多种执行模式(只读、写入工作区、完全权限)
- 支持模型选择(gpt-5、gpt-5.1、gpt-5.1-codex 等)
- 无需批准提示即可自主执行
- 支持 JSON 输出,获得结构化结果
- 支持断点续传
要求: 已安装 Codex CLI(npm i -g @openai/codex 或 brew install codex)
autonomous-skill - 长时间运行任务自动化
autonomous-skill
使用双代理模式(初始化器 + 执行器),在多个会话中执行复杂、长时间运行的任务,并自动延续会话。
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install autonomous-skill
主要特点:
- 双代理模式(初始化器创建任务列表,执行器完成任务)
- 自动跨会话延续并跟踪进度
- 任务隔离,每个任务都有独立目录(
.autonomous/<task-name>/) - 通过
task_list.md和progress.md持久化进度 - 使用 Claude CLI 进行无头模式执行
使用方法:
您:“请使用 autonomous skill 构建一个待办事项应用的 REST API”
Claude:“[创建 .autonomous/build-rest-api-todo/,初始化任务列表,开始执行]”
要求: 已安装 Claude CLI
nanobanana-skill - 使用 Gemini nanobanana 绘制图像
nanobanana-skill
通过 nanobanana 使用 Google Gemini API 生成或编辑图像。当您需要创建、生成或编辑图像时使用。
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install nanobanana-skill
主要特点:
- 支持多种宽高比的图像生成
- 图像编辑功能
- 多种模型选项(gemini-3-pro-image-preview、gemini-2.5-flash-image 等)
- 分辨率选项(1K、2K、4K)
- 支持多种宽高比(正方形、竖屏、横屏、超宽屏)
要求:
- 在
~/.nanobanana.env中配置 GEMINI_API_KEY - 安装 Python3,并配备 google-genai、Pillow、python-dotenv(通过插件目录中的
pip install -r requirements.txt安装)
youtube-transcribe-skill - 提取 YouTube 字幕
youtube-transcribe-skill
从 YouTube 视频链接中提取字幕/文本。
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install youtube-transcribe-skill
主要特点:
- 两种提取方式:CLI(快速)和浏览器自动化(备用)
- 自动选择字幕语言(zh-Hans、zh-Hant、en)
- 浏览器方法采用高效的 DOM 提取
- 将字幕保存为本地文本文件
要求:
yt-dlp(用于 CLI 方法)- 或
chrome-devtools-mcp(用于浏览器自动化方法)
deep-research - 多代理研究编排
深度研究
用于深度研究的多智能体编排工作流。将研究目标分解为并行子目标,启动 claude -p 子进程,汇总结果,并交付精炼的报告。
触发条件: “深度调研”、“deep research”、“wide research”、“multi-agent research” 或系统性研究需求
核心功能:
- 多智能体编排:将研究目标拆分为并行子任务,通过
claude -p执行 - 技能优先:优先使用已安装的技能,其次使用 MCP 工具(firecrawl → exa),最后使用 WebFetch/WebSearch
- 结构化交付:生成基于文件的报告,包含执行摘要,而非聊天消息
- 逐章细化:通过源验证进行迭代式润色
- 全面日志记录:包括调度器日志、每项任务的日志以及原始数据缓存
- 规模感知执行:从微型(1–2 个任务)到大型(15 个以上)任务,采用适当的并行化策略
应用场景:
- 系统性网页/文档研究
- 竞争/行业分析
- 批量 URL/数据集处理
- 长篇写作与证据整合
目录结构:
.research/<name>/
├── prompts/ # 子任务提示
├── child_outputs/ # 子进程输出
├── logs/ # 执行日志
├── raw/ # 缓存的原始数据
└── final_report.md # 精炼后的交付成果
使用方法:
你:“深度调研一下 AI Agent 框架的现状”
Claude:“[启动侦察,提出子目标,等待确认,然后编排并行研究]”
kiro-skill - 交互式功能开发
kiro-skill
从创意到实现的交互式功能开发工作流。
触发条件: “kiro”,或对 .kiro/specs/ 目录的引用
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install kiro-skill
工作流程:
- 需求 → 定义需要构建的内容(EARS 格式,包含用户故事)
- 设计 → 确定如何构建(架构、组件、数据模型)
- 任务 → 创建可执行的实施步骤(测试驱动、增量式)
- 执行 → 逐一实施任务
使用方法:
你:“我需要创建一个 kiro 功能规范,用于用户认证”
Claude:“[自动使用 kiro-skill]”
spec-kit-skill - 基于宪章的开发
spec-kit-skill
GitHub Spec-Kit 集成,用于基于宪章的规范驱动开发。
触发条件: “spec-kit”、“speckit”、“constitution”、“specify” 或对 .specify/ 目录的引用
安装:
/plugin marketplace add feiskyer/claude-code-settings
/plugin install spec-kit-skill
先决条件:
# 安装 spec-kit CLI
uv tool install specify-cli --from git+https://github.com/github/spec-kit.git
# 初始化项目
specify init . --ai claude
7 阶段工作流:
- 宪章 → 确立指导原则
- 指定 → 定义功能需求
- 澄清 → 解决歧义(最多 5 个问题)
- 规划 → 制定技术策略
- 任务 → 生成按依赖关系排序的任务
- 分析 → 验证一致性(只读)
- 实施 → 执行实施
使用方法:
你:“让我们为这个项目制定一份宪章”
Claude:“[自动使用 spec-kit-skill,检测 CLI,引导完成各阶段]”
reflection - 会话分析与 CLAUDE.md 改进
reflection
分析开发会话,捕捉学习成果,并改进 Claude Code 指令。支持两种模式:
- 快速模式(
/reflection):分析聊天记录,识别并实施 CLAUDE.md 改进 - 深度模式(
/reflection deep):全面会话分析,涵盖已解决的问题、模式、用户偏好、系统理解及知识缺口
eureka - 技术突破文档化
eureka
记录技术突破,并将其转化为可操作、可复用的文档。在 breakthroughs/ 目录中创建结构化的突破文件,包含问题/洞见/实施/影响等部分,并维护可搜索的索引。
使用方法:
你:“/eureka 将 API 响应时间从 2 秒缩短至 100 毫秒,通过实现请求批处理”
Claude:“[创建 breakthroughs/2025-01-15-api-request-batching.md,更新 INDEX.md]”
translate - 技术文章中文翻译
translate
采用三步法(直接翻译、问题识别、重新诠释)将英文或日文技术文章翻译成自然流畅的中文。保留 Markdown 格式,技术术语和品牌名称保持原样。
使用方法:
你:“/translate [粘贴文本或提供文件路径]”
Claude:“[输出精炼的中文译文]”
代理
agents/ 目录包含专门的 AI 子代理,扩展了 Claude Code 的能力。
可用代理
- pr-reviewer - GitHub 拉取请求的专业代码评审员
- github-issue-fixer - GitHub 问题解决专家
- instruction-reflector - 分析并改进 Claude Code 指令
- deep-reflector - 全面会话分析与学习成果捕捉
- insight-documenter - 技术突破文档化专家
- ui-engineer - UI/UX 开发专家
- command-creator - 专家,擅长创建新的 Claude Code 自定义命令
设置
示例设置 - 针对各类模型提供商及部署方案的预配置设置。
可用设置
copilot-settings.json
使用 GitHub Copilot 代理的 Claude Code。将 Anthropic API 的基础 URL 指向本地主机:4141。
litellm-settings.json
使用 LiteLLM 网关的 Claude Code。将 Anthropic API 的基础 URL 指向本地主机:4000。
deepseek-settings.json
使用 DeepSeek v3.1 的 Claude Code(通过 DeepSeek 官方的 Anthropic 兼容 API)。
qwen-settings.json
通过阿里巴巴的 DashScope API 使用 Qwen 模型的 Claude Code。借助 claude-code-proxy 使用 Qwen3-Coder-Plus 模型。
siliconflow-settings.json
使用 SiliconFlow API 的 Claude Code。采用 Moonshot AI 的 Kimi-K2-Instruct 模型。
vertex-settings.json
使用 Google Cloud Vertex AI 的 Claude Code。采用 Claude Opus 4 模型,并结合 Google Cloud 项目设置。
azure-settings.json
用于在 Azure AI(Anthropic 兼容端点)上使用 Claude Code 的配置。指向 Azure AI 服务端点。
azure-foundry-settings.json
用于在 Azure AI Foundry 原生模式下使用 Claude Code 的配置。启用 CLAUDE_CODE_USE_FOUNDRY 标志,搭配 Claude Opus 4.1 + Sonnet 4.5 模型。
minimax.json
用于在 MiniMax API 上使用 Claude Code 的配置。采用 MiniMax-M2 模型。
openrouter-settings.json
使用 OpenRouter API 的 Claude Code。OpenRouter 通过统一的 API 提供对众多模型的访问。注意:ANTHROPIC_API_KEY 必须留空,而 ANTHROPIC_AUTH_TOKEN 则需填写您的 OpenRouter API 密钥。
脚本
scripts/ 目录包含用于维护您的 Claude Code 部署的实用 Shell 脚本。
| 脚本 | 描述 |
|---|---|
update-cc-plugins.sh |
一次性更新所有已安装的 Claude Code 市场及插件/技能 |
使用方法:
bash ~/.claude/scripts/update-cc-plugins.sh
局限性
Claude Code 中的 WebSearch 工具是 Anthropic 特有的工具, 并且在未使用官方 Anthropic API 时不可用。因此,如果您需要网页搜索功能,就必须将 Claude Code 连接到外部的网页搜索 MCP 服务器,例如 Tavily MCP,Brave MCP,Firecrawl MCP 或 DuckDuckGo Search MCP。
常见问题
VSCode 中 Claude Code 2.0+ 扩展的登录问题
对于 VSCode 中的 Claude Code 2.0+ 扩展,如果您未使用 Claude.ai 订阅,请手动将环境变量添加到您的 vscode settings.json 文件中:
{
"claude-code.environmentVariables": [
{
"name": "ANTHROPIC_BASE_URL",
"value": "http://localhost:4000"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "sk-dummy"
},
{
"name": "ANTHROPIC_MODEL",
"value": "opusplan"
},
{
"name": "ANTHROPIC_DEFAULT_SONNET_MODEL",
"value": "claude-sonnet-4.6"
},
{
"name": "ANTHROPIC_DEFAULT_OPUS_MODEL",
"value": "claude-opus-4.6"
},
{
"name": "ANTHROPIC_DEFAULT_HAIKU_MODEL",
"value": "gpt-5-mini"
},
{
"name": "DISABLE_NON_ESSENTIAL_MODEL_CALLS",
"value": "1"
},
{
"name": "DISABLE_TELEMETRY",
"value": "1"
},
{
"name": "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC",
"value": "1"
}
]
}
请注意,还需在 ~/.claude/config.json 中配置相应内容,以跳过 Claude.ai 登录。
缺少 API 密钥与 API 密钥无效的问题
请确保您在 ANTHROPIC_AUTH_TOKEN 中配置的 API 密钥已添加至 ~/.claude.json 中的已批准 API 密钥列表,例如:
{
"customApiKeyResponses": {
"approved": [
"sk-dummy"
],
"rejected": []
},
... (您的其他设置)
}
指南
参考文献
- Claude Code 官方文档 - 必读的官方文档。
- anthropics/skills - Claude Code 技能的官方列表,这些技能教会 Claude 如何以可重复的方式完成特定任务。
- anthropics/claude-plugins-official - 由 Anthropic 管理的 Claude Code 插件官方列表。
- hesreallyhim/awesome-claude-code - 精选的斜杠命令、CLAUDE.md 文件、CLI 工具及其他资源。
- wshobson/agents - 一套全面的 Claude Code 专用 AI 子代理集合。
许可证
本项目采用 MIT 许可证发布 - 详情请参阅 LICENSE。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。