RA.Aid
RA.Aid 是一个能自主完成软件开发任务的智能助手,它通过多步骤规划与自动化执行,帮助开发者高效完成从需求分析到代码实现的全流程工作。这个工具特别擅长处理需要连续决策的复杂开发场景,例如自动规划功能实现步骤、编写并调试多文件代码、执行命令行操作等,能显著减少重复性人工操作。
对于需要频繁处理需求变更、技术调研或代码重构的开发者来说,RA.Aid 提供了系统化的解决方案。它通过三阶段架构实现智能开发:先研究现有代码库和需求背景,再拆解任务为可执行步骤,最后自动编写代码并验证结果。这种设计解决了传统开发中任务规划碎片化、执行效率低等问题。
该工具的核心价值在于其深度整合能力:既支持与专业代码编辑工具 aider 的联动,又能调用高级推理模型(如 OpenAI o1)解决复杂逻辑问题,配合网络搜索功能实现技术方案的实时验证。其自动化命令执行特性虽大幅提升效率,但也建议使用者保持代码审查习惯。
主要面向有编程基础的开发者和技术研究人员,特别适合需要快速验证产品原型、维护复杂系统的场景。设计上采用模块化架构,用户可根据项目需求灵活配置模型与工具链。尽管处于 Beta 阶段,但其开源特性已吸引社区贡献,持续优化着自动化开发的边界。
使用场景
某后端工程师需要在现有 Python 电商项目中紧急集成 Stripe 支付功能,涉及第三方文档调研、核心代码修改及全流程测试验证。
没有 RA.Aid 时
- 手动查阅 Stripe 官方文档耗时费力,容易遗漏关键配置项或版本差异。
- 需人工拆解任务步骤,规划不当容易导致代码耦合或逻辑错误,返工率高。
- 在调研、编码和测试间频繁切换上下文,注意力分散导致效率低下且易出错。
- 担心修改现有支付逻辑引发回归问题,心理负担重,不敢大胆重构。
使用 RA.Aid 后
- RA.Aid 自动联网搜索最新 API 文档,快速获取准确集成信息并分析代码库上下文。
- RA.Aid 将任务拆解为安装依赖、配置密钥、编写接口等具体步骤并顺序自主执行。
- RA.Aid 自主运行 shell 命令和编辑代码,工程师只需专注审查 git diff 确认变更。
- RA.Aid 在关键节点调用推理模型确保逻辑严密,降低破坏现有功能的风险,增强信心。
RA.Aid 将繁琐的多步开发流程自动化,让开发者从执行者转变为监督者,显著提升交付效率与代码质量。
运行环境要求
- Windows
- Linux
- macOS
无需本地 GPU (基于云端 API 调用)
未说明

快速开始
自主开发软件。
RA.Aid(发音为"raid")帮助您自主开发软件。它是一个基于 LangGraph(一种基于图的代理工作流框架)的代理任务执行框架构建的独立编码代理(coding agent)。该工具提供智能助手,可协助研究、规划以及实施多步开发任务。RA.Aid 可通过 --use-aider 标志选择性与 aider(https://aider.chat/,一种代码编辑工具)集成,以利用其专门的代码编辑能力。
结果是近乎全自动的软件开发。
喜欢 RA.Aid 吗? 在 GitHub 上给我们一颗星 ⭐ 以示支持!
以下是 RA.Aid 为自己添加功能的演示:
文档
完整文档位于 https://docs.ra-aid.ai
主要章节:
目录
👋 非常欢迎提交 Pull requests! 有关于如何改进 RA.Aid 的想法吗?不要害羞——您的帮助能带来真正的改变!
💬 加入我们的 Discord 社区: 点击此处加入
⚠️ 重要提示:风险自担 ⚠️
- 此工具能够且将会自动执行 shell 命令(命令行指令)并进行代码更改
- 可启用 --cowboy-mode 标志以跳过 shell 命令批准提示
- 不提供任何明示或暗示的保证
- 始终在版本控制的仓库中使用
- 在提交之前,请在 git diff(差异对比)中审查提议的更改
主要功能
多步任务规划:代理将复杂任务分解为离散的、可管理的步骤,并按顺序执行它们。这种系统化的方法确保了彻底的实施并减少了错误。
自动化命令执行:代理可以自动运行 shell 命令以完成任务。虽然这使其功能强大,但也意味着您应该仔细审查其操作。
利用专家推理模型的能力:代理可以使用高级推理模型,例如 OpenAI 的 o1,仅在需要时,例如解决复杂的调试问题或规划复杂功能实施。
网络研究能力:利用 Tavily API(网络搜索 API)进行智能网络搜索,以增强研究并为开发任务收集现实世界背景
三阶段架构:
- 研究:分析代码库并收集上下文
- 规划:将任务分解为具体的、可操作的步骤
- 实施:按顺序执行每个计划的步骤
RA.Aid 的独特之处在于它能够处理超出单次代码编辑的复杂编程任务。通过将研究、战略规划和实施结合到一个连贯的工作流中,RA.Aid 可以:
- 分解并执行多步编程任务
- 研究和分析复杂代码库以回答架构问题
- 规划并实施跨多个文件的重大代码更改
- 提供现有代码结构和功能的详细解释
- 执行具有适当规划的复杂重构操作
功能特性
三阶段架构:工作流由三个强大的阶段组成:
- 研究 🔍 - 收集和分析信息
- 规划 📋 - 制定执行策略
- 实施 ⚡ - 在 AI 协助下执行计划
每个阶段都由专用的 AI 代理和专用工具集提供支持。
高级 AI 集成:基于 LangChain(语言模型应用开发框架)构建,并利用最新的 LLMs(大型语言模型)进行自然语言理解和生成。
人机交互(Human-in-the-Loop):可选模式,使代理能够在任务执行期间向您提问,确保更高的准确性并更好地处理可能需要您输入或澄清的复杂任务
综合工具集:
- Shell 命令执行
- 专家查询系统
- 文件操作和管理
- 内存管理
- 研究和规划工具
- 代码分析能力
交互式 CLI 接口:简单而强大的 CLI(命令行界面)接口,用于无缝交互
模块化设计:构建为 Python 包,具有用于控制台输出、处理、文本实用程序和工具的专用模块
Git 集成:内置支持 Git(版本控制系统)操作和仓库管理
安装
Windows 安装
- 从 python.org 安装 Python 3.8 或更高版本
- 安装所需的系统依赖项:
# Install Chocolatey if not already installed (run in admin PowerShell) Set-ExecutionPolicy Bypass -Scope Process -Force; [System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072; iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1')) # Install ripgrep using Chocolatey choco install ripgrep - 安装 RA.Aid:
pip install ra-aid - 安装 Windows 特定依赖项:
pip install pywin32 - 在
.env文件中设置您的 API(应用程序编程接口)密钥:ANTHROPIC_API_KEY=your_anthropic_key OPENAI_API_KEY=your_openai_key
Unix/Linux 安装
RA.Aid 可以直接使用 pip 安装:
pip install ra-aid
使用 Homebrew 安装 macOS
brew tap ai-christianson/homebrew-ra-aid
brew install ra-aid
注意: macOS 也可以使用上述 pip 方式进行安装。
前提条件
在使用 RA.Aid 之前,您需要所需 AI 服务的 API 密钥:
```bash
# Set up API keys based on your preferred provider:
# For Anthropic Claude models (recommended)
export ANTHROPIC_API_KEY=your_api_key_here
# For OpenAI models (optional)
export OPENAI_API_KEY=your_api_key_here
# For OpenRouter provider (optional)
export OPENROUTER_API_KEY=your_api_key_here
# For Makehub provider (optional)
export MAKEHUB_API_KEY=your_api_key_here
# For OpenAI-compatible providers (optional)
export OPENAI_API_BASE=your_api_base_url
# For Gemini provider (optional)
export GEMINI_API_KEY=your_api_key_here
# For web research capabilities
export TAVILY_API_KEY=your_api_key_here
注意: 当使用 --use-aider 标志 (flag) 时,编程工具 (aider) 将根据您可用的 API (应用程序接口) 密钥自动选择其模型:
- 如果设置了 ANTHROPIC_API_KEY,它将使用 Claude 模型
- 如果仅设置了 OPENAI_API_KEY,它将使用 OpenAI 模型
- 您可以设置多个 API 密钥以启用不同功能
您可以从以下位置获取 API 密钥:
- Anthropic API 密钥:https://console.anthropic.com/
- OpenAI API 密钥:https://platform.openai.com/api-keys
- OpenRouter API 密钥:https://openrouter.ai/keys
- Makehub API 密钥:https://makehub.ai/
- Gemini API 密钥:https://aistudio.google.com/app/apikey
注意: aider 必须单独安装,因为它不包含在 RA.Aid 包中。详见 aider-chat 了解更多详情。
完整的安装文档可在我们的 安装指南 中找到。
使用方法
RA.Aid 旨在简单而强大。使用方法如下:
# Basic usage
ra-aid -m "Your task or query here"
# Research-only mode (no implementation)
ra-aid -m "Explain the authentication flow" --research-only
# File logging with console warnings (default mode)
ra-aid -m "Add new feature" --log-mode file
# Console-only logging with detailed output
ra-aid -m "Add new feature" --log-mode console --log-level debug
更多信息请参阅我们的 使用示例、日志系统 和 内存管理 文档。
命令行选项
-m, --message: 要执行的任务或查询(必需,聊天模式除外,不能与 --msg-file 一起使用)--msg-file: 包含任务/消息的文本文件路径(不能与 --message 一起使用)--research-only: 仅执行研究而不进行实现--provider: 要使用的 LLM (大型语言模型) 提供商(选项:anthropic, openai, openrouter, openai-compatible, makehub, gemini)--model: 要使用的模型名称(非 Anthropic 提供商必需)--use-aider: 启用 aider 集成以进行代码编辑。启用后,RA.Aid 将使用 aider 的专业代码编辑功能,而不是其原生的文件修改工具。当您需要 aider 的特定编辑功能或更喜欢其代码修改方法时,此选项很有用。此功能是可选的,默认禁用。--research-provider: 专门用于研究任务的提供商(如果未指定,则 fallback 到 --provider)--research-model: 专门用于研究任务的模型(如果未指定,则 fallback 到 --model)--planner-provider: 专门用于规划任务的提供商(如果未指定,则 fallback 到 --provider)--planner-model: 专门用于规划任务的模型(如果未指定,则 fallback 到 --model)--cowboy-mode: 跳过 Shell 命令的交互式确认--expert-provider: 用于专家知识查询的 LLM 提供商(选项:anthropic, openai, openrouter, openai-compatible, makehub, gemini)--expert-model: 用于专家知识查询的模型名称(非 OpenAI 提供商必需)--hil, -H: 启用人在回路 (Human-in-the-loop) 模式,以便在任务执行期间提供交互式协助--chat: 启用具有直接人工交互的聊天模式(隐含 --hil)--log-mode: 日志模式(选项:file, console)file(默认):记录到文件和控制台(控制台仅显示警告和错误)console: 仅记录到控制台,处于指定的日志级别,不进行文件日志记录
--log-level: 设置特定日志级别(debug, info, warning, error, critical)- 使用
--log-mode=file时:控制文件日志级别(控制台仍仅显示 warning+) - 使用
--log-mode=console时:直接控制控制台日志级别 - 默认:warning
- 使用
--experimental-fallback-handler: 启用实验性回退处理器 (Experimental Fallback Handler),当同一工具连续失败 3 次时尝试修复工具调用。(推荐使用 OPENAI_API_KEY,因为 openai 拥有前 5 名的工具调用模型。)详见ra_aid/tool_leaderboard.py了解更多信息。--pretty-logger: 启用彩色面板式格式化日志输出以提高可读性。--temperature: LLM 温度 (Temperature)(0.0-2.0),用于控制响应中的随机性--disable-limit-tokens: 禁用 Anthropic Claude ReAct 代理 (Agent) 的 Token (词元) 限制--recursion-limit: 代理操作的最大递归深度(默认:100)--test-cmd: 运行测试的自定义命令。如果设置,将询问用户是否要运行测试命令--auto-test: 每次代码更改后自动运行测试--max-test-cmd-retries: 测试命令重试的最大次数(默认:3)--test-cmd-timeout: 测试命令执行的超时时间(秒)(默认:300)--show-cost: 当代理工作时显示成本信息 - 目前仅支持 Claude 模型代理--track-cost: 跟踪 Token (词元) 使用量和成本(默认:False)--no-track-cost: 禁用跟踪 Token (词元) 使用量和成本--max-cost: 最大成本阈值(美元)(正浮点数)--max-tokens: 最大 Token (词元) 阈值(正整数)--exit-at-limit: 当达到 --max-cost 或 --max-tokens 限制时立即退出而不提示--price-performance-ratio: Makehub API 的性价比(0.0-1.0,其中 0.0 优先考虑速度,1.0 优先考虑成本效率)--version: 显示程序版本号并退出--server: 启动带有 Web 界面的服务器(Alpha (测试版) 功能)--server-host: 服务器监听的主机(默认:0.0.0.0)(Alpha (测试版) 功能)--server-port: 服务器监听的端口(默认:1818)(Alpha (测试版) 功能)
示例任务
代码分析 (Code Analysis):
ra-aid -m "Explain how the authentication middleware works" --research-only复杂变更 (Complex Changes):
ra-aid -m "Refactor the database connection code to use connection pooling" --cowboy-mode自动更新 (Automated Updates):
ra-aid -m "Update deprecated API calls across the entire codebase" --cowboy-mode代码研究 (Code Research):
ra-aid -m "Analyze the current error handling patterns" --research-only代码研究 (Code Research):
ra-aid -m "Explain how the authentication middleware works" --research-only重构 (Refactoring):
ra-aid -m "Refactor the database connection code to use connection pooling" --cowboy-mode
人机回环模式 (Human-in-the-Loop Mode)
启用交互模式以允许代理 (agent) 在任务执行期间向您提问:
ra-aid -m "Implement a new feature" --hil
# or
ra-aid -m "Implement a new feature" -H
此模式特别适用于:
- 需要人类判断的复杂任务
- 澄清模糊的需求
- 制定架构决策
- 验证关键变更
- 提供特定领域知识
网络研究 (Web Research)
该代理 (agent) 具备由 Tavily API (应用程序接口) 驱动的自主网络研究能力,无缝地将现实世界信息集成到其问题解决工作流中。当代理确定需要额外上下文 (context) 时,会自动进行网络研究——无需显式配置。
例如,在研究现代认证实践或调查新的 API 要求时,代理将自主:
- 搜索当前的最佳实践和安全建议
- 查找相关文档和技术规范
- 收集现实世界的实现示例
- 保持对最新行业标准的了解
虽然网络研究会在需要时自动进行,但您也可以显式请求以研究为重点的任务:
# Focused research task with web search capabilities
ra-aid -m "Research current best practices for API rate limiting" --research-only
确保设置您的 TAVILY_API_KEY 环境变量 (Environment variable) 以启用此功能。
聊天模式 (Chat Mode)
使用 --chat 启用,将 ra-aid 转变为交互式助手,指导您完成研究和实施任务。就您想要构建的内容进行自然对话,共同探索选项,并分发工作——同时保持讨论的上下文 (context)。当您希望协作思考问题而不仅仅是执行命令时,此模式非常完美。
带 Web 界面 (Web Interface) 的服务器
RA.Aid 包含一个带有 Web 界面的现代服务器,提供:
- 美观的深色主题聊天界面
- 代理 (agent) 轨迹的实时流式传输 (streaming)
- 适用于所有设备的响应式设计 (Responsive design)
启动带 Web 界面的服务器:
# Start with default settings (0.0.0.0:1818)
ra-aid --server
# Specify custom host and port
ra-aid --server --server-host 127.0.0.1 --server-port 3000
带 Web 界面的服务器命令行选项:
--server:启动带 Web 界面的服务器--server-host:监听的主机 (默认:0.0.0.0)--server-port:监听的端口 (默认:1818)
启动服务器后,在 Web 浏览器中打开显示的 URL(例如 http://localhost:1818)。
命令中断和反馈
您可以随时按 Ctrl-C 中断代理 (agent)。这将暂停代理,允许您提供反馈、调整指令或将执行引导至新方向。如果您想完全退出程序,请再次按 Ctrl-C。
使用 Cowboy 模式自动化 Shell (命令行环境) 命令 🏇
--cowboy-mode 标志启用自动化 Shell 命令执行,无需确认提示。这适用于:
- CI/CD (持续集成/持续部署) 流水线
- 自动化测试环境
- 批量处理操作
- 脚本化工作流
ra-aid -m "Update all deprecated API calls" --cowboy-mode
⚠️ 重要安全说明:
- Cowboy 模式跳过 Shell 命令的确认提示
- 始终在版本控制仓库 (version-controlled repositories) 中使用
- 确保运行前工作树 (working tree) 干净
- 提交前在 git diff (Git 差异对比) 中审查变更
模型 (Model) 配置
RA.Aid 支持多个 AI 提供商 (Provider) 和模型。默认模型是 Anthropic 的 Claude 3 Sonnet (claude-3-7-sonnet-20250219)。
使用 --use-aider 标志时,程序员工具 (aider) 会根据可用的 API 密钥自动选择模型。如果设置了 ANTHROPIC_API_KEY,它将使用 Claude 模型,或者如果只有 OPENAI_API_KEY 可用,则回退到 OpenAI 模型。
注意:专家工具可以配置为使用不同的提供商(OpenAI, Anthropic, OpenRouter, Gemini),使用 --expert-provider 标志以及相应的 EXPERT_*API_KEY 环境变量 (Environment variable)。每个提供商都需要通过适当的环境变量设置其自己的 API 密钥。
环境变量 (Environment Variables)
RA.Aid 通过环境变量支持多个提供商:
ANTHROPIC_API_KEY:默认 Anthropic 提供商所需OPENAI_API_KEY:OpenAI 提供商所需OPENROUTER_API_KEY:OpenRouter 提供商所需MAKEHUB_API_KEY:Makehub 提供商所需DEEPSEEK_API_KEY:DeepSeek 提供商所需OPENAI_API_BASE:OpenAI 兼容提供商所需,连同OPENAI_API_KEYGEMINI_API_KEY:Gemini 提供商所需
专家工具环境变量:
EXPERT_OPENAI_API_KEY:使用 OpenAI 提供商的专家工具 API 密钥EXPERT_ANTHROPIC_API_KEY:使用 Anthropic 提供商的专家工具 API 密钥EXPERT_OPENROUTER_API_KEY:使用 OpenRouter 提供商的专家工具 API 密钥EXPERT_MAKEHUB_API_KEY:使用 Makehub 提供商的专家工具 API 密钥(如果未设置则自动使用MAKEHUB_API_KEY)EXPERT_OPENAI_API_BASE:使用 OpenAI 兼容提供商的专家工具基础 URLEXPERT_GEMINI_API_KEY:使用 Gemini 提供商的专家工具 API 密钥EXPERT_DEEPSEEK_API_KEY:使用 DeepSeek 提供商的专家工具 API 密钥
您可以在 Shell (命令行环境) 的配置文件中永久设置这些变量(例如 ~/.bashrc 或 ~/.zshrc):
# Default provider (Anthropic)
export ANTHROPIC_API_KEY=your_api_key_here
# For OpenAI features and expert tool
export OPENAI_API_KEY=your_api_key_here
# For OpenRouter provider
export OPENROUTER_API_KEY=your_api_key_here
# For Makehub provider
export MAKEHUB_API_KEY=your_api_key_here
# For OpenAI-compatible providers
export OPENAI_API_BASE=your_api_base_url
针对 Gemini provider(提供商)
export GEMINI_API_KEY=your_api_key_here
自定义 model(模型)示例
使用 Anthropic(默认)
# Uses default model (claude-3-7-sonnet-20250219) ra-aid -m "Your task" # Or explicitly specify: ra-aid -m "Your task" --provider anthropic --model claude-3-5-sonnet-20241022使用 OpenAI
ra-aid -m "Your task" --provider openai --model gpt-4o使用 OpenRouter
ra-aid -m "Your task" --provider openrouter --model mistralai/mistral-large-2411使用 Makehub
ra-aid -m "Your task" --provider makehub --model openai/gpt-4o # With price-performance optimization ra-aid -m "Your task" --provider makehub --model anthropic/claude-4-sonnet --price-performance-ratio 0.7使用 DeepSeek
# Direct DeepSeek provider (requires DEEPSEEK_API_KEY) ra-aid -m "Your task" --provider deepseek --model deepseek-reasoner # DeepSeek via OpenRouter ra-aid -m "Your task" --provider openrouter --model deepseek/deepseek-r1配置 Expert provider(提供商)
expert tool(专家工具)由 agent(代理)用于复杂逻辑和调试任务。可以使用 --expert-provider flag(标志)以及相应的 EXPERT_*API_KEY environment variables(环境变量)将其配置为使用不同的 provider(提供商)(OpenAI, Anthropic, OpenRouter, Gemini, openai-compatible)。
# Use Anthropic for expert tool export EXPERT_ANTHROPIC_API_KEY=your_anthropic_api_key ra-aid -m "Your task" --expert-provider anthropic --expert-model claude-3-5-sonnet-20241022 # Use OpenRouter for expert tool export OPENROUTER_API_KEY=your_openrouter_api_key ra-aid -m "Your task" --expert-provider openrouter --expert-model mistralai/mistral-large-2411 # Use DeepSeek for expert tool export DEEPSEEK_API_KEY=your_deepseek_api_key ra-aid -m "Your task" --expert-provider deepseek --expert-model deepseek-reasoner # Use Makehub for expert tool (automatically uses MAKEHUB_API_KEY) export MAKEHUB_API_KEY=your_makehub_api_key ra-aid -m "Your task" --expert-provider makehub --expert-model anthropic/claude-4-sonnet # Use default OpenAI for expert tool export EXPERT_OPENAI_API_KEY=your_openai_api_key ra-aid -m "Your task" --expert-provider openai --expert-model o1 # Use Gemini for expert tool export EXPERT_GEMINI_API_KEY=your_gemini_api_key ra-aid -m "Your task" --expert-provider gemini --expert-model gemini-2.0-flash-thinking-exp-1219
您可以添加的 Aider 特定 environment variables(环境变量):
AIDER_FLAGS:可选的逗号分隔 flags(标志)列表,用于传递给底层的 aider 工具(例如,"yes-always,dark-mode")
# Optional: Configure aider behavior
export AIDER_FLAGS="yes-always,dark-mode,no-auto-commits"
注意:对于 AIDER_FLAGS,您可以指定带有或不带有前导 -- 的 flags(标志)。多个 flags(标志)应以逗号分隔,flag(标志)周围的空格会自动处理。例如,"yes-always,dark-mode" 和 "--yes-always, --dark-mode" 都是有效的。
重要注意事项:
- 性能因 model(模型)而异。默认的 Claude 3 Sonnet model(模型)目前提供最佳且最可靠的结果。
- Model(模型)配置通过命令行参数完成:
--provider和--model - 除了 Anthropic(默认为
claude-3-7-sonnet-20250219)之外,所有 provider(提供商)都需要--model参数
更多信息请参阅我们的 Open Models Setup(开放模型设置) 指南。
Architecture(架构)
RA.Aid 实现了一个三阶段 architecture(架构),用于处理开发和研发任务:
Research Stage(研究阶段):
- 收集信息和上下文
- 分析需求
- 识别关键 components(组件)和 dependencies(依赖项)
Planning Stage(规划阶段):
- 制定详细的实施计划
- 将任务分解为可管理的步骤
- 识别潜在挑战和解决方案
Implementation Stage(实施阶段):
- 执行计划任务
- 生成代码或文档
- 执行必要的系统操作
Core Components(核心组件)
- Console Module(控制台模块) (
console/):处理控制台输出格式化和用户交互 - Processing Module(处理模块) (
proc/):管理交互处理和 workflow(工作流)控制 - Text Module(文本模块) (
text/):提供文本处理和操作 utilities(实用工具) - Tools Module(工具模块) (
tools/):包含用于文件操作、搜索等的各种 utility tools(实用工具)
Dependencies(依赖项)
Core Dependencies(核心依赖项)
langchain-anthropic:与 Anthropic 的 Claude 集成的 LangChaintavily-python:用于 web research(网络研究)的 Tavily API 客户端langgraph:基于 Graph(图)的 workflow(工作流)管理rich>=13.0.0:终端格式化和输出GitPython==3.1.41:Git repository(仓库)管理fuzzywuzzy==0.18.0:模糊字符串匹配python-Levenshtein==0.23.0:快速字符串匹配pathspec>=0.11.0:路径规范 utilities(实用工具)
Development Dependencies(开发依赖项)
pytest>=7.0.0:Testing framework(测试框架)pytest-timeout>=2.2.0:测试超时管理
Development Setup(开发设置)
- Clone(克隆)repository(仓库):
git clone https://github.com/ai-christianson/RA.Aid.git
cd RA.Aid
- Create(创建)并 activate(激活)一个 virtual environment(虚拟环境):
python -m venv venv
source venv/bin/activate # On Windows use `venv\Scripts\activate`
- Install(安装)development dependencies(开发依赖项):
pip install -e ".[dev]"
- Run(运行)tests(测试):
python -m pytest
Contributing(贡献)
欢迎贡献!请遵循以下步骤:
- Fork(复刻)repository(仓库)
- Create(创建)一个 feature branch(功能分支):
git checkout -b feature/your-feature-name
- 进行更改并 commit(提交):
git commit -m 'Add some feature'
- Push(推送)到您的 fork(复刻):
git push origin feature/your-feature-name
- Open(开启)一个 Pull Request(拉取请求)
Guidelines(指南)
- 遵循 PEP 8 风格指南
- 为新功能添加 tests(测试)
- 根据需要更新 documentation(文档)
- 保持 commits(提交)专注且 message(消息)清晰
- 在提交 PR 之前确保所有 tests(测试)通过
更多信息请参阅我们的 Contributing Guide(贡献指南)。
License(许可证)
本项目根据 Apache License 2.0 许可 - 详见 LICENSE 文件。
Copyright (c) 2024 AI Christianson
Contact(联系方式)
- Issues(问题):请在我们的 Issue Tracker(问题追踪器) 上报告 bugs(错误)和 feature requests(功能请求)
- Repository(仓库):https://github.com/ai-christianson/RA.Aid
- Documentation(文档):https://github.com/ai-christianson/RA.Aid#readme
版本历史
v0.30.22025/05/07v0.30.12025/05/07v0.30.02025/05/06v0.29.02025/04/24v0.28.12025/04/17v0.28.02025/04/17v0.27.02025/04/16v0.26.02025/04/16v0.25.02025/04/09v0.24.02025/04/08v0.23.02025/04/07v0.22.02025/04/02v0.21.02025/03/27v0.20.02025/03/26v0.19.12025/03/25v0.18.42025/03/24v0.18.02025/03/19v0.17.12025/03/13v0.17.02025/03/12v0.16.12025/03/08常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。