NeuroSploit
NeuroSploit 是一款先进的 AI 驱动渗透测试框架,旨在自动化并增强进攻性安全操作。它利用大语言模型(LLM)的强大能力,将传统的安全扫描升级为具备自主决策能力的智能评估平台。
该工具主要解决了传统渗透测试中人工效率低、覆盖范围有限以及误报率高的问题。通过引入“防幻觉”机制和执行验证流程,NeuroSploit 能显著减少虚假警报,确保发现的漏洞真实可信。同时,其独特的“漏洞利用链引擎”可自动串联多个低风险发现,构建出完整的攻击路径,帮助团队更直观地理解系统风险。
NeuroSploit 特别适合网络安全研究人员、红队成员以及需要高效自动化审计的开发运维团队使用。其核心技术亮点包括:支持 100 种漏洞类型的智能检测、每次扫描均在独立的 Kali Linux 容器沙箱中运行以保障环境隔离与安全、以及能够实时协同工作的多智能体架构(涵盖侦察、初级测试和工具执行)。此外,它还提供了基于 React 的现代化仪表盘,让用户能实时监控扫描进度、容器状态及详细报告,配合对多种主流 LLM 提供商的支持,使其成为一款灵活且强大的安全评估利器。
使用场景
某金融科技公司安全团队需在版本发布前,对内部微服务架构进行深度渗透测试以排查高危漏洞。
没有 NeuroSploit 时
- 人工效率瓶颈:安全工程师需手动串联 Nmap、SQLMap 等工具,面对上百个微服务接口,单轮完整扫描耗时数天,难以覆盖全部攻击面。
- 漏报与误报并存:传统静态规则无法识别复杂的逻辑漏洞(如 SSRF 链式调用),且常因环境噪声产生大量误报,验证真伪需耗费大量人力。
- 环境隔离困难:直接在生产或测试网段运行攻击脚本风险极高,缺乏自动化的沙箱隔离机制,容易意外触发业务熔断或污染数据。
- 技能依赖过重:高级漏洞挖掘高度依赖资深专家的直觉与经验,初级分析师难以独立构建复杂的利用链(Exploit Chain)。
使用 NeuroSploit 后
- 自动化并行作业:NeuroSploit 启动自主代理,通过三流并行模式(侦察 + 初级测试 + 工具执行)同时处理多个目标,将原本数天的工作压缩至数小时完成。
- 智能去噪与链条挖掘:内置的防幻觉管道自动验证执行结果并打分,大幅降低误报;其利用链引擎能自动发现并组合漏洞(如从 SSRF 穿透到内网数据库),精准定位深层风险。
- 原生沙箱隔离:每次扫描自动拉起独立的 Kali Linux Docker 容器,确保攻击流量完全隔离在沙箱中,既保护了现网环境安全,又满足了合规审计要求。
- 降低专家门槛:借助大模型驱动的策略自适应,NeuroSploit 能像资深专家一样动态调整攻击路径,让初级团队成员也能产出高质量的渗透测试报告。
NeuroSploit 通过将 AI 自主决策与隔离沙箱相结合,实现了从“人工辅助扫描”到“全自动智能攻防”的质变,显著提升了安全运营的效率与深度。
运行环境要求
- Linux
- macOS
- Windows
未说明 (支持本地 LLM 如 Ollama/LMStudio,但未明确指定 GPU 型号或显存需求)
未说明 (建议至少 8GB 以运行 Docker 容器和多个并发进程)

快速开始
NeuroSploit v3
AI 驱动的自主渗透测试平台
NeuroSploit v3 是一款先进的安全评估平台,它将 AI 驱动的自主代理与 100 种漏洞类型、每次扫描独立的 Kali Linux 容器、误报加固、漏洞利用链生成以及具有实时监控功能的现代化 React Web 界面相结合。
亮点
- 100 种漏洞类型,覆盖 10 大类别,并配备 AI 驱动的测试提示
- 自主代理:三路并行渗透测试(侦察 + 初级测试员 + 工具运行)
- 每次扫描专用 Kali 容器:每个扫描都在独立的 Docker 容器中运行
- 防幻觉管道:负控实验、执行证明、置信度评分
- 漏洞利用链引擎:自动串联发现结果(SSRF→内网、SQLi→特定数据库等)
- WAF 检测与绕过:支持 16 种 WAF 特征签名和 12 种绕过技术
- 智能策略自适应:检测失效端点、收益递减、优先级重新计算
- 多提供商大模型:Claude、GPT、Gemini、Ollama、LMStudio、OpenRouter
- 实时仪表板:基于 WebSocket 的实时扫描进度、发现结果和报告
- 沙箱仪表板:实时监控正在运行的 Kali 容器、工具及健康状态
目录
快速入门
选项 1:Docker(推荐)
# 克隆仓库
git clone https://github.com/your-org/NeuroSploitv2.git
cd NeuroSploitv2
# 复制环境文件并添加 API 密钥
cp .env.example .env
nano .env # 添加 ANTHROPIC_API_KEY、OPENAI_API_KEY 或 GEMINI_API_KEY
# 构建 Kali 沙箱镜像(首次仅需约 5 分钟)
./scripts/build-kali.sh
# 启动后端服务
uvicorn backend.main:app --host 0.0.0.0 --port 8000
选项 2:手动部署
# 后端
pip install -r requirements.txt
uvicorn backend.main:app --host 0.0.0.0 --port 8000 --reload
# 前端(新开终端)
cd frontend
npm install
npm run dev
构建 Kali 沙箱镜像
# 普通构建(使用 Docker 缓存)
./scripts/build-kali.sh
# 完全重建(不使用缓存)
./scripts/build-kali.sh --fresh
# 构建并运行健康检查
./scripts/build-kali.sh --test
# 或通过 docker-compose
docker compose -f docker/docker-compose.kali.yml build
访问 Web 界面:http://localhost:8000(生产构建)或 http://localhost:5173(开发模式)。
架构
NeuroSploitv3/
├── backend/ # FastAPI 后端
│ ├── api/v1/ # REST API (13 个路由)
│ │ ├── scans.py # 扫描 CRUD + 暂停/继续/停止
│ │ ├── agent.py # AI 代理控制
│ │ ├── agent_tasks.py # 扫描任务跟踪
│ │ ├── dashboard.py # 统计数据 + 活动信息流
│ │ ├── reports.py # 报告生成 (HTML/PDF/JSON)
│ │ ├── scheduler.py # Cron/间隔调度
│ │ ├── vuln_lab.py # 按类型划分的漏洞实验室
│ │ ├── terminal.py # 终端代理 (10 个端点)
│ │ ├── sandbox.py # 沙箱容器监控
│ │ ├── targets.py # 目标验证
│ │ ├── prompts.py # 预设提示词
│ │ ├── vulnerabilities.py # 漏洞管理
│ │ └── settings.py # 运行时设置
│ ├── core/
│ │ ├── autonomous_agent.py # 主要 AI 代理 (~7000 行代码)
│ │ ├── vuln_engine/ # 100 种类型的漏洞引擎
│ │ │ ├── registry.py # 100 条 VULNERABILITY_INFO 记录
│ │ │ ├── payload_generator.py # 覆盖 95 个库的 526 种载荷
│ │ │ ├── ai_prompts.py # 针对每种漏洞的 AI 决策提示
│ │ │ ├── system_prompts.py # 12 条防幻觉系统提示
│ │ │ └── testers/ # 10 类别测试模块
│ │ ├── validation/ # 假阳性加固
│ │ │ ├── negative_control.py # 良性请求控制引擎
│ │ │ ├── proof_of_execution.py # 每种漏洞的证明检查 (25+ 方法)
│ │ │ ├── confidence_scorer.py # 数值化 0-100 分评分
│ │ │ └── validation_judge.py # 唯一批准发现的权威
│ │ ├── request_engine.py # 重试、限流、断路器
│ │ ├── waf_detector.py # 16 种 WAF 特征 + 绕过
│ │ ├── strategy_adapter.py # 扫描中策略自适应
│ │ ├── chain_engine.py # 10 条漏洞利用链规则
│ │ ├── auth_manager.py # 多用户认证管理
│ │ ├── xss_context_analyzer.py # 8 种 XSS 上下文分析
│ │ ├── poc_generator.py # 20+ 种按类型生成的 PoC
│ │ ├── execution_history.py # 跨扫描学习
│ │ ├── access_control_learner.py # 自适应 BOLA/BFLA/IDOR 学习
│ │ ├── response_verifier.py # 4 信号响应验证
│ │ ├── agent_memory.py # 有限去重的代理记忆
│ │ └── report_engine/ # OHVR 报告生成器
│ ├── models/ # SQLAlchemy ORM 模型
│ ├── db/ # 数据库层
│ ├── config.py # Pydantic 配置
│ └── main.py # FastAPI 应用入口
│
├── core/ # 共享核心模块
│ ├── llm_manager.py # 多提供商 LLM 路由
│ ├── sandbox_manager.py # BaseSandbox ABC + 旧版共享沙箱
│ ├── kali_sandbox.py # 每次扫描的 Kali 容器管理器
│ ├── container_pool.py # 全局容器池协调器
│ ├── tool_registry.py # Kali 的 56 种工具安装配方
│ ├── mcp_server.py # MCP 服务器 (12 工具,stdio)
│ ├── scheduler.py # APScheduler 扫描调度
│ └── browser_validator.py # Playwright 浏览器验证
│
├── frontend/ # React + TypeScript 前端
│ ├── src/
│ │ ├── pages/
│ │ │ ├── HomePage.tsx # 带统计信息的仪表盘
│ │ │ ├── AutoPentestPage.tsx # 3 流自动渗透测试
│ │ │ ├── VulnLabPage.tsx # 按类型划分的漏洞实验室
│ │ │ ├── TerminalAgentPage.tsx # AI 终端聊天
│ │ │ ├── SandboxDashboardPage.tsx # 容器监控
│ │ │ ├── ScanDetailsPage.tsx # 发现结果 + 验证
│ │ │ ├── SchedulerPage.tsx # Cron/间隔调度
│ │ │ ├── SettingsPage.tsx # 配置
│ │ │ └── ReportsPage.tsx # 报告管理
│ │ ├── components/ # 可复用 UI 组件
│ │ ├── services/api.ts # API 客户端层
│ │ └── types/index.ts # TypeScript 接口
│ └── package.json
│
├── docker/
│ ├── Dockerfile.kali # 多阶段 Kali 沙箱 (11 个 Go 工具)
│ ├── Dockerfile.sandbox # 旧版 Debian 沙箱
│ ├── Dockerfile.backend # 后端容器
│ ├── Dockerfile.frontend # 前端容器
│ ├── docker-compose.kali.yml # Kali 沙箱构建
│ └── docker-compose.sandbox.yml # 旧版沙箱
│
├── config/config.json # 配置文件、工具、沙箱、MCP
├── data/
│ ├── vuln_knowledge_base.json # 100 种漏洞类型定义
│ ├── execution_history.json # 跨扫描学习数据
│ └── access_control_learning.json # BOLA/BFLA 自适应数据
│
├── scripts/
│ └── build-kali.sh # 构建/重建 Kali 镜像
├── tools/
│ └── benchmark_runner.py # 104 个 CTF 挑战
├── agents/base_agent.py # BaseAgent 类
├── neurosploit.py # CLI 入口
└── requirements.txt
自主导航代理
AI 代理 (autonomous_agent.py) 自主地协调整个渗透测试过程。
3 流并行架构
┌─────────────────────┐
│ 自动渗透测试 │
│ 目标 URL(s) │
└────────┬────────────┘
│
┌──────────────┼──────────────┐
▼ ▼ ▼
┌──────────────┐ ┌──────────────┐ ┌──────────────┐
│ 流 1 │ │ 流 2 │ │ 流 3 │
│ 侦察 │ │ 初级测试 │ │ 工具运行 │
│ ─────────── │ │ ─────────── │ │ ─────────── │
│ 爬取页面 │ │ 测试目标 │ │ Nuclei 扫描 │
│ 查找参数 │ │ AI 优先级 │ │ Naabu 端口 │
│ 技术检测 │ │ 3 种载荷 │ │ AI 决定 │
│ WAF 检测 │ │ 每个端点 │ │ 额外工具 │
└──────┬───────┘ └──────┬───────┘ └──────┬───────┘
│ │ │
└────────────────┼────────────────┘
▼
┌─────────────────────┐
│ 深度分析 │
│ 100 种漏洞类型 │
│ 完整载荷集合 │
│ 利用链组合 │
└─────────┬───────────┘
▼
┌─────────────────────┐
│ 报告生成 │
│ AI 执行摘要 │
│ 每个发现的 PoC 代码│
└─────────────────────┘
代理自治模块
| 模块 | 描述 |
|---|---|
| 请求引擎 | 具有退避重试、按主机限速、断路器和自适应超时功能 |
| WAF 检测器 | 包含 16 种 WAF 特征签名(Cloudflare、AWS、Akamai、Imperva 等),以及 12 种绕过技术 |
| 策略适配器 | 支持失效端点检测、收益递减处理、403 错误绕过及优先级重新计算 |
| 链式引擎 | 提供 10 条链式规则(如 SSRF 转为内部利用、SQLi 针对特定数据库、LFI 针对配置文件、IDOR 模式传递等) |
| 认证管理器 | 支持多用户上下文切换(user_a、user_b、admin),并具备登录表单检测与会话管理功能 |
扫描功能
- 带检查点的 暂停/恢复/停止 功能
- 手动验证 - 可确认或驳回 AI 发现的结果
- 在确认发现后进行 截图捕获(使用 Playwright)
- 跨扫描学习 - 历史成功率会影响未来任务优先级
- CVE 测试 - 结合正则表达式检测与 AI 生成的有效载荷
100 种漏洞类型
分类
| 类别 | 类型数 | 示例 |
|---|---|---|
| 注入类 | 38 | XSS(反射型/存储型/DOM)、SQLi、NoSQLi、命令注入、SSTI、LDAP、XPath、CRLF、头部注入、日志注入、GraphQL 注入 |
| 检查类 | 21 | 安全头信息、CORS、点击劫持、信息泄露、调试接口、错误信息暴露、源代码暴露 |
| AI 驱动类 | 41 | BOLA、BFLA、IDOR、竞态条件、业务逻辑漏洞、JWT 操纵、OAuth 缺陷、原型污染、WebSocket 劫持、缓存中毒、HTTP 请求走私 |
| 认证类 | 8 | 认证绕过、会话固定、凭证填充、密码重置缺陷、MFA 绕过、默认凭证 |
| 授权类 | 6 | BOLA、BFLA、IDOR、权限提升、强制浏览、函数级访问控制 |
| 文件访问类 | 5 | LFI、RFI、路径遍历、文件上传、XXE |
| 请求伪造类 | 4 | SSRF、CSRF、云元数据、DNS 重绑定 |
| 客户端类 | 8 | CORS、点击劫持、开放重定向、DOM 黑客攻击、原型污染、PostMessage、CSS 注入 |
| 基础设施类 | 6 | SSL/TLS、HTTP 方法、子域名接管、Host 头部、CNAME 劫持 |
| 云/供应链类 | 4 | 云元数据、S3 存储桶配置错误、依赖混淆、第三方脚本 |
载荷引擎
- 涵盖 95 个库的 526 个载荷
- 包括 73 个存储型 XSS 载荷 和 5 组上下文特定载荷
- 针对每种漏洞类型提供 AI 决策提示,并加入防幻觉指令
- 支持 WAF 自适应载荷变换(12 种技术)
Kali 沙盒系统
每次扫描都在独立的 隔离式 Kali Linux Docker 容器 中运行,提供以下特性:
- 完全隔离 - 并发扫描之间互不干扰
- 按需工具 - 仅在需要时安装 56 种工具
- 自动清理 - 扫描完成后销毁容器
- 资源限制 - 每个容器内存上限为 2GB,CPU 上限为 2 核
预装工具(28 种)
| 类别 | 工具 |
|---|---|
| 扫描工具 | nuclei、naabu、httpx、nmap、nikto、masscan、whatweb |
| 信息收集工具 | subfinder、katana、dnsx、uncover、ffuf、gobuster、waybackurls |
| 漏洞利用工具 | dalfox、sqlmap |
| 系统工具 | curl、wget、git、python3、pip3、go、jq、dig、whois、openssl、netcat、bash |
按需工具(另外 28 种)
在首次请求时自动安装到容器内:
- APT 包:wpscan、dirb、hydra、john、hashcat、testssl、sslscan、enum4linux、dnsrecon、amass、medusa、crackmapexec 等
- Go 工具:gau、gitleaks、anew、httprobe
- Pip 工具:dirsearch、wfuzz、arjun、wafw00f、sslyze、commix、trufflehog、retire
容器池
ContainerPool(全局协调器,最多支持 5 个并发)
├── KaliSandbox(scan_id="abc") → docker: neurosploit-abc
├── KaliSandbox(scan_id="def") → docker: neurosploit-def
└── KaliSandbox(scan_id="ghi") → docker: neurosploit-ghi
- TTL 强制执行 - 容器在 60 分钟后自动销毁
- 孤儿清理 - 服务器启动时移除已失效容器
- 优雅降级 - 若 Docker 不可用,则回退至共享容器
防幻觉与验证机制
NeuroSploit 使用多层验证流程来消除误报:
验证流程
漏洞候选
│
▼
┌─────────────────────┐
│ 负控测试 │ 发送良性或空请求作为对照
│ 行为相同 = FP │ 若响应一致,则信心值降低 60
└─────────┬───────────┘
▼
┌─────────────────────┐
│ 执行证据 │ 针对每类漏洞提供 25+ 种证明方法
│ XSS:上下文检查 │ SSRF:元数据标记
│ SQLi:数据库错误 │ BOLA:数据对比
└─────────┬───────────┘
▼
┌─────────────────────┐
│ AI 解释 │ 使用配备防幻觉提示的 LLM
│ 针对不同类型设置消息│ 12 种可组合的提示模板
└─────────┬───────────┘
▼
┌─────────────────────┐
│ 信心评分 │ 0-100 的数值评分
│ ≥90 = 确认 │ +证明、+影响、+对照
│ ≥60 = 可能 │ -仅基线行为、-相同行为
│ <60 = 拒绝 │ UI 中可见详细分析
└─────────┬───────────┘
▼
┌─────────────────────┐
│ 验证法官 │ 最终裁决权
│ 批准 / 驳回 │ 记录用于自适应学习
└─────────────────────┘
防幻觉系统提示
针对 7 种任务场景应用 12 种可组合提示:
anti_hallucination- 核心真实性指令proof_of_execution- 要求具体证据negative_controls- 与良性请求对比anti_severity_inflation- 准确评估严重性access_control_intelligence- BOLA/BFLA 数据对比方法
访问控制自适应学习
- 记录每个域名的 TP/FP 结果,用于 BOLA/BFLA/IDOR 分析
- 包含 9 种默认响应模式和 6 种已知 FP 模式(如 WSO2、Keycloak 等)
- 历史 FP 率会影响未来的信心评分
Web GUI
页面
| 页面 | 路由 | 描述 |
|---|---|---|
| 仪表盘 | / |
统计概览、严重性分布、近期活动动态 |
| 自动渗透测试 | /auto |
一键式自主渗透测试,支持三流实时显示 |
| 漏洞实验室 | /vuln-lab |
针对各类漏洞的测试平台(共 100 种类型,11 个类别) |
| 终端代理 | /terminal |
基于 AI 的交互式安全聊天及工具执行 |
| 沙盒管理 | /sandboxes |
实时监控与管理 Docker 容器 |
| AI 代理 | /scan/new |
手动创建扫描任务并选择提示 |
| 扫描详情 | /scan/:id |
显示带有信心标签的发现结果,支持暂停/恢复/停止操作 |
| 调度器 | /scheduler |
支持 Cron/间隔式自动化扫描计划 |
| 报告 | /reports |
生成并查看 HTML/PDF/JSON 报告 |
| 设置 | /settings |
用于配置 LLM 提供商、模型路由及功能开关 |
沙箱仪表板
实时监控每个扫描的 Kali 容器:
- 池统计 - 当前/最大容器数、Docker 状态、TTL
- 容量条 - 可视化利用率指示器
- 每个容器卡片 - 名称、扫描链接、运行时长、已安装工具、状态
- 操作 - 健康检查、销毁(需确认)、清理过期/孤儿容器
- 5 秒自动轮询,实现实时更新
API 参考
基础 URL
http://localhost:8000/api/v1
端点
扫描
| 方法 | 端点 | 描述 |
|---|---|---|
POST |
/scans |
创建新扫描 |
GET |
/scans |
列出所有扫描 |
GET |
/scans/{id} |
获取扫描详情 |
POST |
/scans/{id}/start |
开始扫描 |
POST |
/scans/{id}/stop |
停止扫描 |
POST |
/scans/{id}/pause |
暂停扫描 |
POST |
/scans/{id}/resume |
继续扫描 |
DELETE |
/scans/{id} |
删除扫描 |
AI 代理
| 方法 | 端点 | 描述 |
|---|---|---|
POST |
/agent/run |
启动自主代理 |
GET |
/agent/status/{id} |
获取代理状态及发现结果 |
GET |
/agent/by-scan/{scan_id} |
根据扫描 ID 获取代理 |
POST |
/agent/stop/{id} |
停止代理 |
POST |
/agent/pause/{id} |
暂停代理 |
POST |
/agent/resume/{id} |
继续代理 |
GET |
/agent/findings/{id} |
获取详细发现结果 |
GET |
/agent/logs/{id} |
获取代理日志 |
沙箱
| 方法 | 端点 | 描述 |
|---|---|---|
GET |
/sandbox |
列出容器及池状态 |
GET |
/sandbox/{scan_id} |
检查容器健康状况 |
DELETE |
/sandbox/{scan_id} |
销毁容器 |
POST |
/sandbox/cleanup |
清理过期容器 |
POST |
/sandbox/cleanup-orphans |
清理孤儿容器 |
调度器
| 方法 | 端点 | 描述 |
|---|---|---|
GET |
/scheduler |
列出计划任务 |
POST |
/scheduler |
创建计划任务 |
DELETE |
/scheduler/{id} |
删除任务 |
POST |
/scheduler/{id}/pause |
暂停任务 |
POST |
/scheduler/{id}/resume |
继续任务 |
漏洞实验室
| 方法 | 端点 | 描述 |
|---|---|---|
GET |
/vuln-lab/types |
按类别列出 100 种漏洞类型 |
POST |
/vuln-lab/run |
运行按类型划分的漏洞测试 |
GET |
/vuln-lab/challenges |
列出挑战运行记录 |
GET |
/vuln-lab/stats |
漏洞检测率统计 |
报告与仪表板
| 方法 | 端点 | 描述 |
|---|---|---|
POST |
/reports |
生成报告 |
POST |
/reports/ai-generate |
由 AI 驱动的报告 |
GET |
/reports/{id}/view |
查看 HTML 报告 |
GET |
/dashboard/stats |
仪表板统计数据 |
GET |
/dashboard/activity-feed |
最近活动信息 |
WebSocket
ws://localhost:8000/ws/scan/{scan_id}
事件:scan_started、progress_update、finding_discovered、scan_completed、scan_error
API 文档
交互式文档可在以下地址查看:
- Swagger UI:
http://localhost:8000/api/docs - ReDoc:
http://localhost:8000/api/redoc
配置
环境变量
# LLM API 密钥(至少需要一个)
ANTHROPIC_API_KEY=your-key
OPENAI_API_KEY=your-key
GEMINI_API_KEY=your-key
# 本地 LLM(可选)
OLLAMA_BASE_URL=http://localhost:11434
LMSTUDIO_BASE_URL=http://localhost:1234
OPENROUTER_API_KEY=your-key
# 数据库
DATABASE_URL=sqlite+aiosqlite:///./data/neurosploit.db
# 服务器
HOST=0.0.0.0
PORT=8000
DEBUG=false
config/config.json
{
"llm": {
"default_profile": "gemini_pro_default",
"profiles": { ... }
},
"agent_roles": {
"pentest_generalist": { "vuln_coverage": 100 },
"bug_bounty_hunter": { "vuln_coverage": 100 }
},
"sandbox": {
"mode": "per_scan",
"kali": {
"enabled": true,
"image": "neurosploit-kali:latest",
"max_concurrent": 5,
"container_ttl_minutes": 60
}
},
"mcp_servers": {
"neurosploit_tools": {
"transport": "stdio",
"command": "python3",
"args": ["-m", "core.mcp_server"]
}
}
}
开发
后端
pip install -r requirements.txt
uvicorn backend.main:app --reload --host 0.0.0.0 --port 8000
# API 文档:http://localhost:8000/api/docs
前端
cd frontend
npm install
npm run dev # 开发服务器位于 http://localhost:5173
npm run build # 生产构建
构建 Kali 沙箱
./scripts/build-kali.sh --test # 构建并进行健康检查
MCP 服务器
python3 -m core.mcp_server # 启动 stdio MCP 服务器(12 种工具)
安全声明
本工具仅用于授权的安全测试。
- 仅测试您拥有或获得明确书面许可的系统
- 遵循负责任的披露原则
- 遵守所有适用的法律法规
- 未经授权访问计算机系统属违法行为
许可证
MIT 许可证 - 详情请参阅 LICENSE。
技术栈
| 层 | 技术 |
|---|---|
| 后端 | Python、FastAPI、SQLAlchemy、Pydantic、aiohttp |
| 前端 | React 18、TypeScript、TailwindCSS、Vite |
| AI/LLM | Anthropic Claude、OpenAI GPT、Google Gemini、Ollama、LMStudio、OpenRouter |
| 沙箱 | Docker、Kali Linux、ProjectDiscovery 套件、Nmap、SQLMap、Nikto |
| 工具 | Nuclei、Naabu、httpx、Subfinder、Katana、FFuf、Gobuster、Dalfox |
| 基础设施 | Docker Compose、MCP 协议、Playwright、APScheduler |
NeuroSploit v3 - 基于 AI 的自主渗透测试平台
版本历史
v3.2.22026/02/24v3.2.12026/02/233.0.02026/02/151.2.02026/01/141.1.02026/01/121.0.02026/01/03常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备