ThreatSimGPT

GitHub
543 339 简单 1 次阅读 2天前MIT语言模型Agent
AI 解读 由 AI 自动生成,仅供参考

ThreatSimGPT 是一款专为企业打造的人工智能威胁模拟平台,旨在利用大语言模型(LLM)生成高度逼真且具备上下文感知的网络安全威胁场景。它主要解决了传统安全培训中剧本僵化、缺乏真实感以及红队演练成本高昂的痛点,帮助组织更高效地进行员工安全意识训练、攻防演习及合规性测试。

该平台特别适合企业安全团队、红队专家、合规审计人员以及负责构建安全自动化流程的开发者使用。其核心亮点在于灵活的模型支持架构:不仅兼容 OpenAI GPT-4、Anthropic Claude 等主流云端模型,更创新性地支持通过 Ollama 运行本地离线模型,确保在无需联网或敏感数据不出域的环境下也能安全运行。此外,ThreatSimGPT 采用直观的 YAML 模板定义威胁场景,便于版本控制与协作;内置对 PhishTank、MITRE ATT&CK 等权威威胁情报库的集成,能自动生成符合最新攻击手法的模拟内容。配合成熟的 REST API 和命令行工具,它能轻松融入现有的企业安全生态(如 Microsoft 365、Slack 等),为构建可扩展、可审计的现代化防御体系提供强力支撑。

使用场景

某大型金融机构的安全运营团队正筹备年度全员钓鱼邮件演练,需要生成高度逼真且符合最新攻击趋势的测试场景。

没有 ThreatSimGPT 时

  • 场景构建耗时费力:安全分析师需手动编写数百封差异化的钓鱼邮件模板,难以模拟复杂的社交工程话术,往往导致演练内容单一、容易被员工识破。
  • 情报更新滞后:人工整合 MITRE ATT&CK 框架或 PhishTank 最新威胁情报效率低下,生成的攻击脚本无法反映当下真实的黑客手法,训练效果大打折扣。
  • 合规与安全风险高:缺乏内置的内容过滤机制,手动创作的模拟攻击可能无意中包含敏感词汇或过度激进的内容,引发内部合规审计风险。
  • 环境依赖复杂:若要在隔离的内网环境中进行演练,传统基于云端的 AI 工具无法使用,团队不得不搭建复杂的代理或放弃使用智能化手段。

使用 ThreatSimGPT 后

  • 自动化生成高保真场景:利用集成的 GPT-4 或本地 Ollama 模型,ThreatSimGPT 能基于 YAML 模板瞬间生成数千封语境自然、风格多变的钓鱼邮件,大幅提升演练的真实感。
  • 实时融合威胁情报:工具自动调用内置的 PhishTank 和 MITRE ATT&CK 数据集,确保生成的攻击向量紧跟最新黑产趋势,让员工在训练中接触到最前沿的威胁。
  • 内置安全合规护栏:依托其自带的内容过滤与伦理指南框架,ThreatSimGPT 在生成阶段即自动拦截违规内容,确保所有演练材料符合 GDPR 及企业内部审计要求。
  • 无缝支持离线部署:通过 Ollama 集成,团队可直接在完全隔离的内网服务器运行 ThreatSimGPT,无需联网或 API 密钥,既保障了数据主权又实现了高效本地化演练。

ThreatSimGPT 将原本数周的演练准备周期缩短至小时级,同时以企业级的安全性和真实性重新定义了网络安全培训的标准。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU
  • 非必需
  • 若使用本地 Ollama 运行大模型,需根据所选模型大小配置相应 GPU(未指定具体型号/显存/CUDA 版本)
  • 云端 API 模式无需 GPU
内存

未说明

依赖
notes支持多种 LLM 提供商(OpenAI, Anthropic, OpenRouter)及本地离线模式(Ollama)。本地运行需自行安装并配置 Ollama 服务。部署支持 Docker 和 Kubernetes。需配置相应的 API Key 或使用本地模型。
python3.11+
FastAPI
Pydantic
aiohttp
httpx
asyncio
pytest
black
isort
flake8
mypy
ThreatSimGPT hero image

快速开始

ThreatSimGPT:企业级人工智能驱动的威胁模拟平台

Python 3.11+ License: MIT 生产就绪 代码质量 安全:Bandit

ThreatSimGPT 是一款企业级网络安全威胁模拟平台,利用大型语言模型(LLMs)生成逼真、上下文感知的威胁场景,用于安全培训、红队演练和合规性测试。

概述

  • 多LLM支持: ✅ 集成 OpenAI GPT-4、Anthropic Claude、OpenRouter 和 Ollama(本地/离线)
  • 本地LLM支持: 🆕 使用 Ollama 完全离线运行 - 无需 API 密钥或互联网!
  • 基于 YAML 的配置: ✅ 使用直观的 YAML 模式定义威胁场景
  • 生产就绪的核心: ✅ 可扩展的模拟引擎,配备完善的数据模型
  • CLI 界面: ✅ 用于场景管理和执行的命令行工具
  • REST API: ✅ 基于 FastAPI 的 REST 端点,便于企业集成
  • 安全框架: 🚧 内置内容过滤和合规性检查(计划中)
  • 分析与报告: 🚧 全面的日志记录与指标(计划中)

核心功能

  • 多LLM支持: OpenAI GPT-4、Anthropic Claude、OpenRouter、Ollama 以及本地模型
  • 基于 YAML 的模板: 使用直观且版本控制的模板定义威胁场景
  • 生产级架构: 可扩展、易维护的代码库,无代码重复
  • CLI 与 REST API: 灵活的接口,便于自动化和集成
  • 企业部署: Docker、Kubernetes 和云原生部署选项
  • 全面的日志记录: 审计轨迹和分析数据,满足合规要求
  • 安全框架: 内置内容过滤和伦理准则
  • 数据集集成: PhishTank、Enron Email Corpus、MITRE ATT&CK 框架

架构

系统组件

ThreatSimGPT 平台
├── 核心模拟引擎
│   ├── 模板管理器(基于 YAML 的场景定义)
│   ├── 模拟编排器(执行与工作流管理)
│   └── 输出管理器(内容生成与存储)
│
├── LLM 集成层
│   ├── 多提供商支持(OpenAI、Anthropic、OpenRouter、Ollama)
│   ├── 连接池(性能提升 40%以上)
│   ├── 速率限制与重试逻辑
│   └── 备用与错误处理
│
├── 数据集集成
│   ├── PhishTank(网络钓鱼情报)
│   ├── Enron Email Corpus(电子邮件通信模式)
│   ├── MITRE ATT&CK(威胁情报框架)
│   └── 可扩展的处理器架构
│
├── 集成层
│   ├── Microsoft 365(电子邮件投放)
│   ├── Proofpoint(安全平台集成)
│   ├── KnowBe4(培训平台)
│   ├── Slack(协作平台)
│   └── 用于自定义集成的可扩展基类
│
├── API 与 CLI 接口
│   ├── FastAPI REST API(企业集成)
│   ├── 命令行界面(直接使用)
│   └── Python SDK(程序化访问)
│
└── 安全与合规
    ├── 内容过滤
    ├── 审计日志
    ├── GDPR 合规
    └── 伦理使用指南

技术栈

  • 语言: Python 3.11+
  • API 框架: FastAPI
  • LLM 集成: aiohttp、httpx(带连接池)
  • 数据验证: Pydantic
  • 配置: YAML
  • 异步 I/O: asyncio、aiohttp
  • 测试: pytest、pytest-asyncio
  • 代码质量: black、isort、flake8、mypy
  • 部署: Docker、Kubernetes

快速入门

前提条件

  • Python 3.11 或更高版本
  • Git(用于克隆仓库)
  • LLM API 密钥(OpenRouter、OpenAI 或 Anthropic)
  • 虚拟环境(推荐)

安装

1. 克隆仓库

git clone https://github.com/threatsimgpt-AI/ThreatSimGPT.git
cd ThreatSimGPT

2. 创建虚拟环境

Windows (PowerShell):

python -m venv .venv
.\.venv\Scripts\Activate.ps1

macOS/Linux:

python -m venv .venv
source .venv/bin/activate

3. 安装依赖项

# 生产依赖
pip install -r requirements.txt

# 开发依赖(可选)
pip install -r requirements-dev.txt

4. 配置 API 密钥

# 将您的 API 密钥设置为环境变量
export OPENROUTER_API_KEY="your-api-key-here"

# 编辑 config.yaml 文件以进行设置
nano config.yaml

配置示例:

llm:
  provider: openrouter
  openrouter:
    api_key: "your-api-key-here"
    model: "qwen/qwen-2.5-72b-instruct"
    
simulation:
  output_dir: "./generated_content"
  auto_save: true
  
logging:
  level: INFO
  file: "./logs/threatsimgpt.log"

5. 验证安装

# 检查 CLI 是否可用
threatsimgpt --help

# 验证安装
threatsimgpt templates validate-all

# 测试干运行(不调用 API)
threatsimgpt simulate -s templates/executive_phishing.yaml --dry-run

使用指南

命令行界面

模板管理

# 列出所有可用模板
threatsimgpt templates list

# 显示模板详细信息并验证
threatsimgpt templates show executive_phishing --validate

# 验证所有模板
threatsimgpt templates validate-all

# 检查模板生态系统的健康状况
threatsimgpt templates health

运行模拟

# 运行一次模拟
threatsimgpt simulate -s templates/executive_phishing.yaml

# 干运行(不调用 API)
threatsimgpt simulate -s templates/executive_phishing.yaml --dry-run

# 指定输出目录
threatsimgpt simulate -s templates/finance_bec.yaml -o ./output/campaign_001

# 使用特定的 LLM 提供商运行
threatsimgpt simulate -s templates/it_helpdesk.yaml --provider openai

配置管理

# 显示当前配置
threatsimgpt config show

# 设置配置值
threatsimgpt config set llm.provider openrouter

# 验证配置
threatsimgpt config validate

数据集管理

# 列出可用数据集
threatsimgpt datasets list

# 下载并处理数据集
threatsimgpt datasets download phishtank

# 显示数据集统计信息
threatsimgpt datasets stats enron

# 更新所有数据集
threatsimgpt datasets update-all

REST API

启动 API 服务器

# 启动 FastAPI 服务器
threatsimgpt api start

# 指定主机和端口
threatsimgpt api start --host 0.0.0.0 --port 8000

# 从自动重载开始(开发)
threatsimgpt api start --reload

API 端点

生成威胁内容:

curl -X POST "http://localhost:8000/llm/generate" \
  -H "Content-Type: application/json" \
  -d '{
    "prompt": "创建一封针对人力资源部门的网络钓鱼邮件",
    "scenario_type": "phishing",
    "max_tokens": 500,
    "temperature": 0.7
  }'

创建场景:

curl -X POST "http://localhost:8000/scenarios" \
  -H "Content-Type: application/json" \
  -d '{
    "name": "第四季度安全意识宣传活动",
    "threat_type": "phishing",
    "target_role": "员工",
    "severity": "medium"
  }'

列出模板:

curl "http://localhost:8000/templates"

API 文档:

  • Swagger UI:http://localhost:8000/docs
  • ReDoc:http://localhost:8000/redoc

Python SDK

from threatsimgpt import ThreatSimGPTClient

# 初始化客户端
client = ThreatSimGPTClient(api_key="your-api-key", provider="openrouter")

# 加载并运行模拟
simulation = client.load_template("templates/executive_phishing.yaml")
result = simulation.run()

# 访问生成的内容
print(result.content)
print(result.metadata)

# 保存到文件
result.save("output/campaign_001.json")

配置

配置文件结构

config.yaml(YAML 格式):

# LLM 提供商配置
llm:
  provider: openrouter  # 选项:openrouter、openai、anthropic、ollama
  
  openrouter:
    api_key: ${OPENROUTER_API_KEY}
    model: "qwen/qwen-2.5-72b-instruct"
    base_url: "https://openrouter.ai/api/v1"
    timeout: 120
    
  openai:
    api_key: ${OPENAI_API_KEY}
    model: "gpt-4"
    
  anthropic:
    api_key: ${ANTHROPIC_API_KEY}
    model: "claude-3-opus-20240229"
    
  ollama:
    base_url: "http://localhost:11434"
    model: "llama3.1:70b"

# 模拟配置
simulation:
  output_dir: "./generated_content"
  auto_save: true
  index_enabled: true
  max_concurrent: 5

# 数据集配置
datasets:
  storage_path: "./data"
  auto_update: false
  phishtank:
    enabled: true
    update_interval_days: 7
  enron:
    enabled: true
  mitre_attack:
    enabled: true

# 部署集成
deployment:
  enabled: false
  microsoft365:
    enabled: false
    tenant_id: ${M365_TENANT_ID}
    client_id: ${M365_CLIENT_ID}
    client_secret: ${M365_CLIENT_SECRET}

# 日志配置
logging:
  level: INFO  # DEBUG、INFO、WARNING、ERROR、CRITICAL
  file: "./logs/threatsimgpt.log"
  format: "%(asctime)s - %(name)s - %(levelname)s - %(message)s"
  rotation: "10 MB"
  retention: 30  # 天

# 安全配置
safety:
  content_filtering: true
  audit_logging: true
  rate_limiting:
    enabled: true
    requests_per_minute: 60

环境变量

# LLM 提供商密钥
export OPENROUTER_API_KEY="your-key-here"
export OPENAI_API_KEY="your-key-here"
export ANTHROPIC_API_KEY="your-key-here"

# 部署集成
export M365_TENANT_ID="your-tenant-id"
export M365_CLIENT_ID="your-client-id"
export M365_CLIENT_SECRET="your-client-secret"

# 应用程序设置
export THREATSIMGPT_ENV="production"
export THREATSIMGPT_LOG_LEVEL="INFO"

模板系统

模板结构

模板使用 YAML 格式定义威胁场景:

# 模板元数据
template_id: executive_phishing_v1
name: "高管网络钓鱼活动"
version: "1.0.0"
author: "安全团队"
description: "针对高层管理人员的复杂网络钓鱼攻击"

# 威胁分类
threat_type: phishing
severity: high
complexity: advanced
target_role: executive

# 场景配置
scenario:
  subject_line: "紧急:需提交第四季度财务报告"
  sender_persona: "首席财务官办公室"
  urgency_level: high
  社会工程学策略:
    - 权威性
    - 紧迫感
    - 恐惧心理
  
  上下文:
    公司规模:企业级
    行业:科技行业
    季度:第四季度
    
  内容要求:
    语气:专业
    长度:中等
    技术细节:包含
    个性化程度:高

# LLM 生成参数
generation:
  max_tokens: 800
  temperature: 0.7
  top_p: 0.9
  
# 动态内容变量
variables:
  ceo_name: "Michael Stevens"
  company_name: "TechCorp International"
  截止日期:本周末
  财政年度:2025财年

# 安全控制
safety:
  content_filtering: true
  匿名化处理敏感信息:true
  必须添加免责声明:true

创建自定义模板

  1. 复制示例模板:
cp templates/sample_phishing_template.yaml templates/my_custom_template.yaml
  1. 编辑模板:
template_id: my_custom_scenario
name: "我的自定义威胁场景"
threat_type: social_engineering
# ... 自定义字段
  1. 验证模板:
threatsimgpt templates show my_custom_template --validate
  1. 运行模拟:
threatsimgpt simulate -s templates/my_custom_template.yaml

部署

Docker 部署

构建镜像

# 构建生产镜像
docker build -t threatsimgpt:latest .

# 使用特定标签构建
docker build -t threatsimgpt:v1.0.0 .

运行容器

# 使用环境变量运行
docker run -d \
  --name threatsimgpt \
  -p 8000:8000 \
  -e OPENROUTER_API_KEY="your-key" \
  -v $(pwd)/generated_content:/app/generated_content \
  -v $(pwd)/logs:/app/logs \
  threatsimgpt:latest

# 使用配置文件运行
docker run -d \
  --name threatsimgpt \
  -p 8000:8000 \
  -v $(pwd)/config.yaml:/app/config.yaml \
  -v $(pwd)/generated_content:/app/generated_content \
  threatsimgpt:latest

Docker Compose

docker-compose.yml

version: '3.8'

services:
  threatsimgpt-api:
    image: threatsimgpt:latest
    container_name: threatsimgpt-api
    ports:
      - "8000:8000"
    environment:
      - OPENROUTER_API_KEY=${OPENROUTER_API_KEY}
      - THREATSIMGPT_ENV=production
    volumes:
      - ./config.yaml:/app/config.yaml:ro
      - ./generated_content:/app/generated_content
      - ./logs:/app/logs
      - ./data:/app/data
    restart: unless-stopped
    
  threatsimgpt-worker:
    image: threatsimgpt:latest
    container_name: threatsimgpt-worker
    environment:
      - OPENROUTER_API_KEY=${OPENROUTER_API_KEY}
    volumes:
      - ./config.yaml:/app/config.yaml:ro
      - ./generated_content:/app/generated_content
      - ./data:/app/data
    command: ["python", "-m", "threatsimgpt.worker"]
    restart: unless-stopped

部署:

# 启动服务
docker-compose up -d

# 查看日志
docker-compose logs -f

# 扩展 API 实例
docker-compose up -d --scale threatsimgpt-api=3

# 停止服务
docker-compose down

Kubernetes 部署

基本部署

k8s/deployment.yaml:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: threatsimgpt
  labels:
    app: threatsimgpt
spec:
  replicas: 3
  selector:
    matchLabels:
      app: threatsimgpt
  template:
    metadata:
      labels:
        app: threatsimgpt
    spec:
      containers:
      - name: threatsimgpt
        image: threatsimgpt:latest
        ports:
        - containerPort: 8000
        env:
        - name: OPENROUTER_API_KEY
          valueFrom:
            secretKeyRef:
              name: threatsimgpt-secrets
              key: openrouter-api-key
        volumeMounts:
        - name: config
          mountPath: /app/config.yaml
          subPath: config.yaml
        - name: storage
          mountPath: /app/generated_content
      volumes:
      - name: config
        configMap:
          name: threatsimgpt-config
      - name: storage
        persistentVolumeClaim:
          claimName: threatsimgpt-pvc
---
apiVersion: v1
kind: Service
metadata:
  name: threatsimgpt
spec:
  type: LoadBalancer
  ports:
  - port: 80
    targetPort: 8000
  selector:
    app: threatsimgpt

部署:

# 创建命名空间
kubectl create namespace threatsimgpt

# 创建 Secret
kubectl create secret generic threatsimgpt-secrets \
  --from-literal=openrouter-api-key="your-key" \
  -n threatsimgpt

# 创建 ConfigMap
kubectl create configmap threatsimgpt-config \
  --from-file=config.yaml \
  -n threatsimgpt

# 应用部署
kubectl apply -f k8s/ -n threatsimgpt

# 检查状态
kubectl get pods -n threatsimgpt
kubectl get svc -n threatsimgpt

# 查看日志
kubectl logs -f deployment/threatsimgpt -n threatsimgpt

安全与合规

安全最佳实践

  1. API 密钥管理:

    • 将密钥存储在环境变量或密钥管理系统中
    • 绝不将密钥提交到版本控制系统
    • 定期轮换密钥
    • 为开发和生产环境使用不同的密钥
  2. 网络安全:

    • 部署在防火墙或 VPN 后面
    • 对 API 端点使用 HTTPS/TLS
    • 对敏感部署实施 IP 白名单
    • 启用速率限制
  3. 访问控制:

    • 实施基于角色的访问控制 (RBAC)
    • 使用强身份验证机制
    • 记录所有访问尝试
    • 定期进行访问审查
  4. 数据保护:

    • 启用审计日志记录
    • 实施数据保留策略
    • 对静态和传输中的敏感数据进行加密
    • 定期进行安全审计

合规功能

  • GDPR 合规:数据保护和隐私控制
  • 审计日志记录:全面的活动跟踪
  • 内容过滤:防止生成有害内容
  • 伦理准则:明确的使用政策和限制

负责任使用政策

授权使用场景:

  • 安全培训和意识提升项目
  • 红队演练和渗透测试(经授权)
  • 安全控制验证和测试
  • 合规和审计文档
  • 教育和研究目的

禁止使用场景:

  • 实际的恶意活动或攻击
  • 未经授权的系统访问或测试
  • 骚扰、威胁或有害内容
  • 绕过安全控制或系统
  • 任何非法活动

性能与可扩展性

性能指标

  • 连接池:相比每次请求建立会话,性能提升 40%
  • 内存效率:使用共享会话池后,内存占用减少 30%
  • 下载速度:通过优化异步 I/O 提升 25%
  • API 响应时间:低于 200 毫秒(不包括 LLM 生成)
  • 并发请求:支持 100 多个并发模拟

可扩展性

  • 水平扩展:在负载均衡器后部署多个 API 实例
  • 异步架构:非阻塞 I/O 实现高吞吐量
  • 资源优化:高效的内存和连接管理
  • 缓存:针对重复操作的模板和数据集缓存

监控

# 启用指标端点
threatsimgpt api start --metrics

# Prometheus 指标可在 /metrics 获取
curl http://localhost:8000/metrics

# 健康检查端点
curl http://localhost:8000/health

文档

可用文档

快速链接


贡献

我们欢迎贡献!请参阅我们的 贡献指南 以获取详细信息。

开发设置

# 克隆仓库
git clone https://github.com/threatsimgpt-AI/ThreatSimGPT.git
cd ThreatSimGPT

# 创建虚拟环境
python -m venv .venv
source .venv/bin/activate  # 或 Windows 上的 .venv\Scripts\activate

# 安装开发依赖
pip install -r requirements-dev.txt

# 安装 pre-commit 钩子
pre-commit install

# 运行测试
pytest

# 运行代码质量检查
black src/ tests/
isort src/ tests/
flake8 src/ tests/
mypy src/

贡献流程

  1. 分支仓库
  2. 创建特性分支:git checkout -b feature/amazing-feature
  3. 进行更改并添加测试
  4. 确保所有测试通过:pytest
  5. 运行代码质量检查
  6. 提交更改:git commit -m 'Add amazing feature'
  7. 推送到分支:git push origin feature/amazing-feature
  8. 打开拉取请求

故障排除

常见问题

安装问题

问题threatsimgpt: command not found

解决方案:激活虚拟环境

# Windows
.\.venv\Scripts\Activate.ps1

# macOS/Linux
source .venv/bin/activate

问题ModuleNotFoundError

解决方案:在虚拟环境中安装依赖

pip install -r requirements.txt

配置问题

问题配置文件未找到

解决方案:根据示例创建 config.yaml

cp config.yaml.example config.yaml

问题API 认证失败

解决方案:确认已设置 API 密钥

# 检查环境变量
echo $OPENROUTER_API_KEY

# 或在 config.yaml 中设置
threatsimgpt config set llm.openrouter.api_key "your-key"

运行时问题

问题: 模板验证错误

解决方案: 验证并修复模板

threatsimgpt templates show my_template --validate
threatsimgpt templates fix my_template

问题: 模拟因超时失败

解决方案: 在配置中增加超时时间

llm:
  openrouter:
    timeout: 180  # 增加到180秒

获取帮助

  • 查看日志: logs/threatsimgpt.log
  • 验证配置: threatsimgpt config validate
  • 测试连接: threatsimgpt llm test
  • GitHub 问题: 报告 bug
  • 电子邮件支持: threatsimgpt@hotmail.com

许可证

本项目采用 MIT 许可证授权 - 详情请参阅 LICENSE 文件。

第三方许可证

ThreatSimGPT 使用了以下开源库:

  • FastAPI (MIT 许可证)
  • Pydantic (MIT 许可证)
  • aiohttp (Apache 2.0)
  • PyYAML (MIT 许可证)

完整的许可证信息可在 LICENSE 文件中找到。


致谢

  • MITRE ATT&CK 框架 提供的威胁情报分类体系
  • OpenAI、Anthropic、Meta 提供的大语言模型能力
  • PhishTank 提供的钓鱼情报数据
  • 卡内基梅隆大学 提供的 Enron 电子邮件语料库
  • 开源社区 提供的工具和库

支持与联系


项目状态

  • 当前版本: 1.0.0
  • 状态: 已投入生产
  • 最后更新: 2025年11月23日
  • 活跃维护: 是
  • 接受贡献: 是

路线图

版本 1.1.0 (2026年第一季度):

  • 高级分析与报告仪表盘
  • 更强的数据集集成(新增威胁情报来源)
  • 基于机器学习的内容优化
  • 多语言支持

版本 1.2.0 (2026年第二季度):

  • 协作式场景构建器
  • 高级部署集成
  • 实时威胁情报推送
  • 企业单点登录集成

重要免责声明

ThreatSimGPT 是一款专为以下用途设计的模拟工具:

  • 授权的安全测试与培训
  • 教育目的
  • 研究与开发

用户有责任确保其使用行为符合所在司法管辖区的所有适用法律、法规及组织政策。未经授权的使用、恶意活动或滥用本工具均被严格禁止,并可能导致法律责任。

请自行承担使用风险。作者及贡献者对任何误用或损害不承担任何责任。


为网络安全社区打造

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

159.3k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|昨天
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|1周前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像