Archon

GitHub
13.9k 2.4k 较难 1 次阅读 今天NOASSERTION开发框架Agent
AI 解读 由 AI 自动生成,仅供参考

Archon 是一款专为 AI 编程助手打造的“指挥中心”,旨在成为连接开发者与智能代理的知识与任务管理核心。它解决了当前 AI 编码工具普遍存在的痛点:缺乏对项目专属文档、上下文背景及复杂任务的持久化记忆与管理能力,导致 AI 在长周期开发中容易“失忆”或偏离目标。

通过 Archon,开发者可以构建个性化的知识库(支持爬取网站、上传 PDF 等),并利用先进的 RAG(检索增强生成)策略实现智能搜索。更重要的是,它作为一个标准的 MCP(模型上下文协议)服务器,能够无缝对接 Claude Code、Cursor、Windsurf 等主流 AI 编程工具。这意味着你的 AI 助手不仅能读取代码,还能实时访问项目文档、理解任务进度,并在你更新内容时同步感知,从而实现真正的人机协同开发。

Archon 特别适合软件开发者、技术团队以及希望提升 AI 编码效率的研究人员使用。无论你是维护旧项目还是从零构建新系统,Archon 都能通过统一的上下文工程环境,显著提升 AI 输出代码的准确性和逻辑连贯性。目前该项目处于 Beta 阶段,由社区驱动迭代,是探索下一代 AI 辅助开发工作流的理想选择。

使用场景

某全栈开发者正在接手一个遗留的电商系统重构项目,需要同时处理分散的技术文档、复杂的业务逻辑代码以及大量的待办任务。

没有 Archon 时

  • 上下文割裂严重:开发者需手动在 Notion 文档、PDF 规范和 GitHub Issues 之间反复切换,AI 助手因缺乏项目专属知识,经常产生“幻觉”或给出通用但不适用的代码建议。
  • 知识检索低效:每次询问业务规则(如“优惠券叠加逻辑”),都要重新复制粘贴大段文档给 AI,不仅耗时且容易超出模型的上下文窗口限制。
  • 任务与代码脱节:AI 生成的代码片段往往无法直接关联到具体的任务卡片,导致进度追踪困难,容易出现“代码写完了但不知道对应哪个需求”的混乱局面。
  • 协作同步滞后:当团队更新了接口文档后,AI 助手无法实时感知变化,仍基于旧版本文档提供建议,引发潜在的集成错误。

使用 Archon 后

  • 统一知识中枢:Archon 将爬虫抓取的官网文档、上传的 PDF 及现有代码库整合为专属知识库,作为 MCP 服务器直接赋能 Cursor 或 Claude Code,让 AI 瞬间“懂”项目。
  • 智能语义搜索:开发者只需自然语言提问,Archon 利用高级 RAG 策略精准定位“优惠券逻辑”相关片段并自动注入上下文,AI 输出的代码准确率显著提升。
  • 任务驱动开发:在 Archon 界面创建的任务会自动同步给 AI 助手,生成的代码变更直接关联具体任务 ID,实现从需求到实现的闭环追踪。
  • 实时动态更新:一旦团队上传新文档或修改任务状态,Archon 立即刷新上下文,确保 AI 助手始终基于最新信息工作,彻底消除信息差导致的返工。

Archon 通过构建私有的知识与任务管理骨干,将分散的开发要素转化为 AI 可理解的统一上下文,极大提升了人机协作的深度与效率。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具主要基于 Docker 部署,无需手动配置 Python 环境。核心依赖包括 Docker Desktop、Node.js 18+(仅混合开发模式需要)以及 Supabase 数据库(支持云端或本地部署)。支持 OpenAI、Gemini 和 Ollama 作为模型提供商。Windows 用户可通过 WSL2、Chocolatey 或 Scoop 安装 Make 以使用开发命令。
python未说明 (后端运行于 Docker 容器中)
Docker Desktop
Node.js 18+
Supabase
Make (可选)
Archon hero image

快速开始

Archon 主图

coleam00%2FArchon | Trendshift

通过自定义知识库和任务管理,将您的 AI 编码助手升级为 MCP 服务器

快速入门升级包含内容架构故障排除


🎯 Archon 是什么?

Archon 目前处于测试阶段!请做好部分功能可能无法正常工作的准备,并随时提出反馈或贡献修复与新功能!感谢大家对 Archon 的热情支持,以及提交的错误报告、拉取请求和讨论。虽然对我们小团队来说工作量很大,但我们致力于解决所有问题,让 Archon 成为尽可能优秀的工具!

Archon 是 AI 编码助手的指挥中心。对于您而言,它是一个简洁的界面,用于管理项目的知识、上下文和任务;对于 AI 编码助手来说,它则是一个模型上下文协议(MCP)服务器,可以协同使用并共享相同的知识、上下文和任务。您可以连接 Claude Code、Kiro、Cursor、Windsurf 等工具,让您的 AI 助手访问以下内容:

  • 您的文档(爬取的网站、上传的 PDF/文档)
  • 智能搜索功能,采用先进的 RAG 策略
  • 任务管理,与您的知识库无缝集成
  • 实时更新,当您添加新内容并与编码助手协作处理任务时
  • 更多功能,即将推出,旨在将 Archon 打造成一个完整的上下文工程一体化环境

这一全新的 Archon 架构取代了旧版本(agenteer)。过去,Archon 是用来构建其他 AI 助手的 AI 代理,而现在,您不仅可以利用 Archon 来完成这项任务,还能实现更多功能。

无论您正在构建什么项目,无论是全新的代码库还是现有的代码库——Archon 的知识管理和任务管理能力都将提升任何 AI 驱动编码工作的成果。

🔗 重要链接

  • GitHub 讨论区 - 加入讨论,分享关于 Archon 的想法
  • 贡献指南 - 如何参与并为 Archon 做贡献
  • 介绍视频 - Archon 的入门指南及愿景
  • Archon 看板 - 维护人员在此管理问题和功能
  • Dynamous AI Mastery - Archon 的诞生地——加入这个充满活力的早期 AI 技术采用者社区,共同助力彼此的职业与业务转型!

快速入门

Archon 设置教程
📺 点击观看 YouTube 上的设置教程
-> 视频中的 AI 编码工作流程示例 <-

先决条件

设置步骤

  1. 克隆仓库

    git clone -b stable https://github.com/coleam00/archon.git
    
    cd archon
    

    注意: 推荐使用 stable 分支来运行 Archon。如果您想参与贡献或尝试最新功能,请使用 main 分支,执行 git clone https://github.com/coleam00/archon.git

  2. 配置环境变量

    cp .env.example .env
    # 编辑 .env 文件,添加您的 Supabase 凭证:
    # SUPABASE_URL=https://your-project.supabase.co
    # SUPABASE_SERVICE_KEY=your-service-key-here
    

    重要提示:

    • 对于云端 Supabase:他们最近推出了新型服务角色密钥,但请使用旧版密钥(较长的那种)。
    • 对于本地 Supabase:将 SUPABASE_URL 设置为 http://host.docker.internal:8000(除非您已设置 IP 地址)。要获取 SUPABASE_SERVICE_KEY,请运行 supabase status -o env
  3. 数据库设置:在您的 Supabase 项目 SQL 编辑器中,复制并执行 migration/complete_setup.sql 中的内容。

  4. 启动服务(任选其一):

    完全 Docker 模式(推荐用于常规 Archon 使用)

    docker compose up --build -d
    

    这将启动所有核心微服务:

    • 服务器:核心 API 和业务逻辑(端口:8181)
    • MCP 服务器:AI 客户端的协议接口(端口:8051)
    • UI:Web 界面(端口:3737)

    您也可以在 .env 文件中自定义这些端口!

  5. 配置 API 密钥

    • 打开 http://localhost:3737
    • 您将自动进入引导流程,以设置您的 API 密钥(默认为 OpenAI)。

⚡ 快速测试

一切运行正常后:

  1. 测试网页抓取:前往 http://localhost:3737 → 知识库 → “抓取网站” → 输入一个文档 URL(例如 https://ai.pydantic.dev/llms.txt)
  2. 测试文档上传:知识库 → 上传一个 PDF
  3. 测试项目:项目 → 创建新项目并添加任务
  4. 与您的 AI 编码助手集成:MCP 控制台 → 复制连接配置信息,供您的 AI 编码助手使用

安装 Make

🛠️ 安装 Make(可选——用于开发工作流)

Windows

# 方法 1:使用 Chocolatey
choco install make

# 方法 2:使用 Scoop
scoop install make

# 方法 3:使用 WSL2
wsl --install
# 然后在 WSL 中:sudo apt-get install make

macOS

# macOS 自带 Make
# 如需安装:brew install make

Linux

# Debian/Ubuntu
sudo apt-get install make

# RHEL/CentOS/Fedora
sudo yum install make
🚀 Make 快速命令参考
命令 描述
make dev 启动混合开发模式(后端在 Docker 中,前端本地) ⭐
make dev-docker 所有服务都在 Docker 中运行
make stop 停止所有服务
make test 运行所有测试
make lint 运行代码检查工具
make install 安装依赖项
make check 检查环境配置
make clean 移除容器和数据卷(需确认)

🔄 数据库重置(如有需要从头开始)

如果您需要完全重置数据库并从头开始:

⚠️ 重置数据库 - 这将删除 Archon 的所有数据!
  1. 运行重置脚本:在您的 Supabase SQL 编辑器中,执行 migration/RESET_DB.sql 文件中的内容。

    ⚠️ 警告:这将删除所有与 Archon 相关的表和数据!不过,您的数据库中其他内容不会受到影响。

  2. 重建数据库:重置完成后,运行 migration/complete_setup.sql 以重新创建所有表。

  3. 重启服务

    docker compose --profile full up -d
    
  4. 重新配置

    • 选择您的 LLM/嵌入模型提供商,并重新设置 API 密钥。
    • 重新上传文档或重新抓取网站内容。

重置脚本会安全地移除所有表、函数、触发器和策略,并妥善处理依赖关系。

📚 文档

核心服务

服务 容器名称 默认 URL 用途
Web 界面 archon-ui http://localhost:3737 主仪表板和控制界面
API 服务 archon-server http://localhost:8181 网页爬取、文档处理
MCP 服务器 archon-mcp http://localhost:8051 模型上下文协议接口
代理服务 archon-agents http://localhost:8052 AI/ML 操作、结果重排序
代理工作订单 (可选) archon-agent-work-orders http://localhost:8053 使用 Claude Code CLI 执行工作流

升级

要将 Archon 升级到最新版本:

  1. 拉取最新更改

    git pull
    
  2. 重建并重启容器

    docker compose up -d --build
    

    这将使用最新代码重建容器,并重启所有服务。

  3. 检查数据库迁移

    • 在浏览器中打开 Archon 设置页面:http://localhost:3737/settings
    • 导航到 数据库迁移 部分
    • 如果有未完成的迁移,UI 会显示这些迁移,并提供清晰的操作说明
    • 点击每条迁移记录查看并复制 SQL 语句
    • 按照显示的顺序在您的 Supabase SQL 编辑器中执行这些 SQL 脚本

包含内容

🧠 知识管理

  • 智能网页爬取:自动检测并爬取整个文档站点、站点地图以及单个页面。
  • 文档处理:上传并处理 PDF、Word 文档、Markdown 文件和文本文件,支持智能分块。
  • 代码示例提取:自动识别并索引文档中的代码示例,以增强搜索功能。
  • 向量搜索:基于上下文嵌入的高级语义搜索,实现精准的知识检索。
  • 来源管理:按来源、类型和标签组织知识,便于筛选。

🤖 AI 集成

  • 模型上下文协议 (MCP):连接任何兼容 MCP 的客户端(Claude Code、Cursor,甚至非 AI 编程助手如 Claude Desktop)。
  • MCP 工具集:一套全面而简单的工具,用于 RAG 查询、任务管理和项目操作。
  • 多 LLM 支持:兼容 OpenAI、Ollama 和 Google Gemini 模型。
  • RAG 策略:混合搜索、上下文嵌入和结果重排序,以获得最佳的 AI 回答。
  • 实时流式传输:AI 代理的实时响应,并可跟踪处理进度。

📋 项目与任务管理

  • 层次化项目结构:通过项目、功能和任务构建结构化的流程。
  • AI 辅助创建:利用集成的 AI 代理生成项目需求和任务。
  • 文档管理:支持版本控制的文档,并具备协作编辑能力。
  • 进度跟踪:实时更新和管理所有项目活动的状态。

🔄 实时协作

  • WebSocket 更新:实时跟踪爬取、处理和 AI 操作的进度。
  • 多用户支持:支持协作式知识构建和项目管理。
  • 后台处理:异步操作,不会阻塞用户界面。
  • 健康监测:内置服务健康检查和自动重连机制。

架构

微服务架构

Archon 采用真正的微服务架构,各服务职责分明:

┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐
│   前端 UI   │    │  服务器 (API)   │    │   MCP 服务器    │    │  代理服务  │
│                 │    │                 │    │                 │    │                 │
│  React + Vite   │◄──►│    FastAPI +    │◄──►│    轻量级  │◄──►│   PydanticAI    │
│  端口 3737      │    │    SocketIO     │    │    HTTP 封装 │    │   端口 8052     │
│                 │    │    端口 8181    │    │    端口 8051    │    │                 │
└─────────────────┘    └─────────────────┘    └─────────────────┘    └─────────────────┘
         │                        │                        │                        │
         └────────────────────────┼────────────────────────┼────────────────────────┘
                                  │                        │
                         ┌─────────────────┐               │
                         │    数据库     │               │
                         │                 │               │
                         │    Supabase     │◄──────────────┘
                         │    PostgreSQL   │
                         │    PGVector     │
                         └─────────────────┘

服务职责

服务 位置 目的 关键特性
前端 archon-ui-main/ Web 界面和仪表板 React、TypeScript、TailwindCSS、Socket.IO 客户端
服务器 python/src/server/ 核心业务逻辑和 API FastAPI、服务层、Socket.IO 广播、所有 ML/AI 操作
MCP 服务器 python/src/mcp/ MCP 协议接口 轻量级 HTTP 封装、MCP 工具、会话管理
代理 python/src/agents/ PydanticAI 代理托管 文档和 RAG 代理、流式响应
代理工作订单 (可选) python/src/agent_work_orders/ 工作流执行引擎 Claude Code CLI 自动化、仓库管理、SSE 更新

通信模式

  • 基于 HTTP:所有服务间通信均使用 HTTP API
  • Socket.IO:服务器到前端的实时更新
  • MCP 协议:AI 客户端通过 SSE 或 stdio 连接到 MCP 服务器
  • 无直接导入:服务之间完全独立,无共享代码依赖

关键架构优势

  • 轻量级容器:每个服务仅包含所需依赖
  • 独立扩展:可根据负载独立扩展各服务
  • 开发灵活性:团队可在不同服务上并行工作,互不干扰
  • 技术多样性:每个服务都采用最适合其特定用途的技术

🔧 配置自定义端口与主机名

默认情况下,Archon 服务运行在以下端口:

  • archon-ui:3737
  • archon-server:8181
  • archon-mcp:8051
  • archon-agents:8052(可选)
  • archon-agent-work-orders:8053(可选)

更改端口

要使用自定义端口,请将以下变量添加到您的 .env 文件中:

# 服务端口配置
ARCHON_UI_PORT=3737
ARCHON_SERVER_PORT=8181
ARCHON_MCP_PORT=8051
ARCHON_AGENTS_PORT=8052
AGENT_WORK_ORDERS_PORT=8053

示例:使用不同端口:

ARCHON_SERVER_PORT=8282
ARCHON_MCP_PORT=8151

配置主机名

默认情况下,Archon 使用 localhost 作为主机名。您可以通过在 .env 文件中设置 HOST 变量来配置自定义主机名或 IP 地址:

# 主机名配置
HOST=localhost  # 默认

# 自定义主机名示例:
HOST=192.168.1.100     # 使用特定 IP 地址
HOST=archon.local      # 使用自定义域名
HOST=myserver.com      # 使用公共域名

这在以下情况下非常有用:

  • 在另一台机器上运行 Archon 并远程访问
  • 为您的安装使用自定义域名
  • 在无法访问 localhost 的网络环境中部署

更改主机名或端口后:

  1. 重启 Docker 容器:docker compose down && docker compose --profile full up -d
  2. 访问 UI:http://${HOST}:${ARCHON_UI_PORT}
  3. 使用新的主机名和 MCP 端口更新您的 AI 客户端配置

🔧 开发

快速入门

# 安装依赖
make install

# 启动开发(推荐)
make dev        # 后端在 Docker 中运行,前端本地热重载

# 替代方案:全部在 Docker 中运行
make dev-docker # 所有服务都在 Docker 中运行

# 停止所有服务(本地 FE 需手动停止)
make stop

开发模式

混合模式(推荐)- make dev

适用于需要即时前端更新的活跃开发:

  • 后端服务在 Docker 中运行(隔离、一致)
  • 前端在本地运行,支持热模块替换
  • 无需重建 Docker 即可实现即时 UI 更新

全 Docker 模式 - make dev-docker

适用于所有服务都在 Docker 环境中运行的情况:

  • 所有服务都在 Docker 容器中运行
  • 更适合集成测试
  • 前端更新速度较慢

测试与代码质量

# 运行测试
make test       # 运行所有测试
make test-fe    # 运行前端测试
make test-be    # 运行后端测试

# 运行 linter
make lint       # 检查所有代码
make lint-fe    # 检查前端代码
make lint-be    # 检查后端代码

# 检查环境
make check      # 验证环境设置

# 清理
make clean      # 删除容器和卷(需确认)

查看日志

# 使用 Docker Compose 直接查看日志
docker compose logs -f              # 所有服务
docker compose logs -f archon-server # API 服务器
docker compose logs -f archon-mcp    # MCP 服务器
docker compose logs -f archon-ui     # 前端

注意:后端服务在其 uvicorn 命令中配置了 --reload 标志,并将源代码以卷的形式挂载,以便在您进行更改时自动热重载。

故障排除

常见问题及解决方案

端口冲突

如果出现“端口已被占用”的错误:

# 检查哪个进程正在使用端口(例如 3737)
lsof -i :3737

# 停止所有容器和本地服务
make stop

# 在 .env 中更改端口

Docker 权限问题(Linux)

如果遇到 Docker 权限错误:

# 将您的用户添加到 docker 组
sudo usermod -aG docker $USER

# 注销并重新登录,或运行
newgrp docker

Windows 特定问题

  • 未找到 Make:通过 Chocolatey、Scoop 或 WSL2 安装 Make(参见 安装 Make
  • 换行符问题:将 Git 配置为使用 LF 结尾:
    git config --global core.autocrlf false
    

前端无法连接到后端

  • 检查后端是否正在运行:curl http://localhost:8181/health
  • 验证 .env 中的端口配置
  • 对于自定义端口,确保同时设置了 ARCHON_SERVER_PORTVITE_ARCHON_SERVER_PORT

Docker Compose 卡住

如果 docker compose 命令卡住:

# 重置 Docker Compose
docker compose down --remove-orphans
docker system prune -f

# 重启 Docker Desktop(如适用)

热重载不起作用

  • 前端:确保您处于混合模式(make dev)以获得最佳 HMR 体验
  • 后端:检查 docker-compose.yml 中卷是否正确挂载
  • 文件权限:在某些系统上,挂载的卷可能存在权限问题

📈 进展

Star History Chart

📄 许可证

Archon 社区许可证 (ACL) v1.2 - 详情请参阅 LICENSE 文件。

简而言之:Archon 是免费、开源且可随意修改的。您可以运行它、分叉它、分享它,但未经许可不得将其作为服务出售。

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|今天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

141.5k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|今天
开发框架图像Agent

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|今天
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|今天
开发框架图像Agent