opcode
opcode 是一款专为 Claude Code 打造的桌面级图形界面工具,旨在将原本依赖命令行的操作转化为直观、高效的视觉体验。它解决了开发者在使用 Claude Code 时面临的会话管理分散、缺乏可视化监控以及自定义代理配置复杂等痛点,让用户无需记忆繁琐指令即可轻松掌控开发流程。
这款软件非常适合希望提升 AI 辅助编程效率的软件开发者和工程师使用。通过 opcode,用户可以像浏览文件夹一样管理所有项目与历史会话,随时恢复中断的工作上下文;还能创建具备特定系统提示词的定制 AI 代理,并在后台安全运行以处理非阻塞任务。此外,它内置了详细的使用分析仪表盘,能实时追踪 API 消耗成本与 Token 用量,帮助团队优化预算。
在技术亮点方面,opcode 基于现代化的 Tauri 2 框架构建,不仅拥有轻量级的性能表现,还提供了对 MCP(模型上下文协议)服务器的原生支持,方便扩展 AI 能力边界。同时,它对 CLAUDE.md 配置文件的管理和时间轴检查点功能,让复杂的长周期开发任务变得井井有条。无论是日常编码还是构建自动化工作流,opcode 都能成为你得力的 AI 开发指挥中心。
使用场景
资深全栈开发者李明正在同时维护三个微服务项目,需要频繁切换上下文并利用 Claude Code 进行代码重构和 Bug 修复。
没有 opcode 时
- 会话管理混乱:只能依赖终端历史记录查找过往对话,一旦关闭窗口就难以恢复包含完整上下文的开发现场。
- 角色切换繁琐:每次让 AI 执行不同任务(如“单元测试”或“数据库迁移”)时,都要手动重复输入复杂的系统提示词来定义 AI 行为。
- 成本黑盒焦虑:无法实时查看各项目的 Token 消耗明细,往往在月底收到账单时才发现某个实验性项目耗资过高。
- 后台任务阻塞:运行耗时较长的代码生成任务时,终端被占用,无法并行处理其他紧急的开发指令。
使用 opcode 后
- 可视化断点续传:通过图形界面直观浏览所有项目会话,点击即可瞬间恢复之前的编码现场,无缝衔接中断的工作流。
- 自定义智能体库:预先配置好“测试专家”、“重构助手”等专用 Agent,一键调用即可让 AI 以特定专业角色投入工作,无需重复咒语。
- 实时成本看板:仪表盘清晰展示每个项目、每种模型的实时用量与费用趋势,帮助团队精准控制预算并及时优化策略。
- 无感后台执行:将耗时任务交给后台 Agent 独立运行,主界面保持流畅响应,实现多任务并行处理而不互相干扰。
opcode 将原本碎片化、黑盒化的命令行交互,升级为可视、可控且高效的 AI 研发指挥中心。
运行环境要求
- Windows 10/11
- macOS 11+
- Linux (Ubuntu 20.04+)
未说明
最低 4GB,推荐 8GB

快速开始

https://github.com/user-attachments/assets/6bceea0f-60b6-4c3e-a745-b891de00b8d0
[!TIP] ⭐ 给这个仓库点个赞,并在 X 上关注 @getAsterisk,抢先体验
asteria-swe-v0。
[!NOTE] 本项目与 Anthropic 无任何关联,未获其认可或赞助。Claude 是 Anthropic, PBC 的注册商标。本项目由独立开发者基于 Claude 进行开发。
🌟 概述
opcode 是一款功能强大的桌面应用,彻底革新了您与 Claude Code 的交互方式。基于 Tauri 2 构建,它提供了一个美观的图形界面,用于管理您的 Claude Code 会话、创建自定义智能体、跟踪使用情况等等。
您可以将 opcode 视为您管理 Claude Code 的指挥中心——它弥合了命令行工具与可视化体验之间的鸿沟,让 AI 辅助开发变得更加直观和高效。
📋 目录
✨ 特性
🗂️ 项目与会话管理
- 可视化项目浏览器:浏览您所有位于
~/.claude/projects/中的 Claude Code 项目 - 会话历史:查看并恢复过去的编码会话,保留完整上下文
- 智能搜索:通过内置搜索快速找到项目和会话
- 会话概览:一目了然地查看首次消息、时间戳和会话元数据
🤖 CC 智能体
- 自定义 AI 智能体:创建具有自定义系统提示和行为的专用智能体
- 智能体库:构建针对不同任务的专业智能体集合
- 后台执行:在独立进程中运行智能体,实现非阻塞操作
- 执行历史:记录所有智能体的运行情况,附带详细日志和性能指标
📊 使用分析仪表盘
- 费用跟踪:实时监控您的 Claude API 使用量和费用
- Token 分析:按模型、项目和时间段进行详细拆解
- 可视化图表:展示使用趋势和模式的精美图表
- 数据导出:导出使用数据用于会计和分析
🔌 MCP 服务器管理
- 服务器注册表:通过中央 UI 管理 Model Context Protocol 服务器
- 轻松配置:可通过 UI 添加服务器,或从现有配置中导入
- 连接测试:在使用前验证服务器连通性
- Claude Desktop 导入:从 Claude Desktop 导入服务器配置
⏰ 时间线与检查点
- 会话版本控制:可在编码会话中的任意时刻创建检查点
- 可视化时间线:通过分支式时间线导航会话历史
- 即时恢复:一键跳转回任意检查点
- 分支会话:从现有检查点创建新分支
- 差异查看器:清晰显示检查点之间的具体变化
📝 CLAUDE.md 管理
- 内置编辑器:直接在应用内编辑 CLAUDE.md 文件
- 实时预览:即时查看 Markdown 渲染效果
- 项目扫描:查找您所有项目中的 CLAUDE.md 文件
- 语法高亮:全面支持 Markdown 并提供语法高亮
📖 使用方法
快速入门
- 启动 opcode:安装完成后打开应用程序
- 欢迎界面:选择 CC 智能体或项目
- 首次设置:opcode 将自动检测您的
~/.claude目录
项目管理
项目 → 选择项目 → 查看会话 → 恢复或开始新会话
- 点击任意项目即可查看其会话
- 每个会话都会显示第一条消息和时间戳
- 可直接恢复会话,也可开始新的会话
创建智能体
CC 智能体 → 创建智能体 → 配置 → 执行
- 设计您的智能体:设置名称、图标和系统提示
- 选择模型:从可用的 Claude 模型中挑选
- 设置权限:配置文件读写和网络访问权限
- 执行任务:在任意项目上运行您的智能体
使用情况跟踪
菜单 → 使用仪表盘 → 查看分析
- 按模型、项目和日期监控费用
- 导出数据以生成报告
- 即将推出使用量警报功能
MCP 服务器操作
菜单 → MCP 管理器 → 添加服务器 → 配置
- 可手动添加服务器,也可通过 JSON 导入
- 支持从 Claude Desktop 配置中导入
- 在使用前测试连接
🚀 安装
先决条件
- Claude Code CLI:请从 Claude 官方网站 安装
正式发布版可执行文件即将上线
🔨 从源码构建
前置条件
在从源代码构建 opcode 之前,请确保已安装以下内容:
系统要求
- 操作系统:Windows 10/11、macOS 11+ 或 Linux(Ubuntu 20.04+)
- 内存:至少 4GB(建议 8GB)
- 存储空间:至少 1GB 可用空间
必需工具
Rust(1.70.0 或更高版本)
# 使用 rustup 安装 curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | shBun(最新版本)
# 安装 bun curl -fsSL https://bun.sh/install | bashGit
# 通常已预装,若未安装: # Ubuntu/Debian:sudo apt install git # macOS:brew install git # Windows:从 https://git-scm.com 下载Claude Code CLI
- 从 Claude 官方网站 下载并安装
- 确保
claude已添加到您的 PATH 中
平台特定依赖
Linux(Ubuntu/Debian)
# 安装系统依赖
sudo apt update
sudo apt install -y \
libwebkit2gtk-4.1-dev \
libgtk-3-dev \
libayatana-appindicator3-dev \
librsvg2-dev \
patchelf \
build-essential \
curl \
wget \
file \
libssl-dev \
libxdo-dev \
libsoup-3.0-dev \
libjavascriptcoregtk-4.1-dev
macOS
# 安装 Xcode 命令行工具
xcode-select --install
# 通过 Homebrew 安装额外依赖(可选)
brew install pkg-config
Windows
- 安装 Microsoft C++ 构建工具
- 安装 WebView2(通常 Windows 11 已预装)
构建步骤
克隆仓库
git clone https://github.com/getAsterisk/opcode.git cd opcode安装前端依赖
bun install构建应用程序
开发模式(支持热重载)
bun run tauri dev生产构建
# 构建应用程序 bun run tauri build # 构建后的可执行文件位于: # - Linux:src-tauri/target/release/ # - macOS:src-tauri/target/release/ # - Windows:src-tauri/target/release/平台特定构建选项
调试构建(编译更快,二进制文件更大)
bun run tauri build --debug适用于 macOS 的通用二进制文件(Intel + Apple Silicon)
bun run tauri build --target universal-apple-darwin
故障排除
常见问题
“cargo not found” 错误
- 确保 Rust 已安装,并且
~/.cargo/bin在您的 PATH 中 - 运行
source ~/.cargo/env或重启终端
- 确保 Rust 已安装,并且
Linux:“webkit2gtk not found” 错误
- 安装上述列出的 webkit2gtk 开发包
- 在较新的 Ubuntu 版本中,可能需要
libwebkit2gtk-4.0-dev
Windows:“MSVC not found” 错误
- 安装包含 C++ 支持的 Visual Studio 构建工具
- 安装后重启终端
“claude command not found” 错误
- 确保 Claude Code CLI 已安装并位于 PATH 中
- 使用
claude --version测试
构建因“内存不足”失败
- 尝试使用较少的并行任务进行构建:
cargo build -j 2 - 关闭其他应用程序以释放 RAM
- 尝试使用较少的并行任务进行构建:
验证构建结果
构建完成后,您可以验证应用程序是否正常运行:
# 直接运行构建后的可执行文件
# Linux/macOS
./src-tauri/target/release/opcode
# Windows
./src-tauri/target/release/opcode.exe
构建产物
构建过程会生成多个产物:
- 可执行文件:主 opcode 应用程序
- 安装程序(使用
tauri build时):.deb包(Linux).AppImage(Linux).dmg安装程序(macOS).msi安装程序(Windows).exe安装程序(Windows)
所有产物均位于 src-tauri/target/release/ 目录下。
🛠️ 开发
技术栈
- 前端:React 18 + TypeScript + Vite 6
- 后端:Rust 与 Tauri 2
- UI 框架:Tailwind CSS v4 + shadcn/ui
- 数据库:SQLite(通过 rusqlite)
- 包管理器:Bun
项目结构
opcode/
├── src/ # React 前端
│ ├── components/ # UI 组件
│ ├── lib/ # API 客户端及实用工具
│ └── assets/ # 静态资源
├── src-tauri/ # Rust 后端
│ ├── src/
│ │ ├── commands/ # Tauri 命令处理器
│ │ ├── checkpoint/ # 时间线管理
│ │ └── process/ # 进程管理
│ └── tests/ # Rust 测试套件
└── public/ # 公共资源
开发命令
# 启动开发服务器
bun run tauri dev
# 仅运行前端
bun run dev
# 类型检查
bunx tsc --noEmit
# 运行 Rust 测试
cd src-tauri && cargo test
# 格式化代码
cd src-tauri && cargo fmt
🔒 安全性
opcode 优先考虑您的隐私与安全:
- 进程隔离:代理在独立进程中运行
- 权限控制:可为每个代理配置文件和网络访问权限
- 本地存储:所有数据均保存在您的设备上
- 无遥测:不收集或追踪任何数据
- 开源:通过开源代码实现完全透明
🤝 贡献
我们欢迎您的贡献!请参阅我们的 贡献指南 以获取详细信息。
贡献领域
- 🐛 Bug 修复与改进
- ✨ 新功能与增强
- 📚 文档改进
- 🎨 UI/UX 优化
- 🧪 测试覆盖率提升
- 🌐 国际化支持
📄 许可证
本项目采用 AGPL 许可证授权——详情请参阅 LICENSE 文件。
🙏 致谢
星标历史
版本历史
v0.2.02025/08/31v0.1.02025/08/15常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
