[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ghostwright--ghost-os":3,"tool-ghostwright--ghost-os":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":151},6649,"ghostwright\u002Fghost-os","ghost-os","Full computer-use for AI agents. Self-learning workflows. Native macOS. No screenshots required.","Ghost OS 是一款专为 macOS 设计的开源工具，旨在赋予 AI 代理真正操作电脑的能力。以往，AI 助手通常局限于聊天窗口内，无法直接点击按钮、填写表单或操控外部应用；Ghost OS 打破了这一限制，让 AI 能够像人类一样“看见”并操作你 Mac 上的任何软件，且无需依赖传统的屏幕截图技术。\n\n它特别适合开发者、自动化研究人员以及希望构建深度集成工作流的进阶用户。通过原生支持 macOS 辅助功能树（Accessibility Tree），Ghost OS 能精准理解界面元素，不仅实现了低延迟的交互控制，还保护了用户隐私。其核心亮点在于独特的“自学习食谱”功能：用户只需手动演示一次任务（如发送邮件），Ghost OS 便能记录操作序列并自动生成可重复执行的参数化流程，让 AI 学会复杂的多步骤工作。此外，它与 Shadow（提供本地记忆与智能）和 Specter（提供独立部署环境）组成的生态体系，共同构建了完全本地化、可信赖的自主智能体基础设施，让 AI 从单纯的对话者进化为真正的执行者。","\u003Cp align=\"center\">\n  \u003Cimg src=\"logo-animated.svg\" width=\"160\" alt=\"Ghost OS\">\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fshadow\u002Fmain\u002Flogo-animated.svg\" width=\"160\" alt=\"Shadow\">\u003C\u002Fa>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fspecter\u002Fmain\u002Flogo-animated.svg\" width=\"160\" alt=\"Specter\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">Ghost OS\u003C\u002Fh1>\n\u003Cp align=\"center\">\u003Cem>Full computer-use for AI agents.\u003C\u002Fem>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"LICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-blue.svg\" alt=\"MIT License\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-macOS%2014%2B-black.svg\" alt=\"macOS 14+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fswift-6.2-orange.svg\" alt=\"Swift 6.2\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMCP-compatible-green.svg\" alt=\"MCP Compatible\">\n\u003C\u002Fp>\n\n---\n\nYour AI agent can write code, run tests, search files. But it can't click a button, send an email, or fill out a form. It lives inside a chat box.\n\nGhost OS changes that. One install, and any AI agent can see and operate every app on your Mac.\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"120\" align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fspecter\u002Fmain\u002Flogo-animated.svg\" width=\"80\" alt=\"Specter\">\u003C\u002Fa>\n\u003C\u002Ftd>\n\u003Ctd>\n\n### Meet [Specter](https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter)\n\nGhost OS gives AI agents eyes and hands. Shadow gives them memory. Specter gives them a home.\n\nDeploy persistent AI agents to dedicated VMs in 90 seconds. Automatic DNS, TLS, systemd hardening. Interactive TUI dashboard. You own the infrastructure.\n\n*AI agents that earn your trust.*\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"120\" align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fshadow\u002Fmain\u002Flogo-animated.svg\" width=\"80\" alt=\"Shadow\">\u003C\u002Fa>\n\u003C\u002Ftd>\n\u003Ctd>\n\n### Meet [Shadow](https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow)\n\nShadow is the other half of the story. Ghost OS gives AI agents eyes and hands on your Mac. Shadow gives them memory and intelligence.\n\n14-modality capture. Proactive suggestions. Episode generation. On-device LLM inference. Computer-use training data. All local, all open source.\n\n*Your computer was paying attention the whole time.*\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### What's New &nbsp; \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fv2.2.1-March%202026-brightgreen.svg\" alt=\"v2.2.1\">\n\n**Self-learning recipes.** Show Ghost OS how to do something once, and it remembers forever.\n\n- **`ghost_learn_start`** -- Begin watching the user perform a task\n- **`ghost_learn_stop`** -- Stop and return the enriched action sequence\n- **`ghost_learn_status`** -- Check recording progress\n\nThe user performs the task manually (clicking, typing, switching apps). Ghost OS observes every action through a CGEvent tap enriched with accessibility tree context. Claude synthesizes the raw observation into a parameterized, replayable recipe.\n\nNo screenshots needed. No vision model. Just the accessibility tree and your keyboard\u002Fmouse.\n\n```\nUser:    \"Watch me send an email.\"\nAgent:   ghost_learn_start task_description:\"send email in Gmail\"\n         ...user performs the task...\nAgent:   ghost_learn_stop\n         -> 8 actions with full AX context\n         -> Synthesizes recipe with 3 parameters: recipient, subject, body\n         -> ghost_recipe_save\nUser:    \"Send an email to bob about the Q4 report\"\nAgent:   ghost_run recipe:\"gmail-send-learned\" params:{...}\n```\n\nRequires Input Monitoring permission (System Settings > Privacy & Security > Input Monitoring). Run `ghost setup` to configure.\n\n\u003Cdetails>\n\u003Csummary>Previous: v2.1.2\u003C\u002Fsummary>\n\n4 new tools. ghost_annotate, ghost_hover, ghost_long_press, ghost_drag. Pinned vision sidecar dependencies, fixed vision model download, Chinese\u002FCJK input support (thanks [@junshi5218](https:\u002F\u002Fgithub.com\u002Fjunshi5218)).\n\n\u003C\u002Fdetails>\n\nThank you to the 500+ people who have starred this project. You are why we keep building. If you want to contribute directly, we would love that. See [CONTRIBUTING.md](CONTRIBUTING.md).\n\n```\nYou:     \"Send an email to sarah@company.com about the Q4 report\"\nAgent:   ghost_run recipe:\"gmail-send\" params:{recipient, subject, body}\n         → Compose opens, fields fill, email sends. Done.\n```\n\n### Setup\n![Ghost OS Setup Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_1181133b0c20.gif)\n\n### Recipes in Action\nSend emails and download papers. Any app. Any workflow.\n\n![Ghost OS Recipes Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_88447785ed7e.gif)\n\n### Beyond the Browser\nSlack messages, Finder folders — Ghost OS operates native macOS apps, not just browsers.\n\n![Ghost OS Slack + Finder Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_c209878dde93.gif)\n\n## Why Ghost OS?\n\nOther computer-use tools take screenshots and guess what's on screen. Ghost OS reads the macOS accessibility tree — structured, labeled data about every element in every app. When the AX tree isn't enough (web apps, dynamic content), it falls back to a local vision model (ShowUI-2B) for visual grounding.\n\nAnd when it figures out a workflow, it saves it. Other tools repeat the same expensive reasoning every time.\n\n- **Self-learning** — A frontier model figures out the workflow once. A small model runs it forever.\n- **Transparent** — Recipes are JSON. Read every step before running. No black box.\n- **Native** — Accessibility tree first. Vision fallback when needed. Structured data over pixel guessing.\n- **Any app** — Not just browsers. Slack, Finder, Messages — anything on your Mac.\n- **Local** — Your data never leaves your machine.\n- **Open** — MCP protocol. Works with Claude Code, Cursor, VS Code, or any MCP client.\n\n| | | Ghost OS | Anthropic Computer Use | OpenAI Operator | OpenClaw |\n|:---:|------|:--:|:--:|:--:|:--:|\n| 👀 | **How it sees** | Accessibility tree + local VLM | Screenshots only | Screenshots only | Browser DOM |\n| 🖥️ | **Native apps** | Any macOS app | Any (via pixels) | Browser only | Browser only |\n| 🧠 | **Learns workflows** | JSON recipes | No | No | No |\n| 🔒 | **Data stays local** | Yes | Depends on setup | No (cloud) | Yes |\n| 📖 | **Open source** | MIT | No | No | MIT |\n\n## Install\n\n```bash\nbrew install ghostwright\u002Fghost-os\u002Fghost-os\nghost setup\n```\n\nThat's it. `ghost setup` handles permissions, MCP configuration, recipe installation, and vision model setup.\n\n\u003Cdetails>\n\u003Csummary>macOS beta? Use the manual install instead.\u003C\u002Fsummary>\n\nHomebrew has a known issue on macOS developer betas where it demands an Xcode version that doesn't exist yet. If `brew install` fails, install directly:\n\n```bash\ncurl -sL https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Flatest\u002Fdownload\u002Fghost-os-2.2.1-macos-arm64.tar.gz | tar xz\nsudo cp ghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp ghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo mkdir -p \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\nsudo cp GHOST-MCP.md \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r recipes \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r vision-sidecar \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nghost setup\n```\n\n\u003C\u002Fdetails>\n\n## How It Works\n\nGhost OS connects to your AI agent through [MCP](https:\u002F\u002Fmodelcontextprotocol.io) and gives it 29 tools to see and operate your Mac. It reads the macOS accessibility tree for structured data about every app. For web apps where the AX tree falls short (Gmail, Slack), a local vision model (ShowUI-2B) finds elements visually. Click, type, hover, drag, scroll, press keys, manage windows. Any app, not just browsers.\n\n```\nYou:     \"Download the latest paper on chain-of-thought prompting from arXiv\"\nAgent:   ghost_run recipe:\"arxiv-download\" params:{query:\"chain of thought prompting\"}\n         → Navigates to arXiv, searches, opens PDF, downloads to Desktop. Done.\n```\n\nWorks with Claude Code, Cursor, VS Code, or anything that speaks MCP.\n\n## Recipes\n\nWhen your agent figures out a workflow, it saves it as a recipe. A recipe is a JSON file with steps, parameters, and wait conditions. Transparent and auditable.\n\n**A frontier model figures out the workflow once. A small model runs it forever.**\n\n```bash\n# One command sends an email\nghost_run recipe:\"gmail-send\" params:{\"recipient\":\"hello@example.com\",\"subject\":\"Hello\",\"body\":\"World\"}\n\n# 7 steps, 30 seconds, 100% reliable\n```\n\n- Recipes are just JSON. Read every step before running.\n- Share with your team. One person learns the workflow, everyone benefits.\n- Chain recipes together. The agent knows when to call what.\n- Write once with Claude or GPT-4. Run forever with Haiku.\n\n## 29 Tools\n\n| | Tool | What it does |\n|:---:|------|-------------|\n| 🔍 | `ghost_context` | Get the current app, window title, URL, focused element, and all interactive elements on screen |\n| 🔍 | `ghost_state` | List every running app with its windows, positions, and sizes |\n| 🔍 | `ghost_find` | Search for elements by name, role, DOM id, or CSS class across the entire UI |\n| 🔍 | `ghost_read` | Extract text content from any app, with depth control for nested content |\n| 🔍 | `ghost_inspect` | Get complete metadata for one element: role, position, actions, DOM id, editable state |\n| 🔍 | `ghost_element_at` | Identify what element is at a specific screen coordinate |\n| 📸 | `ghost_screenshot` | Capture a window screenshot for visual debugging |\n| 📸 | `ghost_annotate` | Screenshot with numbered labels on interactive elements and click coordinates |\n| 👁️ | `ghost_ground` | Find element coordinates using vision (ShowUI-2B). Works when AX tree can't find web elements |\n| 👁️ | `ghost_parse_screen` | Detect all interactive elements via vision |\n| 🎯 | `ghost_click` | Click an element by name, DOM id, or screen coordinates |\n| 🎯 | `ghost_hover` | Move cursor to an element or position to trigger tooltips and hover effects |\n| 🎯 | `ghost_long_press` | Press and hold for context menus, Force Touch previews, and drag initiation |\n| 🎯 | `ghost_drag` | Drag from one point to another for file moves, sliders, list reordering, text selection |\n| ⌨️ | `ghost_type` | Type text into a specific field by name, or at the current cursor |\n| ⌨️ | `ghost_press` | Press a single key like Return, Tab, Escape, or arrow keys |\n| ⌨️ | `ghost_hotkey` | Press key combinations like Cmd+L, Cmd+Return, Cmd+Shift+P |\n| 🎯 | `ghost_scroll` | Scroll up, down, left, or right in any app window |\n| 🪟 | `ghost_focus` | Bring any app or specific window to the front |\n| 🪟 | `ghost_window` | Minimize, maximize, close, move, or resize any window |\n| ⏳ | `ghost_wait` | Wait for a URL change, element to appear or disappear, or title change |\n| 📦 | `ghost_recipes` | List all installed recipes with descriptions and parameters |\n| ▶️ | `ghost_run` | Execute a recipe with parameter substitution |\n| 📦 | `ghost_recipe_show` | View the full steps and configuration of a recipe |\n| 📦 | `ghost_recipe_save` | Install a new recipe from JSON |\n| 📦 | `ghost_recipe_delete` | Remove an installed recipe |\n| 🎓 | `ghost_learn_start` | Start observing the user's actions for workflow learning |\n| 🎓 | `ghost_learn_stop` | Stop observing and return the enriched action sequence |\n| 🎓 | `ghost_learn_status` | Check if learning mode is active and recording stats |\n\n## Diagnostics\n\n```bash\n$ ghost doctor\n\n  [ok] Accessibility: granted\n  [ok] Screen Recording: granted\n  [ok] Input Monitoring: granted (for learning mode)\n  [ok] Processes: 1 ghost MCP process\n  [ok] MCP Config: ghost-os configured\n  [ok] Recipes: 5 installed\n  [ok] AX Tree: 12\u002F12 apps readable\n  [ok] ghost-vision: \u002Fopt\u002Fhomebrew\u002Fbin\u002Fghost-vision\n  [ok] ShowUI-2B model: ~\u002F.ghost-os\u002Fmodels\u002FShowUI-2B (3.0 GB)\n  [ok] Vision Sidecar: not running (auto-starts when needed)\n\n  All checks passed. Ghost OS is healthy.\n```\n\n## Build From Source\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os.git\ncd ghost-os\nswift build\n.build\u002Fdebug\u002Fghost setup\n```\n\nRequires Swift 6.2+ and macOS 14+.\n\n## Architecture\n\n```\nAI Agent (Claude Code, Cursor, any MCP client)\n    │\n    │ MCP Protocol (stdio)\n    │\nGhost OS MCP Server (Swift)\n    │\n    ├── Perception ──── see what's on screen (AX tree)\n    ├── Vision ──────── visual grounding (ShowUI-2B, local)\n    ├── Actions ─────── click, type, scroll, keys\n    ├── Recipes ─────── self-learning workflows\n    └── AXorcist ────── macOS accessibility engine\n```\n\n~7,000 lines of Swift + Python vision sidecar. Built on [AXorcist](https:\u002F\u002Fgithub.com\u002Fsteipete\u002FAXorcist) by [@steipete](https:\u002F\u002Fgithub.com\u002Fsteipete).\n\n## Contributing\n\nSee [CONTRIBUTING.md](CONTRIBUTING.md). We need recipes for more apps, testing on different setups, and bug reports. If you're building AI agents that do real things, this is the project.\n\n## Contributors\n\nThanks to everyone who has contributed to Ghost OS.\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_21bcd49ba964.png\" \u002F>\n\u003C\u002Fa>\n\n## License\n\nMIT\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"logo-animated.svg\" width=\"160\" alt=\"Ghost OS\">\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fshadow\u002Fmain\u002Flogo-animated.svg\" width=\"160\" alt=\"Shadow\">\u003C\u002Fa>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fspecter\u002Fmain\u002Flogo-animated.svg\" width=\"160\" alt=\"Specter\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">Ghost OS\u003C\u002Fh1>\n\u003Cp align=\"center\">\u003Cem>为AI智能体提供完整的计算机操作能力。\u003C\u002Fem>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"LICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-blue.svg\" alt=\"MIT License\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-macOS%2014%2B-black.svg\" alt=\"macOS 14+\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fswift-6.2-orange.svg\" alt=\"Swift 6.2\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMCP-compatible-green.svg\" alt=\"MCP Compatible\">\n\u003C\u002Fp>\n\n---\n\n你的AI智能体可以编写代码、运行测试、搜索文件，但它无法点击按钮、发送邮件或填写表格。它只能待在聊天框里。\n\nGhost OS改变了这一切。只需一次安装，任何AI智能体都能看到并操作你Mac上的每一款应用。\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"120\" align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fspecter\u002Fmain\u002Flogo-animated.svg\" width=\"80\" alt=\"Specter\">\u003C\u002Fa>\n\u003C\u002Ftd>\n\u003Ctd>\n\n### 认识[Specter](https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fspecter)\n\nGhost OS为AI智能体提供了“眼睛”和“双手”。Shadow为它们提供了记忆。而Specter则为它们打造了一个家园。\n\n在90秒内将持久化的AI智能体部署到专用的虚拟机中。自动DNS、TLS加密、systemd加固。交互式TUI仪表盘。基础设施完全由你掌控。\n\n*值得信赖的AI智能体。*\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"120\" align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow\">\u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fghostwright\u002Fshadow\u002Fmain\u002Flogo-animated.svg\" width=\"80\" alt=\"Shadow\">\u003C\u002Fa>\n\u003C\u002Ftd>\n\u003Ctd>\n\n### 认识[Shadow](https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fshadow)\n\nShadow是故事的另一面。Ghost OS让AI智能体在你的Mac上拥有“眼睛”和“双手”，而Shadow则赋予它们记忆与智慧。\n\n14种模态的数据采集。主动建议。会话片段生成。设备端LLM推理。计算机使用训练数据。所有功能均本地运行，且全部开源。\n\n*你的电脑一直在默默关注着你。*\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### 最新动态 &nbsp; \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fv2.2.1-March%202026-brightgreen.svg\" alt=\"v2.2.1\">\n\n**自学习配方。** 向Ghost OS展示一次如何完成某项任务，它便会永久记住。\n\n- **`ghost_learn_start`** -- 开始观察用户执行任务\n- **`ghost_learn_stop`** -- 停止并返回增强后的动作序列\n- **`ghost_learn_status`** -- 检查录制进度\n\n用户手动完成任务（点击、输入、切换应用）。Ghost OS通过CGEvent监听器，并结合辅助功能树上下文，观察每一个动作。Claude将原始观测结果合成一个可参数化、可重复执行的配方。\n\n无需截图，也不需要视觉模型，仅依靠辅助功能树以及你的键盘和鼠标即可。\n\n```\n用户:    \"看我发一封邮件。\"\n智能体:   ghost_learn_start task_description:\"在Gmail中发送邮件\"\n         ...用户执行任务...\n智能体:   ghost_learn_stop\n         -> 8个带有完整AX上下文的动作\n         -> 合成包含3个参数的配方：收件人、主题、正文\n         -> ghost_recipe_save\n用户:    \"给bob发一封关于Q4报告的邮件\"\n智能体:   ghost_run recipe:\"gmail-send-learned\" params:{...}\n```\n\n需要输入监控权限（系统设置 > 隐私与安全性 > 输入监控）。请运行`ghost setup`进行配置。\n\n\u003Cdetails>\n\u003Csummary>上一版本：v2.1.2\u003C\u002Fsummary>\n\n新增4个工具：ghost_annotate、ghost_hover、ghost_long_press、ghost_drag。固定了视觉侧车依赖项，修复了视觉模型下载问题，并支持中文\u002FCJK输入（感谢[@junshi5218](https:\u002F\u002Fgithub.com\u002Fjunshi5218)）。\n\n\u003C\u002Fdetails>\n\n感谢超过500位为本项目点赞的朋友们。正是你们的支持让我们不断前行。如果你希望直接参与贡献，我们非常欢迎。详情请参阅[CONTRIBUTING.md](CONTRIBUTING.md)。\n\n```\n你:     \"给sarah@company.com发一封关于Q4报告的邮件\"\n智能体:   ghost_run recipe:\"gmail-send\" params:{recipient, subject, body}\n         → 邮件编辑界面打开，字段自动填充，邮件成功发送。完成。\n```\n\n### 安装\n![Ghost OS安装演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_1181133b0c20.gif)\n\n### 配方实战\n发送邮件、下载论文——任何应用，任何流程。\n\n![Ghost OS配方演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_88447785ed7e.gif)\n\n### 超越浏览器\nSlack消息、Finder文件夹——Ghost OS操作的是原生macOS应用，而不仅仅是浏览器。\n\n![Ghost OS Slack + Finder演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_c209878dde93.gif)\n\n## 为什么选择Ghost OS？\n\n其他计算机使用工具通常截屏后猜测屏幕内容，而Ghost OS则直接读取macOS的辅助功能树——这是一种结构化、带标签的数据，描述了每个应用中的每一个元素。当辅助功能树不足以解决问题时（如网页应用或动态内容），它会回退到本地视觉模型（ShowUI-2B）进行视觉定位。\n\n一旦识别出工作流程，Ghost OS就会将其保存下来。而其他工具每次都需要重新进行昂贵的推理计算。\n\n- **自学习** — 由前沿模型一次性确定工作流程，再由小型模型长期执行。\n- **透明** — 配方以JSON格式呈现，每一步都清晰可见，不存在黑箱操作。\n- **原生** — 优先使用辅助功能树，必要时才回退到视觉模型。以结构化数据代替像素级猜测。\n- **适用于任何应用** — 不限于浏览器。Slack、Finder、Messages等，你Mac上的任何应用都可以操作。\n- **本地运行** — 你的数据始终保留在本地设备上。\n- **开源** — 使用MCP协议，可与Claude Code、Cursor、VS Code或其他MCP客户端无缝对接。\n\n| | | Ghost OS | Anthropic Computer Use | OpenAI Operator | OpenClaw |\n|:---:|------|:--:|:--:|:--:|:--:|\n| 👀 | **感知方式** | 辅助功能树 + 本地VLM | 仅截图 | 仅截图 | 浏览器DOM |\n| 🖥️ | **原生应用支持** | 任何macOS应用 | 任何应用（基于像素） | 仅浏览器 | 仅浏览器 |\n| 🧠 | **学习工作流程** | JSON配方 | 否 | 否 | 否 |\n| 🔒 | **数据本地性** | 是 | 取决于配置 | 否（云端） | 是 |\n| 📖 | **开源** | MIT | 否 | 否 | MIT |\n\n## 安装\n\n```bash\nbrew install ghostwright\u002Fghost-os\u002Fghost-os\nghost setup\n```\n\n就是这样。`ghost setup` 会处理权限、MCP 配置、配方安装以及视觉模型的设置。\n\n\u003Cdetails>\n\u003Csummary>使用 macOS 测试版？请改用手动安装。\u003C\u002Fsummary>\n\nHomebrew 在 macOS 开发者测试版上存在一个已知问题，它会要求一个尚未发布的 Xcode 版本。如果 `brew install` 失败，请直接安装：\n\n```bash\ncurl -sL https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Flatest\u002Fdownload\u002Fghost-os-2.2.1-macos-arm64.tar.gz | tar xz\nsudo cp ghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp ghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo mkdir -p \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\nsudo cp GHOST-MCP.md \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r recipes \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r vision-sidecar \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nghost setup\n```\n\n\u003C\u002Fdetails>\n\n## 工作原理\n\nGhost OS 通过 [MCP](https:\u002F\u002Fmodelcontextprotocol.io) 连接到你的 AI 助手，并为其提供 29 种工具，使其能够查看并操作你的 Mac。它会读取 macOS 的辅助功能树，获取关于每个应用的结构化数据。对于 AX 树无法充分覆盖的 Web 应用（如 Gmail、Slack），本地视觉模型（ShowUI-2B）会从视觉上识别元素。点击、输入、悬停、拖拽、滚动、按键、管理窗口——无论什么应用，而不仅限于浏览器。\n\n```\n你：     “从 arXiv 下载最新的关于思维链提示的论文”\n助手：   ghost_run recipe:\"arxiv-download\" params:{query:\"chain of thought prompting\"}\n         → 导航到 arXiv，搜索，打开 PDF，下载到桌面。完成。\n```\n\n它可以与 Claude Code、Cursor、VS Code 或任何支持 MCP 协议的工具一起工作。\n\n## 配方\n\n当你的助手找到一个工作流程时，它会将其保存为配方。配方是一个包含步骤、参数和等待条件的 JSON 文件。透明且可审计。\n\n**由前沿模型一次性确定工作流程，再由小型模型永久执行。**\n\n```bash\n# 一条命令即可发送邮件\nghost_run recipe:\"gmail-send\" params:{\"recipient\":\"hello@example.com\",\"subject\":\"Hello\",\"body\":\"World\"}\n\n# 7 步骤，30 秒，100% 可靠\n```\n\n- 配方只是 JSON 文件。运行前请仔细阅读每一步。\n- 可以与团队共享。只需一人学习工作流程，全员受益。\n- 可以将多个配方串联起来。助手会知道何时调用哪个配方。\n- 使用 Claude 或 GPT-4 编写一次，然后用 Haiku 永久执行。\n\n## 29 种工具\n\n| | 工具 | 作用 |\n|:---:|------|-------------|\n| 🔍 | `ghost_context` | 获取当前应用、窗口标题、URL、焦点元素以及屏幕上所有可交互元素 |\n| 🔍 | `ghost_state` | 列出所有正在运行的应用及其窗口、位置和大小 |\n| 🔍 | `ghost_find` | 在整个 UI 中按名称、角色、DOM ID 或 CSS 类搜索元素 |\n| 🔍 | `ghost_read` | 从任何应用中提取文本内容，可控制嵌套内容的深度 |\n| 🔍 | `ghost_inspect` | 获取单个元素的完整元数据：角色、位置、可用操作、DOM ID、是否可编辑 |\n| 🔍 | `ghost_element_at` | 确定特定屏幕坐标处的元素 |\n| 📸 | `ghost_screenshot` | 拍摄窗口截图，用于视觉调试 |\n| 📸 | `ghost_annotate` | 对可交互元素和点击坐标进行编号标注的截图 |\n| 👁️ | `ghost_ground` | 使用视觉技术（ShowUI-2B）查找元素坐标。在 AX 树无法识别 Web 元素时有效 |\n| 👁️ | `ghost_parse_screen` | 通过视觉检测所有可交互元素 |\n| 🎯 | `ghost_click` | 按名称、DOM ID 或屏幕坐标点击元素 |\n| 🎯 | `ghost_hover` | 将光标移动到元素或位置上，以触发工具提示和悬停效果 |\n| 🎯 | `ghost_long_press` | 长按以显示上下文菜单、Force Touch 预览或开始拖拽 |\n| 🎯 | `ghost_drag` | 从一点拖拽到另一点，用于文件移动、滑块操作、列表排序或文本选择 |\n| ⌨️ | `ghost_type` | 按名称将文本输入到特定字段，或在当前光标位置输入 |\n| ⌨️ | `ghost_press` | 按下单个键，如 Return、Tab、Escape 或方向键 |\n| ⌨️ | `ghost_hotkey` | 按下组合键，如 Cmd+L、Cmd+Return、Cmd+Shift+P |\n| 🎯 | `ghost_scroll` | 在任何应用窗口中向上、向下、向左或向右滚动 |\n| 🪟 | `ghost_focus` | 将任意应用或特定窗口置于最前面 |\n| 🪟 | `ghost_window` | 最小化、最大化、关闭、移动或调整任意窗口的大小 |\n| ⏳ | `ghost_wait` | 等待 URL 变化、元素出现或消失，或标题变化 |\n| 📦 | `ghost_recipes` | 列出所有已安装的配方及其描述和参数 |\n| ▶️ | `ghost_run` | 执行配方并替换参数 |\n| 📦 | `ghost_recipe_show` | 查看配方的完整步骤和配置 |\n| 📦 | `ghost_recipe_save` | 从 JSON 安装新配方 |\n| 📦 | `ghost_recipe_delete` | 删除已安装的配方 |\n| 🎓 | `ghost_learn_start` | 开始观察用户的操作以学习工作流程 |\n| 🎓 | `ghost_learn_stop` | 停止观察并返回丰富后的操作序列 |\n| 🎓 | `ghost_learn_status` | 检查学习模式是否处于激活状态及记录的统计数据 |\n\n## 诊断\n\n```bash\n$ ghost doctor\n\n  [ok] 辅助功能：已授权\n  [ok] 屏幕录制：已授权\n  [ok] 输入监控：已授权（用于学习模式）\n  [ok] 进程：1 个 ghost MCP 进程\n  [ok] MCP 配置：ghost-os 已配置\n  [ok] 配方：5 个已安装\n  [ok] AX 树：12\u002F12 个应用可读\n  [ok] ghost-vision：\u002Fopt\u002Fhomebrew\u002Fbin\u002Fghost-vision\n  [ok] ShowUI-2B 模型：~\u002F.ghost-os\u002Fmodels\u002FShowUI-2B（3.0 GB）\n  [ok] 视觉 Sidecar：未运行（将在需要时自动启动）\n\n  所有检查均通过。Ghost OS 运行正常。\n```\n\n## 从源码构建\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os.git\ncd ghost-os\nswift build\n.build\u002Fdebug\u002Fghost setup\n```\n\n需要 Swift 6.2 及以上版本和 macOS 14 及以上版本。\n\n## 架构\n\n```\nAI 助手（Claude Code、Cursor、任何 MCP 客户端）\n    │\n    │ MCP 协议（stdio）\n    │\nGhost OS MCP 服务器（Swift）\n    │\n    ├── 感知 ──── 查看屏幕上的内容（AX 树）\n    ├── 视觉 ───── 视觉定位（ShowUI-2B，本地）\n    ├── 行动 ───── 点击、输入、滚动、按键\n    ├── 配方 ───── 自学习的工作流程\n    └── AXorcist ─── macOS 辅助功能引擎\n```\n\n约 7,000 行 Swift 代码加上 Python 视觉 Sidecar。基于 [@steipete](https:\u002F\u002Fgithub.com\u002Fsteipete) 的 [AXorcist](https:\u002F\u002Fgithub.com\u002Fsteipete\u002FAXorcist) 构建。\n\n## 贡献\n\n请参阅 [CONTRIBUTING.md](CONTRIBUTING.md)。我们需要更多应用的配方、不同环境下的测试以及错误报告。如果你正在构建能够真正做事的 AI 助手，那么这就是你需要的项目。\n\n## 贡献者\n\n感谢所有为 Ghost OS 做出贡献的人。\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_readme_21bcd49ba964.png\" \u002F>\n\u003C\u002Fa>\n\n## 许可证\n\nMIT","# Ghost OS 快速上手指南\n\nGhost OS 是一款专为 macOS 设计的开源工具，赋予 AI 智能体（Agent）“眼睛”和“双手”，使其能够直接操作本地应用程序（如 Slack、Finder、浏览器等），而不仅限于聊天窗口。它通过读取 macOS 辅助功能树（Accessibility Tree）结合本地视觉模型，实现安全、透明且可学习的自动化工作流。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：macOS 14.0 (Sonoma) 或更高版本。\n*   **架构支持**：Apple Silicon (ARM64) 或 Intel Mac。\n*   **构建依赖**（仅源码编译时需要）：Swift 6.2+。\n*   **客户端工具**：需配合支持 MCP (Model Context Protocol) 的 AI 客户端使用，例如 Claude Code、Cursor 或 VS Code。\n\n## 安装步骤\n\n推荐使用 Homebrew 进行一键安装，这是最简便的方式。\n\n### 方法一：Homebrew 安装（推荐）\n\n1.  打开终端，运行以下命令添加源并安装：\n    ```bash\n    brew install ghostwright\u002Fghost-os\u002Fghost-os\n    ```\n\n2.  初始化配置（自动处理权限、MCP 配置及模型下载）：\n    ```bash\n    ghost setup\n    ```\n    *注意：运行此命令后，系统可能会弹出“输入监控”、“辅助功能”和“屏幕录制”的权限请求，请务必在“系统设置 > 隐私与安全性”中全部允许，否则工具无法正常工作。*\n\n### 方法二：手动安装（适用于 macOS Beta 版用户）\n\n如果 Homebrew 在开发者预览版系统中报错，可使用以下手动安装脚本：\n\n```bash\ncurl -sL https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Flatest\u002Fdownload\u002Fghost-os-2.2.1-macos-arm64.tar.gz | tar xz\nsudo cp ghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp ghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo mkdir -p \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\nsudo cp GHOST-MCP.md \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r recipes \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp -r vision-sidecar \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nghost setup\n```\n\n### 验证安装\n\n运行诊断命令检查所有权限和服务状态：\n```bash\nghost doctor\n```\n若输出显示所有项均为 `[ok]`，则表示安装成功。\n\n## 基本使用\n\nGhost OS 的核心在于让 AI 智能体通过 MCP 协议调用其提供的 29 个工具来操作电脑。以下是两种主要的使用场景：\n\n### 1. 连接 AI 智能体执行任务\n\n配置好 MCP 后，您可以在支持的 AI 客户端（如 Cursor 或 Claude Code）中直接下达自然语言指令。Ghost OS 会自动解析并操作界面。\n\n**示例场景：下载论文**\n用户在对话框中输入：\n> \"Download the latest paper on chain-of-thought prompting from arXiv\"\n\nAI 智能体将自动调用 `ghost_run` 执行预置的食谱（Recipe）：\n```text\nAgent: ghost_run recipe:\"arxiv-download\" params:{query:\"chain of thought prompting\"}\n→ 自动导航至 arXiv，搜索关键词，打开 PDF 并下载到桌面。\n```\n\n### 2. 手动调用工具与自学习模式\n\n您也可以直接在终端或通过 MCP 调试工具调用具体命令。Ghost OS 最大的亮点是**自学习（Self-learning）**功能：您可以演示一次操作，它会记录并生成可复用的 JSON 食谱。\n\n**开启学习模式：**\n告诉 AI 开始观察您的操作：\n```bash\n# AI 调用此工具开始记录\nghost_learn_start task_description:\"send email in Gmail\"\n```\n\n**执行操作：**\n此时，请您手动在电脑上完成一次完整任务（例如：打开 Gmail -> 点击撰写 -> 填写收件人\u002F主题\u002F正文 -> 发送）。Ghost OS 会通过 CGEvent 监听并记录每一步的辅助功能上下文。\n\n**结束学习并保存：**\n完成任务后，通知 AI 停止记录：\n```bash\n# AI 调用此工具停止记录并合成食谱\nghost_learn_stop\n```\n系统将自动生成一个包含参数（如收件人、主题）的 JSON 食谱。下次只需运行：\n```bash\nghost_run recipe:\"gmail-send-learned\" params:{recipient:\"bob@example.com\", subject:\"Report\", body:\"...\"}\n```\n即可自动重放该流程。\n\n### 核心工具速查\n\nGhost OS 提供了一系列精细的控制工具，常用包括：\n\n*   `ghost_context`: 获取当前应用、窗口标题及屏幕上所有可交互元素。\n*   `ghost_click`: 点击指定名称、ID 或坐标的元素。\n*   `ghost_type`: 向指定字段输入文本。\n*   `ghost_screenshot`: 截取当前窗口用于视觉调试。\n*   `ghost_ground`: 当辅助功能树无法识别时（如复杂网页），使用本地视觉模型定位元素坐标。\n\n通过以上步骤，您已可以让 AI 真正“操作”您的 Mac，实现从代码编写到应用交互的全流程自动化。","某初创公司的运营主管每天需手动处理数十条来自不同渠道的客户反馈，将其整理并录入内部 CRM 系统，同时发送个性化回复邮件。\n\n### 没有 ghost-os 时\n- **操作断层**：AI 助手只能生成回复草稿或提取关键信息，无法直接点击浏览器按钮、切换标签页或在 CRM 表单中填空，主管必须人工复制粘贴。\n- **流程僵化**：每次遇到新的网页布局或表单字段变化，都需要重新编写复杂的自动化脚本，维护成本极高。\n- **隐私与性能顾虑**：传统的屏幕控制方案依赖频繁截图和视觉模型分析，不仅消耗大量算力，还导致敏感业务数据可能泄露给云端。\n- **缺乏记忆**：系统无法“记住”主管的操作习惯，每次任务都是全新的指令解析，无法随着使用次数增加而变得更聪明。\n\n### 使用 ghost-os 后\n- **全权代理**：ghost-os 赋予 AI“眼睛”和“手”，使其能直接通过 macOS 辅助功能树操控浏览器和 CRM 软件，自动完成从读取反馈到提交表单的全流程。\n- **自我学习**：主管只需演示一次“处理反馈”的操作，ghost-os 即可通过 `ghost_learn_start` 记录动作序列并合成可复用的“配方”，自动适配不同参数（如客户名、内容）。\n- **本地高效运行**：无需截图或调用云端视觉模型，仅凭键盘鼠标事件和辅助功能上下文即可精准执行，既保护了数据隐私又大幅降低了延迟。\n- **持续进化**：随着使用频率增加，ghost-os 不断积累本地操作数据，能主动预测下一步操作并提供更流畅的自动化建议。\n\nghost-os 将 AI 从单纯的“聊天顾问”升级为能真正在电脑上独立干活、越用越聪明的“数字员工”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fghostwright_ghost-os_99d68bd4.png","ghostwright","Ghostwright","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fghostwright_898e032f.png","Open source tools for AI agents. Ghost OS, Shadow, Specter.",null,"cheemawrites@gmail.com","mcheemaaa","https:\u002F\u002Fghostwright.dev","https:\u002F\u002Fgithub.com\u002Fghostwright",[82,86,90],{"name":83,"color":84,"percentage":85},"Swift","#F05138",92.1,{"name":87,"color":88,"percentage":89},"Python","#3572A5",5.9,{"name":91,"color":92,"percentage":32},"Shell","#89e051",1331,114,"2026-04-11T05:55:12","MIT",4,"macOS","未说明（依赖本地视觉模型 ShowUI-2B，但未明确指定独立 GPU 需求，推测可使用 Apple Silicon 神经网络引擎或 CPU）","未说明",{"notes":102,"python":100,"dependencies":103},"仅支持 macOS 14+ 系统。需要授予辅助功能、屏幕录制和输入监控权限。通过 Homebrew 安装或手动编译（需 Swift 6.2+）。首次运行需下载约 3GB 的 ShowUI-2B 模型文件。主要面向 AI Agent 提供电脑操作能力，通过 MCP 协议与 Claude Code、Cursor 等工具集成。",[104,105,106],"Swift 6.2+","MCP Protocol","ShowUI-2B (本地视觉模型)",[35,13],[109,110,111,112,113,114,115,116,117,118],"accessibility","ai-agents","automation","claude-code","computer-use","llm-tools","macos","mcp","recipes","swift","2026-03-27T02:49:30.150509","2026-04-11T23:30:11.536498",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},30019,"在 macOS 上运行 `ghost setup` 时，视觉模型下载步骤失败并报错 \"The file 'python3' doesn't exist\"，如何解决？","这是一个已知问题，原因是 Swift 代码将相对路径解析错误。解决方案是确保 `python3` 被解析为绝对路径。维护者已在 PR #2 中提交修复，修改了 `SetupWizard.swift` 和 `VisionBridge.swift`，使其在传递给进程前始终将 python3 解析为绝对路径。如果您遇到此问题，请尝试更新到包含该修复的最新版本，或者手动检查您的虚拟环境路径 `~\u002F.ghost-os\u002Fvenv\u002Fbin\u002Fpython3` 是否存在且可执行。","https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fissues\u002F1",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},30020,"`ghost_ground` 调用失败并提示 \"VLM grounding failed\"，且日志显示找不到 safetensors 文件，原因是什么？","这是因为 `ghost setup` 下载的 ShowUI-2B 模型是 PyTorch 格式 (`pytorch_model.bin`)，但 `mlx_vlm` 库强制要求 safetensors 格式 (`model.safetensors`)。在 v2.1.0 及更早版本中，设置向导会下载错误的格式。解决方法是升级到 v2.1.1 或更高版本，该版本已修复为下载正确的 MLX safetensors 格式模型。如果是旧版本用户，可能需要手动删除旧模型并重新运行 `ghost setup` 以触发正确模型的下载。","https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fissues\u002F3",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},30021,"升级到 v2.1.1 后 `ghost_ground` 仍然失败，报错与 transformers 库版本有关，如何处理？","这是由于 `requirements.txt` 中 `transformers` 库没有指定上限版本，导致 pip 安装了不兼容的最新版本（>=4.49 引入了对 PyTorch 的硬依赖）。解决方法是手动限制 `transformers` 的版本。您需要进入 Ghost OS 的 Python 虚拟环境（通常位于 `~\u002F.ghost-os\u002Fvenv`），然后运行类似 `pip install \"transformers\u003C4.49\"` 的命令来降级库。此外，如果是从旧版本升级，建议删除旧的虚拟环境目录并重新运行 `ghost setup` 以重建干净的依赖环境。","https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fissues\u002F7",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},30022,"AI Agent 在保存自定义 Recipe 时频繁失败，提示缺少 'type' 或 'id' 字段，正确的 JSON 结构是怎样的？","保存 Recipe 时需要遵循严格的 JSON Schema。常见错误包括：1. `params` 中的每个参数必须包含 `type` 字段（例如 `\"type\": \"string\"`）；2. `steps` 数组中的每一步必须包含数字类型的 `id` 字段；3. `target` 使用 `criteria` 数组，包含 `attribute` 和 `value` 对象；4. `wait_after` 需要 `condition`、`timeout` 和 `value` 结构。建议在保存前参考现有的内置 Recipe（如 `gmail-send`）的结构，或者等待官方文档更新提供完整的 Schema 参考和模板。","https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fissues\u002F11",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},30023,"如何让 Agent 在学习模式下生成的 Recipe 更可靠，避免保存无效的脚本？","目前的流程在合成 Recipe 后直接保存，缺乏验证。推荐的改进流程是：在 Agent 合成 Recipe JSON 后，先自动运行一次 `ghost_run` 使用该临时 Recipe 进行端到端测试。如果测试通过，再执行 `ghost_recipe_save`；如果失败，则让 Agent 调整 Recipe 并重试。虽然目前这可能不是内置功能，但用户可以通过在 MCP Server 的指令中明确要求 Agent \"在保存前必须测试 Recipe\" 来实现这一最佳实践，从而大幅减少损坏的 Recipe。","https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fissues\u002F12",{"id":148,"question_zh":149,"answer_zh":150,"source_url":126},30024,"Homebrew 安装的 Ghost OS 在首次设置时为什么没有创建 Python 虚拟环境，导致后续步骤失败？","这是一个逻辑缺陷。在 `SetupWizard.swift` 中，如果检测到 `ghost-vision` 启动器存在（Homebrew 安装通常会有），代码会跳过虚拟环境的创建步骤。然而，模型下载步骤并不依赖该启动器，而是直接需要 Python 解释器。这导致在没有虚拟环境的情况下调用 `python3` 时出错。该问题已在相关修复中被解决，确保无论启动器是否存在，都会正确解析 Python 路径或创建必要的虚拟环境。用户若遇此问题，可尝试手动初始化虚拟环境或更新至修复版。",[152,157,162,167,172,177,182,187,192],{"id":153,"version":154,"summary_zh":155,"released_at":156},206606,"v2.2.1","完善了配方 JSON 模式的文档，并实现了保存前验证的工作流。\n\n**变更内容：**\n- 在 GHOST-MCP.md 中完整记录了配方 JSON 模式（包括全部 10 种动作类型、所有参数、目标\u002F定位器字段以及等待条件）\n- 添加了保存前验证流程：代理在保存配方之前必须进行端到端测试\n- 修复了发布二进制文件中的代码签名问题（链接器签名的临时分发证书在复制时失效）\n- 更新了 README：增加了星标数量和行数统计\n\n现在，代理可以在第一次尝试时就正确编写配方。此前则需要从捆绑的示例配方中逆向推导模式。\n\n**升级方法：**\n```\nbrew upgrade ghost-os\n```\n\n或手动安装：\n```\ncurl -sL https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Fdownload\u002Fv2.2.1\u002Fghost-os-2.2.1-macos-arm64.tar.gz | tar xz\ncp ghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\ncp ghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\n```\n\n修复 #11，修复 #12","2026-03-12T05:27:27",{"id":158,"version":159,"summary_zh":160,"released_at":161},206607,"v2.2.0","## 自学配方\n\nGhost OS 现在可以**观察你的操作并从中学习**。\n\n只需说“观察我发送一封邮件”——Ghost OS 将以完整的辅助功能上下文，记录你每一次点击、按键以及应用切换。随后，Claude 会将这些操作合成一个可重复执行的配方。\n\n### 新工具\n| 工具 | 用途 |\n|------|---------|\n| `ghost_learn_start` | 开始录制用户操作 |\n| `ghost_learn_stop` | 停止录制，返回 enriched 操作序列 |\n| `ghost_learn_status` | 检查录制状态和统计信息 |\n\n**共 29 个工具**（之前为 26 个）。\n\n### 工作原理\n```\n你： “观察我在 Gmail 中发送一封邮件”\nClaude：调用 ghost_learn_start\n你： 手动撰写并发送邮件\n你： “完成了”\nClaude：调用 ghost_learn_stop -> 获取包含 AX 上下文的 12 个 enriched 操作\nClaude：根据录制内容合成一个参数化的配方\nClaude：调用 ghost_recipe_save -> 配方已安装\n你： “给 alice@example.com 发送一封邮件”\nClaude：调用 ghost_run 并使用已学习的配方\n```\n\n### 被捕获的内容\n- **点击事件**：包含元素角色、标题、DOM ID、计算出的名称及父级角色\n- **按键事件**：合并为输入文本（500ms 分组）\n- **快捷键**：如 Cmd+C、Cmd+V 等\n- **应用切换**：如 Cmd+Tab、Dock 点击、手势\n- **滚动事件**：合并处理（300ms 分组）\n- **右键单击**和**双击**：被检测到\n\n### 隐私保护\n- 通过三重检查（角色、子角色、名称模式）检测密码字段\n- 安全字段中的按键会被占位符替换\n- 受限制的应用会静默跳过（如钥匙串访问、系统偏好设置）\n- 所有数据均为临时性——不会写入磁盘\n\n### 需求\n- **输入监控**权限（系统设置 > 隐私与安全性 > 输入监控）\n- 此权限独立于辅助功能权限，且为可选——仅在学习模式下需要\n- `ghost doctor` 会检查该权限，`ghost setup` 会引导你完成相关设置\n\n### 安装\n\n**Homebrew**（推荐）：\n```bash\nbrew update && brew upgrade ghost-os\n```\n\n**手动安装**：\n```bash\ncurl -L https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Fdownload\u002Fv2.2.0\u002Fghost-os-2.2.0-macos-arm64.tar.gz | tar xz -C \u002Ftmp\u002Fghost-install\nsudo cp \u002Ftmp\u002Fghost-install\u002Fghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp \u002Ftmp\u002Fghost-install\u002Fghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nghost doctor\n```","2026-03-12T04:33:58",{"id":163,"version":164,"summary_zh":165,"released_at":166},206608,"v2.1.2","为确保 ghost_ground 的可靠性，固定视觉边车依赖项。\n\n**变更内容：**\n- 固定 mlx-vlm==0.1.15（使用 `--no-deps`）和 transformers==4.48.3\n- `transformers>=4.49` 需要 PyTorch 才能运行 Qwen2VL 视频处理器，这会导致仅支持 MLX 的环境出现故障。\n- `ghost setup` 现在会在升级时重新创建 Python 虚拟环境（并记录版本戳）。\n- `ghost doctor` 会标记不兼容的 transformers 版本。\n- 视觉边车会在启动时诊断依赖错误。\n\n**升级步骤：**\n```\nbrew upgrade ghost-os\nghost setup\n```\n\n`ghost setup` 将会使用固定的依赖项重新创建 Python 环境。请通过 `ghost doctor` 进行验证。\n\n修复 #7","2026-03-11T04:48:02",{"id":168,"version":169,"summary_zh":170,"released_at":171},206609,"v2.1.1","错误修复版本。为所有新用户修复了 ghost_ground 问题。\n\n## 错误修复\n\n- 修复模型下载：改用 mlx-community\u002FShowUI-2B-bf16-8bit（MLX safetensors），而非 showlab\u002FShowUI-2B（PyTorch）\n- 修复视觉辅助进程的错误缓存问题，该问题曾导致在修复模型后无法重试\n- 修复 ghost doctor：检测到错误的模型格式时，会显示清晰的修复说明\n- 修复 ghost setup：下载模型后进行校验，若格式错误则直接失败\n- 修复 ghost setup：检测并移除先前安装中损坏的 PyTorch 模型\n\n## 改进\n\n- 安装过程中检查 Python 版本是否为 3.10 或更高（MLX 的要求）\n- 使用指定版本的 Python，以避免使用 Xcode 自带的 3.9 版本\n- 改进视觉辅助进程中的模型路径诊断信息\n- 将 mlx-vlm 版本锁定为 ≥ 0.1.14\n\n## 升级说明\n\n如果您已在 v2.1.0 上运行过 ghost setup，只需再次执行即可：\n\n```bash\nbrew upgrade ghost-os\nghost setup\n```\n\nghost setup 会检测到损坏的模型，将其移除，并重新下载正确的模型（约 3 GB）。","2026-03-11T03:37:27",{"id":173,"version":174,"summary_zh":175,"released_at":176},206610,"v2.1.0","## 新功能\n\n新增4款MCP工具（累计26款）：\n\n- **`ghost_annotate`** — 为每个可交互元素添加编号标签的截图，并返回点击坐标。无需机器学习，即时生成。\n- **`ghost_hover`** — 移动光标以触发工具提示、CSS `:hover` 效果和下拉菜单。\n- **`ghost_long_press`** — 长按以显示上下文菜单、Force Touch 预览或开始拖拽操作。\n- **`ghost_drag`** — 在文件夹之间拖动文件、调整滑块、重新排序列表、选择文本或调整窗格大小。\n\n## 此版本的其他更新\n\n- 修复了视觉设置中 Python 3 路径解析问题（感谢 @mcheemaa，#2）\n- 更新了 GHOST-MCP.md 中针对所有新工具的代理使用说明\n- 在 `ghost_annotate` 中增加了对可滚动内容区域的坐标限制\n- 在 `ghost_long_press` 和 `ghost_drag` 中增加了持续时间限制，以确保安全\n\n## 升级方法\n\n```bash\nbrew upgrade ghostwright\u002Fghost-os\u002Fghost-os\n```\n\n或手动安装：\n```bash\ncurl -sL https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Freleases\u002Fdownload\u002Fv2.1.0\u002Fghost-os-2.1.0-macos-arm64.tar.gz | tar xz\nsudo cp ghost \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp ghost-vision \u002Fopt\u002Fhomebrew\u002Fbin\u002F\nsudo cp -r recipes \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\nsudo cp GHOST-MCP.md \u002Fopt\u002Fhomebrew\u002Fshare\u002Fghost-os\u002F\n```","2026-03-10T07:06:50",{"id":178,"version":179,"summary_zh":180,"released_at":181},206611,"v2.0.6","## 新功能\n\n### 背景窗口捕获\n- 截图现在可以捕捉到即使位于其他窗口后面或在另一个空间中的窗口\n- 移除了 `CGWindowListCopyWindowInfo` 中的 `optionOnScreenOnly` 限制\n- 拍摄截图前无需先聚焦应用（除非该应用已最小化）\n\n### 更好的错误信息\n- 使用具体错误信息替代通用的“截图捕获失败”\n- 当应用没有打开的窗口时，显示“应用没有打开的窗口”\n- 只有在确实缺少屏幕录制权限时，才会显示“未授予屏幕录制权限”\n- 错误详情中包含窗口 ID 和应用名称\n\n### FocusManager 改进\n- 采用轮询方式验证焦点（最长1秒），而非固定休眠\n- 焦点确认更加可靠\n\n### VisionPerception 重试逻辑\n- Vision 捕获现在会尝试通过激活应用来重试（与截图行为一致）\n- 为 VLM 对齐管道提供纵深防御\n\n### 更新的代理指令 (GHOST-MCP.md)\n- 规则 8：Web 应用交互 — 对于 Chrome\u002FElectron 应用，使用 dom_id\n- 规则 9：Gmail\u002F电子邮件模式 — 基于 URL 的撰写界面，以确保可靠地发送邮件\n- 规则 10：坐标映射 — 截图坐标与屏幕坐标的区别\n- 规则 11：Vision 对齐最佳实践 — 始终使用 crop_box\n- 规则 12：动作之间的等待 — 点击后执行 ghost_wait\n\n### 截图响应\n- 现在在响应中包含 `window_frame`，用于坐标映射\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fghostwright\u002Fghost-os\u002Fcompare\u002Fv2.0.5...v2.0.6","2026-03-01T03:47:57",{"id":183,"version":184,"summary_zh":185,"released_at":186},206612,"v2.0.5","### 新增功能\n- **视觉基座** — `ghost_ground` 和 `ghost_parse_screen` 工具。在 AX 树无法满足需求的 Web 应用中，ShowUI-2B 可在本地运行，用于检测视觉元素。\n- **自动启动视觉辅助服务** — 首次调用 `ghost_ground` 时，视觉模型服务器会自动启动，无需手动配置。\n- **`ghost setup` 安装视觉组件** — 第 6 步现在会创建 Python 虚拟环境、安装 mlx_vlm，并下载 ShowUI-2B 模型（约 2.8 GB）。\n- **`ghost doctor` 检查视觉组件** — 报告 ghost-vision 二进制文件、模型状态及辅助服务的健康状况。\n\n### 修复内容\n- 修复 Homebrew 安装时 GHOST-MCP.md 无法加载的问题（路径解析问题）。\n- 修复首次尝试响应较慢时辅助服务重复启动的问题。\n- 修复 `ghost doctor` 和 `ghost setup` 在处理大量输出时出现的管道死锁问题。\n- 修复视觉辅助服务中的临时文件竞争条件。\n- 为视觉辅助服务添加请求体大小限制。\n- 在发布构建脚本中增加版本一致性检查。\n- 强制要求同时提供 config.json 和模型权重文件，以完成模型验证。","2026-02-28T22:32:35",{"id":188,"version":189,"summary_zh":190,"released_at":191},206613,"v2.0.4","## 新增内容\n\n### Bug 修复：`wait_after` 参数替换\n此前，包含 `{{param}}` 占位符的 Recipe `wait_after` 条件始终未被替换，导致其会等待字面意义上的模板字符串。现已正确解决。\n\n### Slack 发送 Recipe 加强\n- 在点击发送前显式等待消息输入（修复了已在目标频道时出现的竞争条件）\n- 扩大了消息输入匹配范围，使其适用于所有频道类型\n- 验证步骤在超时时会优雅跳过（因为消息已发送）\n- 共 8 步，经过端到端测试，100% 成功\n\n### 所有 4 个 Recipe 均已完成端到端测试\n| Recipe       | 步骤数 | 时间  | 结果   |\n|--------------|--------|-------|--------|\n| `gmail-send` | 7\u002F7    | 30s   | 通过   |\n| `arxiv-download` | 8\u002F8    | 20s   | 通过   |\n| `slack-send` | 8\u002F8    | 13s   | 通过   |\n| `finder-create-folder` | 5\u002F5    | 6s    | 通过   |\n\n### 安装\n```bash\nbrew install ghostwright\u002Fghost-os\u002Fghost-os\nghost setup\n```\n\n### 验证\n```bash\nghost doctor\n```","2026-02-19T10:40:27",{"id":193,"version":194,"summary_zh":195,"released_at":196},206614,"v2.0.0","## Ghost OS v2.0.0\n\n面向AI智能体的完整计算机使用环境。自学习工作流。原生macOS支持。\n\n### 新功能\n- 20个MCP工具，用于感知、动作、窗口管理和配方创建\n- 自学习配方系统：智能体自动发现并保存工作流程\n- 配方执行失败时的智能前置条件检查与诊断\n- 带主机应用检测的`ghost setup`向导\n- `ghost doctor`诊断工具\n- 基于评分的字段查找，结合语义深度隧道技术\n- 多显示器支持（基于元素的滚动与焦点管理）\n- 带内联MCP显示的截图功能\n\n### 已测试工作流\n- Gmail：通过配方发送邮件（5\u002F5成功）\n- arXiv：搜索并下载论文（3\u002F3成功）\n- Amazon：浏览和滚动商品页面\n- Slack：在后台读取频道消息\n- Chrome：URL导航、标签切换、表单填写\n\n### 安装\n```bash\nbrew install ghostwright\u002Ftap\u002Fghost-os\nghost setup\n```\n\n### 系统要求\n- macOS 14（Sonoma）或更高版本\n- Apple Silicon（arm64）","2026-02-19T08:39:52"]