[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ddupont808--GPT-4V-Act":3,"tool-ddupont808--GPT-4V-Act":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":80,"difficulty_score":24,"env_os":94,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":100,"github_topics":80,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":134},10025,"ddupont808\u002FGPT-4V-Act","GPT-4V-Act","AI agent using GPT-4V(ision) capable of using a mouse\u002Fkeyboard to interact with web UI","GPT-4V-Act 是一款创新的开源 AI 助手，旨在让大模型像人类一样直接操作网页浏览器。它结合了 GPT-4V 强大的视觉理解能力与自动化控制技术，能够“看”懂屏幕截图，并自主控制鼠标点击和键盘输入来完成指定任务。\n\n这一工具主要解决了传统自动化脚本编写困难、缺乏灵活性的痛点，特别适用于需要跨平台工作流自动化、提升界面无障碍访问性以及进行自动化 UI 测试的场景。通过模拟真实用户的操作逻辑，它能更智能地应对动态变化的网页环境。\n\nGPT-4V-Act 非常适合开发者、研究人员以及对 RPA（机器人流程自动化）感兴趣的技术爱好者使用。虽然普通用户也能从中受益，但目前其功能（如特殊按键支持、记忆上下文等）仍在完善中，更适合具备一定技术背景的用户进行探索或二次开发。\n\n其核心技术亮点在于采用了\"Set-of-Mark Prompting\"策略配合自定义的自动标注器。该机制能为页面上每个可交互元素分配唯一的数字 ID，使 AI 不仅能识别图像内容，还能精准定位并操作具体的像素坐标，从而将复杂的视觉指令转化为精确的执行动作。尽管项目部分功能已整合至微软的 Windows Agent Are","GPT-4V-Act 是一款创新的开源 AI 助手，旨在让大模型像人类一样直接操作网页浏览器。它结合了 GPT-4V 强大的视觉理解能力与自动化控制技术，能够“看”懂屏幕截图，并自主控制鼠标点击和键盘输入来完成指定任务。\n\n这一工具主要解决了传统自动化脚本编写困难、缺乏灵活性的痛点，特别适用于需要跨平台工作流自动化、提升界面无障碍访问性以及进行自动化 UI 测试的场景。通过模拟真实用户的操作逻辑，它能更智能地应对动态变化的网页环境。\n\nGPT-4V-Act 非常适合开发者、研究人员以及对 RPA（机器人流程自动化）感兴趣的技术爱好者使用。虽然普通用户也能从中受益，但目前其功能（如特殊按键支持、记忆上下文等）仍在完善中，更适合具备一定技术背景的用户进行探索或二次开发。\n\n其核心技术亮点在于采用了\"Set-of-Mark Prompting\"策略配合自定义的自动标注器。该机制能为页面上每个可交互元素分配唯一的数字 ID，使 AI 不仅能识别图像内容，还能精准定位并操作具体的像素坐标，从而将复杂的视觉指令转化为精确的执行动作。尽管项目部分功能已整合至微软的 Windows Agent Arena，但 GPT-4V-Act 仍为研究多模态智能体如何与图形界面交互提供了宝贵的参考实现。","# GPT-4V-Act: Chromium Copilot\n\n> 🔥 **Update (September 14, 2024)**: Check out [Windows Agent Arena (WAA)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fwindowsagentarena)! This project incorporates all the features previously planned for GPT-4V-Act, including AI labeling to enable set-of-marks prompting in desktop UI environments. \n\n\nGPT-4V-Act serves as an eloquent multimodal AI assistant that harmoniously combines GPT-4V(ision) with a web browser. It's designed to mirror the input and output of a human operator—primarily screen feedback and low-level mouse\u002Fkeyboard interaction. The objective is to foster a smooth transition between human-computer operations, facilitating the creation of tools that considerably boost the accessibility of any user interface (UI), aid workflow automation, and enable automated UI testing.\n\n\n## How it works\n\nGPT-4V-Act leverages both [GPT-4V(ision)](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4v-system-card) and [Set-of-Mark Prompting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11441), together with a tailored auto-labeler. This auto-labeler assigns a unique numerical ID to each interactable UI element.\n\nBy incorporating a task and a screenshot as input, GPT-4V-Act can deduce the subsequent action required to accomplish a task. For mouse\u002Fkeyboard output, it can refer to the numerical labels for exact pixel coordinates.\n\n\n**Get Started!**\n```bash\n# Clone the repo\ngit clone https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act ai-browser\n# Navigate to the repo directory\ncd ai-browser\n# Install the required packages\nnpm install\n# Start the demo\nnpm start\n```\n\n## Features\n\n- 🔄 Vision (Partial) \n   - ✅ JS DOM auto-labeler (w\u002F COCO export)  \n   - ❌ AI auto-labeler\n- ✅ Clicking \n- 🔄 Typing (Partial) \n   - ✅ Typing characters (letters, numbers, strings) \n   - ❌ Typing special keycodes (enter, pgup, pgdown)\n- ❌ Scrolling\n- ❌ Prompting user for more information\n- ❌ Remembering information relevant to task\n\nIf you have ideas, feedback, or want to contribute, feel free to create an Issue or reach out to ddupont@mit.edu\n\n## Demonstration Prompt\n\nBelow is an example of using the user-interface to instruct the agent to \"play a random song for me\"\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fddupont808_GPT-4V-Act_readme_2ab01652363b.png)\n\nThis is the prompt seen by GPT-4V and the corresponding output\n\n### User\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fddupont808_GPT-4V-Act_readme_6fa5aad9273b.png)\n```markdown\ntask: play a random song for me\n\ntype ClickAction = { action: \"click\", element: number }\ntype TypeAction = { action: \"type\", element: number, text: string }\ntype ScrollAction = { action: \"scroll\", direction: \"up\" | \"down\" }\ntype RequestInfoFromUser = { action: \"request-info\", prompt: string }\ntype RememberInfoFromSite = { action: \"remember-info\", info: string }\ntype Done = { action: \"done\" }\n\n## response format\n{\n  briefExplanation: string,\n  nextAction: ClickAction | TypeAction | ScrollAction | RequestInfoFromUser | RememberInfoFromSite | Done\n}\n\n## instructions\n# observe the screenshot, and think about the next action\n# output your response in a json markdown code block\n```\n\n### Assistant\n```json\n{\n  \"briefExplanation\": \"I'll type 'random song' into the search bar to find a song for you.\",\n  \"nextAction\": { \"action\": \"type\", \"element\": 7, \"text\": \"random song\" }\n}\n```\n","# GPT-4V-Act：Chromium 智能助手\n\n> 🔥 **更新（2024年9月14日）**：请查看 [Windows Agent Arena (WAA)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fwindowsagentarena)! 该项目整合了此前为 GPT-4V-Act 计划的所有功能，包括用于在桌面 UI 环境中实现“标记集合提示”的 AI 标注功能。\n\n\nGPT-4V-Act 是一款出色的多模态 AI 助手，它将 GPT-4V（视觉模型）与网页浏览器无缝结合。其设计旨在模拟人类操作者的输入和输出——主要是屏幕反馈以及低级别的鼠标和键盘交互。目标是促进人机操作之间的平滑过渡，从而帮助构建能够显著提升任何用户界面（UI）可访问性、辅助工作流自动化，并实现自动化 UI 测试的工具。\n\n\n## 工作原理\n\nGPT-4V-Act 同时利用了 [GPT-4V（视觉模型）](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4v-system-card) 和 [标记集合提示](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11441)，并配备了一个定制的自动标注器。该自动标注器会为每个可交互的 UI 元素分配一个唯一的数字 ID。\n\n通过将任务和截图作为输入，GPT-4V-Act 能够推断出完成该任务所需的下一步操作。对于鼠标和键盘的输出，它可以参考这些数字标签来获取精确的像素坐标。\n\n\n**快速上手！**\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act ai-browser\n# 进入仓库目录\ncd ai-browser\n# 安装所需依赖\nnpm install\n# 启动演示\nnpm start\n```\n\n## 功能特性\n\n- 🔄 视觉能力（部分）\n   - ✅ JS DOM 自动标注器（支持 COCO 格式导出）\n   - ❌ AI 自动标注器\n- ✅ 点击操作\n- 🔄 键盘输入（部分）\n   - ✅ 输入字母、数字和字符串\n   - ❌ 输入特殊键码（如回车、翻页键等）\n- ❌ 滚动操作\n- ❌ 向用户请求更多信息\n- ❌ 记住与任务相关的信息\n\n如果您有任何想法、反馈或希望参与贡献，请随时创建 Issue 或联系 ddupont@mit.edu。\n\n## 演示提示\n\n以下是一个使用用户界面指示智能体“帮我播放一首随机歌曲”的示例：\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fddupont808_GPT-4V-Act_readme_2ab01652363b.png)\n\n这是 GPT-4V 所看到的提示及对应的输出：\n\n### 用户\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fddupont808_GPT-4V-Act_readme_6fa5aad9273b.png)\n```markdown\n任务：帮我播放一首随机歌曲\n\n类型 ClickAction = { action: \"click\", element: 数字 }\n类型 TypeAction = { action: \"type\", element: 数字，text: 字符串 }\n类型 ScrollAction = { action: \"scroll\", direction: \"up\" | \"down\" }\n类型 RequestInfoFromUser = { action: \"request-info\", prompt: 字符串 }\n类型 RememberInfoFromSite = { action: \"remember-info\", info: 字符串 }\n类型 Done = { action: \"done\" }\n\n## 回答格式\n{\n  briefExplanation: 字符串,\n  nextAction: ClickAction | TypeAction | ScrollAction | RequestInfoFromUser | RememberInfoFromSite | Done\n}\n\n## 指令\n# 观察截图，思考下一步操作\n# 以 JSON 格式的 Markdown 代码块输出你的回答\n```\n\n### 助理\n```json\n{\n  \"briefExplanation\": \"我会在搜索栏中输入‘random song’来为你找到一首歌。\",\n  \"nextAction\": { \"action\": \"type\", \"element\": 7, \"text\": \"random song\" }\n}\n```","# GPT-4V-Act 快速上手指南\n\nGPT-4V-Act 是一个结合 GPT-4V(ision) 与 Chromium 浏览器的多模态 AI 助手。它通过屏幕反馈和底层鼠标\u002F键盘交互，模拟人类操作，旨在提升 UI 可访问性、工作流自动化及自动化测试效率。\n\n> **注意**：本项目部分功能已整合至 [Windows Agent Arena (WAA)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fwindowsagentarena)，如需更完整的桌面端 AI 标记功能，建议关注该新项目。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Windows, macOS 或 Linux。\n*   **Node.js**：需安装 Node.js (推荐 LTS 版本)，用于运行 npm 包管理工具。\n*   **API Key**：需要拥有 OpenAI API 密钥，并确保账户有权访问 **GPT-4V (GPT-4 Turbo with Vision)** 模型。\n*   **网络环境**：由于依赖 OpenAI 服务，请确保网络能够稳定访问相关 API（国内用户需自行配置代理）。\n\n## 安装步骤\n\n打开终端（Terminal 或 CMD），依次执行以下命令克隆仓库并安装依赖：\n\n```bash\n# 克隆仓库到本地\ngit clone https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act ai-browser\n\n# 进入项目目录\ncd ai-browser\n\n# 安装所需依赖包\nnpm install\n```\n\n> **提示**：如果 `npm install` 速度较慢，可尝试使用淘宝镜像源加速：\n> ```bash\n> npm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n## 基本使用\n\n安装完成后，您可以直接启动演示程序来体验核心功能。\n\n1.  **启动服务**\n    在项目根目录下运行：\n    ```bash\n    npm start\n    ```\n\n2.  **配置与运行**\n    *   程序启动后，通常会打开一个 Chromium 浏览器窗口。\n    *   按照界面提示输入您的 OpenAI API Key。\n    *   在任务输入框中下达指令（例如：\"play a random song for me\"）。\n\n3.  **工作原理示例**\n    系统会自动截取当前屏幕，利用内置的自动标记器（Auto-labeler）为可交互元素分配数字 ID，并将截图与任务描述发送给 GPT-4V。模型会返回 JSON 格式的操作指令（如点击某个 ID 的元素或输入文本），由程序自动执行。\n\n    **预期输出示例（后台日志）：**\n    ```json\n    {\n      \"briefExplanation\": \"I'll type 'random song' into the search bar to find a song for you.\",\n      \"nextAction\": { \"action\": \"type\", \"element\": 7, \"text\": \"random song\" }\n    }\n    ```\n\n目前版本支持基础的**点击**和**字符输入**功能。滚动、特殊按键输入及上下文记忆功能尚在开发或部分支持中，具体特性请参考项目 `Features` 列表。","某电商运营人员需要每日从多个结构各异的竞品网站抓取最新促销商品的价格与库存数据，并整理成报表。\n\n### 没有 GPT-4V-Act 时\n- 面对频繁变动的网页布局，传统基于固定 XPath 或 CSS 选择器的爬虫极易失效，维护成本极高。\n- 每次网站改版都需要开发人员重新分析 DOM 结构并手动更新代码，业务响应速度严重滞后。\n- 对于包含动态加载内容或复杂交互（如点击“加载更多”）的页面，常规脚本难以模拟真实用户行为。\n- 跨平台操作困难，无法统一处理不同浏览器环境下的 UI 差异，导致数据遗漏。\n- 非技术人员无法独立完成任务，必须依赖开发团队排期支持，沟通成本高。\n\n### 使用 GPT-4V-Act 后\n- 利用视觉识别与自动标注技术，GPT-4V-Act 能直接“看懂”屏幕上的价格标签和库存按钮，无需硬编码选择器，自适应页面变化。\n- 只需输入自然语言指令（如“获取所有打折商品的现价”），它即可自主规划点击、滚动和输入操作，大幅降低对开发资源的依赖。\n- 能够模拟真实鼠标键盘交互，轻松处理弹窗关闭、分页加载等复杂场景，确保数据抓取完整性。\n- 通过统一的视觉接口屏蔽底层浏览器差异，实现跨站点、跨环境的稳定自动化执行。\n- 运营人员可直接配置任务流程，将原本数天的开发周期缩短为分钟级的即时执行，显著提升决策效率。\n\nGPT-4V-Act 将繁琐的 UI 自动化转化为直观的自然语言交互，让非开发者也能轻松驾驭复杂的网页操作流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fddupont808_GPT-4V-Act_2ab01652.png","ddupont808","ddupont","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fddupont808_c8409bf4.png","undergrad student at @mit","MIT","Hawaii",null,"https:\u002F\u002Fgithub.com\u002Fddupont808",[83,87],{"name":84,"color":85,"percentage":86},"JavaScript","#f1e05a",79.5,{"name":88,"color":89,"percentage":90},"HTML","#e34c26",20.5,1063,101,"2026-04-16T16:27:13","未说明",{"notes":96,"python":94,"dependencies":97},"该项目基于 Node.js 运行（需执行 npm install 和 npm start），并非本地部署的深度学习模型，因此无需配置 GPU、CUDA 或特定 Python 环境。其核心功能依赖调用外部 GPT-4V API 进行视觉推理，并配合自定义的自动标签器（auto-labeler）在浏览器中操作。注意：根据 2024 年 9 月 14 日的更新，部分计划功能已迁移至 Windows Agent Arena (WAA) 项目。",[98,99],"Node.js","npm",[36,15,13,101],"其他","2026-03-27T02:49:30.150509","2026-04-20T17:05:30.820368",[105,110,115,120,125,130],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},45037,"启动应用时出现 'ENOENT: no such file or directory, open tmp\u002Fscreenshot.png' 错误怎么办？","这是因为项目根目录下缺少 'tmp' 文件夹。解决方法是在项目根目录下手动创建一个名为 'tmp' 的目录。命令示例：在项目根目录运行 `mkdir tmp` (Mac\u002FLinux) 或在文件资源管理器中新建文件夹。","https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act\u002Fissues\u002F8",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},45038,"如何配置 OpenAI API Key？","在最新版本的代码中已支持 API Key 配置。您需要将 Key 设置为环境变量，变量名为 `OPENAI_API_KEY`。例如在终端执行 `export OPENAI_API_KEY=your_key_here` (Mac\u002FLinux) 或在 `.env` 文件中配置（如果项目支持）。","https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act\u002Fissues\u002F10",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},45039,"遇到 'Could not find Chrome' 或 Puppeteer 相关错误如何解决？","该错误通常由旧版 Puppeteer API 引起。维护者已在包含 Vision API 的最新推送中修复了此问题。请拉取最新的代码更新（`git pull`）并重新安装依赖（`npm install`），然后再次尝试运行。","https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act\u002Fissues\u002F11",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},45040,"输入命令后没有响应，且报错找不到文件或目录，是账户密码设置问题吗？","这通常不是账户密码设置问题，而是本地运行环境缺失临时目录导致的。请检查是否在项目根目录下创建了 'tmp' 文件夹。如果没有，请手动创建该文件夹即可解决无法调用和截图保存失败的问题。","https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act\u002Fissues\u002F6",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},45041,"运行时出现 'UnhandledPromiseRejectionWarning' 警告导致程序无响应怎么办？","这通常是由于未捕获的 Promise 拒绝引起的，常见原因包括缺少 'tmp' 目录或 Chrome 路径配置错误。首先确保已执行 `npm install` 安装了所有依赖，其次务必在项目根目录手动创建 'tmp' 文件夹。如果问题依旧，请更新到最新版本以修复已知的 Puppeteer 兼容性 bug。","https:\u002F\u002Fgithub.com\u002Fddupont808\u002FGPT-4V-Act\u002Fissues\u002F3",{"id":131,"question_zh":132,"answer_zh":133,"source_url":109},45042,"克隆仓库后运行 'npm start' 立即报错，如何快速修复？","最常见的快速修复方案是检查项目根目录是否存在 'tmp' 文件夹。该文件夹不会自动创建，必须手动建立。请在终端进入项目目录并运行 `mkdir tmp`，然后再次执行 `npm start` 启动应用。",[]]