[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TurixAI--TuriX-CUA":3,"tool-TurixAI--TuriX-CUA":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":116,"updated_at":117,"faqs":118,"releases":159},2425,"TurixAI\u002FTuriX-CUA","TuriX-CUA","This is the official website for TuriX Computer-use-Agent","TuriX-CUA 是一款开源的“计算机使用代理”（Computer-use Agent），旨在让 AI 模型能够像人类一样，直接在您的桌面环境中执行实际操作。只需通过自然语言下达指令，TuriX-CUA 便能自动操控鼠标、键盘及应用程序，完成从搜索信息到复杂工作流的一系列任务，真正实现了“动口不动手”的智能化交互体验。\n\n它主要解决了传统 AI 助手仅能生成文本或代码、却无法直接干预操作系统层面的痛点。通过将大语言模型的推理能力与桌面自动化技术深度融合，TuriX-CUA 填补了智能决策与物理操作之间的空白，大幅提升了人机协作的效率。\n\n这款工具特别适合开发者、AI 研究人员以及希望探索自动化办公潜力的进阶用户。对于研究人员而言，TuriX-CUA 提供了完全开源且免费的架构，支持在 OSWorld 等基准测试中进行性能评估与算法改进；对于开发者和技术爱好者，它具备极高的灵活性，允许用户在 `config.json` 中自由切换不同的底层 AI 模型（如支持 Ollama 本地部署），并兼容 macOS、Windows 及 Linux 多平台。此外，它还集成了 OpenClaw 技能","TuriX-CUA 是一款开源的“计算机使用代理”（Computer-use Agent），旨在让 AI 模型能够像人类一样，直接在您的桌面环境中执行实际操作。只需通过自然语言下达指令，TuriX-CUA 便能自动操控鼠标、键盘及应用程序，完成从搜索信息到复杂工作流的一系列任务，真正实现了“动口不动手”的智能化交互体验。\n\n它主要解决了传统 AI 助手仅能生成文本或代码、却无法直接干预操作系统层面的痛点。通过将大语言模型的推理能力与桌面自动化技术深度融合，TuriX-CUA 填补了智能决策与物理操作之间的空白，大幅提升了人机协作的效率。\n\n这款工具特别适合开发者、AI 研究人员以及希望探索自动化办公潜力的进阶用户。对于研究人员而言，TuriX-CUA 提供了完全开源且免费的架构，支持在 OSWorld 等基准测试中进行性能评估与算法改进；对于开发者和技术爱好者，它具备极高的灵活性，允许用户在 `config.json` 中自由切换不同的底层 AI 模型（如支持 Ollama 本地部署），并兼容 macOS、Windows 及 Linux 多平台。此外，它还集成了 OpenClaw 技能模块，便于构建更复杂的多智能体协作系统。凭借在 Mac 基准测试中达到 80% 的成功率，TuriX-CUA 展现了稳健的执行能力，是探索下一代 GUI 智能代理的理想选择。","\u003Cp align=\"center\">\n   \u003Cimg src=\".\u002Fdoc\u002FLogoHFitted.svg\" width=\"1600\" alt=\"TuriX logo\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">TuriX · Desktop Actions, Driven by AI\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\u003Cstrong>Talk to your computer, watch it work.\u003C\u002Fstrong>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"README.md\">English\u003C\u002Fa> | \u003Ca href=\"README.zh-CN.md\">中文\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 📞 Contact & Community\n\nJoin our Discord community for support, discussions, and updates:\n\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FyaYrNAckb5\">\n      \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1400749393841492020?color=7289da&label=Join%20our%20Discord&logo=discord&logoColor=white&style=for-the-badge\" alt=\"Join our Discord\">\n   \u003C\u002Fa>\n\u003C\u002Fp>\n\nOr contact us with email: contact@turix.ai\n\nTuriX lets your powerful AI models take real, hands‑on actions directly on your desktop. \nIt ships with a **state‑of‑the‑art computer‑use agent** (achieves 80% success rate on our OSWorld‑style Mac benchmark and 60% success rate on OSWorld) yet stays 100 % open‑source and cost‑free for personal & research use.  \n\nPrefer your own model? **Change in `config.json` and go.**\n\n## Table of Contents\n- [📞 Contact & Community](#-contact--community)\n- [🤖 OpenClaw Skill](#-openclaw-skill)\n- [📰 Latest News](#-latest-news)\n- [🖼️ Demos](#️-demos)\n- [✨ Key Features](#-key-features)\n- [📊 Model Performance](#-model-performance)\n- [🚀 Quick‑Start (macOS 15+)](#-quickstart-macos-15)\n   - [1. Download the App](#1-download-the-app)\n   - [2. Create a Python 3.12 Environment](#2-create-a-python-312-environment)\n   - [3. Grant macOS Permissions](#3-grant-macos-permissions)\n      - [3.1 Accessibility](#31-accessibility)\n      - [3.2 Safari Automation](#32-safari-automation)\n   - [4. Configure & Run](#4-configure--run)\n   - [4.4 Skills (Optional)](#44-skills-optional)\n- [🤝 Contributing](#-contributing)\n- [🗺️ Roadmap](#️-roadmap)\n\n---\n\n## 🤖 OpenClaw Skill\n\nUse TuriX via OpenClaw with our published skill on ClawHub:  \nhttps:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua  \nThis lets OpenClaw call TuriX so it can act as your desktop agent.\n\nLocal OpenCLaw skill (macOS): this repo also includes a ready-to-use skill package in `OpenCLaw_TuriX_skill\u002F` (`SKILL.md` + `scripts\u002Frun_turix.sh`).  \nCopy it into your OpenClaw local skills folder (for example: `clawd\u002Fskills\u002Flocal\u002Fturix-mac\u002F`) and follow `OpenCLaw_TuriX_skill\u002FREADME.md` for setup and permissions.\n\nLocal OpenClaw skill (Windows): on branch `multi-agent-windows`, `OpenCLaw_TuriX_skill\u002F` is updated for Windows with `SKILL.md`, `scripts\u002Frun_turix.ps1`, and `agents\u002Fopenai.yaml`.  \nThis update adds direct dispatch via `turix` (alias `turix-win`) in the current OpenClaw session, plus pre-flight checks in `run_turix.ps1` (required branch `multi-agent-windows`, conda\u002Fconfig validation, and `--dry-run` support).\nYou can also instruct OpenClaw directly: read `OpenCLaw_TuriX_skill\u002FREADME.md` first, then install and configure TuriX.\n\n---\n\n## 📰 Latest News\n\n**March 16, 2026** - 🐧 **Linux support is now available** on branch `multi-agent-linux`. If you want to run TuriX on Linux (for example Ubuntu), switch to that branch first:\n```bash\ngit checkout multi-agent-linux\n```\n\n**March 9, 2026** - Added a new **OpenClaw Flash\u002FFast Mode skill for macOS** on branch `mac_legacy`. If you want to use this faster, lighter setup, switch to that branch first:\n```bash\ngit checkout mac_legacy\n```\n\n**March 5, 2026** - Updated the **Windows OpenClaw local skill** on branch `multi-agent-windows`. This update adds a user-invocable `turix` skill alias, direct dispatch without requiring a Turix sub-session, branch-safe pre-flight checks in `run_turix.ps1`, and the new agent interface file `OpenCLaw_TuriX_skill\u002Fagents\u002Fopenai.yaml`.\n\n**January 30, 2026** - 🧩 We published the **TuriX OpenClaw Skill** on ClawHub: https:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua. You can now use OpenClaw to call TuriX and automate desktop tasks.\n\n**January 27, 2026 — v0.3** - 🎉 TuriX v0.3 is now live on the main branch! This release brings DuckDuckGo search, Ollama support, advanced recoverable memory compression, and Skills—unlocking smarter planning, more resilient memory, and reusable workflows for desktop automation. We’re excited to see more users try it out and share feedback as we keep pushing the platform forward.\n\n**January 27, 2026** - 🎉 We released **Recoverable Memory Compression** and **Skills** in the `multi-agent` and `multi-agent-windows` branches. These features add more stable memory handling and reusable markdown playbooks for task planning.\n\n**January 27, 2026** - 🎉 We released **Recoverable Memory Compression** and **Skills** in the `main` (formerly `multi-agent`) and `multi-agent-windows` branches. These features add more stable memory handling and reusable markdown playbooks for task planning.\n\n**December 30, 2025** - 🎉 Significant update in Agent Archetecture. We introduce a multi-model archetecture in the `main` (formerly `multi-agent`) branch, releasing the stress from a single model to multiple models.\n\n**October 16, 2025** - 🚀 Big news for automation enthusiasts! TuriX now fully supports the cutting-edge **Qwen3-VL** vision-language model, empowering seamless PC automation across both **macOS** and **Windows**. This integration boosts task success rates by up to 15% on complex UI interactions (based on our internal benchmarks), making your desktop workflows smarter and faster than ever. Whether you're scripting daily routines or tackling intricate projects, Qwen3-VL's advanced multimodal reasoning brings unparalleled precision to the table.\n\n**September 30, 2025** - 🎉 Exciting update! We've just released our latest AI model on the [TuriX API platform](https:\u002F\u002Fturixapi.io), bringing enhanced performance, smarter reasoning, and seamless integration for even more powerful desktop automation. Developers and researchers, this is your cue—head over to the platform to access it now and elevate your workflows!\n\nReady to level up? Update your `config.json` and start automating—happy hacking! 🎉\n\n*Stay tuned to our [Discord](https:\u002F\u002Fdiscord.gg\u002FvkEYj4EV2n) for tips, user stories, and the next big drop.*\n\n---\n\n## 🖼️ Demos\n\u003Ch3 align=\"center\">MacOS Demo\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>Book a flight, hotel and uber.\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_5ddb19168490.gif\" width=\"1600\" alt=\"TuriX macOS demo - booking\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>Search iPhone price, create Pages document, and send to contact\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_b737734f6497.gif\" width=\"1600\" alt=\"TuriX macOS demo - iPhone price search and document sharing\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>Generate a bar-chart in the numbers file sent by boss in discord and insert it to the right place of my powerpoint, and reply my boss.\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_feacbb399812.gif\" width=\"1600\" alt=\"TuriX macOS demo - excel graph to powerpoint\">\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">Windows Demo\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>Search video content in youtube and like it\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_405f768e8f94.gif\" width=\"1600\" alt=\"TuriX Windows demo - video search and sharing\">\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">MCP with Claude Demo\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>Claude search for AI news, and call TuriX with MCP, write down the research result to a pages document and send it to contact\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_896f45d90735.gif\" width=\"1600\" alt=\"TuriX MCP demo - news search and sharing\">\n\u003C\u002Fp>\n\n---\n\n## ✨ Key Features\n| Capability | What it means |\n|------------|---------------|\n| **SOTA default model** | Outperforms previous open‑source agents (e.g. UI‑TARS) on success rate and speed on Mac |\n| **No app‑specific APIs** | If a human can click it, TuriX can too—WhatsApp, Excel, Outlook, in‑house tools… |\n| **Hot‑swappable \"brains\"** | Replace the VLM policy without touching code (`config.json`) |\n| **MCP‑ready** | Hook up *Claude for Desktop* or **any** agent via the Model Context Protocol (MCP) |\n| **Skills (markdown playbooks)** | Planner selects relevant skill guides (name + description), brain uses full instructions to plan each step |\n\n---\n## 📊 Model Performance\n\nOur agent achieves state-of-the-art performance on desktop automation tasks:\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_073ad57e2604.jpg\" width=\"1600\" alt=\"TuriX performance\">\n\u003C\u002Fp>\n\nFor more details, check our [report](https:\u002F\u002Fturix.ai\u002Ftechnical-report\u002F).\n\n## 🚀 Quick‑Start (macOS 15+)\n\n> **We never collect data**—install, grant permissions, and hack away.\n\n> **0. Windows Users**: Switch to the `multi-agent-windows` branch for Windows-specific setup and installation instructions.\n>\n> ```bash\n> git checkout multi-agent-windows\n> ```\n>\n> For the updated OpenClaw Windows local skill package, see `OpenCLaw_TuriX_skill\u002FREADME.md` in that branch.\n>\n> **0. Linux Users**: Switch to the `multi-agent-linux` branch for Linux-specific setup and installation instructions.\n>\n> ```bash\n> git checkout multi-agent-linux\n> ```\n>\n> **0. Windows Legacy Users**: For the previous Windows setup, switch to the `windows_legacy` branch.\n>\n> **0. macOS Legacy Users**: For the previous single-model macOS setup, switch to the `mac_legacy` branch.\n\n\n### 1. Download the App\nFor easier usage, [download the app](https:\u002F\u002Fturix.ai\u002F)\n\nOr follow the manual setup below:\n\n### 2. Create a Python 3.12 Environment\nFirstly Clone the repository and run:\n```bash\nconda create -n turix_env python=3.12\nconda activate turix_env        # requires conda ≥ 22.9\npip install -r requirements.txt\n```\n\n### 3. Grant macOS Permissions\n\n#### 3.1 Accessibility\n1. Open **System Settings ▸ Privacy & Security ▸ Accessibility**  \n2. Click **＋**, then add **Terminal** and **Visual Studio Code** ANY IDE you use\n3. If the agent still fails, also add **\u002Fusr\u002Fbin\u002Fpython3**\n\n#### 3.2 Safari Automation\n1. **Safari ▸ Settings ▸ Advanced** → enable **Show features for web developers**  \n2. In the new **Develop** menu, enable  \n    * **Allow Remote Automation**  \n    * **Allow JavaScript from Apple Events**  \n\n##### Trigger the Permission Dialogs (run once per shell)\n```\n# macOS Terminal\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"Triggering accessibility request\\\")\" in document 1'\n\n# VS Code integrated terminal (repeat to grant VS Code)\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"Triggering accessibility request\\\")\" in document 1'\n```\n\n> **Click \"Allow\" on every dialog** so the agent can drive Safari.\n\n### 4. Configure & Run\n\n#### 4.1 Edit Task Configuration\n\n> [!IMPORTANT]\n> **Task Configuration is Critical**: The quality of your task instructions directly impacts success rate. Clear, specific prompts lead to better automation results.\n\nEdit task in `examples\u002Fconfig.json`:\n```json\n{\n    \"agent\": {\n         \"task\": \"open system settings, switch to Dark Mode\"\n    }\n}\n```\n\n#### 4.2 Edit API Configuration\n\nGet API now with $20 credit from our [official web page](https:\u002F\u002Fturix.ai\u002Fapi-platform\u002F).\nLogin to our website and the key is at the bottom.\n\nIn this main (multi-agent) branch, you need to set the brain, actor, and memory models. It only supports mac for now. If you enable planning\n(`agent.use_plan: true`), you also need to set the planner model.\nWe strongly recommand you to set the turix-actor model as the actor. The brain can be any VLMs you like, we provide qwen3.5vl in our platform. Gemini-3-pro is tested to be smartest, and Gemini-3-flash is fast and smart enough for most of the tasks. \n\nEdit API in `examples\u002Fconfig.json`:\n```json\n\"brain_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"actor_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-actor\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"memory_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"planner_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   }\n```\n\nFor a local Ollama setup, point each role to your Ollama server:\n```json\n\"brain_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"actor_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"memory_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"planner_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   }\n```\n\n#### 4.3 Configure Custom Models (Optional)\n\nIf you want to use other models not defined by the build_llm function in the main.py, you need to first define it, then setup the config.\n\nmain.py:\n\n```\nif provider == \"name_you_want\":\n        return ChatOpenAI(\n            model=\"gpt-4.1-mini\", api_key=api_key, temperature=0.3\n        )\n```\nSwitch between ChatOpenAI, ChatGoogleGenerativeAI, ChatAnthropic, or ChatOllama base on your llm. Also change the model name.\n\n#### 4.4 Skills (Optional)\n\nSkills are lightweight markdown playbooks stored in a single folder (default: `skills\u002F`). Each skill file starts with YAML frontmatter containing `name` and `description`, followed by the instructions. The planner only sees the name + description to select relevant skills; the brain receives the full skill content to guide step goals.\nSkills selection requires planning (`agent.use_plan: true`).\n\nExample skill file (`skills\u002Fgithub-web-actions.md`):\n```md\n---\nname: github-web-actions\ndescription: Use when navigating GitHub in a browser (searching repos, starring, etc.).\n---\n# GitHub Web Actions\n- Open GitHub, use the site search, and navigate to the repo page.\n- If login is required, ask the user before proceeding.\n- Confirm the Star button state before moving on.\n```\n\nEnable in `examples\u002Fconfig.json`:\n```json\n{\n  \"agent\": {\n    \"use_plan\": true,\n    \"use_skills\": true,\n    \"skills_dir\": \"skills\",\n    \"skills_max_chars\": 4000\n  }\n}\n```\n\n#### 4.5 Start the Agent\n\n```bash\npython examples\u002Fmain.py\n```\n\n**Enjoy hands‑free computing 🎉**\n\n#### 4.6 Resume a Terminated Task\n\nTo resume a task after an interruption, set a stable `agent_id` and enable `resume` in `examples\u002Fconfig.json`:\n```json\n{\n    \"agent\": {\n         \"resume\": true,\n         \"agent_id\": \"my-task-001\"\n    }\n}\n```\nNotes:\n- Use the same `agent_id` as the run you want to resume.\n- Keep the same `task` when resuming.\n- Resume only works if prior memory exists at `src\u002Fagent\u002Ftemp_files\u002F\u003Cagent_id>\u002Fmemory.jsonl`.\n- To start fresh, set `resume` to `false`, change `agent_id`, or delete `src\u002Fagent\u002Ftemp_files\u002F\u003Cagent_id>`.\n\n## 🤝 Contributing\n\nWe welcome contributions! Please read our [Contributing Guide](CONTRIBUTING.MD) to get started.\n\nQuick links:\n- [Development Setup](CONTRIBUTING.MD#development-setup)\n- [Code Style Guidelines](CONTRIBUTING.MD#code-style-guidelines)\n- [Testing](CONTRIBUTING.MD#testing)\n- [Pull Request Process](CONTRIBUTING.MD#pull-request-process)\n\nFor bug reports and feature requests, please [open an issue](https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues).\n\n## 🗺️ Roadmap\n\n| Quarter | Feature | Description |\n|---------|---------|-------------|\n| **2025 Q3** | **✅ Terminate and Resume** | Support resuming from terminated task. |\n| **2025 Q3** | **✅ Windows Support** | Cross-platform compatibility bringing TuriX automation to Windows environments *(Now Available)* |\n| **2025 Q3** | **✅ Enhanced MCP Integration** | Deeper Model Context Protocol support for seamless third-party agent connectivity *(Now Available)*|\n| **2025 Q4** | **✅ Next-Gen AI Model** | Significantly improved clicking accuracy and task execution capabilities |\n| **2025 Q4** | **✅ Windows-Optimized Model** | Native Windows model architecture for superior performance on Microsoft platforms\n| **2025 Q4** | **✅ Support Gemini-3-pro model** | Run with any compatible vision language models |\n| **2025 Q4** | **✅ Planner** | Understands user intent and makes step-by-step plans to complete tasks |\n| **2025 Q4** | **✅ Multi-Agent Architecture** | Evaluate and guide each step in working |\n| **2025 Q4** | **✅ Duckduckgo Integration** | Speed up the information gathering process, for smarter planning (now on main) |\n| **2026 Q1** | **✅ Ollama Support** | Support the Ollama Qwen3vl models |\n| **2026 Q1** | **✅ Recoverable Memory Compression** | Advance memory management mechanism to stabelize performance (Commited beta version) |\n| **2026 Q1** | **✅ Skills** | Stablize the agent workflow. |\n| **2026 Q1** | **✅ OpenClaw Skill** | Published on ClawHub (https:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua) so OpenClaw can use TuriX as its eyes and hands. |\n| **2026 Q1** | **✅ OpenClaw Windows Skill Refresh** | Updated `multi-agent-windows` local skill package with direct dispatch (`turix`\u002F`turix-win`), required-branch checks, and `--dry-run` support. |\n| **2026 Q1** | **✅ Linux Support** | Linux support is now available on branch `multi-agent-linux` (Ubuntu and other distributions). |\n| **2026 Q2** | **Browser Automation** | Support a Chrome-like browser for scalability |\n| **2026 Q2** | **Persistent Memory** | Learn user preferences and maintain task history across sessions |\n| **2026 Q2** | **Learning by Demonstration** | Train the agent by showing it your preferred methods and workflows |\n","\u003Cp align=\"center\">\n   \u003Cimg src=\".\u002Fdoc\u002FLogoHFitted.svg\" width=\"1600\" alt=\"TuriX logo\">\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">TuriX · 桌面操作，由AI驱动\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\u003Cstrong>与你的电脑对话，看它自动执行任务。\u003C\u002Fstrong>\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"README.md\">English\u003C\u002Fa> | \u003Ca href=\"README.zh-CN.md\">中文\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 📞 联系方式与社区\n\n加入我们的Discord社区，获取支持、参与讨论并了解最新动态：\n\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FyaYrNAckb5\">\n      \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1400749393841492020?color=7289da&label=Join%20our%20Discord&logo=discord&logoColor=white&style=for-the-badge\" alt=\"加入我们的Discord\">\n   \u003C\u002Fa>\n\u003C\u002Fp>\n\n或者通过电子邮件联系我们：contact@turix.ai\n\nTuriX让强大的AI模型直接在您的桌面上执行实际操作。它自带一个**最先进的计算机使用智能体**（在我们的OSWorld风格的Mac基准测试中达到80%的成功率，在OSWorld中达到60%的成功率），同时保持100%开源，并且对个人及研究用途完全免费。\n\n想使用自己的模型吗？只需在`config.json`中进行更改即可开始使用。\n\n## 目录\n- [📞 联系方式与社区](#-contact--community)\n- [🤖 OpenClaw技能](#-openclaw-skill)\n- [📰 最新消息](#-latest-news)\n- [🖼️ 演示](#️-demos)\n- [✨ 核心功能](#-key-features)\n- [📊 模型性能](#-model-performance)\n- [🚀 快速入门（macOS 15+）](#-quickstart-macos-15)\n   - [1. 下载应用](#1-download-the-app)\n   - [2. 创建Python 3.12环境](#2-create-a-python-312-environment)\n   - [3. 授予macOS权限](#3-grant-macos-permissions)\n      - [3.1 辅助功能](#31-accessibility)\n      - [3.2 Safari自动化](#32-safari-automation)\n   - [4. 配置并运行](#4-configure--run)\n   - [4.4 技能（可选）](#44-skills-optional)\n- [🤝 贡献](#-contributing)\n- [🗺️ 路线图](#️-roadmap)\n\n---\n\n## 🤖 OpenClaw技能\n\n通过OpenClaw和我们在ClawHub上发布的技能使用TuriX：\nhttps:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua  \n这使OpenClaw能够调用TuriX，从而作为您的桌面智能体。\n\n本地OpenCLaw技能（macOS）：本仓库还包含一个现成的技能包，位于`OpenCLaw_TuriX_skill\u002F`目录下（`SKILL.md` + `scripts\u002Frun_turix.sh`）。将其复制到您的OpenClaw本地技能文件夹中（例如：`clawd\u002Fskills\u002Flocal\u002Fturix-mac\u002F`），并按照`OpenCLaw_TuriX_skill\u002FREADME.md`中的说明进行设置和权限配置。\n\n本地OpenCLaw技能（Windows）：在`multi-agent-windows`分支中，`OpenCLaw_TuriX_skill\u002F`已针对Windows进行了更新，包含了`SKILL.md`、`scripts\u002Frun_turix.ps1`以及`agents\u002Fopenai.yaml`。此次更新增加了在当前OpenClaw会话中通过`turix`（别名`turix-win`）直接调度的功能，同时还加入了`run_turix.ps1`中的飞行前检查（需要`multi-agent-windows`分支、conda\u002Fconfig验证以及`--dry-run`支持）。您也可以直接指导OpenClaw：请先阅读`OpenCLaw_TuriX_skill\u002FREADME.md`，然后安装并配置TuriX。\n\n---\n\n## 📰 最新消息\n\n**2026年3月16日** - 🐧 **Linux支持现已上线**，位于`multi-agent-linux`分支。如果您希望在Linux（例如Ubuntu）上运行TuriX，请先切换到该分支：\n```bash\ngit checkout multi-agent-linux\n```\n\n**2026年3月9日** - 在`mac_legacy`分支上新增了适用于macOS的**OpenClaw闪速\u002F快速模式技能**。如果您希望使用这种更快、更轻量级的设置，请先切换到该分支：\n```bash\ngit checkout mac_legacy\n```\n\n**2026年3月5日** - 更新了`multi-agent-windows`分支上的**Windows版OpenClaw本地技能**。此次更新添加了一个用户可调用的`turix`技能别名，无需进入Turix子会话即可直接调度；同时在`run_turix.ps1`中加入了分支安全的飞行前检查，并新增了代理接口文件`OpenCLaw_TuriX_skill\u002Fagents\u002Fopenai.yaml`。\n\n**2026年1月30日** - 🧩 我们已在ClawHub上发布了**TuriX OpenClaw技能**：https:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua。现在您可以使用OpenClaw调用TuriX，实现桌面任务的自动化。\n\n**2026年1月27日 — v0.3** - 🎉 TuriX v0.3现已在主分支上线！此版本带来了DuckDuckGo搜索、Ollama支持、先进的可恢复内存压缩以及技能功能——解锁了更智能的规划能力、更稳定的内存管理以及用于桌面自动化的可重用工作流。我们非常期待更多用户试用并提供反馈，以推动平台不断向前发展。\n\n**2026年1月27日** - 🎉 我们在`multi-agent`和`multi-agent-windows`分支中发布了**可恢复内存压缩**和**技能**功能。这些特性增强了内存管理的稳定性，并提供了用于任务规划的可重用Markdown剧本。\n\n**2026年1月27日** - 🎉 我们在`main`（原`multi-agent`）和`multi-agent-windows`分支中发布了**可恢复内存压缩**和**技能**功能。这些特性进一步提升了内存管理的稳定性，并提供了用于任务规划的可重用Markdown剧本。\n\n**2025年12月30日** - 🎉 智能体架构的重大更新。我们在`main`（原`multi-agent`）分支中引入了多模型架构，将单一模型的压力分散到多个模型上。\n\n**2025年10月16日** - 🚀 自动化爱好者们的好消息！TuriX现已全面支持前沿的**Qwen3-VL**视觉语言模型，无论是在**macOS**还是**Windows**平台上，都能实现无缝的PC自动化。根据我们的内部基准测试，这一集成可将复杂UI交互的任务成功率提升高达15%，使您的桌面工作流程比以往任何时候都更加智能、高效。无论是日常脚本编写还是处理复杂的项目，Qwen3-VL先进的多模态推理能力都将为您的任务带来无与伦比的精准度。\n\n**2025年9月30日** - 🎉 令人振奋的更新！我们刚刚在[TuriX API平台](https:\u002F\u002Fturixapi.io)上发布了最新的AI模型，带来了更强的性能、更智能的推理能力以及无缝的集成，从而实现更强大的桌面自动化。开发者和研究人员们，现在正是行动的时候——快去访问该平台，升级您的工作流程吧！\n\n准备升级了吗？更新您的`config.json`，开始自动化吧——祝您编码愉快！🎉\n\n*请持续关注我们的[Discord](https:\u002F\u002Fdiscord.gg\u002FvkEYj4EV2n)，获取技巧、用户故事以及下一次重大发布的信息。*\n\n---\n\n## 🖼️ 演示\n\u003Ch3 align=\"center\">macOS 演示\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>预订航班、酒店和优步。\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_5ddb19168490.gif\" width=\"1600\" alt=\"TuriX macOS 演示 - 预订\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>搜索 iPhone 价格，创建 Pages 文档，并发送给联系人\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_b737734f6497.gif\" width=\"1600\" alt=\"TuriX macOS 演示 - iPhone 价格搜索和文档分享\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>在老板通过 Discord 发来的 Numbers 文件中生成条形图，将其插入到我的 PowerPoint 的正确位置，并回复老板。\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_feacbb399812.gif\" width=\"1600\" alt=\"TuriX macOS 演示 - Excel 图表插入 PowerPoint\">\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">Windows 演示\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>在 YouTube 中搜索视频内容并点赞\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_405f768e8f94.gif\" width=\"1600\" alt=\"TuriX Windows 演示 - 视频搜索和分享\">\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">MCP 与 Claude 演示\u003C\u002Fh3>\n\u003Cp align=\"center\">\u003Cstrong>Claude 搜索 AI 新闻，并通过 MCP 调用 TuriX，将研究结果写入 Pages 文档后发送给联系人\u003C\u002Fstrong>\u003C\u002Fp>\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_896f45d90735.gif\" width=\"1600\" alt=\"TuriX MCP 演示 - 新闻搜索和分享\">\n\u003C\u002Fp>\n\n---\n\n## ✨ 核心功能\n| 功能 | 含义 |\n|------------|---------------|\n| **SOTA 默认模型** | 在 Mac 上的成功率和速度方面超越了之前的开源智能体（例如 UI‑TARS）|\n| **无需特定于应用的 API** | 只要人类能点击的地方，TuriX 也能操作——WhatsApp、Excel、Outlook、内部工具等 |\n| **可热插拔的“大脑”** | 无需修改代码即可更换 VLM 策略（`config.json`）|\n| **支持 MCP** | 可通过模型上下文协议 (MCP) 连接 *Claude for Desktop* 或 **任何**智能体|\n| **技能（Markdown 玩法手册）** | 计划器会选择相关的技能指南（名称 + 描述），大脑则会使用完整指令来规划每一步 |\n\n---\n## 📊 模型性能\n\n我们的智能体在桌面自动化任务上达到了最先进的水平：\n\u003Cp align=\"center\">\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_readme_073ad57e2604.jpg\" width=\"1600\" alt=\"TuriX 性能\">\n\u003C\u002Fp>\n\n更多详情，请查看我们的 [技术报告](https:\u002F\u002Fturix.ai\u002Ftechnical-report\u002F)。\n\n## 🚀 快速入门（macOS 15+）\n\n> **我们绝不会收集任何数据**——只需安装、授予权限，即可开始使用。\n\n> **0. Windows 用户**：请切换到 `multi-agent-windows` 分支，获取 Windows 特有的设置和安装说明。\n>\n> ```bash\n> git checkout multi-agent-windows\n> ```\n>\n> 关于更新后的 OpenClaw Windows 本地技能包，请参阅该分支中的 `OpenCLaw_TuriX_skill\u002FREADME.md`。\n>\n> **0. Linux 用户**：请切换到 `multi-agent-linux` 分支，获取 Linux 特有的设置和安装说明。\n>\n> ```bash\n> git checkout multi-agent-linux\n> ```\n>\n> **0. Windows 旧版用户**：如需使用之前的 Windows 设置，请切换到 `windows_legacy` 分支。\n>\n> **0. macOS 旧版用户**：如需使用之前的单模型 macOS 设置，请切换到 `mac_legacy` 分支。\n\n\n### 1. 下载应用\n为方便使用，[下载应用](https:\u002F\u002Fturix.ai\u002F)\n\n或按照以下手动设置步骤操作：\n\n### 2. 创建 Python 3.12 环境\n首先克隆仓库并运行：\n```bash\nconda create -n turix_env python=3.12\nconda activate turix_env        # 需要 conda ≥ 22.9\npip install -r requirements.txt\n```\n\n### 3. 授予 macOS 权限\n\n#### 3.1 辅助功能\n1. 打开 **系统设置 ▸ 隐私与安全性 ▸ 辅助功能**  \n2. 点击 **＋**，然后添加 **终端** 和 **Visual Studio Code** ——您使用的任何 IDE  \n3. 如果智能体仍然无法运行，还需添加 **\u002Fusr\u002Fbin\u002Fpython3**\n\n#### 3.2 Safari 自动化\n1. **Safari ▸ 设置 ▸ 高级** → 启用 **显示 Web 开发者功能**  \n2. 在新的 **开发** 菜单中，启用  \n    * **允许远程自动化**  \n    * **允许来自 Apple 事件的 JavaScript**  \n\n##### 触发权限对话框（每个终端窗口运行一次）\n```\n# macOS 终端\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"触发辅助功能请求\\\")\" in document 1'\n\n# VS Code 集成终端（重复执行以授予 VS Code 权限）\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"触发辅助功能请求\\\")\" in document 1'\n```\n\n> **请在每个对话框中点击“允许”**，以便智能体能够控制 Safari。\n\n### 4. 配置与运行\n\n#### 4.1 编辑任务配置\n\n> [!IMPORTANT]\n> **任务配置至关重要**：任务指令的质量会直接影响自动化成功率。清晰、具体的提示能够带来更好的自动化效果。\n\n在 `examples\u002Fconfig.json` 中编辑任务：\n```json\n{\n    \"agent\": {\n         \"task\": \"打开系统设置，切换到深色模式\"\n    }\n}\n```\n\n#### 4.2 编辑 API 配置\n\n现在可通过我们的[官方网页](https:\u002F\u002Fturix.ai\u002Fapi-platform\u002F)获取 API，并享受 $20 的免费额度。登录网站后，API 密钥位于页面底部。\n\n在主（多智能体）分支中，您需要设置大脑模型、执行者模型和记忆模型。目前仅支持 macOS 系统。如果您启用规划功能（`agent.use_plan: true`），还需要设置规划器模型。\n我们强烈建议将 turix-actor 模型作为执行者模型。大脑模型则可以根据您的需求选择任意 VLM，我们在平台上提供了 qwen3.5vl。经测试，Gemini-3-pro 是最智能的模型，而 Gemini-3-flash 在速度和智能方面也足以应对大多数任务。\n\n在 `examples\u002Fconfig.json` 中编辑 API 配置：\n```json\n\"brain_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"actor_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-actor\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"memory_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   },\n\"planner_llm\": {\n      \"provider\": \"turix\",\n      \"model_name\": \"turix-brain\",\n      \"api_key\": \"YOUR_API_KEY\",\n      \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n   }\n```\n\n若使用本地 Ollama 环境，则需将各角色指向您的 Ollama 服务器：\n```json\n\"brain_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"actor_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"memory_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   },\n\"planner_llm\": {\n      \"provider\": \"ollama\",\n      \"model_name\": \"llama3.2-vision\",\n      \"base_url\": \"http:\u002F\u002Flocalhost:11434\"\n   }\n```\n\n#### 4.3 配置自定义模型（可选）\n\n如果您希望使用未在 main.py 的 build_llm 函数中定义的其他模型，需先进行定义，再进行配置。\n\nmain.py：\n\n```\nif provider == \"name_you_want\":\n        return ChatOpenAI(\n            model=\"gpt-4.1-mini\", api_key=api_key, temperature=0.3\n        )\n```\n根据您的 LLM 类型，在 ChatOpenAI、ChatGoogleGenerativeAI、ChatAnthropic 或 ChatOllama 之间进行切换，并相应更改模型名称。\n\n#### 4.4 技能（可选）\n\n技能是以轻量级 Markdown 格式的操作手册形式存储在单个文件夹中（默认为 `skills\u002F`）。每个技能文件以包含 `name` 和 `description` 的 YAML 前言开始，随后是具体的操作步骤。规划器仅查看技能的名称和描述来选择相关技能；而大脑则会接收到完整的技能内容，用于指导各个步骤的目标。\n技能的选择需要启用规划功能（`agent.use_plan: true`）。\n\n技能文件示例（`skills\u002Fgithub-web-actions.md`）：\n```md\n---\nname: github-web-actions\ndescription: 用于在浏览器中导航 GitHub（搜索仓库、添加星标等）。\n---\n# GitHub Web 操作\n- 打开 GitHub，使用站内搜索，进入目标仓库页面。\n- 如果需要登录，请在继续操作前询问用户。\n- 在继续下一步之前，请确认“星标”按钮的状态。\n```\n\n在 `examples\u002Fconfig.json` 中启用：\n```json\n{\n  \"agent\": {\n    \"use_plan\": true,\n    \"use_skills\": true,\n    \"skills_dir\": \"skills\",\n    \"skills_max_chars\": 4000\n  }\n}\n```\n\n#### 4.5 启动智能体\n\n```bash\npython examples\u002Fmain.py\n```\n\n**尽情享受免手动操作的计算体验 🎉**\n\n#### 4.6 恢复已终止的任务\n\n若任务因中断而停止，可在 `examples\u002Fconfig.json` 中设置稳定的 `agent_id` 并启用 `resume` 功能，以恢复任务：\n```json\n{\n    \"agent\": {\n         \"resume\": true,\n         \"agent_id\": \"my-task-001\"\n    }\n}\n```\n\n注意事项：\n- 请使用与您希望恢复的任务相同的 `agent_id`。\n- 恢复时需保持相同的 `task` 内容。\n- 只有当 `src\u002Fagent\u002Ftemp_files\u002F\u003Cagent_id>\u002Fmemory.jsonl` 文件中存在先前的记忆数据时，才能成功恢复。\n- 若要从头开始，请将 `resume` 设置为 `false`，或更改 `agent_id`，或删除 `src\u002Fagent\u002Ftemp_files\u002F\u003Cagent_id>` 目录。\n\n## 🤝 贡献\n\n我们欢迎各位的贡献！请阅读我们的[贡献指南](CONTRIBUTING.MD)，开始参与吧。\n\n快速链接：\n- [开发环境搭建](CONTRIBUTING.MD#development-setup)\n- [代码风格指南](CONTRIBUTING.MD#code-style-guidelines)\n- [测试](CONTRIBUTING.MD#testing)\n- [拉取请求流程](CONTRIBUTING.MD#pull-request-process)\n\n如发现 bug 或有功能需求，请[提交 issue](https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues)。\n\n## 🗺️ 路线图\n\n| 季度 | 功能 | 描述 |\n|---------|---------|-------------|\n| **2025年第三季度** | **✅ 终止与恢复** | 支持从已终止的任务中恢复。 |\n| **2025年第三季度** | **✅ Windows支持** | 跨平台兼容性，将TuriX自动化引入Windows环境 *(现已可用)* |\n| **2025年第三季度** | **✅ 增强的MCP集成** | 更深入的模型上下文协议支持，实现与第三方智能体的无缝连接 *(现已可用)* |\n| **2025年第四季度** | **✅ 新一代AI模型** | 显著提升点击准确性和任务执行能力 |\n| **2025年第四季度** | **✅ 针对Windows优化的模型** | 原生Windows模型架构，可在微软平台上实现更卓越的性能 |\n| **2025年第四季度** | **✅ 支持Gemini-3-pro模型** | 可运行任何兼容的视觉语言模型 |\n| **2025年第四季度** | **✅ 计划器** | 理解用户意图，并制定分步计划以完成任务 |\n| **2025年第四季度** | **✅ 多智能体架构** | 评估并指导每个工作步骤 |\n| **2025年第四季度** | **✅ DuckDuckGo集成** | 加速信息收集过程，实现更智能的规划（已在主分支上线） |\n| **2026年第一季度** | **✅ Ollama支持** | 支持Ollama Qwen3vl模型 |\n| **2026年第一季度** | **✅ 可恢复的内存压缩** | 推进内存管理机制，以稳定性能（已承诺进入测试版） |\n| **2026年第一季度** | **✅ 技能** | 稳定智能体工作流。 |\n| **2026年第一季度** | **✅ OpenClaw技能** | 已发布至ClawHub（https:\u002F\u002Fclawhub.ai\u002FTongyu-Yan\u002Fturix-cua），使OpenClaw能够将TuriX作为其“眼睛”和“双手”。 |\n| **2026年第一季度** | **✅ OpenClaw Windows技能更新** | 更新了`multi-agent-windows`本地技能包，新增直接调度功能（`turix`\u002F`turix-win`）、必要分支检查以及`--dry-run`支持。 |\n| **2026年第一季度** | **✅ Linux支持** | Linux支持现已在`multi-agent-linux`分支上线（适用于Ubuntu及其他发行版）。 |\n| **2026年第二季度** | **✅ 浏览器自动化** | 支持类似Chrome的浏览器，以提升可扩展性 |\n| **2026年第二季度** | **✅ 持久化内存** | 学习用户偏好，并在不同会话间保持任务历史记录 |\n| **2026年第二季度** | **✅ 示范学习** | 通过展示您偏好的方法和工作流程来训练智能体。","# TuriX-CUA 快速上手指南\n\nTuriX 是一款开源的桌面自动化 AI 代理工具，支持通过自然语言指令直接操作 macOS、Windows 和 Linux 桌面环境。它采用多模型架构（Brain\u002FActor\u002FMemory），无需针对特定应用开发 API，即可实现复杂的跨应用工作流自动化。\n\n## 1. 环境准备\n\n### 系统要求\n*   **macOS**: 版本 15+ (Sonoma 或更新)\n*   **Windows**: 需切换至 `multi-agent-windows` 分支\n*   **Linux**: 需切换至 `multi-agent-linux` 分支 (如 Ubuntu)\n*   **Python**: 3.12\n*   **包管理器**: Conda (版本 ≥ 22.9)\n\n### 前置依赖\n*   已安装 Conda\n*   macOS 用户需准备 Safari 浏览器\n*   获取 TuriX API Key：访问 [TuriX API 平台](https:\u002F\u002Fturix.ai\u002Fapi-platform\u002F) 注册并获取密钥（新用户通常有额度赠送）\n\n## 2. 安装步骤\n\n以下以 macOS 主分支为例，其他系统请先切换对应分支。\n\n### 2.1 克隆仓库与创建环境\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FTuriX-AI\u002FTuriX-CUA.git\ncd TuriX-CUA\n\n# 如果是 Windows 用户，请执行: git checkout multi-agent-windows\n# 如果是 Linux 用户，请执行: git checkout multi-agent-linux\n\n# 创建 Python 3.12 环境\nconda create -n turix_env python=3.12\nconda activate turix_env\n\n# 安装依赖\npip install -r requirements.txt\n```\n\n### 2.2 配置 macOS 权限 (仅 macOS 用户)\n\nTuriX 需要辅助功能和 Safari 自动化权限才能控制桌面。\n\n**A. 开启辅助功能 (Accessibility)**\n1. 打开 **系统设置 > 隐私与安全性 > 辅助功能**。\n2. 点击 `+` 号，添加 **Terminal** (终端) 和你使用的 IDE (如 **Visual Studio Code**)。\n3. 如果运行失败，还需添加 `\u002Fusr\u002Fbin\u002Fpython3`。\n\n**B. 开启 Safari 自动化**\n1. 打开 Safari，进入 **设置 > 高级**，勾选 **为 Web 开发人员显示功能**。\n2. 在顶部菜单栏出现的 **开发 (Develop)** 菜单中，启用：\n   * **允许远程自动化 (Allow Remote Automation)**\n   * **允许 Apple 事件中的 JavaScript (Allow JavaScript from Apple Events)**\n\n**C. 触发权限弹窗**\n在终端中运行以下命令，并在弹出的对话框中点击“允许”：\n\n```bash\n# 在 Terminal 中运行\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"Triggering accessibility request\\\")\" in document 1'\n\n# 如果在 VS Code 集成终端中运行，需再次执行以授权 VS Code\nosascript -e 'tell application \"Safari\" \\\nto do JavaScript \"alert(\\\"Triggering accessibility request\\\")\" in document 1'\n```\n\n## 3. 基本使用\n\n### 3.1 配置 API 与任务\n\n编辑配置文件 `examples\u002Fconfig.json`。你需要配置 LLM 提供商、模型名称及 API Key。\n\n**示例配置 (`examples\u002Fconfig.json`)：**\n\n```json\n{\n    \"agent\": {\n        \"task\": \"open system settings, switch to Dark Mode\",\n        \"use_plan\": true\n    },\n    \"brain_llm\": {\n        \"provider\": \"turix\",\n        \"model_name\": \"turix-brain\",\n        \"api_key\": \"YOUR_API_KEY\",\n        \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n    },\n    \"actor_llm\": {\n        \"provider\": \"turix\",\n        \"model_name\": \"turix-actor\",\n        \"api_key\": \"YOUR_API_KEY\",\n        \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n    },\n    \"memory_llm\": {\n        \"provider\": \"turix\",\n        \"model_name\": \"turix-brain\",\n        \"api_key\": \"YOUR_API_KEY\",\n        \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n    },\n    \"planner_llm\": {\n        \"provider\": \"turix\",\n        \"model_name\": \"turix-brain\",\n        \"api_key\": \"YOUR_API_KEY\",\n        \"base_url\": \"https:\u002F\u002Fturixapi.io\u002Fv1\"\n    }\n}\n```\n\n> **注意**：\n> * 请将 `YOUR_API_KEY` 替换为你从 TuriX 平台获取的真实 Key。\n> * `turix-actor` 推荐作为执行模型，`turix-brain` 或其他 VLM (如 Qwen3-VL, Gemini-3-pro) 可作为大脑模型。\n\n### 3.2 运行代理\n\n配置完成后，在项目根目录运行启动脚本：\n\n```bash\npython main.py\n```\n\n代理将读取 `config.json` 中的 `task` 字段，并开始自动执行桌面操作。你可以在终端观察执行日志，并在屏幕上看到 AI 自动控制鼠标和键盘的过程。\n\n### 3.3 自定义任务\n\n修改 `examples\u002Fconfig.json` 中的 `\"task\"` 字段即可执行不同任务，例如：\n*   `\"task\": \"Search for iPhone 16 price on Safari and save the result to a Pages document\"`\n*   `\"task\": \"Open Discord, find the latest message from my boss, and reply with 'Received'\"`\n\n确保任务描述清晰具体，以获得最佳的自动化成功率。","市场分析师李明需要在每周一早晨从多个竞品官网收集最新的产品定价和功能更新，并整理成 Excel 报表发送给团队。这项工作需要同时操作浏览器、截图工具和表格软件，流程繁琐且重复性极高。\n\n### 没有 TuriX-CUA 时\n- **人工操作耗时冗长**：李明需要手动打开十几个网页，逐个复制粘贴价格数据，每次至少耗费 2 小时，严重挤占核心分析时间。\n- **跨应用切换易出错**：在浏览器、截图工具和 Excel 之间频繁切换，容易因疲劳导致数据录入错误，或遗漏关键的功能更新截图。\n- **流程僵化难以维护**：一旦竞品网站页面布局微调，原本写死的自动化脚本（如 Selenium）就会报错，需要重新编写代码，维护成本高昂。\n- **无法处理非结构化信息**：传统脚本难以理解页面上的动态弹窗或非标准文本格式，遇到异常情况需人工介入打断流程。\n\n### 使用 TuriX-CUA 后\n- **自然语言驱动自动化**：李明只需对 TuriX-CUA 说“访问竞品 A、B、C 官网，提取最新定价并截图保存”，AI 代理即可自主操控鼠标和键盘完成任务，全程无需编码。\n- **智能识别与容错**：基于先进的计算机使用代理技术，TuriX-CUA 能像人一样“看”懂屏幕内容，即使页面布局轻微变化，也能准确定位数据区域，显著降低出错率。\n- **无缝跨应用协作**：TuriX-CUA 直接在桌面层级操作，流畅地在 Safari 浏览器和 Excel 之间切换，自动将提取的数据填入对应单元格，并插入截图，实现端到端自动化。\n- **灵活适配与零成本**：作为开源工具，李明可根据需求在 `config.json` 中切换不同的 AI 模型，针对特定网站优化策略，且个人使用完全免费，大幅降低技术门槛。\n\nTuriX-CUA 将繁琐的桌面重复劳动转化为简单的自然语言指令，让 AI 真正具备“动手”能力，极大释放了知识工作者的生产力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTurixAI_TuriX-CUA_48025ee9.png","TurixAI","NGT-LTD","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTurixAI_c48cf2ce.png","",null,"https:\u002F\u002Fgithub.com\u002FTurixAI",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",97.7,{"name":88,"color":89,"percentage":90},"Shell","#89e051",2.3,2065,196,"2026-04-02T20:44:49","MIT",4,"macOS, Windows, Linux","未说明",{"notes":99,"python":100,"dependencies":101},"1. macOS 需版本 15+，并授予终端\u002FIDE 辅助功能权限及 Safari 自动化权限。2. Windows 用户需切换至 multi-agent-windows 分支。3. Linux 用户需切换至 multi-agent-linux 分支。4. 默认使用云端 API (turixapi.io)，也可配置为本地模型如 Ollama。5. 支持与 OpenClaw 集成。","3.12",[102],"conda (>= 22.9)",[15,26],[105,106,107,108,109,110,111,112,113,114,115],"agent","ai-agents","computer-use-agent","cua","computer-automation","mcp","computer-use","browser-use","gui-agent","gui-operator","qwen3-vl","2026-03-27T02:49:30.150509","2026-04-06T07:11:51.977895",[119,124,129,134,139,144,149,154],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},11149,"在 Windows 上使用开源代码时，鼠标点击位置不准确怎么办？","这通常与使用的模型有关。如果使用 Qwen3-VL-235B 模型，可能存在定位不准的问题（准确率约80%）。建议尝试更换为 Qwen3-vl-32B-BF16 模型，测试显示该模型的鼠标点击基本准确。此外，TuriX 原生针对 Mac 优化，在 Mac 上的体验通常最好。确保屏幕分辨率在 720p 到 1080p 范围内也有助于提升效果。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F14",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},11150,"是否支持本地运行 Ollama 模型（如 Qwen3-VL）？","支持 Ollama。你可以通过修改 main.py 和配置文件，使用 langchain 的 ChatOllama 包来集成。但需要注意，仓库中的动作空间（action space）并非针对 Qwen3-VL 训练，因此直接使用可能会经常失败。官方建议使用其 API 平台以获得更稳定的体验。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F9",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},11151,"Windows 上执行输入文本动作时报错 \"SetClipboardData, 句柄无效\" 如何解决？","这是 Windows 上已知的剪贴板访问问题。维护者已将相关包更改为 pyperclip 以修复此问题。如果遇到此错误，请确保更新到包含此修复的版本，或检查项目中是否已使用 pyperclip 替代原有的剪贴板操作方式。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F4",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},11152,"如何启用 MCP (Model Context Protocol) 支持？","目前可以通过特定分支体验 MCP 服务。你可以使用 mac_mcp 分支（针对 macOS）或 windows_mcp 分支（针对 Windows），配合 Claude for Desktop 来调用 TuriX 的 MCP 服务。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F1",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},11153,"MacOS 上使用中文交流时规划步骤耗时过长，或遇到其他应用问题怎么办？","如果在使用中文交流时“规划动作”步骤耗时过长，可能是网络问题导致的。建议尝试禁用 VPN 后重试。对于应用内设备无法登出或快捷键无法修改等问题，官方表示会联系应用团队进行修复，建议关注后续更新或通过 Discord\u002F邮件联系支持团队。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F25",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},11154,"使用 TuriX 模型无法完成任务，推荐什么模型？","建议优先使用 config 配置文件中指定的模型，那是经过测试的最佳配置。如果条件允许，可以尝试使用 Claude Opus 4.6。目前 Computer Use 对大模型来说非常复杂，难以完成高难度任务是正常现象，需等待后续模型迭代优化。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F22",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},11155,"TuriX 是否支持 Linux 系统？","Linux 支持目前仍在开发中，尚未正式发布。官方计划将其加入路线图，建议加入 Discord 社区以获取最新的发布信息和动态。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F2",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},11156,"新手如何开始使用 TuriX-CUA，有推荐的配置吗？","对于新用户，建议加入官方 Discord 社区获取更多支持和指导，或者直接发送邮件至 contact@turix.ai 进行咨询。目前主要依赖社区互动和官方直接支持来获取最佳实践。","https:\u002F\u002Fgithub.com\u002FTurixAI\u002FTuriX-CUA\u002Fissues\u002F11",[160,165,170,175],{"id":161,"version":162,"summary_zh":163,"released_at":164},61603,"v0.4","发布 v0.4，支持脑-智能体模式的多智能体协同","2026-03-06T06:46:24",{"id":166,"version":167,"summary_zh":168,"released_at":169},61604,"v0.3","TuriX v0.3 现已在主分支上线！本次发布新增了 DuckDuckGo 搜索、Ollama 支持、先进的可恢复内存压缩功能，以及“技能”模块——为您的桌面自动化带来更智能的规划、更健壮的内存管理和可复用的工作流。我们非常期待更多用户试用并提供反馈，共同推动平台不断向前发展。","2026-01-27T07:48:37",{"id":171,"version":172,"summary_zh":173,"released_at":174},61605,"v0.2","此版本兼容我们最新款产品，采用了更先进的输出架构和内存控制机制。","2025-12-01T06:27:14",{"id":176,"version":177,"summary_zh":178,"released_at":179},61606,"0.1.0","这是TuriX-CUA模型的第一个测试版。","2025-08-04T10:41:50"]