[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AmberSahdev--Open-Interface":3,"tool-AmberSahdev--Open-Interface":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",146793,2,"2026-04-08T23:32:35",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":154},5754,"AmberSahdev\u002FOpen-Interface","Open-Interface","Control Any Computer Using LLMs.","Open-Interface 是一款能让大语言模型（LLM）直接操控你电脑的开源工具。只需输入自然语言指令，它就能像“自动驾驶”一样，自动规划步骤并模拟键盘和鼠标操作来完成任务，例如解字谜游戏、在文档中制定计划甚至编写网页应用。\n\n它主要解决了传统自动化工具门槛高、灵活性差的问题。用户无需编写复杂的脚本或代码，即可让 AI 理解屏幕内容并执行跨应用的复杂工作流。其核心技术亮点在于“闭环反馈”机制：Open-Interface 在执行过程中会不断截取屏幕画面发送给大模型，根据实时进展自动修正操作路径，确保任务准确完成。目前该工具已支持 macOS、Linux 和 Windows 主流系统，并兼容 GPT-4o、Gemini 等多种后端模型。\n\n这款软件非常适合希望提升工作效率的普通用户、想要探索 AI 代理潜力的研究人员，以及寻求快速原型验证的开发者。无论你是想自动化日常琐事，还是研究多模态智能体如何与图形界面交互，Open-Interface 都提供了一个直观且强大的实验平台，让每个人都能轻松体验由 AI 接管电脑操作的未来工作方式。","# Open Interface\n\n\u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_cccf3a9cbb60.png\" align=\"right\" alt=\"Open Interface Logo\" width=\"120\" height=\"120\">\n\u003C\u002Fpicture>\n\n### Control Your Computer Using LLMs\n\nOpen Interface\n- Self-drives your computer by sending your requests to an LLM backend (GPT-4o, Gemini, etc) to figure out the required steps.\n- Automatically executes these steps by simulating keyboard and mouse input.\n- Course-corrects by sending the LLM backend updated screenshots of the progress as needed.\n\n\n\u003Cdiv align=\"center\">\n\u003Ch4>Full Autopilot for All Computers Using LLMs\u003C\u002Fh4>\n\n  [![macOS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fmac%20os-000000?style=for-the-badge&logo=apple&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  [![Linux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinux-FCC624?style=for-the-badge&logo=linux&logoColor=black)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  [![Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWindows-0078D6?style=for-the-badge&logo=windows&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  \u003Cbr>\n  [![Github All Releases](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FAmberSahdev\u002FOpen-Interface\u002Ftotal.svg)]((https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest))\n  ![GitHub code size in bytes](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Fcode-size\u002FAmberSahdev\u002FOpen-Interface)\n  ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmberSahdev\u002FOpen-Interface)\n  ![GitHub](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FAmberSahdev\u002FOpen-Interface) \n  [![GitHub Latest Release)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FAmberSahdev\u002FOpen-Interface)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest)\n\n\u003C\u002Fdiv>\n\n### \u003Cins>Demo\u003C\u002Fins> 💻\n\"Solve Today's Wordle\"\u003Cbr>\n![Solve Today's Wordle](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_5e640e9be326.gif)\u003Cbr>\n*clipped, 2x*\n\n\u003Cdetails>\n    \u003Csummary>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fblob\u002Fmain\u002FMEDIA.md#demos\">More Demos\u003C\u002Fa>\u003C\u002Fsummary>\n    \u003Cul>\n\t    \u003Cli>\n\t\t    \"Make me a meal plan in Google Docs\"\n\t\t    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_29ed76f3703b.gif\" style=\"margin: 5px; border-radius: 10px;\">\n\t    \u003C\u002Fli>\n\t    \u003Cli>\n\t\t    \"Write a Web App\"\n\t\t    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_10763fe05dea.gif\" style=\"margin: 5px; border-radius: 10px;\">\n\t    \u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n\u003Chr>\n\n### \u003Cins>Install\u003C\u002Fins> 💽\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fthumb\u002F8\u002F84\u002FApple_Computer_Logo_rainbow.svg\u002F960px-Apple_Computer_Logo_rainbow.svg.png?20250629104313\" alt=\"MacOS Logo\" width=\"13\" height=\"15\"> \u003Cb>MacOS\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>Download the MacOS binary from the latest \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">release\u003C\u002Fa>.\u003C\u002Fli>\n        \u003Cli>Unzip the file and move Open Interface to the Applications Folder.\u003Cbr>\u003Cbr> \n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_f1c4095146a8.png\" width=\"350\" style=\"border-radius: 10px;\n    border: 3px solid black;\">\n        \u003C\u002Fli>\n    \u003C\u002Ful>\n  \u003Cdetails>\n    \u003Csummary>\u003Cb>Apple Silicon M-Series Macs\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n      \u003Cli>\n        Open Interface will ask you for Accessibility access to operate your keyboard and mouse for you, and Screen Recording access to take screenshots to assess its progress.\u003Cbr>\n      \u003C\u002Fli>\n      \u003Cli>\n        In case it doesn't, manually add these permission via \u003Cb>System Settings\u003C\u002Fb> -> \u003Cb>Privacy and Security\u003C\u002Fb>\n        \u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_31142431c24d.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_e8d100901197.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\n      \u003C\u002Fli>\n    \u003C\u002Ful>\n  \u003C\u002Fdetails>\n  \u003Cdetails>\n    \u003Csummary>\u003Cb>Intel Macs\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>\n            Launch the app from the Applications folder.\u003Cbr>\n            You might face the standard Mac \u003Ci>\"Open Interface cannot be opened\" error\u003C\u002Fi>.\u003Cbr>\u003Cbr>\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_51956c1844cc.png\" width=\"200\" style=\"border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n            In that case, press \u003Cb>\u003Ci>\u003Cins>\"Cancel\"\u003C\u002Fins>\u003C\u002Fi>\u003C\u002Fb>.\u003Cbr>\n            Then go to \u003Cb>System Preferences -> Security and Privacy -> Open Anyway.\u003C\u002Fb>\u003Cbr>\u003Cbr>\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_e7fea4d48ee3.png\" width=\"100\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> &nbsp; \n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_cb3d474933f1.png\" width=\"100\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> &nbsp;\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_771b62192d6c.png\" width=\"400\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> \n        \u003C\u002Fli>\n        \u003Cbr>\n        \u003Cli>\n        Open Interface will also need Accessibility access to operate your keyboard and mouse for you, and Screen Recording access to take screenshots to assess its progress.\u003Cbr>\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3221def317c2.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_b396474c04b4.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\n        \u003C\u002Fli>\n      \u003C\u002Ful>\n\u003C\u002Fdetails>\n      \u003Cul>\n        \u003Cli>Lastly, checkout the \u003Ca href=\"#setup\">Setup\u003C\u002Fa> section to connect Open Interface to LLMs (OpenAI GPT-4V)\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fa\u002Faf\u002FTux.png\" alt=\"Linux Logo\" width=\"18\" height=\"18\"> \u003Cb>Linux\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>Linux binary has been tested on Ubuntu 20.04 so far.\u003C\u002Fli>\n        \u003Cli>Download the Linux zip file from the latest \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">release\u003C\u002Fa>.\u003C\u002Fli>\n        \u003Cli>\n            Extract the executable and checkout the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup\">Setup\u003C\u002Fa> section to connect Open Interface to LLMs, such as OpenAI GPT-4V.\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002F5\u002F5f\u002FWindows_logo_-_2012.svg\" alt=\"Linux Logo\" width=\"15\" height=\"15\"> \u003Cb>Windows\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n\t\u003Cli>Windows binary has been tested on Windows 10.\u003C\u002Fli>\n\t\u003Cli>Download the Windows zip file from the latest \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">release\u003C\u002Fa>.\u003C\u002Fli>\n\t\u003Cli>Unzip the folder, move the exe to the desired location, double click to open, and voila.\u003C\u002Fli>\n\t\u003Cli>Checkout the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup\">Setup\u003C\u002Fa> section to connect Open Interface to LLMs (OpenAI GPT-4V)\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fthumb\u002Fc\u002Fc3\u002FPython-logo-notext.svg\u002F120px-Python-logo-notext.svg.png?20250701090410\" alt=\"Python Logo\" width=\"15\" height=\"15\"> \u003Cb>Run as a Script\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n\t  \u003Cli>Clone the repo \u003Ccode>git clone https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface.git\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>Enter the directory \u003Ccode>cd Open-Interface\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>\u003Cb>Optionally\u003C\u002Fb> use a Python virtual environment \n        \u003Cul>\n          \u003Cli>Note: pyenv handles tkinter installation weirdly so you may have to debug for your own system yourself.\u003C\u002Fli>\n          \u003Cli>\u003Ccode>pyenv local 3.12.2\u003C\u002Fcode>\u003C\u002Fli>\n          \u003Cli>\u003Ccode>python -m venv .venv\u003C\u002Fcode>\u003C\u002Fli> \n          \u003Cli>\u003Ccode>source .venv\u002Fbin\u002Factivate\u003C\u002Fcode>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Fli>\n      \u003Cli>Install dependencies \u003Ccode>pip install -r requirements.txt\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>Run the app using \u003Ccode>python app\u002Fapp.py\u003C\u002Fcode>\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n### \u003Cins id=\"setup\">Setup\u003C\u002Fins> 🛠️\n\u003Cdetails>\n    \u003Csummary>\u003Cb>Set up the OpenAI API key\u003C\u002Fb>\u003C\u002Fsummary>\n\n- Get your OpenAI API key\n  - Open Interface needs access to GPT-4o to perform user requests. GPT-4o keys can be downloaded from your OpenAI account at [platform.openai.com\u002Fsettings\u002Forganization\u002Fapi-keys](https:\u002F\u002Fplatform.openai.com\u002Fsettings\u002Forganization\u002Fapi-keys).\n  - [Follow the steps here](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F8264644-what-is-prepaid-billing) to add balance to your OpenAI account. To unlock GPT-4o a minimum payment of $5 is needed.\n  - [More info](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F7102672-how-can-i-access-gpt-4)\n- Save the API key in Open Interface settings\n  - In Open Interface, go to the Settings menu on the top right and enter the key you received from OpenAI into the text field like so: \u003Cbr>\n  \u003Cbr>\n  \u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3d29f8e54a16.png\" align=\"middle\" alt=\"Set API key in settings\" width=\"400\">\n  \u003C\u002Fpicture>\u003Cbr>\n  \u003Cbr>\n\n- After setting the API key for the first time you'll need to \u003Cb>restart the app\u003C\u002Fb>.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cb>Set up the Google Gemini API key\u003C\u002Fb>\u003C\u002Fsummary>\n\n- Go to Settings -> Advanced Settings and select the Gemini model you wish to use.\n- Get your Google Gemini API key from https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey.\n- Save the API key in Open Interface settings.\n- Save the settings and \u003Cb>restart the app\u003C\u002Fb>.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cb>Optional: Setup a Custom LLM\u003C\u002Fb>\u003C\u002Fsummary>\n\n- Open Interface supports using other OpenAI API style LLMs (such as Llava) as a backend and can be configured easily in the Advanced Settings window.\n- Enter the custom base url and model name in the Advanced Settings window and the API key in the Settings window as needed. \n- NOTE - If you're using Llama:\n  - You may need to enter a random string like \"xxx\" in the API key input box.\n  - You may need to append \u002Fv1\u002F to the base URL.\n    \u003Cbr>\n    \u003Cpicture>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_9b11c0499e4c.png\" align=\"middle\" alt=\"Set API key in settings\" width=\"400\">\n    \u003C\u002Fpicture>\u003Cbr>\n    \u003Cbr>\n- If your LLM does not support an OpenAI style API, you can use a library like [this](https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm) to convert it to one.\n- You will need to restart the app after these changes.\n\n\u003C\u002Fdetails>\n\n\u003Chr>\n\n### \u003Cins>Stuff It’s Error-Prone At, For Now\u003C\u002Fins> 😬\n\n- Accurate spatial-reasoning and hence clicking buttons.\n- Keeping track of itself in tabular contexts, like Excel and Google Sheets, for similar reasons as stated above.\n- Navigating complex GUI-rich applications like Counter-Strike, Spotify, Garage Band, etc due to heavy reliance on cursor actions.\n\n\n### \u003Cins>The Future\u003C\u002Fins> 🔮\n(*with better models trained on video walkthroughs like Youtube tutorials*)\n- \"Create a couple of bass samples for me in Garage Band for my latest project.\"\n- \"Read this design document for a new feature, edit the code on Github, and submit it for review.\"\n- \"Find my friends' music taste from Spotify and create a party playlist for tonight's event.\"\n- \"Take the pictures from my Tahoe trip and make a White Lotus type montage in iMovie.\"\n\n### \u003Cins>Notes\u003C\u002Fins> 📝\n- Cost Estimation: $0.0005 - $0.002 per LLM request depending on the model used.\u003Cbr>\n(User requests can require between two to a few dozen LLM backend calls depending on the request's complexity.)\n- You can interrupt the app anytime by pressing the Stop button, or by dragging your cursor to any of the screen corners.\n- Open Interface can only see your primary display when using multiple monitors. Therefore, if the cursor\u002Ffocus is on a secondary screen, it might keep retrying the same actions as it is unable to see its progress.\n\n\u003Chr>\n\n### \u003Cins>System Diagram\u003C\u002Fins> 🖼️\n```\n+----------------------------------------------------+\n| App                                                |\n|                                                    |\n|    +-------+                                       |\n|    |  GUI  |                                       |\n|    +-------+                                       |\n|        ^                                           |\n|        |                                           |\n|        v                                           |\n|  +-----------+  (Screenshot + Goal)  +-----------+ |\n|  |           | --------------------> |           | |\n|  |    Core   |                       |    LLM    | |\n|  |           | \u003C-------------------- |  (GPT-4o) | |\n|  +-----------+    (Instructions)     +-----------+ |\n|        |                                           |\n|        v                                           |\n|  +-------------+                                   |\n|  | Interpreter |                                   |\n|  +-------------+                                   |\n|        |                                           |\n|        v                                           |\n|  +-------------+                                   |\n|  |   Executer  |                                   |\n|  +-------------+                                   |\n+----------------------------------------------------+\n```\n\n--- \n\n### \u003Cins>Star History\u003C\u002Fins> ⭐️\n\n\u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3b34079665fd.png\" alt=\"Star History\" width=\"720\">\n\u003C\u002Fpicture>\n\n### \u003Cins>Links\u003C\u002Fins> 🔗\n- Check out more of my projects at [AmberSah.dev](https:\u002F\u002FAmberSah.dev).\n- Other demos and press kit can be found at [MEDIA.md](MEDIA.md).\n\n\n\u003Cdiv align=\"center\">\n\t\u003Cimg alt=\"GitHub Repo stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmberSahdev\u002FOpen-Interface\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\"> \u003Cimg alt=\"GitHub followers\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Ffollowers\u002FAmberSahdev\"> \u003C\u002Fa>\n\u003C\u002Fdiv>\n","# 开放接口\n\n\u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_cccf3a9cbb60.png\" align=\"right\" alt=\"开放接口标志\" width=\"120\" height=\"120\">\n\u003C\u002Fpicture>\n\n### 使用大语言模型控制您的电脑\n\n开放接口\n- 通过将您的请求发送至大语言模型后端（如GPT-4o、Gemini等），自动规划出完成任务所需的步骤，从而实现对电脑的自主操作。\n- 通过模拟键盘和鼠标输入，自动执行这些步骤。\n- 根据需要向大语言模型后端发送更新的屏幕截图，以进行过程中的修正和调整。\n\n\n\u003Cdiv align=\"center\">\n\u003Ch4>利用大语言模型实现所有电脑的完全自动驾驶\u003C\u002Fh4>\n\n  [![macOS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fmac%20os-000000?style=for-the-badge&logo=apple&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  [![Linux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinux-FCC624?style=for-the-badge&logo=linux&logoColor=black)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  [![Windows](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWindows-0078D6?style=for-the-badge&logo=windows&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install)\n  \u003Cbr>\n  [![Github 所有版本下载量](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FAmberSahdev\u002FOpen-Interface\u002Ftotal.svg)]((https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest))\n  ![GitHub 代码大小（字节）](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Fcode-size\u002FAmberSahdev\u002FOpen-Interface)\n  ![GitHub 仓库星级](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmberSahdev\u002FOpen-Interface)\n  ![GitHub 许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FAmberSahdev\u002FOpen-Interface) \n  [![GitHub 最新发布版本](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FAmberSahdev\u002FOpen-Interface)](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest)\n\n\u003C\u002Fdiv>\n\n### \u003Cins>演示\u003C\u002Fins> 💻\n“解决今天的Wordle”\u003Cbr>\n![解决今天的Wordle](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_5e640e9be326.gif)\u003Cbr>\n*截取并放大2倍*\n\n\u003Cdetails>\n    \u003Csummary>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fblob\u002Fmain\u002FMEDIA.md#demos\">更多演示\u003C\u002Fa>\u003C\u002Fsummary>\n    \u003Cul>\n\t    \u003Cli>\n\t\t    “在Google文档中为我制定一份餐计划”\n\t\t    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_29ed76f3703b.gif\" style=\"margin: 5px; border-radius: 10px;\">\n\t    \u003C\u002Fli>\n\t    \u003Cli>\n\t\t    “编写一个Web应用”\n\t\t    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_10763fe05dea.gif\" style=\"margin: 5px; border-radius: 10px;\">\n\t    \u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n\u003Chr>\n\n### \u003Cins>安装\u003C\u002Fins> 💽\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fthumb\u002F8\u002F84\u002FApple_Computer_Logo_rainbow.svg\u002F960px-Apple_Computer_Logo_rainbow.svg.png?20250629104313\" alt=\"MacOS Logo\" width=\"13\" height=\"15\"> \u003Cb>MacOS\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>从最新的\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">发布页面\u003C\u002Fa>下载 MacOS 二进制文件。\u003C\u002Fli>\n        \u003Cli>解压文件，并将 Open Interface 移动到“应用程序”文件夹。\u003Cbr>\u003Cbr> \n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_f1c4095146a8.png\" width=\"350\" style=\"border-radius: 10px;\n    border: 3px solid black;\">\n        \u003C\u002Fli>\n    \u003C\u002Ful>\n  \u003Cdetails>\n    \u003Csummary>\u003Cb>苹果自研 M 系列芯片的 Mac 电脑\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n      \u003Cli>\n        Open Interface 会请求获取辅助功能权限，以便为您操作键盘和鼠标；同时还需要屏幕录制权限，用于截取屏幕以评估其运行进度。\u003Cbr>\n      \u003C\u002Fli>\n      \u003Cli>\n        如果未自动弹出权限请求，请手动通过\u003Cb>系统设置\u003C\u002Fb> -> \u003Cb>隐私与安全性\u003C\u002Fb>添加这些权限。\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_31142431c24d.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_e8d100901197.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\n      \u003C\u002Fli>\n    \u003C\u002Ful>\n  \u003C\u002Fdetails>\n  \u003Cdetails>\n    \u003Csummary>\u003Cb>英特尔芯片的 Mac 电脑\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>\n            从“应用程序”文件夹启动该应用。\u003Cbr>\n            您可能会遇到标准的 Mac 错误\u003Ci>“无法打开 Open Interface”\u003C\u002Fi>。\u003Cbr>\u003Cbr>\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_51956c1844cc.png\" width=\"200\" style=\"border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n            在这种情况下，点击\u003Cb>\u003Ci>\u003Cins>\"取消\"\u003C\u002Fins>\u003C\u002Fi>\u003C\u002Fb>。\u003Cbr>\n            然后前往\u003Cb>系统偏好设置 -> 安全性与隐私 -> 仍要打开。\u003C\u002Fb>\u003Cbr>\u003Cbr>\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_e7fea4d48ee3.png\" width=\"100\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> &nbsp; \n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_cb3d474933f1.png\" width=\"100\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> &nbsp;\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_771b62192d6c.png\" width=\"400\" style=\"border-radius: 10px;\n    border: 3px solid black;\"> \n        \u003C\u002Fli>\n        \u003Cbr>\n        \u003Cli>\n        Open Interface 还需要辅助功能权限来操作您的键盘和鼠标，以及屏幕录制权限来截屏以评估其进展。\u003Cbr>\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3221def317c2.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\u003Cbr>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_b396474c04b4.png\" width=\"400\" style=\"margin: 5px; border-radius: 10px;\n    border: 3px solid black;\">\n        \u003C\u002Fli>\n      \u003C\u002Ful>\n\u003C\u002Fdetails>\n      \u003Cul>\n        \u003Cli>最后，请查看\u003Ca href=\"#setup\">设置\u003C\u002Fa>部分，将 Open Interface 连接到大语言模型（如 OpenAI GPT-4V）。\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fa\u002Faf\u002FTux.png\" alt=\"Linux Logo\" width=\"18\" height=\"18\"> \u003Cb>Linux\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n        \u003Cli>目前 Linux 二进制文件已在 Ubuntu 20.04 上测试通过。\u003C\u002Fli>\n        \u003Cli>从最新的\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">发布页面\u003C\u002Fa>下载 Linux 压缩包。\u003C\u002Fli>\n        \u003Cli>\n            解压可执行文件，并参考\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup\">设置\u003C\u002Fa>部分，将 Open Interface 连接到大语言模型，例如 OpenAI GPT-4V。\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002F5\u002F5f\u002FWindows_logo_-_2012.svg\" alt=\"Linux Logo\" width=\"15\" height=\"15\"> \u003Cb>Windows\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n\t\u003Cli>Windows 二进制文件已在 Windows 10 上测试通过。\u003C\u002Fli>\n\t\u003Cli>从最新的\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest\">发布页面\u003C\u002Fa>下载 Windows 压缩包。\u003C\u002Fli>\n\t\u003Cli>解压文件夹，将 exe 文件移动到您希望的位置，双击即可打开，大功告成。\u003C\u002Fli>\n\t\u003Cli>请参阅\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup\">设置\u003C\u002Fa>部分，将 Open Interface 连接到大语言模型（如 OpenAI GPT-4V）。\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002Fthumb\u002Fc\u002Fc3\u002FPython-logo-notext.svg\u002F120px-Python-logo-notext.svg.png?20250701090410\" alt=\"Python Logo\" width=\"15\" height=\"15\"> \u003Cb>作为脚本运行\u003C\u002Fb>\u003C\u002Fsummary>\n    \u003Cul>\n\t  \u003Cli>克隆仓库：\u003Ccode>git clone https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface.git\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>进入目录：\u003Ccode>cd Open-Interface\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>\u003Cb>可选\u003C\u002Fb>使用 Python 虚拟环境 \n        \u003Cul>\n          \u003Cli>注意：pyenv 对 tkinter 的安装处理方式较为特殊，您可能需要根据自身系统进行调试。\u003C\u002Fli>\n          \u003Cli>\u003Ccode>pyenv local 3.12.2\u003C\u002Fcode>\u003C\u002Fli>\n          \u003Cli>\u003Ccode>python -m venv .venv\u003C\u002Fcode>\u003C\u002Fli> \n          \u003Cli>\u003Ccode>source .venv\u002Fbin\u002Factivate\u003C\u002Fcode>\u003C\u002Fli>\n        \u003C\u002Ful>\n      \u003C\u002Fli>\n      \u003Cli>安装依赖：\u003Ccode>pip install -r requirements.txt\u003C\u002Fcode>\u003C\u002Fli>\n      \u003Cli>运行应用：\u003Ccode>python app\u002Fapp.py\u003C\u002Fcode>\u003C\u002Fli>\n    \u003C\u002Ful>\n\u003C\u002Fdetails>\n\n### \u003Cins id=\"setup\">设置\u003C\u002Fins> 🛠️\n\u003Cdetails>\n    \u003Csummary>\u003Cb>设置 OpenAI API 密钥\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 获取你的 OpenAI API 密钥\n  - Open Interface 需要访问 GPT-4o 才能执行用户请求。GPT-4o 的密钥可以在你的 OpenAI 账户中下载，地址是 [platform.openai.com\u002Fsettings\u002Forganization\u002Fapi-keys](https:\u002F\u002Fplatform.openai.com\u002Fsettings\u002Forganization\u002Fapi-keys)。\n  - [按照这里的步骤](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F8264644-what-is-prepaid-billing)为你的 OpenAI 账户充值。要解锁 GPT-4o，至少需要支付 5 美元。\n  - [更多信息](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F7102672-how-can-i-access-gpt-4)\n- 将 API 密钥保存在 Open Interface 设置中\n  - 在 Open Interface 中，前往右上角的“设置”菜单，将你从 OpenAI 收到的密钥输入到文本框中，如下所示：\u003Cbr>\n  \u003Cbr>\n  \u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3d29f8e54a16.png\" align=\"middle\" alt=\"在设置中设置 API 密钥\" width=\"400\">\n  \u003C\u002Fpicture>\u003Cbr>\n  \u003Cbr>\n\n- 首次设置 API 密钥后，你需要\u003Cb>重启应用\u003C\u002Fb>。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cb>设置 Google Gemini API 密钥\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 前往“设置”->“高级设置”，选择你想要使用的 Gemini 模型。\n- 从 https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey 获取你的 Google Gemini API 密钥。\n- 将 API 密钥保存在 Open Interface 设置中。\n- 保存设置并\u003Cb>重启应用\u003C\u002Fb>。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>\u003Cb>可选：设置自定义 LLM\u003C\u002Fb>\u003C\u002Fsummary>\n\n- Open Interface 支持使用其他 OpenAI API 风格的 LLM（如 Llava）作为后端，并且可以在“高级设置”窗口中轻松配置。\n- 在“高级设置”窗口中输入自定义的基础 URL 和模型名称，在“设置”窗口中根据需要输入 API 密钥。\n- 注意——如果你使用的是 Llama：\n  - 你可能需要在 API 密钥输入框中输入一个随机字符串，比如“xxx”。\n  - 你可能需要在基础 URL 后面加上 \u002Fv1\u002F。\n    \u003Cbr>\n    \u003Cpicture>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_9b11c0499e4c.png\" align=\"middle\" alt=\"在设置中设置 API 密钥\" width=\"400\">\n    \u003C\u002Fpicture>\u003Cbr>\n    \u003Cbr>\n- 如果你的 LLM 不支持 OpenAI 风格的 API，你可以使用像[这个](https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm)这样的库将其转换为兼容格式。\n- 这些更改完成后，你需要重启应用。\n\n\u003C\u002Fdetails>\n\n\u003Chr>\n\n### \u003Cins>目前容易出错的地方\u003C\u002Fins> 😬\n\n- 准确的空间推理，从而精确点击按钮。\n- 在表格类环境中（如 Excel 和 Google Sheets）保持自身状态，原因与上述类似。\n- 在复杂的 GUI 富应用中导航，例如《反恐精英》、Spotify、GarageBand 等，因为这些应用高度依赖光标操作。\n\n\n### \u003Cins>未来\u003C\u002Fins> 🔮\n(*随着基于视频教程等数据训练出更优秀的模型*)\n- “帮我用 GarageBand 为我最新的项目制作几个低音采样。”\n- “阅读这份新功能的设计文档，在 GitHub 上编辑代码，并提交审核。”\n- “从 Spotify 上找到我朋友的音乐品味，为今晚的派对制作一个播放列表。”\n- “把我在太浩湖旅行时拍的照片整理出来，在 iMovie 中制作一个《白莲花》风格的蒙太奇。”\n\n### \u003Cins>备注\u003C\u002Fins> 📝\n- 成本估算：每次 LLM 请求的成本为 0.0005 至 0.002 美元，具体取决于所使用的模型。\u003Cbr>\n（用户请求可能需要两到几十次不等的 LLM 后端调用，具体取决于请求的复杂性。）\n- 你可以随时通过按下“停止”按钮，或者将光标拖动到屏幕的任意角落来中断应用。\n- 当使用多台显示器时，Open Interface 只能看到你的主显示器。因此，如果光标或焦点位于副屏幕上，它可能会不断重复相同的动作，因为它无法看到自己的进展。\n\n\u003Chr>\n\n### \u003Cins>系统架构图\u003C\u002Fins> 🖼️\n```\n+----------------------------------------------------+\n| 应用                                                |\n|                                                    |\n|    +-------+                                       |\n|    |  GUI  |                                       |\n|    +-------+                                       |\n|        ^                                           |\n|        |                                           |\n|        v                                           |\n|  +-----------+  (截图 + 目标)  +-----------+ |\n|  |           | --------------------> |           | |\n|  |    核心   |                       |    LLM    | |\n|  |           | \u003C-------------------- |  (GPT-4o) | |\n|  +-----------+    (指令)     +-----------+ |\n|        |                                           |\n|        v                                           |\n|  +-------------+                                   |\n|  | 解释器    |                                   |\n|  +-------------+                                   |\n|        |                                           |\n|        v                                           |\n|  +-------------+                                   |\n|  | 执行器    |                                   |\n|  +-------------+                                   |\n+----------------------------------------------------+\n```\n\n---\n\n### \u003Cins>星标历史\u003C\u002Fins> ⭐️\n\n\u003Cpicture>\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_readme_3b34079665fd.png\" alt=\"星标历史\" width=\"720\">\n\u003C\u002Fpicture>\n\n### \u003Cins>链接\u003C\u002Fins> 🔗\n- 更多我的项目请访问 [AmberSah.dev](https:\u002F\u002FAmberSah.dev)。\n- 其他演示和新闻资料可在 [MEDIA.md](MEDIA.md) 中找到。\n\n\n\u003Cdiv align=\"center\">\n\t\u003Cimg alt=\"GitHub 仓库星标数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAmberSahdev\u002FOpen-Interface\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\"> \u003Cimg alt=\"GitHub 关注者数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Ffollowers\u002FAmberSahdev\"> \u003C\u002Fa>\n\u003C\u002Fdiv>","# Open-Interface 快速上手指南\n\nOpen-Interface 是一款利用大语言模型（LLM）实现电脑全自动控制的开源工具。它能接收自然语言指令，自动规划步骤，并通过模拟键盘和鼠标操作来执行任务，同时通过屏幕截图进行自我修正。\n\n## 环境准备\n\n### 系统要求\n支持以下操作系统（已测试版本）：\n- **macOS**: Intel 芯片或 Apple Silicon (M 系列) 芯片\n- **Linux**: Ubuntu 20.04 及以上\n- **Windows**: Windows 10 及以上\n\n### 前置依赖与权限\n- **API Key**: 需准备 OpenAI (GPT-4o)、Google Gemini 或其他兼容 OpenAI 格式的 LLM API Key。\n- **系统权限** (运行前必须配置):\n    - **macOS**: 需在 `系统设置` -> `隐私与安全性` 中授予 **辅助功能 (Accessibility)** (控制键鼠) 和 **屏幕录制 (Screen Recording)** (截取进度) 权限。\n    - **Linux\u002FWindows**: 确保当前用户有执行二进制文件或脚本的权限。\n- **Python 环境** (仅源码运行需要): Python 3.12+ (推荐), `pip`, `git`。\n\n---\n\n## 安装步骤\n\n您可以选择下载预编译的二进制文件（推荐）或从源码运行。\n\n### 方式一：使用预编译二进制文件\n\n1. **下载安装包**\n   访问 [GitHub Releases](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Freleases\u002Flatest) 下载对应系统的压缩包。\n\n2. **解压与移动**\n   - **macOS**: 解压后将 `Open Interface` 应用拖入 `应用程序 (Applications)` 文件夹。\n   - **Windows**: 解压文件夹，将 `.exe` 文件移至任意位置。\n   - **Linux**: 解压并提取可执行文件。\n\n3. **首次运行配置 (macOS 特有)**\n   - **Intel Mac**: 若出现“无法打开”提示，请前往 `系统偏好设置` -> `安全性与隐私` -> 点击 **仍要打开**。\n   - **所有 Mac**: 启动后按提示授予辅助功能和屏幕录制权限，若未自动弹出，请手动在系统设置中添加。\n\n### 方式二：从源码运行 (跨平台)\n\n适合开发者或需要自定义环境的用户。\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface.git\ncd Open-Interface\n\n# 2. (可选) 创建虚拟环境 (推荐 Python 3.12+)\n# 注意：pyenv 处理 tkinter 可能需额外调试\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows 用户使用: .venv\\Scripts\\activate\n\n# 3. 安装依赖\npip install -r requirements.txt\n\n# 4. 启动应用\npython app\u002Fapp.py\n```\n\n---\n\n## 基本使用\n\n### 1. 配置 LLM API\n启动应用后，需先连接大模型后端：\n\n1. 点击右上角 **Settings (设置)** 菜单。\n2. **OpenAI 用户**:\n   - 获取 Key: 访问 [platform.openai.com](https:\u002F\u002Fplatform.openai.com\u002Fsettings\u002Forganization\u002Fapi-keys) (需充值至少 $5 以解锁 GPT-4o)。\n   - 在设置界面的文本框中粘贴 API Key。\n3. **Gemini 用户**:\n   - 进入 `Settings` -> `Advanced Settings` 选择 Gemini 模型。\n   - 获取 Key: 访问 [aistudio.google.com](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)。\n   - 在设置中保存 Key。\n4. **自定义模型**:\n   - 在 `Advanced Settings` 中输入 Base URL 和模型名称 (如本地部署的 Llama)，API Key 处若无需求可填任意字符串 (如 \"xxx\")。\n5. **重启应用**: 配置完成后必须重启软件生效。\n\n### 2. 执行任务\n配置完成后，即可通过自然语言控制电脑：\n\n1. 在输入框中输入指令，例如：\n   - `\"Solve Today's Wordle\"` (解决今天的 Wordle 游戏)\n   - `\"Make me a meal plan in Google Docs\"` (在 Google 文档中制定一份膳食计划)\n   - `\"Write a Web App\"` (编写一个 Web 应用)\n2. 按下回车，Open-Interface 将自动分析屏幕、规划步骤并执行操作。\n\n### 3. 中断操作\n如需停止当前任务，可点击界面上的 **Stop** 按钮，或将鼠标光标迅速拖动至屏幕任意角落。\n\n> **注意**: \n> - 每次请求成本约为 $0.0005 - $0.002，复杂任务可能调用多次 LLM。\n> - 多显示器环境下，工具仅能识别主显示器；若焦点在副屏，可能导致操作循环失败。","一位数据分析师需要在每周一早晨从公司内部多个遗留系统中提取销售数据，整理成 Excel 报表并发送邮件给管理层，这些系统大多没有 API 接口，只能手动操作。\n\n### 没有 Open-Interface 时\n- 员工必须提前半小时到岗，机械地重复点击、复制、粘贴等操作，极易因疲劳产生人为错误。\n- 一旦某个系统界面微调或弹出意外窗口，整个流程中断，需要人工介入排查，导致报表交付延迟。\n- 跨系统操作繁琐，需要在不同软件间频繁切换，注意力分散，无法同时处理其他高价值任务。\n- 遇到复杂的多步骤逻辑（如“如果数据异常则截图标记”），难以通过传统脚本自动化，只能靠人脑判断。\n\n### 使用 Open-Interface 后\n- 只需对 Open-Interface 说出“生成上周销售周报”，它便能自主调用大模型规划步骤，模拟键鼠自动完成所有系统的登录、查询和导出。\n- Open-Interface 会实时截取屏幕画面反馈给大模型，若遇到弹窗或界面变化，能自动调整操作策略，无需人工干预即可完成任务。\n- 整个过程在后台静默运行，员工可利用这段时间进行数据分析洞察，显著提升了工作产出比。\n- 面对复杂的条件判断逻辑，Open-Interface 凭借大模型的理解能力，能像真人一样识别屏幕内容并执行相应的分支操作。\n\nOpen-Interface 将原本耗时耗力的重复性 GUI 操作转化为简单的自然语言指令，真正实现了跨应用、跨平台的电脑全自动驾驶。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAmberSahdev_Open-Interface_29ed76f3.gif","AmberSahdev","Amber Sahdev","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAmberSahdev_ac0032b6.png","I build things ",null,"San Francisco","https:\u002F\u002FAmberSah.dev","https:\u002F\u002Fgithub.com\u002FAmberSahdev",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,2650,270,"2026-04-08T15:54:39","GPL-3.0","macOS, Linux, Windows","未说明",{"notes":92,"python":93,"dependencies":94},"1. 核心功能依赖云端 LLM (如 GPT-4o, Gemini)，需配置 API Key 并充值至少 5 美元以解锁 GPT-4o。\n2. macOS 用户必须授予应用“辅助功能”(控制键鼠) 和“屏幕录制”(截图) 权限；Intel Mac 可能需在安全设置中点击“仍然打开”。\n3. Linux 版本已在 Ubuntu 20.04 上测试通过。\n4. Windows 版本已在 Windows 10 上测试通过。\n5. 多显示器环境下，工具仅能识别主显示器，若焦点在副屏可能导致操作失败。\n6. 可通过拖动鼠标到屏幕角落或点击停止按钮随时中断运行。","3.12.2 (示例版本，建议使用虚拟环境)",[95],"requirements.txt 中定义的依赖 (具体列表未在 README 中展示)",[35,13,14],[98,99,100,101,102,103,104,105,106,107,108,109,110,111,112,113,114,115],"gpt","llm","machine-learning","macos","openai","python","automation","assistant","assistant-computer-control","gpt4","gpt4v","gpt4vision","linux","pyautogui","pyinstaller","self-driving","self-driving-software","windows","2026-03-27T02:49:30.150509","2026-04-09T10:20:22.655846",[119,124,129,134,139,144,149],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},26116,"Windows Defender 将程序标记为病毒 (Trojan) 并删除 .exe 文件，如何处理？","这是误报。您可以选择将程序添加到 Windows 安全中心的白名单中。如果您不希望处理误报问题，可以选择从源代码运行程序。维护者已在 README 的 'Run as a Script' 部分添加了直接从源码运行的详细指导说明。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F41",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},26114,"提交指令后没有任何反应（屏幕无操作但可能有提示音），如何解决？","这通常是由于后端错误导致的界面未响应。维护者已在最新版本（0.8 及更高）中修复了此错误。请确保您已升级到最新版本。如果问题依旧，请检查是否使用了受支持的模型配置。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F31",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},26115,"使用本地 LLM（如 Ollama）时启动报错 'Unsupported model type' 且应用无法打开怎么办？","这是因为配置文件中的模型名称不被识别。解决方法是删除位于 `%userprofile%\u002F.open-interface\u002F` (Windows) 或 `~\u002F.open-interface\u002F` (Mac\u002FLinux) 目录下的 `settings.json` 文件。删除后重新启动程序，它将重置模型选择并允许您重新配置。另外，也可以尝试在 Ollama 中将模型别名设置为程序预期的名称，或使用 LiteLLM 进行适配。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F20",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},26117,"在 Linux 上运行时报错 '_tkinter.TclError: invalid command name \"::msgcat::mcmset\"' 导致启动失败？","这是一个特定于 Linux 环境的打包问题。维护者已发布了专门修复此问题的版本（例如 Open-Interface-v0.7.1-Linux-Issue-35.zip）。请下载该特定版本的压缩包进行替换，不要使用通用的 Linux 二进制文件。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F35",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},26118,"使用 Ollama 或 LM Studio 后端时提示 'Unable to execute the request - steps' 是什么意思？","这表示当前使用的模型或后端配置无法正确解析执行步骤。该问题已在 0.8.0 版本中修复。如果您仍在使用旧版本（如 0.7.x），请务必升级到 0.8.0 或更高版本以解决此问题。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F30",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},26119,"在 MacBook (M1\u002FM3 芯片) 上应用启动后立即消失或无法打开，有什么解决办法？","这可能是架构兼容性问题。尝试在终端中使用 Rosetta 转译运行命令：`arch -x86_64 open -a \"\u002FApplications\u002FOpen Interface.app\"`。此外，确保安装了 Rosetta 2。维护者也在后续版本（0.6.1+ 和 0.7.0）中改进了对 Apple Silicon 芯片的支持和错误报告，建议更新到最新版。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F24",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},26120,"如何支持自托管模型（如 Ollama）或非 OpenAI 兼容的 API？","Open Interface 支持通过配置 Base URL 来连接本地模型（如 Ollama）。如果在设置自定义模型时遇到 'Unsupported model type' 错误，请参照相关故障排除方法：删除 `settings.json` 重置配置，或者确保您的模型名称在代码中有对应的条目（高级用户可修改 `app\u002Fmodels\u002F` 目录）。新版本（0.7.0+）提供了更好的自定义模型启动错误报告。","https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fissues\u002F18",[155,160,165,170,175,180,185,190,195,200,205,210,215],{"id":156,"version":157,"summary_zh":158,"released_at":159},163508,"v0.9.0","- 感谢开源社区的贡献，新增了对免费 Google Gemini 模型的支持。\n- 改进了键盘快捷键的可靠性。\n- 如果在 Windows 系统上安装遇到问题，您也可以直接运行代码。具体说明请参阅 [此处](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#install-) 的“作为脚本运行”部分。\n\n---\n\n![截图 2025-03-16 下午2:14:52](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F5fbcaaa5-34ce-4df0-9f18-6af3c5cffbe5)","2025-03-16T21:54:48",{"id":161,"version":162,"summary_zh":163,"released_at":164},163509,"v0.8.0","新增：\n- 在所有平台上实现了重大的功能和可靠性提升。\n- 修复了 macOS 上易出错的 Spotlight 启动操作，该问题曾是用户最迫切的需求之一。\n- 使用更新的机型降低了执行成本，并优化了用户界面。\n\n移除：\n- 由于 macOS 编译错误，暂时移除了语音输入模式，计划在不久后的版本中重新加入。\n\u003Cimg width=\"1269\" alt=\"ui0 8 0\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fe7f1561d-2976-4766-be46-96d41237e46f\" \u002F>\n","2025-01-12T08:23:41",{"id":166,"version":167,"summary_zh":168,"released_at":169},163510,"0.7.0","- 界面略有更新，并改进了错误处理，避免应用崩溃。\n- 请在下方下载适用于您操作系统的相关可执行文件。\n- 下载完成后，请查看[设置](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup)部分。\n- 新增对 OpenAI GPT4 模型的支持：GPT4o 和 Turbo。\n- 继续支持 Mac、Linux 和 Windows 系统，以及遵循 OpenAI 风格 API 接口的本地大模型，例如 Llama。\n\n\u003Cimg width=\"1372\" alt=\"Screenshot 2024-12-13 at 1 40 34 AM\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa0dc881f-f961-4bf2-ad3f-4d5eae0c6b57\" \u002F>","2024-12-13T09:41:29",{"id":171,"version":172,"summary_zh":173,"released_at":174},163511,"0.6.1","- 修复 bug：自定义大模型（如 Llava\u002FLlama）不再导致应用崩溃。  \n- 请在下方下载适用于您操作系统的相关可执行文件。  \n- 下载完成后，请查看[设置](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup)部分。  \n- 新增对 OpenAI GPT-4 系列模型的支持：GPT-4o 和 Turbo。  \n- 继续支持 Mac、Linux 和 Windows 系统，以及遵循 OpenAI 风格 API 接口的本地大模型，例如 Llama。\n\n\n\u003Cimg width=\"1040\" alt=\"ui_0_6\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa1fa1166-97d3-4644-b330-e45611221e4c\">\n","2024-11-09T04:01:15",{"id":176,"version":177,"summary_zh":178,"released_at":179},163512,"0.6.0","- 请在下方下载适用于您操作系统的相关可执行文件。 \r\n- 下载完成后，请查看[设置](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup)部分。 \r\n- 新增对 OpenAI GPT4 模型的支持：GPT4o 和 Turbo。\r\n- 继续支持 Mac、Linux 和 Windows 系统，以及遵循 OpenAI 风格 API 端点的本地大模型，例如 Llama。\r\n\r\n\r\n\u003Cimg width=\"1040\" alt=\"ui_0_6\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa1fa1166-97d3-4644-b330-e45611221e4c\">\r\n","2024-07-21T23:03:26",{"id":181,"version":182,"summary_zh":183,"released_at":184},163513,"0.5.2","- 请在下方下载适用于您操作系统的相关可执行文件。  \n- 下载完成后，请查看[设置](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup)部分。  \n- 修复了一些界面显示上的小问题。  \n- 在大模型提示词中增加了额外的安全措施。  \n- 现在，MacOS M系列架构的二进制文件已通过Apple签名并完成公证。  \n- 继续支持Mac、Linux和Windows系统，以及遵循OpenAI风格API接口的本地大模型，例如Llama。  \n\u003Cimg width=\"1020\" alt=\"advanced_settings\" src=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fassets\u002F23853621\u002F819f4b4a-fb51-4a7a-ac00-32f3c5628acf\">","2024-05-05T07:58:07",{"id":186,"version":187,"summary_zh":188,"released_at":189},163514,"0.5.1","- 请在下方下载适用于您操作系统的相关可执行文件。  \n- 下载完成后，请查看[设置](https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface?tab=readme-ov-file#setup)部分。  \n- 现在，MacOS M系列的二进制文件已通过Apple签名并完成公证。  \n- Linux和Windows版本的二进制文件保持不变。  \n- 继续支持遵循OpenAI风格API端点的本地大模型，例如Llama。","2024-04-14T06:33:06",{"id":191,"version":192,"summary_zh":193,"released_at":194},163515,"0.5.0","- 支持遵循 OpenAI 风格 API 端点的本地大模型，例如 Llama。\n- 更完善的错误报告功能。\n- 继续支持 macOS、Windows 和 Linux 系统。\n\u003Cimg width=\"1026\" alt=\"advanced_settings\" src=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fassets\u002F23853621\u002F7a1e4586-17fa-41ac-b081-e5f66b409a62\">\n","2024-04-08T04:16:26",{"id":196,"version":197,"summary_zh":198,"released_at":199},163516,"0.4.0","- 支持通过界面发送自定义指令，为大语言模型添加个性化上下文。\n- 支持在请求完成后播放提示音。\n- 更完善的设置界面。\n- 继续支持 macOS、Linux 和 Windows 系统。\n\n---\n\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002FAmberSahdev\u002FOpen-Interface\u002Fassets\u002F23853621\u002F1c5056e6-94b2-434b-b4ec-5d8da57042f9\" width=\"650\">\n","2024-03-13T02:36:01",{"id":201,"version":202,"summary_zh":203,"released_at":204},163517,"0.3.0","- 现在除了原有的 macOS 和 Linux 二进制文件外，还新增了 Windows 版本。\n- Tkinter 用户界面的错误处理得到改进。","2024-03-01T09:19:37",{"id":206,"version":207,"summary_zh":208,"released_at":209},163518,"v0.2.0","- Added Linux binaries, tested on Ubuntu\r\n- MacOS operations still functional \r\n- Windows binaries pending\r\n- Enhanced build scripts and UI code to work better on Linux","2024-02-29T08:08:44",{"id":211,"version":212,"summary_zh":213,"released_at":214},163519,"v0.1.1","Bug fixes\r\n- Made settings.json reads more reliable \r\n- Improved build script ","2024-02-28T22:50:56",{"id":216,"version":217,"summary_zh":218,"released_at":219},163520,"v0.1.0","## First release\r\n- Built for, and works on, MacOS.\r\n- Linux\u002FWindows build pending.","2024-02-28T07:19:48"]