[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenBMB--ProAgent":3,"tool-OpenBMB--ProAgent":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":127},4156,"OpenBMB\u002FProAgent","ProAgent","An LLM-based Agent for the New Automation Paradigm - Agentic Process Automation","ProAgent 是一款基于大语言模型（LLM）的智能代理工具，旨在推动自动化技术从传统的“机器人流程自动化”（RPA）向全新的“代理流程自动化”（APA）范式演进。传统 RPA 在处理需要类人智能的复杂任务时往往力不从心，特别是在工作流的灵活构建与动态决策方面存在局限。ProAgent 通过理解人类的自然语言指令，自动规划并构建复杂的工作流，同时协调多个专用代理执行 intricate 决策，从而将人类从繁琐的流程设计与执行中解放出来。\n\n该工具特别适合研究人员、开发者以及希望探索下一代自动化解决方案的技术团队使用。其核心亮点在于引入了 APA 概念，利用 LLM 的推理能力替代人工进行工作流编排，实现了从“按规则执行”到“按意图行动”的跨越。项目代码开源，支持结合自托管的 n8n 平台进行真实场景部署，也提供了复现论文实验案例的模式，方便用户快速验证其在复杂任务中的可行性与高效性。无论是希望深入探究智能代理机制的研究者，还是寻求突破现有自动化瓶颈的工程师，ProAgent 都提供了一个极具价值的实践平台。","# ProAgent: From Robotic Process Automation to Agentic Process Automation\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_fbf7358dd7ae.png\">\n\nFrom water wheels to Robotic Process Automation (RPA), automation technology has evolved throughout history to liberate human beings from arduous tasks. Yet, RPA struggles with tasks needing human-like intelligence, especially in elaborate design of workflow construction and dynamic decision-making in workflow execution. As Large Language Models (LLMs) have emerged human-like intelligence, this paper introduces `Agentic Process Automation`(APA), a groundbreaking automation paradigm using LLM-based agents for advanced automation by offloading the human labor to agents associated with construction and execution. We then instantiate `ProAgent`, an LLM-based agent designed to craft workflows from human instructions and make intricate decisions by coordinating specialized agents. Empirical experiments are conducted to detail its construction and execution procedure of workflow, showcasing the feasibility of APA, unveiling the possibility of a new paradigm of automation driven by agents\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_c565d20dd293.png\">\n\nAnd this is the official code of `Agentic Process Automation` paper, you can download our paper [here](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10751).\n\n## Code Setup\n\n### 1. Install packages\n\n```Shell\npip install -r requirements.txt\n```\n\nespecially, We use the OpenAI version before Dev Day, so you can't use the latest version of OpenAI \n\n### 2. Prepare for  n8n\n\nOur projects use a self-host n8n, you can either prepare a n8n environment and connect ProAgent with a realworld APP service. \n\nOr you can load our record to re-produce the case reported in our paper **without** n8n environment\n\n> prepare a n8n service is not an eazy thing, you may face some problems or bug that we haven't encountered before, and you must handle the situation. For example, you may find some GFW problems in China when connecting your APP accounts with n8n\n\n#### install n8n\n\nOur projects use a self-host n8n, you must first install a n8n following the [guide](https:\u002F\u002Fdocs.n8n.io\u002Fhosting\u002Finstallation\u002Fnpm\u002F) . You can use this command in linux\u002FmacOS\n\n```bash\nnpm install n8n -g\n```\n\nself-host n8n doesn't support `https` service. However, we have already built a redirect-service, you can temporally use our service(may not be very stable, and we will opensource the redirect-service code)\n\n```Shell\nexport WEBHOOK_URL=https:\u002F\u002Fn8n.x-agent.net\u002Fredirect\u002Fhttp%3A%2F%2Flocalhost%3A5678\u002F\nn8n\n```\n\n\n\n#### Connect your account in n8n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_66514c64ae23.png\">\n\nYou need to regist or connect an existing APP with n8n before launching `ProAgent`. Connecting an APP may have some APP-specific operations, you can follow the n8n credential guide [here](https:\u002F\u002Fdocs.n8n.io\u002Fintegrations\u002Fbuiltin\u002Fcredentials\u002F)\n\n#### Save credentials\n\nOur code base needs to load the workflow ID and credential ID. So you must make some workflow and regist some apps before, then do the following commands to decode the credentials from n8n service\n\n```Shell\nn8n export:credentials --all --decrypted --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json\n```\n\nmove `c.json` to `.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json`\n\n```Shell\nn8n export:workflow --all --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json\n```\n\nmove `w.json` to `.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json`\n\n### \n\n## Code Running\n\nThe running depends on a `config`， which is in `ProAgent\u002Fconfig.py`, you can set the running environment:\n\n- development: This is the mode reported in paper, .\n- refine: load from an existing workflow, and then refine the workflow with some new request\n- production: load from an existing workflow, you can use this mode to re-produce an existing run of `ProAgent`\n\nwe have provide the case reported in our paper in `.\u002Fapa_case`, you can use `production` mode to load the run directly\n\n> we disable the test-on-change feature in production mode, And the APA-code will be test only once in the end of the run\n>\n> In the opposite, the refine mode enable test-on-change feature\n\n\n\nuse the following command to start `ProAgent`, if you use `development` mode, remember to start n8n before\n\n```python\npython main.py\n```\n\n> Note that we have wrote a readable record system. All of the `ProAgent` runs will generate a new record in `.\u002Frecords`, so you can load the run from record in `refine` or `production` mode. \n\nIf you use the development mode, you must prepare OpenAI key first. Set the following vars in your envirnoment\n\n```\nOPENAI_API_KEY, OPENAI_API_BASE\n```\n\n\n\nThe method in our code is almost the same as descripted in our paper. However something have changed after the paper released: \n\n- HCI: we observed some problems when `ProAgent` has some misunderstood of the problem, so we developed a feature to enable ProAgent to ask human for help by a new function-call (like XAgent). This proactive manner encourage `ProAgent` to build and test  workflows together with human.\n\n- n8n-feature: n8n have rapidly released some new feature in parallel of our work. Our code is basically built upon an older version of n8n and we have wrote an `n8n-compiler` in our code base. So that compiler may not be compatible with the newer verison of n8n\n- OpenAI: `ProAgent` is based on `GPT4-0613`. However OpenAI have released `GPT4-1106-preview` in Dev Day, which has a 38% improvment in function-calling. So you may find `ProAgent` better than our paper thanks to OpenAI's update~\n\n\n\n## Citation\n\nIf you find this repo helpful, feel free to cite us.\n\n```\n@article{ye2023proagent,\n  title={ProAgent: From Robotic Process Automation to Agentic Process Automation},\n  author={Ye, Yining and Cong, Xin and Tian, Shizuo and Cao, Jiannan and Wang, Hao and Qin, Yujia and Lu, Yaxi and Yu, Heyang and Wang, Huadong and Lin, Yankai and others},\n  journal={arXiv preprint arXiv:2311.10751},\n  year={2023}\n}\n```\n","# ProAgent：从机器人流程自动化到智能体流程自动化\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_fbf7358dd7ae.png\">\n\n从水车到机器人流程自动化（RPA），自动化技术在历史上不断演进，旨在将人类从繁重的任务中解放出来。然而，RPA在需要类人智能的任务上仍面临挑战，尤其是在工作流的复杂设计与执行过程中的动态决策方面。随着大型语言模型（LLMs）的兴起，赋予了机器类人智能，本文提出了“智能体流程自动化”（APA），这是一种突破性的自动化范式，利用基于LLM的智能体来实现高级自动化，通过将工作流的构建和执行任务交由智能体完成，从而减轻人工负担。随后，我们具体实现了“ProAgent”，一个基于LLM的智能体，它能够根据人类指令构建工作流，并通过协调多个专业智能体做出复杂的决策。通过实证实验，我们详细展示了ProAgent在工作流构建与执行中的流程，验证了APA的可行性，揭示了由智能体驱动的新一代自动化范式的可能性。\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_c565d20dd293.png>\n\n这是“智能体流程自动化”论文的官方代码，您可以通过[这里](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10751)下载我们的论文。\n\n## 代码设置\n\n### 1. 安装依赖包\n\n```Shell\npip install -r requirements.txt\n```\n\n特别注意，我们使用的是Dev Day之前版本的OpenAI API，因此无法使用最新版本的OpenAI SDK。\n\n### 2. 准备n8n环境\n\n我们的项目使用自托管的n8n平台。您可以选择搭建n8n环境，并将ProAgent与实际的应用服务连接起来。\n\n或者，您也可以加载我们提供的记录，在**无需**n8n环境的情况下复现论文中报告的案例。\n\n> 搭建n8n服务并非易事，您可能会遇到一些我们未曾遇到过的问题或Bug，需要自行解决。例如，在中国，您可能在将应用账号与n8n连接时遇到网络限制问题。\n\n#### 安装n8n\n\n我们的项目采用自托管的n8n，您需要按照[官方文档](https:\u002F\u002Fdocs.n8n.io\u002Fhosting\u002Finstallation\u002Fnpm\u002F)进行安装。在Linux或macOS系统中，可以使用以下命令：\n\n```bash\nnpm install n8n -g\n```\n\n自托管的n8n不支持`https`服务。不过，我们已经搭建了一个反向代理服务，您可以暂时使用我们的服务（该服务可能不够稳定，我们后续会开源反向代理服务的代码）：\n\n```Shell\nexport WEBHOOK_URL=https:\u002F\u002Fn8n.x-agent.net\u002Fredirect\u002Fhttp%3A%2F%2Flocalhost%3A5678\u002F\nn8n\n```\n\n#### 在n8n中连接您的账户\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_readme_66514c64ae23.png>\n\n在启动`ProAgent`之前，您需要先注册或连接现有的应用服务到n8n平台。不同应用的连接方式可能有所不同，请参考n8n的凭证配置指南[这里](https:\u002F\u002Fdocs.n8n.io\u002Fintegrations\u002Fbuiltin\u002Fcredentials\u002F)。\n\n#### 导出凭证信息\n\n我们的代码库需要加载工作流ID和凭证ID。因此，您必须先创建一些工作流并注册相关应用，然后执行以下命令从n8n服务中导出凭证信息：\n\n```Shell\nn8n export:credentials --all --decrypted --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json\n```\n\n将`c.json`移动到`.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json`。\n\n```Shell\nn8n export:workflow --all --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json\n```\n\n将`w.json`移动到`.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json`。\n\n### \n\n## 代码运行\n\n运行模式取决于`config`文件，位于`ProAgent\u002Fconfig.py`中，您可以选择以下运行环境：\n\n- development：这是论文中报告的模式。\n- refine：从现有工作流出发，根据新的需求进一步优化工作流。\n- production：从现有工作流加载，可用于复现`ProAgent`的某次完整运行。\n\n我们在`.\u002Fapa_case`目录下提供了论文中报告的案例，您可以使用`production`模式直接加载该运行。\n\n> 在production模式下，我们关闭了“变更时测试”功能，APA代码仅会在运行结束时进行一次测试。\n>\n> 相反，refine模式则启用了“变更时测试”功能。\n\n使用以下命令启动`ProAgent`，如果您使用`development`模式，请务必先启动n8n：\n\n```python\npython main.py\n```\n\n> 需要注意的是，我们开发了一个可读性强的记录系统。所有`ProAgent`的运行都会在`.\u002Frecords`目录下生成一条新的记录，因此您可以在`refine`或`production`模式中通过记录加载之前的运行。\n\n如果您使用development模式，需提前准备好OpenAI的API密钥。请在环境变量中设置以下内容：\n\n```\nOPENAI_API_KEY, OPENAI_API_BASE\n```\n\n我们的代码实现方法与论文描述基本一致。然而，在论文发表之后，也发生了一些变化：\n\n- HCI改进：我们发现当`ProAgent`对问题存在误解时，会出现一些问题，因此我们新增了一项功能，允许ProAgent通过函数调用的方式主动向人类寻求帮助（类似于XAgent）。这种主动交互的方式促使ProAgent与人类协作共同构建和测试工作流。\n- n8n新特性：在我们研究期间，n8n快速推出了多项新功能。而我们的代码是基于较旧版本的n8n开发的，并内置了一个`n8n编译器`，因此可能与较新版本的n8n不完全兼容。\n- OpenAI更新：ProAgent基于`GPT4-0613`模型。然而，OpenAI在Dev Day上发布了`GPT4-1106-preview`模型，其函数调用能力提升了38%。因此，得益于OpenAI的更新，您可能会发现ProAgent的表现优于论文中的结果。\n\n## 引用\n\n如果您觉得本项目对您有所帮助，请随时引用我们的论文：\n\n```\n@article{ye2023proagent,\n  title={ProAgent: From Robotic Process Automation to Agentic Process Automation},\n  author={Ye, Yining and Cong, Xin and Tian, Shizuo and Cao, Jiannan and Wang, Hao and Qin, Yujia and Lu, Yaxi and Yu, Heyang and Wang, Huadong and Lin, Yankai and others},\n  journal={arXiv preprint arXiv:2311.10751},\n  year={2023}\n}\n```","# ProAgent 快速上手指南\n\nProAgent 是一个基于大语言模型（LLM）的智能体，旨在实现从“机器人流程自动化 (RPA)\"到“智能体流程自动化 (APA)\"的范式转变。它能够根据人类指令构建工作流，并协调专用智能体执行复杂的决策任务。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（推荐），Windows 需配合 WSL 使用。\n*   **Python 环境**：建议 Python 3.8+。\n*   **Node.js 环境**：用于部署自托管的 n8n 服务（需 npm）。\n*   **API Key**：\n    *   需要配置 `OPENAI_API_KEY` 和 `OPENAI_API_BASE`。\n    *   **注意**：本项目基于 OpenAI Dev Day 之前的版本开发，推荐使用 `gpt-4-0613` 模型以获得最佳兼容性（虽然新版 `gpt-4-1106-preview` 在函数调用上表现更好，但可能需自行适配）。\n*   **网络环境**：\n    *   由于涉及连接外部 APP 服务，中国大陆用户可能需要解决网络连通性问题（如 GFW 限制）。\n    *   项目提供了一个临时的重定向服务用于测试，但生产环境建议自行搭建稳定的网络通道。\n\n## 2. 安装步骤\n\n### 2.1 安装 Python 依赖\n\n克隆项目后，进入目录并安装所需包：\n\n```Shell\npip install -r requirements.txt\n```\n\n### 2.2 部署自托管 n8n 服务\n\nProAgent 依赖自托管的 n8n 来执行工作流。\n\n1.  **全局安装 n8n**：\n    ```bash\n    npm install n8n -g\n    ```\n\n2.  **配置 Webhook 地址**：\n    自托管 n8n 默认不支持 HTTPS。您可以使用项目提供的临时重定向服务（稳定性有限），或自行配置 HTTPS。\n    \n    使用临时服务启动命令：\n    ```Shell\n    export WEBHOOK_URL=https:\u002F\u002Fn8n.x-agent.net\u002Fredirect\u002Fhttp%3A%2F%2Flocalhost%3A5678\u002F\n    n8n\n    ```\n    *注：保持此终端运行，不要关闭。*\n\n3.  **配置应用凭证 (Credentials)**：\n    *   访问 n8n 界面（通常为 `http:\u002F\u002Flocalhost:5678`）。\n    *   注册或连接您需要自动化的 APP 账号（参考 [n8n 凭证指南](https:\u002F\u002Fdocs.n8n.io\u002Fintegrations\u002Fbuiltin\u002Fcredentials\u002F)）。\n    *   创建至少一个测试工作流。\n\n4.  **导出凭证与工作流数据**：\n    为了让 ProAgent 读取配置，需将 n8n 中的凭证和工作流导出为 JSON 文件。\n\n    导出解密后的凭证：\n    ```Shell\n    n8n export:credentials --all --decrypted --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json\n    ```\n    将生成的 `c.json` 移动至 `.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fc.json`（如果路径不同请手动移动）。\n\n    导出工作流：\n    ```Shell\n    n8n export:workflow --all --output=.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json\n    ```\n    将生成的 `w.json` 移动至 `.\u002FProAgent\u002Fn8n_tester\u002Fcredentials\u002Fw.json`。\n\n## 3. 基本使用\n\nProAgent 的运行模式由 `ProAgent\u002Fconfig.py` 中的配置决定。主要支持三种模式：\n\n*   `development`：从头构建工作流（论文中报告的模式），**必须先启动 n8n**。\n*   `refine`：加载现有工作流并根据新需求进行优化（启用变更测试）。\n*   `production`：加载现有工作流复现运行结果（仅在结束时测试一次）。\n\n项目已内置论文中的案例数据 (`.\u002Fapa_case`)，您可以直接尝试复现。\n\n### 启动 ProAgent\n\n1.  **设置环境变量**（如果使用 `development` 模式）：\n    ```bash\n    export OPENAI_API_KEY=\"your_api_key\"\n    export OPENAI_API_BASE=\"your_api_base_url\"\n    ```\n\n2.  **运行主程序**：\n    确保 n8n 服务已在后台运行，然后执行：\n    ```python\n    python main.py\n    ```\n\n### 查看运行记录\n\nProAgent 拥有可读的记录系统。每次运行都会在 `.\u002Frecords` 目录下生成新的记录文件。\n*   若需基于之前的运行结果进行优化或复现，可在配置中选择 `refine` 或 `production` 模式，并指定对应的记录文件。\n\n### 功能特性提示\n\n*   **人机协作 (HCI)**：当 ProAgent 对任务理解存在歧义时，它可以通过函数调用主动请求人类帮助，共同构建和测试工作流。\n*   **版本兼容**：代码基于较旧版本的 n8n 编写，内置了 `n8n-compiler`。若升级 n8n 至最新版，可能会遇到兼容性问题，请注意验证。","某电商运营团队需要每日从多个平台抓取订单数据，经清洗后自动同步至 ERP 系统并生成异常报告。\n\n### 没有 ProAgent 时\n- **流程构建僵化**：传统 RPA 工具要求技术人员预先硬编码每一步逻辑，一旦电商平台更新接口或字段，整个自动化脚本即刻失效。\n- **异常处理缺失**：面对数据格式错误或网络波动等动态问题，脚本只能机械报错停止，必须人工介入排查并手动重试。\n- **开发门槛高**：业务人员无法直接参与流程设计，每次调整需求都需等待开发人员重新编写和部署代码，响应周期长达数天。\n- **决策能力弱**：无法根据订单金额或类型动态判断是否触发特殊审批流，所有逻辑均需写死在代码中，缺乏灵活性。\n\n### 使用 ProAgent 后\n- **自然语言构建**：运营人员直接用中文描述“抓取昨日订单并同步”，ProAgent 即可自主规划并生成包含 n8n 节点的完整工作流。\n- **动态决策执行**：遇到接口变更或数据异常时，ProAgent 能像人类一样分析错误原因，自动尝试替代方案或调整参数继续执行。\n- **即时迭代优化**：当业务规则变化（如新增“大额订单需复核”），只需追加指令，ProAgent 便能实时修改现有工作流逻辑，无需重写代码。\n- **智能协同调度**：ProAgent 自动协调专门的数据清洗 Agent 和通知 Agent 分工协作，复杂流程的构建与执行效率提升显著。\n\nProAgent 将自动化从“按剧本演出的机器人”升级为“能思考决策的智能代理”，真正实现了业务流程的自适应与无人化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_ProAgent_2240d8e2.png","OpenBMB","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenBMB_02e4bd39.png","OpenBMB (Open Lab for Big Model Base) aims to build foundation models and systems towards AGI.",null,"openbmb@gmail.com","https:\u002F\u002Fwww.openbmb.cn","https:\u002F\u002Fgithub.com\u002FOpenBMB",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.8,{"name":88,"color":89,"percentage":90},"Shell","#89e051",0.2,859,94,"2026-04-03T08:54:21","Apache-2.0",4,"Linux, macOS","未说明",{"notes":99,"python":97,"dependencies":100},"1. 必须安装并运行自托管的 n8n 服务（通过 npm 安装），且代码基于较旧版本的 n8n，新版本可能存在兼容性问题。\n2. OpenAI API 需使用 Dev Day 之前的版本，不支持最新版；需设置 OPENAI_API_KEY 和 OPENAI_API_BASE 环境变量。\n3. 若在中国大陆地区，连接 n8n 与外部应用账户时可能遇到网络限制（GFW 问题）。\n4. 首次运行前需手动在 n8n 中注册应用、创建工作流，并导出解密后的凭证文件 (c.json) 和工作流文件 (w.json) 到指定目录。\n5. 提供开发、优化和生产三种运行模式，其中开发模式需预先启动 n8n 服务。",[101,102,103],"requirements.txt 中定义的依赖包","OpenAI (Dev Day 之前的版本，基于 GPT-4-0613)","n8n (自托管版本)",[26,15],"2026-03-27T02:49:30.150509","2026-04-06T11:55:19.433446",[108,113,117,122],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},18930,"运行时报错提示缺少 'tiktoken'、'pygments' 或 'requests' 等模块怎么办？","这是因为部分依赖未自动安装。维护者已修复该问题并更新了 requirements.txt 列表。请拉取最新代码，并重新运行 pip install -r requirements.txt 以确保所有依赖（包括 tiktoken, pygments, requests 等）都已正确安装。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FProAgent\u002Fissues\u002F9",{"id":114,"question_zh":115,"answer_zh":116,"source_url":112},18931,"在 Windows 环境下运行出现 'UnicodeDecodeError: gb k codec can't decode byte' 错误如何解决？","这是由于文件读取时默认编码不匹配导致的。需要在代码中显式指定 encoding='utf-8'。具体修改如下：\n1. 在 running_recorder.py 中，将打开文件的代码改为：with open('your_file_path', 'r', encoding='utf-8') as reader:\n2. 在 mock_input.py 中，将打开文件的代码改为：with open(os.path.join(self.mock_pair_dir, file_name), \"r\", encoding='utf-8') as reader:\n修改后即可正常加载 JSON 数据。",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},18932,"ProAgent 是否支持类似集简云这样的国内自动化流程工具？","支持。只要集简云支持 HTTP Trigger，您就可以在集简云服务端创建一个 HTTP Trigger，然后让 ProAgent 从本地发送 HTTP 请求来调用集简云的服务。此外，项目计划推出自定义节点功能，允许用户集成自己的工具，敬请期待。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FProAgent\u002Fissues\u002F8",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},18933,"ProAgent 是否兼容 ChatGLM3 模型？","是的，ProAgent 欢迎并支持尝试使用 ChatGLM3 模型。您可以直接配置并使用该模型进行测试。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FProAgent\u002Fissues\u002F3",[]]