[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Integuru-AI--Integuru":3,"tool-Integuru-AI--Integuru":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":124,"updated_at":125,"faqs":126,"releases":167},2260,"Integuru-AI\u002FInteguru","Integuru","The first AI agent that builds permissionless integrations through reverse engineering platforms' internal APIs.","Integuru 是一款创新的 AI 智能体，旨在通过逆向工程平台内部 API，自动构建无需官方授权的集成方案。它主要解决了用户在缺乏公开 API 文档或权限时，难以自动化执行网页操作（如下载账单、抓取数据）的痛点。\n\n使用时，用户只需录制浏览器网络请求文件（.har）并提供简单的自然语言指令，Integuru 便能分析请求间的依赖关系，构建出完整的调用图谱，并生成可直接运行的 Python 代码来复现目标操作。其独特之处在于能够智能识别动态参数（如账户 ID），自动追踪这些参数的来源请求，从而将复杂的连锁网络请求转化为逻辑清晰的自动化脚本。\n\n这款工具特别适合开发者、数据分析师及技术研究人员使用，尤其是那些需要与未提供开放接口的第三方平台进行深度集成，或希望快速原型化网页自动化流程的专业人士。虽然普通用户也能从中受益，但鉴于目前需要配置开发环境及理解基本的网络请求概念，具备一定编程基础的用户将获得最佳体验。Integuru 让绕过繁琐的手动操作、实现高效的“无许可”集成变得前所未有的简单。","# Integuru v0\n\nFirst version of the AI agent that generates integration code by reverse-engineering platforms' internal APIs.\n\n## Integuru v0 in Action\n\n![Integuru in action](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteguru-AI_Integuru_readme_c6b8137364b7.gif)\n\n## What Integuru v0 Does\n\nYou use ```create_har.py``` to generate a file containing all browser network requests, a file with the cookies, and write a prompt describing the action triggered in the browser. The agent outputs runnable Python code that hits the platform's internal endpoints to perform the desired action.\n\n## How It Works\n\nLet's assume we want to download utility bills:\n\n1. The agent identifies the request that downloads the utility bills.\n   For example, the request URL might look like this:\n   ```\n   https:\u002F\u002Fwww.example.com\u002Futility-bills?accountId=123&userId=456\n   ```\n2. It identifies parts of the request that depend on other requests.\n   The above URL contains dynamic parts (accountId and userId) that need to be obtained from other requests.\n   ```\n   accountId=123 userId=456\n   ```\n3. It finds the requests that provide these parts and makes the download request dependent on them. It also attaches these requests to the original request to build out a dependency graph.\n   ```\n   GET https:\u002F\u002Fwww.example.com\u002Fget_account_id\n   GET https:\u002F\u002Fwww.example.com\u002Fget_user_id\n   ```\n4. This process repeats until the request being checked depends on no other request and only requires the authentication cookies.\n5. The agent traverses up the graph, starting from nodes (requests) with no outgoing edges until it reaches the master node while converting each node to a runnable function.\n\n## Features\n\n- Generate a dependency graph of requests to make the final request that performs the desired action.\n- Allow input variables (for example, choosing the YEAR to download a document from). This is currently only supported for graph generation. Input variables for code generation coming soon!\n- Generate code to hit all requests in the graph to perform the desired action.\n\n## Setup\n\n1. Set up your OpenAI [API Keys](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys) and add the `OPENAI_API_KEY` environment variable. (We recommend using an account with access to models that are at least as capable as OpenAI o1-mini. Models on par with OpenAI o1-preview are ideal.)\n2. Install Python requirements via poetry:\n   ```\n   poetry install\n   ```\n3. Open a poetry shell:\n   ```\n   poetry shell\n   ```\n4. Register the Poetry virtual environment with Jupyter:\n   ```\n   poetry run ipython kernel install --user --name=integuru\n   ```\n5. Run the following command to spawn a browser:\n   ```\n   poetry run python create_har.py\n   ```\n   Log into your platform and perform the desired action (such as downloading a utility bill).\n6. Run Integuru:\n   ```\n   poetry run integuru --prompt \"download utility bills\" --model \u003Cgpt-4o|o3-mini|o1|o1-mini>\n   ```\n   You can also run it via Jupyter Notebook `main.ipynb`\n\n   **Recommended to use gpt-4o as the model for graph generation as it supports function calling. Integuru will automatically switch to o1-preview for code generation if available in the user's OpenAI account.** \n\n## Usage\n\nAfter setting up the project, you can use Integuru to analyze and reverse-engineer API requests for external platforms. Simply provide the appropriate .har file and a prompt describing the action that you want to trigger.\n\n```\npoetry run integuru --help\nUsage: integuru [OPTIONS]\n\nOptions:\n  --model TEXT                    The LLM model to use (default is gpt-4o)\n  --prompt TEXT                   The prompt for the model  [required]\n  --har-path TEXT                 The HAR file path (default is\n                                  .\u002Fnetwork_requests.har)\n  --cookie-path TEXT              The cookie file path (default is\n                                  .\u002Fcookies.json)\n  --max_steps INTEGER             The max_steps (default is 20)\n  --input_variables \u003CTEXT TEXT>...\n                                  Input variables in the format key value\n  --generate-code                 Whether to generate the full integration\n                                  code\n  --help                          Show this message and exit.\n```\n\n\n## Running Unit Tests\n\nTo run unit tests using `pytest`, use the following command:\n\n```\npoetry run pytest\n```\n\n## Continuous Integration (CI) Workflow\n\nThis repository includes a CI workflow using GitHub Actions. The workflow is defined in the `.github\u002Fworkflows\u002Fci.yml` file and is triggered on each push and pull request to the `main` branch. The workflow performs the following steps:\n\n1. Checks out the code.\n2. Sets up Python 3.12.\n3. Installs dependencies using `poetry`.\n4. Runs tests using `pytest`.\n\n## Note on 2FA\n\nWhen the destination site uses two-factor authentication (2FA), the workflow remains the same. Ensure that you complete the 2FA process and obtain the cookies\u002Fauth tokens\u002Fsession tokens after 2FA. These tokens will be used in the workflow.\n\n\n## Demo\n\n[![Demo Video](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteguru-AI_Integuru_readme_adaeca7e318f.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7OJ4w5BCpQ0)\n\n## Contributing\n\nContributions to improve Integuru are welcome. Please feel free to submit issues or pull requests on the project's repository.\n\n## Info\n\nInteguru is built by Integuru.ai. Besides our work on the agent, we take custom requests for new integrations or additional features for existing supported platforms. We also offer hosting and authentication services. If you have requests or want to work with us, reach out at richard@integuru.ai.\n\nWe open-source unofficial APIs that we've built already. You can find them [here](https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FAPIs-by-Integuru).\n\n## Privacy Policy\n\n### Data Storage\nCollected data is stored locally in the `network_requests.har` and `cookies.json` files.\n\n### LLM Usage\nThe tool uses a cloud-based LLM (OpenAI's GPT-4o and o1-preview models).\n\n### LLM Training\nThe LLM is not trained or improved by the usage of this tool.\n","# Integuru v0\n\n首个通过逆向工程平台内部 API 来生成集成代码的 AI 代理。\n\n## Integuru v0 运行示例\n\n![Integuru 运行示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteguru-AI_Integuru_readme_c6b8137364b7.gif)\n\n## Integuru v0 的功能\n\n您使用 `create_har.py` 生成包含所有浏览器网络请求的文件和 Cookie 文件，并编写一个描述在浏览器中触发的操作的提示。该代理会输出可运行的 Python 代码，直接调用平台的内部端点以执行所需操作。\n\n## 工作原理\n\n假设我们要下载水电费账单：\n\n1. 代理会识别用于下载水电费账单的请求。例如，请求 URL 可能如下所示：\n   ```\n   https:\u002F\u002Fwww.example.com\u002Futility-bills?accountId=123&userId=456\n   ```\n2. 它会识别请求中依赖其他请求的部分。上述 URL 包含需要从其他请求中获取的动态参数：\n   ```\n   accountId=123 userId=456\n   ```\n3. 代理会找到提供这些参数的请求，并将下载请求依赖于它们。同时，它会将这些请求与原始请求关联起来，构建出一个依赖关系图：\n   ```\n   GET https:\u002F\u002Fwww.example.com\u002Fget_account_id\n   GET https:\u002F\u002Fwww.example.com\u002Fget_user_id\n   ```\n4. 这一过程会重复进行，直到当前检查的请求不再依赖任何其他请求，仅需认证 Cookie 即可。\n5. 代理会从没有出边的节点（即不依赖其他请求的节点）开始，沿着依赖关系图向上遍历，直至到达主节点，同时将每个节点转换为可运行的函数。\n\n## 功能特性\n\n- 生成请求的依赖关系图，以便最终发出执行目标操作的请求。\n- 支持输入变量（例如选择要下载文档的年份）。目前此功能仅用于生成依赖关系图；用于代码生成的输入变量功能即将推出！\n- 生成代码以按依赖关系图中的顺序调用所有请求，从而完成目标操作。\n\n## 环境搭建\n\n1. 设置您的 OpenAI [API 密钥](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)，并添加 `OPENAI_API_KEY` 环境变量。（我们建议使用具有至少与 OpenAI o1-mini 同等能力模型权限的账户。推荐使用与 OpenAI o1-preview 性能相当的模型。）\n2. 使用 Poetry 安装 Python 依赖：\n   ```\n   poetry install\n   ```\n3. 打开 Poetry Shell：\n   ```\n   poetry shell\n   ```\n4. 将 Poetry 虚拟环境注册到 Jupyter：\n   ```\n   poetry run ipython kernel install --user --name=integuru\n   ```\n5. 运行以下命令启动浏览器：\n   ```\n   poetry run python create_har.py\n   ```\n   登录到您的平台并执行所需操作（如下载水电费账单）。\n6. 运行 Integuru：\n   ```\n   poetry run integuru --prompt \"download utility bills\" --model \u003Cgpt-4o|o3-mini|o1|o1-mini>\n   ```\n   您也可以通过 Jupyter Notebook `main.ipynb` 来运行。\n\n   **建议使用 gpt-4o 作为生成依赖关系图的模型，因为它支持函数调用。如果用户的 OpenAI 账户中有可用的 o1-preview 模型，Integuru 会自动切换到该模型进行代码生成。**\n\n## 使用方法\n\n项目设置完成后，您可以使用 Integuru 分析和逆向工程外部平台的 API 请求。只需提供相应的 .har 文件以及描述您希望触发的操作的提示即可。\n\n```\npoetry run integuru --help\n用法：integuru [选项]\n\n选项：\n  --model TEXT                    使用的 LLM 模型（默认为 gpt-4o）\n  --prompt TEXT                   模型的提示语  [必填]\n  --har-path TEXT                 HAR 文件路径（默认为\n                                  .\u002Fnetwork_requests.har）\n  --cookie-path TEXT              Cookie 文件路径（默认为\n                                  .\u002Fcookies.json）\n  --max_steps INTEGER             最大步骤数（默认为 20）\n  --input_variables \u003CTEXT TEXT>... 输入变量，格式为 键 值\n  --generate-code                 是否生成完整的集成代码\n  --help                          显示本帮助信息并退出。\n```\n\n\n## 运行单元测试\n\n使用 `pytest` 运行单元测试的命令如下：\n\n```\npoetry run pytest\n```\n\n## 持续集成 (CI) 流程\n\n本仓库包含一个基于 GitHub Actions 的 CI 流程。该流程定义在 `.github\u002Fworkflows\u002Fci.yml` 文件中，会在每次向 `main` 分支推送或发起拉取请求时触发。流程执行以下步骤：\n\n1. 检出代码。\n2. 设置 Python 3.12。\n3. 使用 Poetry 安装依赖。\n4. 使用 `pytest` 运行测试。\n\n## 关于双因素认证的说明\n\n当目标网站使用双因素认证 (2FA) 时，工作流程保持不变。请确保完成 2FA 流程，并在 2FA 后获取 Cookie\u002F认证令牌\u002F会话令牌。这些令牌将在工作流程中使用。\n\n## 演示视频\n\n[![演示视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteguru-AI_Integuru_readme_adaeca7e318f.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7OJ4w5BCpQ0)\n\n## 贡献\n\n欢迎为改进 Integuru 提供贡献。请随时在项目的仓库中提交问题或拉取请求。\n\n## 信息\n\nInteguru 由 Integuru.ai 构建。除了开发这款代理之外，我们还接受针对新集成或现有支持平台附加功能的定制请求。此外，我们也提供托管和认证服务。如有需求或希望与我们合作，请联系 richard@integuru.ai。\n\n我们已开源自己构建的非官方 API，您可以在 [这里](https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FAPIs-by-Integuru) 查看。\n\n## 隐私政策\n\n### 数据存储\n收集的数据本地存储在 `network_requests.har` 和 `cookies.json` 文件中。\n\n### LLM 使用\n该工具使用基于云的 LLM（OpenAI 的 GPT-4o 和 o1-preview 模型）。\n\n### LLM 训练\nLLM 不会因使用本工具而被训练或改进。","# Integuru 快速上手指南\n\nInteguru 是一个 AI 代理工具，能够通过逆向工程平台的内部 API，自动生成执行特定操作（如下载账单、抓取数据）的 Python 集成代码。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统和依赖要求：\n\n*   **操作系统**：支持 Linux、macOS 或 Windows（需配置好 Python 环境）。\n*   **Python 版本**：推荐 Python 3.12（CI 流程验证版本）。\n*   **包管理工具**：必须安装 [Poetry](https:\u002F\u002Fpython-poetry.org\u002F) 用于依赖管理。\n    *   *国内加速建议*：若安装 Poetry 缓慢，可使用国内镜像源：\n        ```bash\n        curl -sSL https:\u002F\u002Fmirrors.aliyun.com\u002Fpython-poetry\u002Finstall-poetry.py | python -\n        export POETRY_PYPI_MIRROR_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\u002F\n        ```\n*   **OpenAI API Key**：需要有效的 OpenAI API 密钥。\n    *   **模型要求**：推荐使用 `gpt-4o`（用于生成请求依赖图，支持函数调用）和 `o1-preview` 或 `o1-mini`（用于代码生成）。请在环境变量中配置 `OPENAI_API_KEY`。\n\n## 安装步骤\n\n1.  **克隆项目并安装依赖**\n    进入项目目录，使用 Poetry 安装所需库：\n    ```bash\n    poetry install\n    ```\n\n2.  **激活虚拟环境**\n    启动 Poetry shell 以隔离运行环境：\n    ```bash\n    poetry shell\n    ```\n\n3.  **注册 Jupyter Kernel（可选）**\n    如果你习惯使用 Jupyter Notebook 进行调试，请运行以下命令注册内核：\n    ```bash\n    poetry run ipython kernel install --user --name=integuru\n    ```\n\n## 基本使用\n\nInteguru 的工作流分为两步：首先通过浏览器录制操作生成网络请求文件，然后由 AI 分析并生成代码。\n\n### 第一步：录制浏览器操作\n\n运行以下命令启动浏览器。登录目标平台，手动执行你想要自动化的操作（例如：下载某个月的电费账单），完成后关闭浏览器。\n\n```bash\npoetry run python create_har.py\n```\n\n> **注意**：此过程会生成 `network_requests.har`（网络请求记录）和 `cookies.json`（认证信息）。如果目标网站开启了两步验证 (2FA)，请在录制过程中完成验证，确保最终生成的 cookie 包含有效会话令牌。\n\n### 第二步：生成集成代码\n\n使用 `integuru` 命令，提供描述操作的提示词（prompt），AI 将自动分析依赖关系并输出可运行的 Python 代码。\n\n**最简单示例：**\n假设刚才录制的操作是“下载电费账单”，运行：\n\n```bash\npoetry run integuru --prompt \"download utility bills\" --model gpt-4o\n```\n\n**参数说明：**\n*   `--prompt`: **必填**。用自然语言描述你希望代码执行的动作。\n*   `--model`: 指定使用的 LLM 模型。推荐图形生成阶段使用 `gpt-4o`。如果账户可用，工具会自动切换至 `o1` 系列模型进行代码生成。\n*   `--har-path`: HAR 文件路径（默认为 `.\u002Fnetwork_requests.har`）。\n*   `--cookie-path`: Cookie 文件路径（默认为 `.\u002Fcookies.json`）。\n*   `--generate-code`: 添加此标志以生成完整的集成代码。\n\n**进阶示例（带输入变量）：**\n如果你希望生成的代码支持动态参数（例如指定年份）：\n\n```bash\npoetry run integuru --prompt \"download utility bills for a specific year\" --input_variables year 2023 --generate-code\n```\n\n生成完成后，检查输出的 Python 脚本，即可直接用于自动化任务。","某电商运营团队需要每日从多个无公开 API 的竞争对手网站抓取实时价格与库存数据，以动态调整自身定价策略。\n\n### 没有 Integuru 时\n- 开发人员必须手动打开浏览器开发者工具，逐条分析复杂的网络请求，耗时数小时才能定位到关键的数据接口。\n- 由于目标网站频繁更新内部逻辑或混淆参数，硬编码的爬虫脚本极易失效，维护成本极高且不稳定。\n- 面对需要登录或携带动态令牌（Token）的请求，人工逆向工程难度极大，往往需要编写大量样板代码来处理依赖关系。\n- 每新增一个竞争对手网站，都需要重复上述繁琐过程，导致业务扩展速度严重受制于开发人力。\n\n### 使用 Integuru 后\n- 运营人员只需录制一次浏览器操作并生成 HAR 文件，Integuru 即可自动识别并提取出下载价格数据的核心内部 API 端点。\n- Integuru 智能构建请求依赖图，自动解析如 `accountId` 等动态参数来源，生成的 Python 代码能自适应处理复杂的鉴权链路。\n- 当网站内部结构微调时，只需重新运行 Integuru 分析新的流量记录，几分钟内即可产出适配新逻辑的可运行代码，大幅降低维护门槛。\n- 团队可将原本用于逆向工程的数天工时压缩至分钟级，快速将新竞品纳入监控体系，实现规模化数据采集。\n\nInteguru 通过自动逆向工程将原本高门槛的黑盒接口调用转化为标准化的自动化代码，让非技术人员也能轻松打破平台数据孤岛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteguru-AI_Integuru_adaeca7e.jpg","Integuru-AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FInteguru-AI_884c16ae.png","We build integrations with platforms lacking official APIs. We specialize in low-latency integrations via reverse engineering. All integrations are open-source.",null,"richard@taiki.online","TaikiHQ","http:\u002F\u002Finteguru.ai\u002F","https:\u002F\u002Fgithub.com\u002FInteguru-AI",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",94.9,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",5.1,4565,359,"2026-04-05T04:13:07","AGPL-3.0","未说明","不需要 GPU",{"notes":99,"python":100,"dependencies":101},"需要配置 OpenAI API Key，推荐使用支持函数调用的模型（如 gpt-4o）进行图谱生成，代码生成推荐 o1-preview。运行前需通过 create_har.py 录制浏览器网络请求和 Cookie。","3.12",[102,103,104,105],"poetry","pytest","ipython","openai",[13,26,53,51,15],[108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123],"agents","ai-agent","llm","integrations","integration","agent","ai-agents","openapi","unofficial-api","unofficial-apis","automation","robotic-process-automation","rpa","api","apis","open-source","2026-03-27T02:49:30.150509","2026-04-06T07:01:02.685523",[127,132,137,142,147,152,157,162],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},10377,"默认 LLM 模型（o1-mini）无法访问或报错 404 怎么办？","默认硬编码的 `o1-mini` 模型仅对部分高级用户开放。您可以手动修改代码中的模型配置：在 `print.py` 文件中，将 `o1_llm = ChatOpenAI(model=\"o1-mini\", temperature=1)` 更改为您有权限访问的模型（例如 `gpt-4o`）。维护者计划添加 fallback 机制，但目前需手动调整。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F2",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},10378,"使用工具时是否存在敏感信息（如 Auth Token、登录凭证）泄露的风险？","确实存在风险，因为网络交易日志可能包含敏感信息。目前团队正在开发掩码解决方案，但尚不完美。建议利用 Chrome 导出 HAR 文件时默认会屏蔽部分敏感信息的特性。此外，未来可以考虑使用本地 LLM 来完全规避此问题。维护者已在 README 中添加了相关警告。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F18",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},10379,"运行生成的代码时遇到 Cookie 错误或认证失败如何解决？","这通常是因为 `cookies.json` 中的 Cookie 已过期。您需要从当前已认证的会话中获取一组全新的 Cookie，并替换到 `generated_code.py` 的 Cookie 字符串中，确保使用的是有效的会话凭证。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F24",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},10380,"如果目标网站需要两步验证（2FA），该如何处理工作流？","工作流程与普通登录一致。您需要在完成 2FA 登录后，提取此时生成的 Cookie、Auth Token 或 Session Token，并在运行生成的 `generated_code.py` 时使用这些凭证。工具本身不直接处理 2FA 交互，而是依赖您提供的已认证凭证。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F4",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},10381,"使用 o1-preview 模型时提示不支持 'function_call' 参数怎么办？","`o1-preview` 模型不支持函数调用（function calling）。建议在生成图谱（graph generation）阶段使用默认的 `gpt-4o` 模型。如果账户可用，代码生成阶段会自动切换使用 `o1-preview`。请避免在初始命令中强制指定 `--model o1-preview` 用于全流程。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F5",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},10382,"使用 Poetry 安装项目时出现 'No file\u002Ffolder found for package' 错误如何解决？","该问题可能与 Python 版本或项目配置有关。首先确保使用 Python 3.12 版本。如果更新过 `pyproject.toml` 文件，建议删除整个 `Integuru` 文件夹并重新克隆仓库，然后再次运行 `poetry install`。也可以尝试在配置中设置 `package-mode = false` 以禁用打包模式仅管理依赖。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F1",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},10383,"在 Jupyter Notebook 中运行时提示 'ModuleNotFoundError: No module named integration_agent' 怎么办？","这是因为模块未正确安装或路径问题。请确保您已经在项目根目录下通过 `poetry install` 完成了环境配置，并且是在激活了 Poetry 虚拟环境的情况下运行 Notebook，或者在 Notebook 单元格开头正确配置了 Python 路径以包含 `integration_agent` 模块。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F3",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},10384,"使用该工具进行逆向工程是否合法？","该工具涉及对网站行为的逆向工程，这可能违反大多数目标网站的服务条款（Terms of Service）。虽然项目本身技术上是可行的且很有趣，但用户在使用时需自行评估法律风险并遵守相关法律法规及网站协议。","https:\u002F\u002Fgithub.com\u002FInteguru-AI\u002FInteguru\u002Fissues\u002F8",[]]