[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Cormanz--smartgpt":3,"tool-Cormanz--smartgpt":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":143},6179,"Cormanz\u002Fsmartgpt","smartgpt","A program that provides LLMs with the ability to complete complex tasks using plugins.","SmartGPT 是一款实验性开源程序，旨在赋予大语言模型（如 GPT-3.5 和 GPT-4）自主完成复杂任务的能力。它能将宏大的目标拆解为若干小问题，并通过插件机制利用互联网等外部资源收集信息，全程无需用户反复干预。\n\n面对现有方案在灵活性与一致性上的不足，SmartGPT 通过高度模块化的插件系统和动态执行机制，实现了更稳定的任务处理流程。其核心亮点在于独特的\"Auto\"架构：既包含专注解决单一任务的\"Runner\"，也支持交互式对话的\"Assistants\"，让用户能像组建团队一样灵活编排智能体。此外，项目仅通过一个自动生成的配置文件即可掌控所有设置，极大降低了定制门槛。\n\n不过，SmartGPT 目前仍处于快速迭代的实验阶段，为了探索大模型的极限潜力，其在稳定性和记忆管理系统上尚不如成熟的竞品完善，且主要面向技术爱好者开放。因此，它特别适合开发者、AI 研究人员以及希望深入探索大模型自主代理（Agent）前沿技术的极客用户。如果你渴望尝试最新的自动化思路并愿意参与社区共建，SmartGPT 提供了一个充满创新可能的实验平台。","\u003Ch1 align = \"center\">SmartGPT\u003C\u002Fh1>\n\u003Cdiv align = \"center\">\n    \u003Ca href=\"LICENSE.md\">\n        \u003Cimg alt=\"License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FCormanz\u002Fsmartgpt?style=flat-square\" \u002F>\n        \u003Cimg alt = \"Stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCormanz\u002Fsmartgpt?style=flat-square\">\n        \u003Cimg src = \"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fuse-experimental-informational?style=flat-square\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Chr\u002F>\n\nSmartGPT is an experimental program meant to provide LLMs (particularly GPT-3.5 and GPT-4) with the ability to complete complex tasks without user input by breaking them down into smaller problems, and collecting information using the internet and other external sources.\n\nIf you're interested in keeping up with the progress of SmartGPT, want to contribute to development, or have issues to discuss, [join the SmartGPT Discord](https:\u002F\u002Fdiscord.gg\u002F5uezFE2XES).\n\nhttps:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fassets\u002F32941017\u002F11d737b4-9c93-4f22-b84f-d9c9d1ee0f9c\n\n## Why?\n\nThere are many existing solutions to allowing LLMs to perform more complex tasks, such as [Auto-GPT](https:\u002F\u002Fgithub.com\u002FTorantulino\u002FAuto-GPT) and [BabyAGI](https:\u002F\u002Fgithub.com\u002Fyoheinakajima\u002Fbabyagi). So, why SmartGPT?\n\n- **Modularity**: With first class plugin support and the ability to compose Autos for whatever your project requires, SmartGPT is incredibly modular.\n\n- **Flexibility**: SmartGPT has one `config.yml` file that is automatically generated where you can configure everything and anything.\n\n- **Consistency**: SmartGPT has a smart system of dynamically executing actions and static tool-chaining to provide incredible consistent results.\n\nThere are two main shortcomings, however.\n\n- **Ecosystem**: Due to its popularity, [AutoGPT](https:\u002F\u002Fgithub.com\u002FTorantulino\u002FAuto-GPT) is a very polished and refined tool. It has many more tools and integrations with memory systems. To go with this, the codebase has been through large scrutiny, so it is generally less buggy and more tested than SmartGPT.\n\n- **Memory Management**: Due to the extreme youth of this project, there is only one simple but limited memory system. However, this will change with time.\n\n## Supporting Development\n\nCurrently, testing with SmartGPT is primarily being done with GPT3.5, and occasionally with GPT4, due to the costs of more-expensive models. As this project matures, we're aiming to experiment both with **multiple agents at once** and using **GPT4** much more to unleash maximum capabilities out of LLMs. This is expensive though, and as the core maintainer of SmartGPT, I'm still a high school student, and funding a project like this is difficult for me. If you're interest in helping push the boundaries of LLMs, [consider joining our Patreon.](https:\u002F\u002Fwww.patreon.com\u002FSmartGPT)\n\n## Disclaimer\n\nSmartGPT is an **incredibly experimental** application. The goal is to unlock maximum potential out of LLMs, and stability is sacrificed for this. Backwards compatibility is a fever dream here. However, SmartGPT is also housing some of the most innovative ideas and experiments in the AutoGPT space right now, and although most are unsuccessful, a few hit the dart-board and stick.\n\n## Quickstart\n\n1. Install [`cargo`](https:\u002F\u002Fdoc.rust-lang.org\u002Fcargo\u002Fgetting-started\u002Finstallation.html), preferably the latest stable version.\n\n2. Clone the repository with `git clone https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt.git && cd smartgpt`.\n\n3. Run it in release mode with `cargo run --release`. This will create a `config.yml` for you.\n\n4. Adjust the config to your liking, and execute it once again.\n\nIf you want more information, or would like to use SmartGPT as a crate in your own projects, [read the documentation](https:\u002F\u002Fcorman.gitbook.io\u002Fsmartgpt\u002Finstallation).\n\n# How SmartGPT Works\n\n## Autos\n\n**Auto**s are the building blocks of SmartGPT. There are two types of Autos.\n\n- **Runner**: A runner is given a single task, and is asked to complete it.\n- **Assistants**: An Assistant Auto can be conversed with, and will give you responses back, in context of the conversation.\n\nAssistants are highly experimental, so we recommend Runners.\n\nAn Auto will under the hood, run agent. An agent has two parts: The Dynamic Agent and The Static Agent.\n\n## Dynamic Agent\n\nThe Dynamic Agent is the base agent. It runs a REACT-esque process, thinking, reasoning, and then making a decision. It can do one of three things:\n\n- Brainstorm.\n- Run an **action**.\n- Give the user a final response.\n\nWhen it runs an action, the Static Agent is dispatched to run the action.\n\n## Static Agent\n\nThe Static Agent runs the subtasks given to it by the Dynamic Agent. Here's how it works:\n\n1. It plans out each tool that is needed in the precise order to complete the task.\n2. One by one, it'll run each step of the plan, filling in the arguments for the tool.\n\nThe Static Agent also saves assets that the Dynamic Agent can pass back to the Static Agent for future tasks.\n\n## Memory\n\nAgents all have **memory**. After completing a task, the agent will save a list of all observations into long-term memory. Once it starts another task, it will pull all long-term memories related to the task (using a VectorDB for this.)\n\n## Plugin System\n\nAutos can use a set of **tools** such as `google_search`, `browse_url`, etc. You define these using plugins. Plugins define their own set of tools, and can have their own data.\n\n# License\n\n`smartgpt` is available under the\n[MIT license](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT). See\n[LICENSE](https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fblob\u002Fmain\u002FLICENSE.md) for the full\nlicense text.\n","\u003Ch1 align=\"center\">SmartGPT\u003C\u002Fh1>\n\u003Cdiv align=\"center\">\n    \u003Ca href=\"LICENSE.md\">\n        \u003Cimg alt=\"许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FCormanz\u002Fsmartgpt?style=flat-square\" \u002F>\n        \u003Cimg alt=\"星标\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCormanz\u002Fsmartgpt?style=flat-square\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F使用-实验性-信息性?style=flat-square\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Chr\u002F>\n\nSmartGPT 是一个实验性的程序，旨在通过将复杂任务分解为更小的问题，并利用互联网及其他外部资源收集信息，使大型语言模型（尤其是 GPT-3.5 和 GPT-4）能够在无需用户输入的情况下完成这些任务。\n\n如果您想了解 SmartGPT 的最新进展、参与开发或讨论相关问题，请[加入 SmartGPT Discord 服务器](https:\u002F\u002Fdiscord.gg\u002F5uezFE2XES)。\n\nhttps:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fassets\u002F32941017\u002F11d737b4-9c93-4f22-b84f-d9c9d1ee0f9c\n\n## 为什么？\n\n目前已有许多解决方案可以让大型语言模型执行更复杂的任务，例如 [Auto-GPT](https:\u002F\u002Fgithub.com\u002FTorantulino\u002FAuto-GPT) 和 [BabyAGI](https:\u002F\u002Fgithub.com\u002Fyoheinakajima\u002Fbabyagi)。那么，为什么还需要 SmartGPT 呢？\n\n- **模块化**：SmartGPT 提供一流的插件支持，并且可以根据项目需求自由组合 Autos，因此具有极高的模块化特性。\n  \n- **灵活性**：SmartGPT 只需一个自动生成的 `config.yml` 配置文件，即可对所有内容进行灵活配置。\n\n- **一致性**：SmartGPT 拥有智能的动态执行机制和静态工具链技术，能够提供非常一致的结果。\n\n不过，SmartGPT 目前仍存在两个主要不足：\n\n- **生态系统**：由于 [Auto-GPT](https:\u002F\u002Fgithub.com\u002FTorantulino\u002FAuto-GPT) 的广泛流行，它已经发展得非常成熟和完善，拥有更多的工具和与记忆系统的集成。此外，其代码库经过了严格的审查，因此通常比 SmartGPT 更少 bug、测试也更为充分。\n  \n- **内存管理**：由于该项目还处于非常早期的阶段，目前仅有一个简单但功能有限的记忆系统。不过，随着项目的不断发展，这一点将会得到改善。\n\n## 支持开发\n\n目前，我们主要使用 GPT-3.5 对 SmartGPT 进行测试，偶尔也会使用 GPT-4，但这受限于更高成本模型的使用费用。随着项目的逐步成熟，我们的目标是同时试验**多个智能体**，并更多地使用 **GPT-4**，以充分发挥大型语言模型的最大潜力。然而，这需要较高的资金投入，而作为 SmartGPT 的核心维护者，我目前仍是一名高中生，承担这样的项目经费对我来说颇具挑战。如果您有兴趣帮助推动大型语言模型的边界，请考虑[加入我们的 Patreon](https:\u002F\u002Fwww.patreon.com\u002FSmartGPT)。\n\n## 免责声明\n\nSmartGPT 是一款**高度实验性**的应用程序。它的目标是最大限度地挖掘大型语言模型的潜力，为此牺牲了稳定性。在这里，向后兼容性几乎是一个遥不可及的梦想。尽管如此，SmartGPT 目前也承载着 AutoGPT 领域中一些最具创新性的想法和实验；虽然大多数尝试并未成功，但也有少数真正击中了目标。\n\n## 快速入门\n\n1. 安装 [`cargo`](https:\u002F\u002Fdoc.rust-lang.org\u002Fcargo\u002Fgetting-started\u002Finstallation.html)，建议使用最新稳定版本。\n   \n2. 克隆仓库：`git clone https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt.git && cd smartgpt`。\n\n3. 以发布模式运行：`cargo run --release`。这将为您生成一个 `config.yml` 文件。\n\n4. 根据您的需求调整配置，然后再次运行。\n\n如果您需要更多信息，或者希望在自己的项目中将 SmartGPT 作为库来使用，请阅读[文档](https:\u002F\u002Fcorman.gitbook.io\u002Fsmartgpt\u002Finstallation)。\n\n# SmartGPT 的工作原理\n\n## Autos\n\n**Auto** 是 SmartGPT 的基本构建模块。Auto 分为两种类型：\n\n- **Runner**：Runner 被赋予单一任务，并负责将其完成。\n  \n- **Assistants**：Assistant Auto 可以与之对话，并根据对话上下文给出响应。\n\n目前 Assistant 类型的 Auto 尚处于高度实验阶段，因此我们更推荐使用 Runner。\n\n在底层，Auto 会运行一个代理（Agent）。该代理由两部分组成：动态代理和静态代理。\n\n## 动态代理\n\n动态代理是基础代理。它采用类似 REACT 的流程，先思考、推理，再做出决策。它可以执行以下三种操作之一：\n\n- 头脑风暴。\n- 执行一项**行动**。\n- 向用户提供最终结果。\n\n当动态代理执行行动时，静态代理会被调度来完成该行动。\n\n## 状态代理\n\n静态代理负责执行动态代理分配的子任务。其工作流程如下：\n\n1. 它会按照精确的顺序规划完成任务所需的所有工具。\n   \n2. 然后逐一执行计划中的每一步，为每个工具填充相应的参数。\n\n此外，静态代理还会保存资产，以便动态代理在未来任务中再次调用。\n\n## 内存\n\n所有代理都具备**记忆**功能。完成任务后，代理会将所有观察记录存储到长期记忆中。当开始执行新任务时，代理会从长期记忆中提取与当前任务相关的所有记录（使用向量数据库实现这一功能）。\n\n## 插件系统\n\nAuto 可以使用一系列**工具**，例如 `google_search`、`browse_url` 等。这些工具通过插件来定义。插件可以定义自己的工具集，并拥有独立的数据。\n\n# 许可证\n\n`smartgpt` 依据[MIT 许可证](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)发布。完整的许可文本请参阅[LICENSE](https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fblob\u002Fmain\u002FLICENSE.md)。","# SmartGPT 快速上手指南\n\nSmartGPT 是一个实验性程序，旨在让大语言模型（如 GPT-3.5 和 GPT-4）能够无需用户干预即可通过拆解复杂任务、利用互联网及外部资源来自动完成工作。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Linux、macOS 或 Windows。\n*   **核心依赖**：必须安装 Rust 包管理器 `cargo`。\n    *   推荐安装最新稳定版。\n    *   国内用户可使用 rustup 中国镜像加速安装：\n        ```bash\n        export RUSTUP_DIST_SERVER=https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Frustup\n        export RUSTUP_UPDATE_ROOT=https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Frustup\u002Frustup\n        curl --proto '=https' --tlsv1.2 -sSf https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Frustup\u002Frustup-init.sh | sh\n        ```\n    *   安装完成后，重启终端或运行 `source $HOME\u002F.cargo\u002Fenv` 使环境变量生效。\n*   **API 密钥**：您需要拥有 OpenAI API Key（用于 GPT-3.5 或 GPT-4）。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    使用 git 将项目代码下载到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt.git && cd smartgpt\n    ```\n    *(注：若 GitHub 访问缓慢，可尝试使用国内镜像源克隆，如 `git clone https:\u002F\u002Fgitee.com\u002Fmirror\u002Fgithub_cormanz_smartgpt.git`，如有可用镜像)*\n\n2.  **编译并初始化**\n    以发布模式运行项目。首次运行会自动生成配置文件 `config.yml`：\n    ```bash\n    cargo run --release\n    ```\n\n3.  **配置 API 密钥**\n    运行上述命令后，打开生成的 `config.yml` 文件，填入您的 OpenAI API Key 及其他所需配置项。\n\n4.  **再次运行**\n    保存配置后，重新执行命令即可启动 SmartGPT：\n    ```bash\n    cargo run --release\n    ```\n\n## 基本使用\n\nSmartGPT 的核心概念是 **Auto**（自动化代理），主要分为两类：\n*   **Runner**：接收单个任务并独立完成（推荐新手使用）。\n*   **Assistants**：可进行对话交互的助手（目前处于高度实验阶段）。\n\n### 使用示例\n\n启动程序后，您通常可以通过命令行交互或修改配置文件来定义任务。最基础的用法是启动一个 **Runner** 来处理特定目标。\n\n假设您已配置好 `config.yml`，程序启动后会等待输入或根据配置执行预设流程。例如，您可以让 SmartGPT 执行以下逻辑（具体交互方式视版本更新可能略有不同，核心逻辑如下）：\n\n1.  **定义任务**：告诉 SmartGPT 一个复杂目标，例如“调研当前 AI 领域的最新进展并总结”。\n2.  **自动执行**：\n    *   **动态代理 (Dynamic Agent)** 会分析任务，决定需要搜索信息。\n    *   **静态代理 (Static Agent)** 会规划工具调用顺序（如先调用 `google_search`，再调用 `browse_url` 读取内容）。\n    *   系统会自动联网获取信息，并将关键观察结果存入长期记忆（基于向量数据库）。\n3.  **获取结果**：代理完成任务后，将最终总结反馈给您。\n\n> **提示**：由于该项目处于**高度实验阶段**，稳定性可能有所波动，且主要针对 GPT-3.5 进行测试以控制成本。建议先从简单的单步任务开始尝试，逐步探索其多步推理能力。\n\n如需更高级的用法（如作为库集成到其他 Rust 项目中），请参阅官方文档：https:\u002F\u002Fcorman.gitbook.io\u002Fsmartgpt\u002Finstallation","某初创公司的数据分析师需要每日从多个新闻源和财报网站收集竞品动态，并整理成结构化报告供管理层决策。\n\n### 没有 smartgpt 时\n- 分析师需手动打开十几个网页逐个搜索信息，耗时且容易遗漏关键数据。\n- 不同来源的数据格式混乱，人工清洗和标准化耗费大量精力，极易出错。\n- 遇到复杂指令（如“对比三家公司的 Q3 营收增长率”）时，需反复切换上下文手动计算，效率低下。\n- 一旦任务流程变更（如增加新的数据源），必须重新编写脚本或调整工作流，灵活性极差。\n- 缺乏自动化的任务拆解能力，面对模糊需求时往往无从下手，依赖人工反复试错。\n\n### 使用 smartgpt 后\n- smartgpt 自动调用网络插件遍历指定信源，几分钟内即可完成全网信息抓取，无遗漏。\n- 内置的数据处理插件自动将杂乱信息清洗为统一格式，直接生成可用的结构化表格。\n- 面对复杂分析指令，smartgpt 自主将任务拆解为“获取数据 - 提取指标 - 计算比率”等子步骤并顺序执行。\n- 仅需修改 `config.yml` 配置文件即可灵活增删数据源或调整分析逻辑，无需重写代码。\n- 利用其动态执行机制，smartgpt 能智能识别任务卡点并自动尝试替代方案，确保持续推进直至完成。\n\nsmartgpt 通过模块化插件和自动任务拆解，将原本数小时的人工调研工作压缩至分钟级，实现了复杂数据任务的无人值守自动化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCormanz_smartgpt_32127bc3.png","Cormanz","Corman","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCormanz_51605826.png",null,"https:\u002F\u002Fgithub.com\u002FCormanz",[78,82],{"name":79,"color":80,"percentage":81},"Rust","#dea584",99.9,{"name":83,"color":84,"percentage":85},"Dockerfile","#384d54",0.1,1739,125,"2026-04-08T16:52:47","MIT",4,"Linux, macOS, Windows","未说明",{"notes":94,"python":95,"dependencies":96},"该项目使用 Rust 语言编写，而非 Python。安装前需先安装 Rust 工具链（特别是 cargo）。运行时需要配置 OpenAI API 密钥（支持 GPT-3.5 和 GPT-4），通过 config.yml 文件进行配置。由于是实验性项目，稳定性可能不足且向后兼容性较差。","不需要 (基于 Rust)",[97],"cargo (Rust 包管理器)",[15,35,14,13],[100,101,102,103,104,105],"ai","gpt-3","gpt-4","llm","openai","rust","2026-03-27T02:49:30.150509","2026-04-10T18:55:34.899418",[109,114,119,123,128,133,138],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},27989,"如何使用 Docker Compose 运行 SmartGPT？","首先确保已添加 Docker Compose 配置，然后运行以下命令构建并启动：\n`docker compose build`\n`docker compose run --rm smartgpt`\n更多详细说明请查阅官方文档的 Docker 使用部分。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F32",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},27990,"运行时报错找不到文件或目录（No such file or directory）怎么办？","这通常是因为缺少必要的配置文件或目录。请尝试以下操作：\n1. 确保将 `example config.yml` 重命名为 `config.yml`。\n2. 如果是文件写入错误，可能需要手动创建 \"files\" 文件夹后再运行。\n3. 若遇到 `NoMemorySystemError`，请尝试安装 faiss 并使用命令 `cargo run --release --features faiss` 运行。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F6",{"id":120,"question_zh":121,"answer_zh":122,"source_url":118},27991,"Windows 上运行时提示找不到 SmartGPT.exe 或配置文件错误如何解决？","该错误通常是因为未生成或重命名配置文件。如果您是通过 `git clone` 获取的代码，请将 `example config.yml` 重命名为 `config.yml`。此外，确保您运行的不是名称相似的其他项目。如果问题依旧，检查是否缺少依赖项如 faiss。",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},27992,"遇到 \"No plugin named newsapi\" 错误如何处理？","这是一个已知问题，已在后续的代码提交中修复（参考 PR #61）。请拉取最新的代码更新并重新编译即可解决该插件缺失的问题。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F60",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},27993,"编译时出现 \"file not found for module assets\" 错误怎么办？","此错误表明源代码中缺少 `assets` 模块文件。这通常发生在代码不完整或未正确初始化的情况下。请确保您已完整克隆仓库，或者检查是否需要运行特定的构建脚本\u002F指令来生成缺失的 `src\u002Fplugins\u002Fassets.rs` 或相关资源文件。建议同步最新代码以获取完整的文件结构。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F56",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},27994,"目前支持配置网络代理（Proxy）吗？","当前版本可能尚未直接在 yml 中提供全局代理配置，但开发团队计划在接下来的配置重构更新中加入对请求全局代理的支持。在此之前，对于无法直接访问 OpenAI API 的地区用户，建议关注后续版本更新或尝试配置本地 LLM 模型作为替代方案。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F18",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},27995,"SmartGPT 是否会推出 Python 版本或支持 Python 插件？","目前核心项目主要基于 Rust 开发。关于动态插件系统，团队正在讨论如何实现跨平台且易用的方案。虽然有人建议使用 Mojo 或 RustPython，但由于 Python 生态对 CPython 的依赖，目前更倾向于使用 Rust 绑定或 WebAssembly (Wasmer) 来实现高性能且安全的插件系统，暂无明确的纯 Python 版本计划。","https:\u002F\u002Fgithub.com\u002FCormanz\u002Fsmartgpt\u002Fissues\u002F30",[]]