[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-agiresearch--OpenAGI":3,"tool-agiresearch--OpenAGI":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":23,"env_os":90,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":95,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":96,"updated_at":97,"faqs":98,"releases":139},4118,"agiresearch\u002FOpenAGI","OpenAGI","OpenAGI: When LLM Meets Domain Experts","OpenAGI 是一个专为构建智能体（AI Agent）设计的开源开发包，其核心理念是“当大语言模型遇见领域专家”。它旨在解决大模型在通用场景下表现优异，但在特定垂直领域缺乏专业执行能力的问题。通过提供标准化的框架，OpenAGI 让开发者能够轻松将大模型的推理能力与外部专业工具、领域知识相结合，从而创造出能完成复杂任务的专业智能体。\n\n这款工具主要面向 AI 开发者、研究人员以及希望探索智能体应用的技术团队。用户不仅可以基于现有架构快速开发自定义智能体，还能通过内置的社区机制上传和下载他人开发的智能体，实现资源共享与协作。值得注意的是，虽然 OpenAGI 奠定了坚实的基础，但官方建议新用户在构建连接 AIOS 内核的智能体时，可进一步关注其最新推出的 Cerebrum SDK 以获得更优体验。\n\nOpenAGI 的独特亮点在于其模块化的设计思路：只需简单的文件夹结构和配置文件，即可定义智能体的执行逻辑、依赖项及配置参数。这种低门槛的开发模式极大地降低了专业智能体的创建难度，推动了从“通用对话”向“专业执行”的技术演进，是探索大模型落地垂直场景的理想实验平台。","# OpenAGI: Package for AI Agent Creation\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04370'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-red'>\u003C\u002Fa>\n[![Code License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-MIT-green.svg)](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fblob\u002Fmain\u002FLICENSE)\n\u003Ca href='https:\u002F\u002Fdiscord.gg\u002FB2HFxEgTJX'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCommunity-Discord-8A2BE2'>\u003C\u002Fa>\n\n\n## ✈️ Getting Started\nOpenAGI is used as the agent creation package to build agents for [AIOS](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FAIOS).\n**Notice:** For building up agents in the AIOS, please migrate to the [Cerebrum](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FCerebrum), which is our latest SDK to connect with AIOS kernel.\n\n### Installation\nFrom PyPI\n```\npip install pyopenagi\n```\nLocally\n```\ngit clone https:\u002F\u002Fagiresearch\u002FOpenAGI\ncd OpenAGI\npip install -e .\n```\n\n### Usage\n\n#### Add a new agent\nTo add a new agent, first you need to create a folder under the pyopenagi\u002Fagents folder.\nThe folder needs to be the following structure:\n```\n- pyopenagi\u002Fagents\n  - author\n    - agent_name\n      - agent.py # main code for the agent execution logic\n      - config.json # set up configurations for agent\n      - meta_requirements.txt # dependencies that the agent needs\n```\nIf you want to use external tools provided by openagi in your agents, you can follow instructions of setting up tools in [How to setup external tools](.\u002Ftools.md).\nIf you want to add new tools for your developing agent,\nyou need to add a new tool file in the [folder](.\u002Fpyopenagi\u002Ftools\u002F).\n\n#### Upload agent\nIf you have developed and tested your agent, and you would like to share your agents, you can use the following to upload your agents\n```\npython pyopenagi\u002Fagents\u002Finteract.py --mode upload --agent \u003Cauthor_name\u002Fagent_name>\n```\n💡Note that the `agent` param must exactly match the folder you put your agent locally.\n\n#### Download agent\nIf you want to look at implementations of other agents that others have developed, you can use the following command:\n```\npython pyopenagi\u002Fagents\u002Finteract.py --mode download --agent \u003Cauthor_name\u002Fagent_name>\n```\n\n## 🚀 Contributions\n\nFor detailed information on how to contribute, see [CONTRIBUTE](.\u002FCONTRIBUTE.md). If you would like to contribute to the codebase, [issues](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues) or [pull requests](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fpulls) are always welcome!\n\n## 🖋️ Research\nPlease check out our [implementation](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Ftree\u002Fresearch) for our research paper [OpenAGI: When LLM Meets Domain Experts](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04370).\n\n```\n@article{openagi,\n  title={OpenAGI: When LLM Meets Domain Experts},\n  author={Ge, Yingqiang and Hua, Wenyue and Mei, Kai and Ji, Jianchao and Tan, Juntao and Xu, Shuyuan and Li, Zelong and Zhang, Yongfeng},\n  journal={In Advances in Neural Information Processing Systems (NeurIPS)},\n  year={2023}\n}\n```\n\n## 🌍 OpenAGI Contributors\n[![OpenAGI contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_OpenAGI_readme_dcfa39688dc5.png)](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fgraphs\u002Fcontributors)\n\n\n\n## 🌟 Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_OpenAGI_readme_dbddbedd4566.png)](https:\u002F\u002Fstar-history.com\u002F#agiresearch\u002FOpenAGI&Date)\n","# OpenAGI：用于创建 AI 代理的软件包\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04370'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-red'>\u003C\u002Fa>\n[![代码许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-MIT-green.svg)](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fblob\u002Fmain\u002FLICENSE)\n\u003Ca href='https:\u002F\u002Fdiscord.gg\u002FB2HFxEgTJX'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCommunity-Discord-8A2BE2'>\u003C\u002Fa>\n\n\n## ✈️ 入门指南\nOpenAGI 用作代理创建工具包，用于为 [AIOS](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FAIOS) 构建代理。\n**注意：** 若要在 AIOS 中构建代理，请迁移到 [Cerebrum](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FCerebrum)，这是我们用于连接 AIOS 内核的最新 SDK。\n\n### 安装\n从 PyPI 安装\n```\npip install pyopenagi\n```\n本地安装\n```\ngit clone https:\u002F\u002Fagiresearch\u002FOpenAGI\ncd OpenAGI\npip install -e .\n```\n\n### 使用方法\n\n#### 添加新代理\n要添加新代理，首先需要在 `pyopenagi\u002Fagents` 文件夹下创建一个文件夹。\n该文件夹应具有以下结构：\n```\n- pyopenagi\u002Fagents\n  - 作者\n    - 代理名称\n      - agent.py # 代理执行逻辑的主要代码\n      - config.json # 代理配置设置\n      - meta_requirements.txt # 代理所需的依赖项\n```\n如果您希望在代理中使用 OpenAGI 提供的外部工具，可以按照 [如何设置外部工具](.\u002Ftools.md) 中的说明进行操作。\n如果您想为正在开发的代理添加新工具，\n则需要在 [此文件夹](.\u002Fpyopenagi\u002Ftools\u002F) 中添加一个新的工具文件。\n\n#### 上传代理\n如果您已经开发并测试了您的代理，并希望分享这些代理，可以使用以下命令上传：\n```\npython pyopenagi\u002Fagents\u002Finteract.py --mode upload --agent \u003C作者名\u002F代理名>\n```\n💡请注意，`agent` 参数必须与您本地存放代理的文件夹完全一致。\n\n#### 下载代理\n如果您想查看其他人开发的其他代理的实现，可以使用以下命令：\n```\npython pyopenagi\u002Fagents\u002Finteract.py --mode download --agent \u003C作者名\u002F代理名>\n```\n\n## 🚀 贡献\n\n有关如何贡献的详细信息，请参阅 [CONTRIBUTE](.\u002FCONTRIBUTE.md)。如果您希望为代码库做出贡献，我们始终欢迎 [问题](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues) 或 [拉取请求](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fpulls)！\n\n## 🖋️ 研究\n请查看我们的研究论文 [OpenAGI：当 LLM 遇见领域专家](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.04370) 的 [实现](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Ftree\u002Fresearch)。\n\n```\n@article{openagi,\n  title={OpenAGI: When LLM Meets Domain Experts},\n  author={Ge, Yingqiang and Hua, Wenyue and Mei, Kai and Ji, Jianchao and Tan, Juntao and Xu, Shuyuan and Li, Zelong and Zhang, Yongfeng},\n  journal={In Advances in Neural Information Processing Systems (NeurIPS)},\n  year={2023}\n}\n```\n\n## 🌍 OpenAGI 贡献者\n[![OpenAGI contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_OpenAGI_readme_dcfa39688dc5.png)](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fgraphs\u002Fcontributors)\n\n\n\n## 🌟 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_OpenAGI_readme_dbddbedd4566.png)](https:\u002F\u002Fstar-history.com\u002F#agiresearch\u002FOpenAGI&Date)","# OpenAGI 快速上手指南\n\nOpenAGI 是一个用于构建 AI Agent 的工具包，旨在为 [AIOS](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FAIOS) 创建智能体。\n> **注意**：若需为最新的 AIOS 内核构建 Agent，请迁移至 [Cerebrum](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FCerebrum) SDK。本文档仅针对 OpenAGI 原有功能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：建议 Python 3.8 及以上\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `git` (版本控制工具)\n\n## 安装步骤\n\n您可以选择通过 PyPI 直接安装，或通过源码本地安装（推荐开发者使用）。\n\n### 方式一：通过 PyPI 安装\n```bash\npip install pyopenagi\n```\n*(国内用户如遇下载缓慢，可添加清华源加速：`pip install pyopenagi -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n### 方式二：本地源码安装\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\ncd OpenAGI\npip install -e .\n```\n*(国内用户克隆仓库较慢时，可使用镜像：`git clone https:\u002F\u002Fgitee.com\u002Fmirrors\u002FOpenAGI.git` 需确认是否有同步镜像，否则建议使用代理加速 git 连接)*\n\n## 基本使用\n\n### 1. 创建新 Agent\n\n要在 OpenAGI 中添加一个新的 Agent，需在 `pyopenagi\u002Fagents` 目录下创建特定结构的文件夹。\n\n**目录结构示例：**\n假设作者名为 `myname`，Agent 名为 `demo_agent`：\n```text\n- pyopenagi\u002Fagents\n  - myname\n    - demo_agent\n      - agent.py            # Agent 核心执行逻辑代码\n      - config.json         # Agent 配置文件\n      - meta_requirements.txt # Agent 所需的依赖项\n```\n\n*   **扩展工具**：如需使用 OpenAGI 提供的外部工具，请参考 `tools.md`；如需自定义新工具，请在 `pyopenagi\u002Ftools\u002F` 目录下添加新文件。\n\n### 2. 上传 Agent\n\n当您开发并测试完 Agent 后，可将其上传至社区共享：\n\n```bash\npython pyopenagi\u002Fagents\u002Finteract.py --mode upload --agent myname\u002Fdemo_agent\n```\n> 💡 **注意**：`--agent` 参数必须与本地创建的文件夹路径（`作者名\u002FAgent 名`）完全一致。\n\n### 3. 下载 Agent\n\n您可以查看并下载其他开发者分享的 Agent 实现：\n\n```bash\npython pyopenagi\u002Fagents\u002Finteract.py --mode download --agent \u003Cauthor_name>\u002F\u003Cagent_name>\n```\n将 `\u003Cauthor_name>\u002F\u003Cagent_name>` 替换为您想要下载的 Agent 实际路径即可。","某电商公司的数据团队希望构建一个能自动分析销售数据、调用外部 API 查询库存并生成周报的智能助手，但缺乏统一的智能体开发框架。\n\n### 没有 OpenAGI 时\n- 开发人员需从零搭建智能体架构，重复编写任务调度、记忆管理等基础代码，耗时且易出错。\n- 难以将大语言模型与公司内部的专业工具（如库存系统、BI 报表）有效连接，导致智能体“有脑无手”。\n- 团队成员各自为战，开发的智能体格式不统一，无法在社区内共享或复用他人的优秀成果。\n- 缺乏标准化的配置管理，每次调整智能体行为都需要修改大量底层代码，维护成本极高。\n- 新成员上手困难，面对分散的代码库和缺失的文档，往往需要数周才能理解如何扩展新功能。\n\n### 使用 OpenAGI 后\n- 利用 OpenAGI 提供的标准包结构，开发者只需聚焦核心逻辑，快速构建出具备完整执行流程的智能体。\n- 通过内置的工具扩展机制，轻松将库存查询、数据可视化等域专家能力封装为插件，让大模型真正落地业务场景。\n- 借助上传与下载命令，团队可直接复用社区中成熟的代理模板，或将自研代理分享出去，极大促进协作效率。\n- 采用 `config.json` 进行声明式配置，无需改动代码即可灵活调整智能体的参数与行为，迭代速度显著提升。\n- 清晰的目录规范和丰富的示例降低了门槛，新工程师能在一天内掌握开发流程并贡献新的功能模块。\n\nOpenAGI 通过标准化智能体创建流程并打通大模型与领域工具的壁垒，让企业能以最低成本构建可复用、可扩展的行业专用 AI 助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fagiresearch_OpenAGI_ae5101f6.png","agiresearch","AGI Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fagiresearch_95b3bb71.png","",null,"https:\u002F\u002Fgithub.com\u002Fagiresearch",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,2255,206,"2026-04-05T08:46:27","MIT","未说明",{"notes":92,"python":90,"dependencies":93},"该工具主要用于为 AIOS 构建智能体，官方建议最新开发迁移至 Cerebrum SDK。安装可通过 PyPI (pip install pyopenagi) 或本地源码安装。自定义智能体需遵循特定的文件夹结构（包含 agent.py, config.json, meta_requirements.txt）。支持通过命令行上传和下载智能体。具体底层依赖（如 PyTorch 版本等）未在 README 中列出，需查看项目内的 meta_requirements.txt 或 setup 文件。",[94],"pyopenagi",[26,13,15],"2026-03-27T02:49:30.150509","2026-04-06T12:04:30.693591",[99,104,109,114,119,124,129,134],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},18768,"运行微调模式时出现 'TypeError: clone() got an unexpected keyword argument max_length' 错误怎么办？","该错误通常与版本兼容性有关。虽然维护者已修复相关代码，但如果遇到显存不足问题（特别是使用单张 3090 显卡时），建议启用 LoRA 来优化 GPU 显存使用。维护者表示正在准备 Flan-T5 的 LoRA 版本，请留意仓库更新。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F30",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},18769,"项目是否提供少样本学习（few-shot）、微调（fine-tuning）和 RLTF 的代码？","零样本（zero-shot）和微调（fine-tuning）的代码已经发布。少样本学习（few-shot）和 RLTF 的代码正在整理中，并将添加注释以提高可读性，很快就会发布。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F2",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},18770,"导入 langchain 失败或遇到版本冲突错误如何解决？","可以通过更新特定的依赖包来解决此问题。请在环境中安装以下指定版本的包：\ntyping-inspect==0.8.0\ntyping_extensions==4.5.0","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F28",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},18771,"运行程序时卡在 'Fetching 16 files' 进度条不动怎么办？","这个问题通常源于 'transformers' 库。建议新建一个 Notebook，尝试加载其他 transformers 模型以确认是否是环境或网络问题。如果其他模型也无法加载，则需检查 transformers 的安装或网络连接。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F18",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},18772,"运行微调脚本时出现 'IndexError: list index out of range' 错误如何解决？","这是一个已知的代码逻辑错误，维护者已经修复了该 Bug 并上传了新代码。请拉取最新的代码仓库并重新运行即可解决。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F17",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},18773,"在 demo.ipynb 中遇到 'ModuleNotFoundError: No module named combine_module_seq' 错误怎么办？","这是由代码缺失引起的，维护者已经更新了代码库，补充了缺失的模块。请同步最新代码后重试，问题应已解决。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F15",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},18774,"执行 pip install -r requirements.txt 时遇到 'skimage==0.0' 或 'mc==0.0' 找不到包的错误如何处理？","这是由于 requirements.txt 中的包名称或版本指定有误（例如 skimage 应为 scikit-image）。维护者已经更新了 requirements.txt 文件，请使用最新的 requirements.txt 重新安装依赖。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F14",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},18775,"微调时提示 'ModuleNotFoundError: No module named generate_trie' 如何解决？","该模块之前未包含在发布版本中，维护者已经将相关代码添加到仓库中。请更新代码库即可找到该模块。","https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FOpenAGI\u002Fissues\u002F13",[]]