[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-theodo-group--GenossGPT":3,"tool-theodo-group--GenossGPT":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":79,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":99,"env_deps":101,"category_tags":111,"github_topics":112,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":125},2977,"theodo-group\u002FGenossGPT","GenossGPT","One API for all LLMs either Private or Public (Anthropic, Llama V2, GPT 3.5\u002F4, Vertex, GPT4ALL, HuggingFace ...) 🌈🐂  Replace OpenAI GPT with any LLMs in your app with one line.","GenossGPT 是一款专为开发者设计的开源工具，旨在让应用程序能够轻松接入各类大语言模型（LLM），无论是公开的 GPT-3.5\u002F4、Anthropic，还是私有的 Llama V2、GPT4ALL 等。它核心解决了开发者在切换不同模型时面临的高成本适配难题：只需修改一行代码，即可将原本依赖 OpenAI 接口的应用无缝迁移至其他开源或私有模型，同时保持原有的参数结构和响应格式不变。\n\n这一特性极大地降低了试错成本和部署门槛，特别适合希望摆脱单一供应商锁定、追求数据隐私安全或需要本地化部署的软件开发者和技术研究人员。通过 GenossGPT，用户可以灵活调用如 GPT4ALL 等开源模型进行聊天补全和向量嵌入任务，而无需重构现有业务逻辑。其独特的“一行替换”机制兼容 OpenAI API 标准，并提供了清晰的本地文档界面，方便快速调试与集成。虽然目前主要支持 GPT4ALL 模型，但项目规划了更广泛的模型兼容性。对于想要构建灵活、可控且低成本 AI 应用的技术团队而言，GenossGPT 提供了一个高效且友好的基础设施选择。","# Genoss GPT\n## One line replacement for openAI ChatGPT & Embeddings powered by OSS models\n\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_4b9450788a19.png\" alt=\"Genoss\" width=\"40%\"  style=\"border-radius: 50%; padding-bottom: 20px\"\u002F>\n\u003C\u002Fdiv>\n\nGenoss is a pioneering open-source initiative that aims to offer a seamless alternative to OpenAI models such as GPT 3.5 & 4, using open-source models like GPT4ALL.\n\nProject bootstrapped using [Sicarator](https:\u002F\u002Fgithub.com\u002Fsicara\u002Fsicarator)\n\n## Features\n\n- **Open-Source**: Genoss is built on top of open-source models like GPT4ALL.\n- **One Line Replacement**: Genoss is a one-line replacement for OpenAI ChatGPT API.\n\n## Demo\n\nChat Completion and Embedding with GPT4ALL\n\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fassets\u002F19614572\u002F9cfd4f69-6396-4883-b94d-e94dd76663dc\n\n\n\n## Supported Models\n\n- GPT4ALL Model & Embeddings\n- More models coming soon!\n\n\n## Starting Up\n\nBefore you embark, ensure Python 3.11 or higher is installed on your machine.\n\n### Install the server\n#### Using pip (RECOMMENDED)\n:warning: we are currently in prepublish.\n\n```shell\npip install genoss\n```\n\n#### Install the latest version from this repository\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002FGenossGPT.git@main\\#egg\\=genoss\n```\n\n#### Run the server\n\n```shell\ngenoss-server\n# To know more\ngenoss-server --help\n```\n\nAccess the api docs via http:\u002F\u002Flocalhost:4321\u002Fdocs .\n\n## Models Installation\n\n\u003Cdetails>\n\u003Csummary>Install GPT4ALL Model\u003C\u002Fsummary>\nThe first step is to install GPT4ALL, which is the only supported model at the moment. You can do this by following these steps:\n\n1. Clone the repository:\n\n```bash\ngit clone --recurse-submodules git@github.com:nomic-ai\u002Fgpt4all.git\n```\n\n2. Navigate to the backend directory:\n\n```bash\ncd gpt4all\u002Fgpt4all-backend\u002F\n```\n\n3. Create a new build directory and navigate into it:\n\n```bash\nmkdir build && cd build\n```\n\n4. Configure and build the project using cmake:\n\n```bash\ncmake ..\ncmake --build . --parallel\n```\n\n5. Verify that libllmodel.* exists in `gpt4all-backend\u002Fbuild`.\n\n6. Navigate back to the root and install the Python package:\n\n```bash\ncd ..\u002F..\u002Fgpt4all-bindings\u002Fpython\npip3 install -e .\n```\n\n7. Download it to your local machine from [here](https:\u002F\u002Fgpt4all.io\u002Fmodels\u002Fggml-gpt4all-j-v1.3-groovy.bin) and put it in the `local_models` directory as `local_models\u002Fggml-gpt4all-j-v1.3-groovy.bin`\n\n\u003C\u002Fdetails>\n\n## Running the Application\nYou need to install [poetry](https:\u002F\u002Fpython-poetry.org\u002Fdocs\u002F) and a valid python version (3.11*).\n```bash\npoetry install\n```\nFor more, on a complete install for development purpose, you can check the [CONTRIBUTING.md](CONTRIBUTING.md).\nIf you simply want to start the server, you can install with the corresponding poetry groups :\n```bash\npoetry install --only main,llms\n```\n\nAfter the Python package has been installed, you can run the application. The Uvicorn ASGI server can be used to run your application:\n\n```bash\nuvicorn main:app --host 0.0.0.0 --port 4321\n```\n\nThis command launches the Genoss application on port 4321 of your machine.\n\n## Running the Webapp Demo\n\nIn the `demo\u002F`\n\n```bash\ncp .env.example .env\n```\n\nReplace the values and then\n\n```bash\nPYTHONPATH=. streamlit run demo\u002Fmain.py\n```\n\n## Genoss API Usage\n\nThe Genoss API is a one-line replacement for the OpenAI ChatGPT API. It supports the same parameters and returns the same response format as the OpenAI API.\n\nSimply replace the OpenAI API endpoint with the Genoss API endpoint and you're good to go!\n\nModify the models to the supported list of models and you're good to go!\n\nYou can find the API documentation at `\u002Fdocs` or `\u002Fredoc`.\n\n![Screenshot of api documentation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_475b224e3b74.png)\n\n\n## Upcoming Developments\n\nWhile GPT4ALL is the only model currently supported, we are planning to add more models in the future. So, stay tuned for more exciting updates.\n\nThe vision:\n\n- [X] Allow LLM models to be ran locally\n- [X] Allow LLM to be ran locally using HuggingFace\n- [X] ALlow LLM to be ran on HuggingFace and just be a wrapper around the inference API.\n- [ ] Allow easy installation of LLM models locally\n- [ ] Allow users to use cloud provider solutions such as GCP, AWS, Azure, etc ...\n- [ ] Allow users management with API keys\n- [ ] Have all kinds of models available for use (text to text, text to image, text to audio, audio to text, etc.)\n- [X] Be compatible with OpenAI API for models that are compatible with OpenAI API\n\n![Screenshot of vision diagram](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_8467d481ae90.png)\n\n## History\n\nGenoss was imagined by [Stan Girard](https:\u002F\u002Fgithub.com\u002FStanGirard) when a feature of [Quivr](https:\u002F\u002Fgithub.com\u002FStanGirard\u002Fquivr) became too big and complicated to maintain.\n\nThe idea was to create a simple API that would allow to use any model with the same API as OpenAI's ChatGPT API.\n\nThen @[mattzcarey](https:\u002F\u002Fgithub.com\u002Fmattzcarey), @[MaximeThoonsen](https:\u002F\u002Fgithub.com\u002FMaximeThoonsen), @[Wirg](https:\u002F\u002Fgithub.com\u002FWirg) and @[StanGirard](https:\u002F\u002Fgithub.com\u002FStanGirard) started working on the project and it became a reality.\n\n## Contributions\n\nYour contributions to Genoss are immensely appreciated! Feel free to submit any issues or pull requests.\n\nThanks go to these wonderful people:\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopengenerativeai\u002FgenossGPT\u002Fgraphs\u002Fcontributors\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_a294a8d8a229.png\" \u002F>\n\u003C\u002Fa>\n\n## Sponsors ❤️\n\nThis project could not be possible without the support of our sponsors. Thank you for your support!\n\n\u003Ca href=\"https:\u002F\u002Fwww.theodo.fr\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_e56d3b82738a.png\" alt=\"Theodo\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.aleios.com\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_2ede9197c9c0.png\" alt=\"Aleios\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.sicara.fr\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_be4643aef668.png\" alt=\"Sicara\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\n## License\n\nGenoss is licensed under the Apache2 License. For more details, refer to the [LICENSE](LICENSE) file.\n","# Genoss GPT\n## 一款由开源模型驱动、可替代 OpenAI ChatGPT 及 Embeddings 的单行代码解决方案\n\n\n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_4b9450788a19.png\" alt=\"Genoss\" width=\"40%\"  style=\"border-radius: 50%; padding-bottom: 20px\"\u002F>\n\u003C\u002Fdiv>\n\nGenoss 是一项开创性的开源项目，旨在利用 GPT4ALL 等开源模型，为 OpenAI 的 GPT 3.5 和 4 等模型提供无缝替代方案。\n\n该项目基于 [Sicarator](https:\u002F\u002Fgithub.com\u002Fsicara\u002Fsicarator) 自主开发。\n\n## 功能特性\n\n- **开源**：Genoss 基于 GPT4ALL 等开源模型构建。\n- **单行替换**：Genoss 可以作为 OpenAI ChatGPT API 的单行替换方案。\n\n## 演示\n\n使用 GPT4ALL 进行聊天补全与嵌入\n\n\nhttps:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fassets\u002F19614572\u002F9cfd4f69-6396-4883-b94d-e94dd76663dc\n\n\n\n## 支持的模型\n\n- GPT4ALL 模型及嵌入\n- 更多模型即将推出！\n\n\n## 快速入门\n\n在开始之前，请确保您的机器上已安装 Python 3.11 或更高版本。\n\n### 安装服务器\n#### 使用 pip（推荐）\n:warning: 目前我们正处于预发布阶段。\n\n```shell\npip install genoss\n```\n\n#### 从本仓库安装最新版本\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002FGenossGPT.git@main\\#egg\\=genoss\n```\n\n#### 启动服务器\n\n```shell\ngenoss-server\n# 查看更多帮助信息\ngenoss-server --help\n```\n\n可通过 http:\u002F\u002Flocalhost:4321\u002Fdocs 访问 API 文档。\n\n## 模型安装\n\n\u003Cdetails>\n\u003Csummary>安装 GPT4ALL 模型\u003C\u002Fsummary>\n第一步是安装 GPT4ALL，这是目前唯一支持的模型。您可以按照以下步骤进行操作：\n\n1. 克隆仓库：\n\n```bash\ngit clone --recurse-submodules git@github.com:nomic-ai\u002Fgpt4all.git\n```\n\n2. 进入 backend 目录：\n\n```bash\ncd gpt4all\u002Fgpt4all-backend\u002F\n```\n\n3. 创建一个新的构建目录并进入：\n\n```bash\nmkdir build && cd build\n```\n\n4. 使用 cmake 配置并构建项目：\n\n```bash\ncmake ..\ncmake --build . --parallel\n```\n\n5. 确认 `gpt4all-backend\u002Fbuild` 中存在 `libllmodel.*` 文件。\n\n6. 返回根目录并安装 Python 包：\n\n```bash\ncd ..\u002F..\u002Fgpt4all-bindings\u002Fpython\npip3 install -e .\n```\n\n7. 从 [这里](https:\u002F\u002Fgpt4all.io\u002Fmodels\u002Fggml-gpt4all-j-v1.3-groovy.bin) 下载模型文件，并将其放置到 `local_models` 目录下，命名为 `local_models\u002Fggml-gpt4all-j-v1.3-groovy.bin`。\n\n\u003C\u002Fdetails>\n\n## 运行应用\n您需要安装 [poetry](https:\u002F\u002Fpython-poetry.org\u002Fdocs\u002F) 和有效的 Python 版本（3.11*）。\n```bash\npoetry install\n```\n如需完整的开发环境安装说明，请参阅 [CONTRIBUTING.md](CONTRIBUTING.md)。\n如果您只想启动服务器，可以使用相应的 poetry 组进行安装：\n```bash\npoetry install --only main,llms\n```\n\nPython 包安装完成后，即可运行应用。您可以使用 Uvicorn ASGI 服务器来运行应用程序：\n\n```bash\nuvicorn main:app --host 0.0.0.0 --port 4321\n```\n\n此命令将在您机器的 4321 端口上启动 Genoss 应用程序。\n\n## 运行 Web 应用演示\n\n在 `demo\u002F` 目录下：\n\n```bash\ncp .env.example .env\n```\n\n替换其中的值后，执行：\n\n```bash\nPYTHONPATH=. streamlit run demo\u002Fmain.py\n```\n\n## Genoss API 使用\n\nGenoss API 是 OpenAI ChatGPT API 的单行替换方案。它支持相同的参数，并返回与 OpenAI API 相同的响应格式。\n\n只需将 OpenAI API 的端点替换为 Genoss API 的端点，即可开始使用！\n\n同时，请将模型配置调整为支持的模型列表，即可顺利运行！\n\nAPI 文档可在 `\u002Fdocs` 或 `\u002Fredoc` 页面查看。\n\n![API 文档截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_475b224e3b74.png)\n\n\n## 未来规划\n\n尽管目前仅支持 GPT4ALL 模型，但我们计划在未来添加更多模型。敬请期待更多精彩更新！\n\n愿景目标：\n\n- [X] 支持本地运行 LLM 模型\n- [X] 支持通过 HuggingFace 在本地运行 LLM\n- [X] 支持在 HuggingFace 上运行 LLM，并仅作为推理 API 的封装层\n- [ ] 实现 LLM 模型的便捷本地安装\n- [ ] 允许用户使用 GCP、AWS、Azure 等云服务提供商的解决方案\n- [ ] 提供 API 密钥管理功能\n- [ ] 提供各类模型供使用（文本到文本、文本到图像、文本到音频、音频到文本等）\n- [X] 对兼容 OpenAI API 的模型实现与 OpenAI API 的兼容性\n\n![愿景示意图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_8467d481ae90.png)\n\n## 历史沿革\n\nGenoss 的灵感来源于 [Stan Girard](https:\u002F\u002Fgithub.com\u002FStanGirard)，当时他在开发 [Quivr](https:\u002F\u002Fgithub.com\u002FStanGirard\u002Fquivr) 的某个功能时，发现该功能过于庞大且复杂，难以维护。\n\n于是他萌生了创建一个简单 API 的想法，使任何模型都能使用与 OpenAI ChatGPT API 相同的接口。\n\n随后，@[mattzcarey](https:\u002F\u002Fgithub.com\u002Fmattzcarey)、@[MaximeThoonsen](https:\u002F\u002Fgithub.com\u002FMaximeThoonsen)、@[Wirg](https:\u002F\u002Fgithub.com\u002FWirg) 和 @[StanGirard](https:\u002F\u002Fgithub.com\u002FStanGirard) 共同参与开发，最终使这一设想成为现实。\n\n## 贡献\n我们非常欢迎您的贡献！欢迎提交任何问题或拉取请求。\n\n特别感谢以下各位：\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopengenerativeai\u002FgenossGPT\u002Fgraphs\u002Fcontributors\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_a294a8d8a229.png\" \u002F>\n\u003C\u002Fa>\n\n## 赞助商 ❤️\n\n没有赞助商的支持，本项目将无法实现。感谢您的支持！\n\n\u003Ca href=\"https:\u002F\u002Fwww.theodo.fr\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_e56d3b82738a.png\" alt=\"Theodo\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.aleios.com\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_2ede9197c9c0.png\" alt=\"Aleios\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.sicara.fr\u002F\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_readme_be4643aef668.png\" alt=\"Sicara\" style=\"padding: 10px\" width=\"70px\">\n\u003C\u002Fa>\n\n## 许可证\nGenoss 采用 Apache2 许可证授权。更多详情请参阅 [LICENSE](LICENSE) 文件。","# GenossGPT 快速上手指南\n\nGenossGPT 是一个开源项目，旨在提供 OpenAI ChatGPT 和 Embeddings API 的无缝替代方案。它允许你使用本地运行的开源模型（如 GPT4ALL），并通过兼容 OpenAI 的 API 接口进行调用，只需修改一行代码即可切换后端。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：Python 3.11 或更高版本（必须）\n*   **构建工具**（如需从源码编译模型后端）：`cmake`, `git`\n*   **包管理工具**：`pip` (推荐) 或 `poetry` (用于开发)\n\n> **提示**：国内用户建议在安装 Python 依赖时使用清华或阿里镜像源加速下载：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`\n\n## 安装步骤\n\n### 1. 安装 Genoss 服务端\n\n目前项目处于预发布阶段，推荐使用 pip 安装：\n\n```shell\npip install genoss\n```\n\n或者安装最新的仓库版本：\n\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002FOpenGenerativeAI\u002FGenossGPT.git@main#egg=genoss\n```\n\n### 2. 安装模型后端 (GPT4ALL)\n\nGenossGPT 目前主要支持 GPT4ALL 模型。你需要手动编译并安装其 Python 绑定：\n\n1.  **克隆仓库**：\n    ```bash\n    git clone --recurse-submodules git@github.com:nomic-ai\u002Fgpt4all.git\n    ```\n\n2.  **编译后端库**：\n    ```bash\n    cd gpt4all\u002Fgpt4all-backend\u002F\n    mkdir build && cd build\n    cmake ..\n    cmake --build . --parallel\n    ```\n    *确认 `gpt4all-backend\u002Fbuild` 目录下存在 `libllmodel.*` 文件。*\n\n3.  **安装 Python 包**：\n    ```bash\n    cd ..\u002F..\u002Fgpt4all-bindings\u002Fpython\n    pip3 install -e .\n    ```\n\n4.  **下载模型文件**：\n    从 [官方链接](https:\u002F\u002Fgpt4all.io\u002Fmodels\u002Fggml-gpt4all-j-v1.3-groovy.bin) 下载模型文件，并将其重命名为 `ggml-gpt4all-j-v1.3-groovy.bin` 放入项目根目录下的 `local_models` 文件夹中。\n\n## 基本使用\n\n### 启动服务\n\n安装完成后，直接在终端运行以下命令启动服务器：\n\n```shell\ngenoss-server\n```\n\n服务默认运行在 `http:\u002F\u002Flocalhost:4321`。你可以访问 `http:\u002F\u002Flocalhost:4321\u002Fdocs` 查看完整的 API 文档。\n\n*(开发者模式也可通过 uvicorn 启动：`uvicorn main:app --host 0.0.0.0 --port 4321`)*\n\n### 代码调用示例\n\nGenossGPT 完全兼容 OpenAI Python SDK。你只需将 `base_url` 指向本地服务，并将 `model` 名称改为支持的开源模型名称即可。\n\n```python\nfrom openai import OpenAI\n\n# 初始化客户端，指向本地 Genoss 服务\nclient = OpenAI(\n    base_url=\"http:\u002F\u002Flocalhost:4321\u002Fv1\",\n    api_key=\"not-needed\" # 本地运行通常不需要真实的 API Key\n)\n\n# 调用聊天完成接口\nresponse = client.chat.completions.create(\n    model=\"gpt4all-j\", # 使用已安装的本地模型名称\n    messages=[\n        {\"role\": \"system\", \"content\": \"你是一个有用的助手。\"},\n        {\"role\": \"user\", \"content\": \"你好，请介绍一下 GenossGPT。\"}\n    ]\n)\n\nprint(response.choices[0].message.content)\n```\n\n通过以上步骤，你即可在本地私有环境中运行大语言模型，并享受与 OpenAI API 相同的开发体验。","某初创团队正在开发一款内部知识库问答助手，需要在大语言模型选型上兼顾数据隐私与开发效率。\n\n### 没有 GenossGPT 时\n- **代码耦合度高**：团队最初基于 OpenAI API 开发，若要切换为本地部署的 GPT4ALL 以保护敏感数据，需重构大量网络请求和响应解析代码。\n- **多模型适配繁琐**：尝试接入 Llama V2 或 HuggingFace 等其他开源模型时，必须为每个模型编写独立的适配层，维护成本极高。\n- **私有化部署困难**：由于缺乏统一接口标准，将服务从云端迁移至内网服务器时，面临复杂的依赖配置和环境兼容性问题。\n- **开发迭代缓慢**：每次更换模型都需要重新测试整个链路，导致功能上线周期被大幅拉长。\n\n### 使用 GenossGPT 后\n- **一行代码替换**：只需将 API 端点指向 GenossGPT 服务，即可无缝将后端从 GPT-4 切换为本地运行的 GPT4ALL，无需修改业务逻辑。\n- **统一模型接口**：无论是 Anthropic、Llama V2 还是 Vertex AI，GenossGPT 均提供标准化的 One API，消除了多模型适配的重复工作。\n- **轻松实现私有化**：通过启动本地 `genoss-server`，团队迅速在内网构建了完全可控的推理服务，确保数据不出域。\n- **敏捷迭代升级**：新增模型支持仅需更新服务端配置，前端应用无感知，显著缩短了从模型验证到生产部署的时间。\n\nGenossGPT 通过“一行代码替换”的统一接口策略，让开发者在享受开源模型自由度的同时，保留了商业级 API 的开发体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheodo-group_GenossGPT_475b224e.png","theodo-group","Theodo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftheodo-group_de30cb32.png","",null,"https:\u002F\u002Fwww.theodo.com","https:\u002F\u002Fgithub.com\u002Ftheodo-group",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",91.9,{"name":88,"color":89,"percentage":90},"Dockerfile","#384d54",5.2,{"name":92,"color":93,"percentage":94},"Makefile","#427819",2.9,752,63,"2026-04-01T17:16:59",4,"未说明","未说明 (基于 GPT4ALL，通常支持 CPU 运行，具体 GPU 加速需求取决于底层 llmodel 构建)",{"notes":102,"python":103,"dependencies":104},"1. 该项目目前主要支持 GPT4ALL 模型。2. 若需从源码安装 GPT4ALL 后端，需要安装 cmake 并进行编译。3. 需手动下载模型文件 (ggml-gpt4all-j-v1.3-groovy.bin) 并放置于 local_models 目录。4. 开发环境推荐使用 poetry 管理依赖。5. 服务默认运行在 4321 端口。","3.11+",[105,106,107,108,109,110],"genoss","gpt4all","uvicorn","poetry","streamlit","cmake",[26,53,14,15,51,13],[113,114,115,116,117,118,119,106,120,121],"gpt","private","api","inference","llama","llm","public","huggingface","openai","2026-03-27T02:49:30.150509","2026-04-06T08:40:09.800889",[],[126],{"id":127,"version":128,"summary_zh":129,"released_at":130},72665,"v0.0.1","## 简而言之\n\nGenoss 的首个版本发布。它是一个 OpenAI 的无缝替代品，允许你轻松地用任何你喜欢的大型语言模型替换 OpenAI。\n\n## 变更内容\n* 重构代码结构，并添加了“未找到模型”时的 404 错误页面，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F2 中完成。\n* 添加了 Fake LLM 模型，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F3 中实现。\n* 添加了 chat_completion 类，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F4 中完成。\n* 修复了依赖项相关的问题，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F5 中解决。\n* 重构代码结构以新增 chat 目录，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F6 中完成。\n* 修复示例：修正了模型路径问题，由 @StanGirard 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F8 中完成。\n* 添加了 OpenAI 支持，由 @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F9 中实现。\n* 新特性：添加了 llama 和 Hugging Face API 支持，由 @mattzcarey 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F7 中完成。\n* 新特性：引入了 code-review-gpt CI 流水线，由 @mattzcarey 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F14 中实现。\n* 新特性：在演示中集成了 Hugging Face，由 @mattzcarey 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F15 中完成。\n* 引入了一些来自 sicarator 的良好实践，由 @Wirg 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F17 中加入。\n* 添加了 HF 推理端点，由 @Wirg 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F18 中实现。\n* 为提高演示清晰度添加了一些资源，由 @Wirg 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F20 中完成。\n* 新特性：移除了 chatopenai 的 LLM 链，由 @mattzcarey 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F19 中完成。\n* 一些修复及代码质量改进，由 @Wirg 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F22 中完成。\n\n## 新贡献者\n* @MaximeThoonsen 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F2 中完成了首次贡献。\n* @StanGirard 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F8 中完成了首次贡献。\n* @mattzcarey 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F7 中完成了首次贡献。\n* @Wirg 在 https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fpull\u002F17 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FOpenGenenerativeAI\u002FGenossGPT\u002Fcommits\u002Fv0.0.1","2023-08-01T12:59:51"]