[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-nomic-ai--gpt4all":3,"similar-nomic-ai--gpt4all":217},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":19,"owner_twitter":20,"owner_website":21,"owner_url":22,"languages":23,"stars":64,"forks":65,"last_commit_at":66,"license":67,"difficulty_score":68,"env_os":69,"env_gpu":70,"env_ram":71,"env_deps":72,"category_tags":77,"github_topics":80,"view_count":83,"oss_zip_url":18,"oss_zip_packed_at":18,"status":84,"created_at":85,"updated_at":86,"faqs":87,"releases":116},6590,"nomic-ai\u002Fgpt4all","gpt4all","GPT4All: Run Local LLMs on Any Device. Open-source and available for commercial use.","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。","\u003Ch1 align=\"center\">GPT4All\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  Now with support for DeepSeek R1 Distillations\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.nomic.ai\u002Fgpt4all\">Website\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fdocs.gpt4all.io\">Documentation\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FmGZE39AS3e\">Discord\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gQcZDXRVJok\">YouTube Tutorial\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  GPT4All runs large language models (LLMs) privately on everyday desktops & laptops.\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  No API calls or GPUs required - you can just download the application and \u003Ca href=\"https:\u002F\u002Fdocs.gpt4all.io\u002Fgpt4all_desktop\u002Fquickstart.html#quickstart\">get started\u003C\u002Fa>.\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  Read about what's new in \u003Ca href=\"https:\u002F\u002Fwww.nomic.ai\u002Fblog\u002Ftag\u002Fgpt4all\">our blog\u003C\u002Fa>.\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fnomic.ai\u002Fgpt4all\u002F#newsletter-form\">Subscribe to the newsletter\u003C\u002Fa>\n\u003C\u002Fp>\n\nhttps:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fassets\u002F70534565\u002F513a0f15-4964-4109-89e4-4f9a9011f311\n\n\u003Cp align=\"center\">\nGPT4All is made possible by our compute partner \u003Ca href=\"https:\u002F\u002Fwww.paperspace.com\u002F\">Paperspace\u003C\u002Fa>.\n\u003C\u002Fp>\n\n## Download Links\n\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64.exe\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_d04108415fc8.png\" style=\"height: 1em; width: auto\" \u002F> Windows Installer\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64-arm.exe\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_d04108415fc8.png\" style=\"height: 1em; width: auto\" \u002F> Windows ARM Installer\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-darwin.dmg\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_308bc479d816.png\" style=\"height: 1em; width: auto\" \u002F> macOS Installer\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-linux.run\">\n    \u003Cimg src=\"gpt4all-bindings\u002Fpython\u002Fdocs\u002Fassets\u002Fubuntu.svg\" style=\"height: 1em; width: auto\" \u002F> Ubuntu Installer\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  The Windows and Linux builds require Intel Core i3 2nd Gen \u002F AMD Bulldozer, or better.\n\u003C\u002Fp>\n\u003Cp>\n  The Windows ARM build supports Qualcomm Snapdragon and Microsoft SQ1\u002FSQ2 processors.\n\u003C\u002Fp>\n\u003Cp>\n  The Linux build is x86-64 only (no ARM).\n\u003C\u002Fp>\n\u003Cp>\n  The macOS build requires Monterey 12.6 or newer. Best results with Apple Silicon M-series processors.\n\u003C\u002Fp>\n\nSee the full [System Requirements](gpt4all-chat\u002Fsystem_requirements.md) for more details.\n\n\u003Cbr\u002F>\n\u003Cbr\u002F>\n\u003Cp>\n  \u003Ca href='https:\u002F\u002Fflathub.org\u002Fapps\u002Fio.gpt4all.gpt4all'>\n    \u003Cimg style=\"height: 2em; width: auto\" alt='Get it on Flathub' src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_de27c5101598.png'>\u003Cbr\u002F>\n    Flathub (community maintained)\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n## Install GPT4All Python\n\n`gpt4all` gives you access to LLMs with our Python client around [`llama.cpp`](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp) implementations. \n\nNomic contributes to open source software like [`llama.cpp`](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp) to make LLMs accessible and efficient **for all**.\n\n```bash\npip install gpt4all\n```\n\n```python\nfrom gpt4all import GPT4All\nmodel = GPT4All(\"Meta-Llama-3-8B-Instruct.Q4_0.gguf\") # downloads \u002F loads a 4.66GB LLM\nwith model.chat_session():\n    print(model.generate(\"How can I run LLMs efficiently on my laptop?\", max_tokens=1024))\n```\n\n\n## Integrations\n\n:parrot::link: [Langchain](https:\u002F\u002Fpython.langchain.com\u002Fv0.2\u002Fdocs\u002Fintegrations\u002Fproviders\u002Fgpt4all\u002F)\n:card_file_box: [Weaviate Vector Database](https:\u002F\u002Fgithub.com\u002Fweaviate\u002Fweaviate) - [module docs](https:\u002F\u002Fweaviate.io\u002Fdevelopers\u002Fweaviate\u002Fmodules\u002Fretriever-vectorizer-modules\u002Ftext2vec-gpt4all)\n:telescope: [OpenLIT (OTel-native Monitoring)](https:\u002F\u002Fgithub.com\u002Fopenlit\u002Fopenlit) - [Docs](https:\u002F\u002Fdocs.openlit.io\u002Flatest\u002Fintegrations\u002Fgpt4all)\n\n## Release History\n- **July 2nd, 2024**: V3.0.0 Release\n    - Fresh redesign of the chat application UI\n    - Improved user workflow for LocalDocs\n    - Expanded access to more model architectures\n- **October 19th, 2023**: GGUF Support Launches with Support for:\n    - Mistral 7b base model, an updated model gallery on our website, several new local code models including Rift Coder v1.5\n    - [Nomic Vulkan](https:\u002F\u002Fblog.nomic.ai\u002Fposts\u002Fgpt4all-gpu-inference-with-vulkan) support for Q4\\_0 and Q4\\_1 quantizations in GGUF.\n    - Offline build support for running old versions of the GPT4All Local LLM Chat Client.\n- **September 18th, 2023**: [Nomic Vulkan](https:\u002F\u002Fblog.nomic.ai\u002Fposts\u002Fgpt4all-gpu-inference-with-vulkan) launches supporting local LLM inference on NVIDIA and AMD GPUs.\n- **July 2023**: Stable support for LocalDocs, a feature that allows you to privately and locally chat with your data.\n- **June 28th, 2023**: [Docker-based API server] launches allowing inference of local LLMs from an OpenAI-compatible HTTP endpoint.\n\n[Docker-based API server]: https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Ftree\u002Fcef74c2be20f5b697055d5b8b506861c7b997fab\u002Fgpt4all-api\n\n## Contributing\nGPT4All welcomes contributions, involvement, and discussion from the open source community!\nPlease see CONTRIBUTING.md and follow the issues, bug reports, and PR markdown templates.\n\nCheck project discord, with project owners, or through existing issues\u002FPRs to avoid duplicate work.\nPlease make sure to tag all of the above with relevant project identifiers or your contribution could potentially get lost.\nExample tags: `backend`, `bindings`, `python-bindings`, `documentation`, etc.\n\n## Citation\n\nIf you utilize this repository, models or data in a downstream project, please consider citing it with:\n```\n@misc{gpt4all,\n  author = {Yuvanesh Anand and Zach Nussbaum and Brandon Duderstadt and Benjamin Schmidt and Andriy Mulyar},\n  title = {GPT4All: Training an Assistant-style Chatbot with Large Scale Data Distillation from GPT-3.5-Turbo},\n  year = {2023},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all}},\n}\n```\n","\u003Ch1 align=\"center\">GPT4All\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  现已支持 DeepSeek R1 精炼模型\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.nomic.ai\u002Fgpt4all\">官网\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fdocs.gpt4all.io\">文档\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FmGZE39AS3e\">Discord\u003C\u002Fa> &bull; \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gQcZDXRVJok\">YouTube 教程\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  GPT4All 可以在日常的台式机和笔记本电脑上私密地运行大型语言模型（LLMs）。\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  无需 API 调用或 GPU，您只需下载应用程序并\u003Ca href=\"https:\u002F\u002Fdocs.gpt4all.io\u002Fgpt4all_desktop\u002Fquickstart.html#quickstart\">开始使用\u003C\u002Fa>即可。\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  在我们的\u003Ca href=\"https:\u002F\u002Fwww.nomic.ai\u002Fblog\u002Ftag\u002Fgpt4all\">博客\u003C\u002Fa>中了解最新动态。\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fnomic.ai\u002Fgpt4all\u002F#newsletter-form\">订阅新闻通讯\u003C\u002Fa>\n\u003C\u002Fp>\n\nhttps:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fassets\u002F70534565\u002F513a0f15-4964-4109-89e4-4f9a9011f311\n\n\u003Cp align=\"center\">\n  GPT4All 的实现得益于我们的计算合作伙伴 \u003Ca href=\"https:\u002F\u002Fwww.paperspace.com\u002F\">Paperspace\u003C\u002Fa>。\n\u003C\u002Fp>\n\n## 下载链接\n\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64.exe\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_d04108415fc8.png\" style=\"height: 1em; width: auto\" \u002F> Windows 安装程序\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64-arm.exe\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_d04108415fc8.png\" style=\"height: 1em; width: auto\" \u002F> Windows ARM 安装程序\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-darwin.dmg\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_308bc479d816.png\" style=\"height: 1em; width: auto\" \u002F> macOS 安装程序\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  &mdash; \u003Ca href=\"https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-linux.run\">\n    \u003Cimg src=\"gpt4all-bindings\u002Fpython\u002Fdocs\u002Fassets\u002Fubuntu.svg\" style=\"height: 1em; width: auto\" \u002F> Ubuntu 安装程序\n  \u003C\u002Fa> &mdash;\n\u003C\u002Fp>\n\u003Cp>\n  Windows 和 Linux 版本需要 Intel Core i3 第二代 \u002F AMD Bulldozer 或更高配置。\n\u003C\u002Fp>\n\u003Cp>\n  Windows ARM 版本支持 Qualcomm Snapdragon 和 Microsoft SQ1\u002FSQ2 处理器。\n\u003C\u002Fp>\n\u003Cp>\n  Linux 版本仅支持 x86-64 架构（不支持 ARM）。\n\u003C\u002Fp>\n\u003Cp>\n  macOS 版本需要 Monterey 12.6 或更高版本。使用 Apple Silicon M 系列处理器效果最佳。\n\u003C\u002Fp>\n\n更多详细信息请参阅完整的[系统要求](gpt4all-chat\u002Fsystem_requirements.md)。\n\n\u003Cbr\u002F>\n\u003Cbr\u002F>\n\u003Cp>\n  \u003Ca href='https:\u002F\u002Fflathub.org\u002Fapps\u002Fio.gpt4all.gpt4all'>\n    \u003Cimg style=\"height: 2em; width: auto\" alt='Get it on Flathub' src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_readme_de27c5101598.png'>\u003Cbr\u002F>\n    Flathub（社区维护）\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n## 安装 GPT4All Python 库\n\n`gpt4all` 提供了基于 [`llama.cpp`](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp) 实现的 Python 客户端，让您能够访问 LLMs。\n\nNomic 致力于推动像 [`llama.cpp`](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp) 这样的开源软件发展，使 LLMs 对**所有人**来说都更加易用且高效。\n\n```bash\npip install gpt4all\n```\n\n```python\nfrom gpt4all import GPT4All\nmodel = GPT4All(\"Meta-Llama-3-8B-Instruct.Q4_0.gguf\") # 下载并加载一个 4.66GB 的 LLM\nwith model.chat_session():\n    print(model.generate(\"如何在我的笔记本电脑上高效运行 LLMs？\", max_tokens=1024))\n```\n\n\n## 集成\n\n:parrot::link: [Langchain](https:\u002F\u002Fpython.langchain.com\u002Fv0.2\u002Fdocs\u002Fintegrations\u002Fproviders\u002Fgpt4all\u002F)\n:card_file_box: [Weaviate 向量数据库](https:\u002F\u002Fgithub.com\u002Fweaviate\u002Fweaviate) - [模块文档](https:\u002F\u002Fweaviate.io\u002Fdevelopers\u002Fweaviate\u002Fmodules\u002Fretriever-vectorizer-modules\u002Ftext2vec-gpt4all)\n:telescope: [OpenLIT（OTel 原生监控）](https:\u002F\u002Fgithub.com\u002Fopenlit\u002Fopenlit) - [文档](https:\u002F\u002Fdocs.openlit.io\u002Flatest\u002Fintegrations\u002Fgpt4all)\n\n## 发布历史\n- **2024年7月2日**: V3.0.0 版本发布\n    - 全新设计的聊天应用界面\n    - 改进了 LocalDocs 的用户流程\n    - 扩展了对更多模型架构的访问权限\n- **2023年10月19日**: GGUF 支持上线，包括：\n    - Mistral 7b 基础模型、我们网站上更新的模型库，以及包括 Rift Coder v1.5 在内的多个新的本地代码模型\n    - [Nomic Vulkan](https:\u002F\u002Fblog.nomic.ai\u002Fposts\u002Fgpt4all-gpu-inference-with-vulkan) 支持 GGUF 中的 Q4_0 和 Q4_1 量化\n    - 支持离线构建，以便运行旧版本的 GPT4All 本地 LLM 聊天客户端\n- **2023年9月18日**: [Nomic Vulkan](https:\u002F\u002Fblog.nomic.ai\u002Fposts\u002Fgpt4all-gpu-inference-with-vulkan) 上线，支持在 NVIDIA 和 AMD GPU 上进行本地 LLM 推理\n- **2023年7月**: 稳定支持 LocalDocs 功能，该功能允许您私下、本地地与自己的数据进行对话\n- **2023年6月28日**: [基于 Docker 的 API 服务器] 上线，允许通过兼容 OpenAI 的 HTTP 端点对本地 LLM 进行推理\n\n[Docker-based API server]: https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Ftree\u002Fcef74c2be20f5b697055d5b8b506861c7b997fab\u002Fgpt4all-api\n\n## 贡献\nGPT4All 欢迎开源社区的贡献、参与和讨论！\n请参阅 CONTRIBUTING.md，并遵循 issues、bug reports 和 PR 的 markdown 模板。\n\n请先查看项目 Discord、与项目负责人沟通，或查阅现有的 issues\u002FPR，以避免重复工作。请务必为所有内容添加相关的项目标签，否则您的贡献可能会被忽略。例如：`backend`、`bindings`、`python-bindings`、`documentation` 等。\n\n## 引用\n\n如果您在下游项目中使用了本仓库、模型或数据，请考虑以下引用方式：\n```\n@misc{gpt4all,\n  author = {Yuvanesh Anand 和 Zach Nussbaum 和 Brandon Duderstadt 和 Benjamin Schmidt 和 Andriy Mulyar},\n  title = {GPT4All：利用从 GPT-3.5-Turbo 中大规模数据蒸馏训练的助手型聊天机器人},\n  year = {2023},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all}},\n}\n```","# GPT4All 快速上手指南\n\nGPT4All 是一款允许你在普通桌面和笔记本电脑上**私有化运行大型语言模型（LLM）**的开源工具。它无需 API 调用，也无需昂贵的 GPU，即可在本地高效运行大模型。\n\n## 1. 环境准备\n\n### 系统要求\n在下载或安装前，请确认你的设备满足以下最低硬件要求：\n\n*   **Windows (x86-64) & Linux**: 需要 Intel Core i3 第二代 \u002F AMD Bulldozer 或更高版本处理器。\n    *   *注意：Linux 版本仅支持 x86-64 架构，不支持 ARM。*\n*   **Windows ARM**: 支持 Qualcomm Snapdragon 和 Microsoft SQ1\u002FSQ2 处理器。\n*   **macOS**: 需要 macOS Monterey 12.6 或更新版本。\n    *   *推荐：使用 Apple Silicon M 系列芯片可获得最佳性能。*\n\n### 前置依赖\n*   **桌面版用户**：无需额外依赖，直接下载安装包即可。\n*   **Python 开发者**：需安装 Python 环境及 `pip` 包管理工具。\n\n> **提示**：国内用户若下载官方安装包速度较慢，可尝试使用网络加速工具，或通过项目提供的 Flathub 社区源（Linux）获取。\n\n## 2. 安装步骤\n\n你可以选择安装图形化桌面应用或直接通过 Python 库集成。\n\n### 选项 A：安装桌面应用程序（推荐新手）\n\n访问官网下载对应操作系统的安装包并运行：\n\n*   **Windows (标准版)**: [下载链接](https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64.exe)\n*   **Windows (ARM 版)**: [下载链接](https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-win64-arm.exe)\n*   **macOS**: [下载链接](https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-darwin.dmg)\n*   **Ubuntu\u002FLinux**: [下载链接](https:\u002F\u002Fgpt4all.io\u002Finstallers\u002Fgpt4all-installer-linux.run)\n*   **Linux (Flathub)**:\n    ```bash\n    flatpak install flathub io.gpt4all.gpt4all\n    ```\n\n安装完成后，启动应用即可在界面内直接下载和管理模型。\n\n### 选项 B：安装 Python 库（适合开发者）\n\n通过 `pip` 安装 GPT4All 客户端，该库基于 `llama.cpp` 实现，支持高效的本地推理。\n\n```bash\npip install gpt4all\n```\n\n> **国内加速提示**：如果 `pip` 下载缓慢，建议使用国内镜像源：\n> ```bash\n> pip install gpt4all -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 3. 基本使用\n\n### 桌面版使用\n1.  启动 GPT4All 应用程序。\n2.  在模型列表中选择并下载一个模型（例如 `Meta-Llama-3-8B-Instruct`）。\n3.  下载完成后，直接在聊天窗口输入问题即可开始对话。\n4.  支持加载本地文档（LocalDocs）进行私有数据问答。\n\n### Python 代码示例\n\n以下是最简单的 Python 调用示例，代码会自动下载并加载模型（约 4.66GB），然后生成回答：\n\n```python\nfrom gpt4all import GPT4All\n\n# 指定模型名称，首次运行会自动下载\nmodel = GPT4All(\"Meta-Llama-3-8B-Instruct.Q4_0.gguf\") \n\n# 开启聊天会话并生成回复\nwith model.chat_session():\n    response = model.generate(\"How can I run LLMs efficiently on my laptop?\", max_tokens=1024)\n    print(response)\n```\n\n**说明**：\n*   `Meta-Llama-3-8B-Instruct.Q4_0.gguf` 是模型文件名，程序会在首次运行时从官方服务器下载。\n*   `max_tokens` 用于限制生成的最大 token 数量。\n*   所有计算均在本地完成，数据不会上传至云端。","某金融公司的数据分析师需要在离线环境下，利用本地笔记本电脑对敏感的客户投诉文本进行批量分类和情感分析，且严禁数据上传至云端。\n\n### 没有 gpt4all 时\n- **数据泄露风险高**：使用主流云端大模型 API 必须将客户隐私数据发送至外部服务器，违反公司严格的数据合规政策。\n- **硬件门槛昂贵**：运行本地开源模型通常依赖高性能 NVIDIA GPU，而分析师仅配备普通办公笔记本（Intel i5 集成显卡），无法部署。\n- **网络依赖性强**：在内部隔离网或网络不稳定时，无法调用任何智能服务，导致分析工作完全停滞。\n- **成本不可控**：按 Token 计费的 API 模式在处理海量历史文档时，会产生高昂且难以预测的持续支出。\n\n### 使用 gpt4all 后\n- **实现极致隐私保护**：gpt4all 让大型语言模型完全在本地运行，所有数据处理均在内存中完成，无需联网，彻底杜绝泄露风险。\n- **普通电脑即可运行**：借助对 `llama.cpp` 的深度优化，gpt4all 能在无独立显卡的旧款笔记本上流畅运行量化后的 Llama 3 等模型。\n- **随时随地离线可用**：下载模型后即可断网使用，无论是在飞机上还是内网环境中，都能随时启动智能分析任务。\n- **零边际使用成本**：一次性下载模型文件后，后续推理无需支付任何 API 费用，大幅降低了大规模文本处理的预算压力。\n\ngpt4all 的核心价值在于打破了算力与隐私的壁垒，让每一位普通用户都能在任意设备上安全、免费地拥有专属的智能助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnomic-ai_gpt4all_ca4f97a6.png","nomic-ai","Nomic AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnomic-ai_4d77c6c8.png","democratizing access to powerful artificial intelligence",null,"work@nomic.ai","nomic_ai","https:\u002F\u002Fnomic.ai","https:\u002F\u002Fgithub.com\u002Fnomic-ai",[24,28,32,36,40,44,48,52,56,60],{"name":25,"color":26,"percentage":27},"C++","#f34b7d",51.9,{"name":29,"color":30,"percentage":31},"QML","#44a51c",30.3,{"name":33,"color":34,"percentage":35},"Python","#3572A5",7.6,{"name":37,"color":38,"percentage":39},"CMake","#DA3434",5.4,{"name":41,"color":42,"percentage":43},"JavaScript","#f1e05a",3.2,{"name":45,"color":46,"percentage":47},"C","#555555",0.9,{"name":49,"color":50,"percentage":51},"Qt Script","#00b841",0.3,{"name":53,"color":54,"percentage":55},"Shell","#89e051",0.2,{"name":57,"color":58,"percentage":59},"Makefile","#427819",0.1,{"name":61,"color":62,"percentage":63},"Batchfile","#C1F12E",0,77307,8336,"2026-04-11T06:52:37","MIT",1,"Windows, macOS, Linux","非必需。支持通过 Nomic Vulkan 在 NVIDIA 和 AMD GPU 上进行推理，但未指定具体型号或显存要求；主要设计为在无 GPU 的普通桌面\u002F笔记本 CPU 上运行。","未说明（需足以加载模型文件，示例模型约为 4.66GB）",{"notes":73,"python":74,"dependencies":75},"Windows 和 Linux 版本需要 Intel Core i3 第二代\u002FAMD Bulldozer 或更高版本处理器；Linux 仅支持 x86-64 架构（不支持 ARM）；Windows ARM 版支持高通骁龙及微软 SQ1\u002FSQ2 处理器；macOS 需要 Monterey 12.6 或更新版本，Apple Silicon M 系列芯片效果最佳；无需 API 调用即可本地私有运行；首次使用会自动下载模型文件。","未说明（可通过 pip 安装 gpt4all 包）",[76],"llama.cpp (内置实现)",[78,79],"语言模型","开发框架",[81,82],"llm-inference","ai-chat",4,"ready","2026-03-27T02:49:30.150509","2026-04-11T20:24:40.585530",[88,93,98,103,108,112],{"id":89,"question_zh":90,"answer_zh":91,"source_url":92},29771,"实例化模型时出现 'Unable to instantiate model' 或 'Invalid model file' 错误怎么办？","这通常是因为模型文件格式不匹配。请确保执行以下步骤：\n1. 前往 GitHub Releases 页面，下载最新预发布版本（prerelease）的安装包（务必点击 Assets 列表下载对应系统的安装器）。\n2. 下载 **.gguf** 格式的模型文件（注意：不再是旧的 .bin 或 .ggml 格式）。\n3. 将下载的 .gguf 模型文件移动到 .\u002Fmodels 文件夹中。\n旧版本的代码可能不支持新格式的模型，或者反之，请确保软件版本与模型格式一致。","https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fissues\u002F866",{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},29772,"在 Windows 上尝试使用 GPU 运行时出现 'Unable to retrieve available GPU devices' 错误如何解决？","该错误表明系统无法识别可用的 GPU 设备。这通常发生在尝试初始化 GPU 模式但驱动未正确配置或硬件不支持时。建议检查：\n1. 确认显卡驱动已更新到最新版本。\n2. 确认您的显卡是否在 GPT4All 的支持列表中（主要支持 NVIDIA 和部分 AMD\u002FIntel 集成显卡，具体取决于后端构建）。\n3. 如果不确定，可以尝试移除代码中的 `device='gpu'` 参数，先使用 CPU 模式运行，例如：`model = GPT4All(\"orca-mini-3b.ggmlv3.q4_0.bin\")`，以排除环境配置问题。","https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fissues\u002F717",{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},29773,"升级桌面应用后加载模型时提示 'Could not load model due to invalid format' 怎么办？","这通常发生在软件升级后，旧格式的模型文件不再被新版本支持，或者模型文件在下载\u002F升级过程中损坏。\n解决方案：\n1. 删除现有的模型文件。\n2. 通过新版桌面应用的内置下载器重新下载模型，以确保格式匹配。\n3. 如果是手动下载的模型，请确认您下载的是当前版本支持的格式（通常是 .gguf），并检查文件完整性。\n如果问题持续，请在新的 Issue 中注明您尝试加载的具体模型名称和来源 URL，以便开发者排查。","https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fissues\u002F1288",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},29774,"从源码编译安装后导入时报错 'FileNotFoundError: Could not find module: libllmodel.dll' 如何处理？","此错误通常意味着虽然 Python 包已安装，但底层的 C++ 共享库（如 Windows 下的 .dll 文件）未被正确编译或未被系统路径识别。\n解决步骤：\n1. 确保在编译后端时没有报错。检查 `gpt4all-backend\u002Fbuild` 目录下是否生成了 `libllmodel.dll` (Windows) 或对应的共享库文件。\n2. 如果是 Windows 用户，可能需要安装 Visual C++ Redistributable 运行库。\n3. 尝试重新运行编译命令：\n   ```bash\n   cd gpt4all\u002Fgpt4all-backend\u002F\n   mkdir build && cd build\n   cmake ..\n   cmake --build . --parallel\n   ```\n4. 确保在安装 Python 绑定前，后端库已编译完成。如果是特定架构（如 Linux aarch64\u002FTermux），可能需要等待官方提供对应架构的预编译包或自行交叉编译。","https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fissues\u002F936",{"id":109,"question_zh":110,"answer_zh":111,"source_url":92},29775,"如何避免安装 gpt4all 时出现依赖冲突或版本降级问题？","建议在安装和运行 gpt4all 时使用 Python 虚拟环境。这样可以创建一个独立的运行环境，避免与系统全局或其他项目的依赖包发生冲突。\n操作方法：\n```bash\npython -m venv gpt4all-env\n# Windows:\ngpt4all-env\\Scripts\\activate\n# Mac\u002FLinux:\nsource gpt4all-env\u002Fbin\u002Factivate\n\n# 然后在激活的环境中安装\npip install gpt4all\n```",{"id":113,"question_zh":114,"answer_zh":115,"source_url":92},29776,"在哪里可以下载到正确格式的 GPT4All 模型文件？","请勿随意从第三方网站下载不明格式的模型。推荐途径如下：\n1. **首选**：直接使用 GPT4All 桌面应用程序，它会自动列出并下载兼容当前版本的模型。\n2. **手动下载**：访问 GPT4All 官方的模型列表页面或 HuggingFace 仓库，查找后缀为 **.gguf** 的文件（新版标准）。注意不要下载旧的 .bin 或 .ggml 格式，除非您使用的是非常旧的软件版本。\n3. 确保模型文件名与代码中引用的名称完全一致。",[117,122,127,132,137,142,147,152,157,162,167,172,177,182,187,192,197,202,207,212],{"id":118,"version":119,"summary_zh":120,"released_at":121},206310,"v3.10.0","## 新增功能\n* **远程模型：**\n  * “添加模型”页面现在为远程模型提供商设置了专用选项卡。\n  * Groq、OpenAI 和 Mistral 的远程模型现在更易于配置。\n* **CUDA 兼容性：** 具有 CUDA 计算能力 5.0 的 GPU，例如 GTX 750，现已支持 CUDA 后端。\n* **新模型：** 现已支持非 MoE 的 Granite 模型。\n* **翻译更新：**\n  * 意大利语翻译已更新。\n  * 简体中文翻译得到了显著改进。\n* **更好的聊天模板：** OLMoE 7B 0924\u002F0125 以及 Granite 3.1 3B\u002F8B 的默认聊天模板已得到优化。\n* **空格修复：** 基于 DeepSeek-R1 的模型在输出中的空格处理更加完善。\n* **崩溃修复：** 已修复多个可能导致 GPT4All 崩溃的问题。\n\n## 贡献者\n* 贾里德·范·博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n* ThiloteE（`@ThiloteE`）\n* 小鲍勃（`@Junior2Ran`）\n* 里卡多·乔瓦内蒂（`@Harvester62`）\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#3100---2025-02-24)","2025-02-25T00:41:39",{"id":123,"version":124,"summary_zh":125,"released_at":126},206311,"v3.9.0","## 新增功能\n* **LocalDocs 修复**：LocalDocs 现在不会在使用推理模型的后续消息中显示错误。\n* **DeepSeek 修复**：DeepSeek-R1 的推理内容（位于 `think` 标签中）不再出现在聊天名称和后续问题中。\n* **Windows ARM 改进**：\n  * 已修复部分 SoC 上的图形瑕疵。\n  * 已修复向 LocalDocs 添加 PDF 文档集时导致的崩溃问题。\n* **模板解析器修复**：包含未闭合注释的聊天模板不再会使 GPT4All 崩溃。\n* **新模型支持**：现已支持 OLMoE 和 Granite MoE 模型。\n\n## 贡献者\n* 贾里德·范·博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n* ThiloteE (`@ThiloteE`)\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#390---2025-02-04)","2025-02-05T00:12:41",{"id":128,"version":129,"summary_zh":130,"released_at":131},206312,"v3.8.0","## 新增功能\n* **原生支持 DeepSeek-R1-Distill 模型：** GPT4All 现已为 DeepSeek-R1 系列蒸馏模型提供强大的支持。\n  * 下载页面现已提供多个模型变体。\n  * 推理内容（包裹在“think”标签中）的显示方式与 Reasoner 模型类似。\n  * 现已支持 DeepSeek-R1 Qwen 预分词器，解决了此前版本中的加载失败问题。\n  * 该模型默认配置了与 GPT4All 兼容的提示模板。\n* **聊天模板全面重构：** 模板解析器已被全新替换，新解析器对常见模型的兼容性大幅提升。\n* **代码解释器修复：**\n  * 已修复 v3.7.0 中阻止代码解释器记录单个字符串的问题。\n  * 当代码解释器执行计算时，UI 不再出现卡顿。\n* **本地服务器修复：**\n  * 已修复自 v3.5.0 以来，服务器在首次请求后无法使用 LocalDocs 的问题。\n  * 系统消息现可正确地从消息历史中隐藏。\n\n## 贡献者\n* 贾里德·范·博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n* ThiloteE (`@ThiloteE`)\n\n**完整更新日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#380---2025-01-30)","2025-01-31T01:07:03",{"id":133,"version":134,"summary_zh":135,"released_at":136},206313,"v3.7.0","## 新增功能\n* **Windows ARM 支持：** GPT4All 现已支持 Windows ARM 平台，确保与搭载高通骁龙和微软 SQ 系列处理器的设备兼容。\n  * **注意：** 目前尚不支持 GPU 和\u002F或 NPU 加速。LLM 将仅使用 CPU 运行。\n  * **注意：** 您必须从官网下载并安装新的 *Windows ARM* 版本的 GPT4All。由于模拟限制，标准 *Windows* 版本将无法正常工作。\n* **修复 macOS 上的更新问题：** 在 Sequoia 系统上尝试更新或卸载 GPT4All 时，维护工具不再崩溃。\n  * **注意：** 如果您此前为解决该问题而安装了 GitHub 发布页面中的版本，现在可以安全卸载，并切换回官网提供的版本。\n* **修复 macOS 上的聊天保存问题：** 使用 Command-Q 退出应用时，聊天记录现可按预期保存。\n* **代码解释器改进：**\n  * 改进了代码执行时间过长导致超时的情况下的行为。\n  * console.log 现在支持多个参数，以更好地兼容原生 JavaScript。\n* **聊天模板改进：**\n  * 修复了聊天模板解析器中的两个崩溃问题和一个兼容性问题。\n  * 修正了 EM German Mistral 的默认聊天模板。\n  * 随着我们持续提升对常用聊天模板的兼容性，新增了针对五种新模型的自动替换功能。\n\n## 贡献者\n* Jared Van Bortel (Nomic AI)\n* Adam Treat (Nomic AI)\n* Riccardo Giovanetti (`@Harvester62`)\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#370---2025-01-21)\n\n\u003Cbr\u002F>\n\u003Cbr\u002F>\n\n**注意：** 请在下载下方的离线安装程序时务必小心。目前提供 `-win64-arm` 安装包。如果您使用的是 ARM 处理器（例如高通骁龙或微软 SQ 系列），请使用 `-win64-arm` 版本；如果您使用的是 Intel 或 AMD 处理器，或者不确定，请使用 `-win64` 版本。","2025-01-23T20:17:29",{"id":138,"version":139,"summary_zh":140,"released_at":141},206314,"v3.6.1","## 新增内容\n\n* **修复：**\n  * v3.6.0 中停止生成按钮不再可用的问题。\n  * v3.6.0 中复制整个对话按钮不再可用的问题。\n\n## 贡献者\n\n* Adam Treat（Nomic AI）\n\n**完整更新日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#360---2024-12-19)","2024-12-20T19:43:31",{"id":143,"version":144,"summary_zh":145,"released_at":146},206315,"v3.6.0","## 新增功能\n\n* **推理器 v1：**\n  * 内置 JavaScript 代码解释器工具。\n  * 自定义精选模型，利用代码解释器分解、分析、执行并验证复杂的推理任务。\n* **模板：** 自动替换 GGUF 文件中与 Jinja2Cpp 不兼容的聊天模板。\n* **修复：**\n  * 远程模型模板，允许消息中包含 XML。\n  * 修复了 Jinja2Cpp 中导致聊天模板无法正确检测系统消息的 bug。\n  * 修复了 LocalDocs 数据源在 v3.5.0 版本之后以未合并形式显示的问题。\n\n## 贡献者\n\n* Adam Treat（Nomic AI）\n* Jared Van Bortel（Nomic AI）\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#360---2024-12-19)","2024-12-19T23:23:28",{"id":148,"version":149,"summary_zh":150,"released_at":151},206316,"v3.5.3","## 新增内容\n* **LocalDocs 修复**：导致 LocalDocs 在 v3.5.2 版本中无法正常工作的严重问题已修复。\n\n## 贡献者\n* 贾雷德·范博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#353---2024-12-16)","2024-12-16T21:31:17",{"id":153,"version":154,"summary_zh":155,"released_at":156},206317,"v3.5.2","## 新增功能\n* **模型搜索**：现设有官方模型和第三方模型的独立标签页。\n* **本地服务器修复**：修复了 v3.5 版本对 API 服务器所做的更改中的若干错误。\n* **克隆模型修复**：克隆模型的聊天模板和系统消息现已正确管理其默认值。\n* **翻译改进**：罗马尼亚语和意大利语翻译已更新。\n\n## 贡献者\n* 贾里德·范·博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n* 里卡多·乔瓦内蒂（`@Harvester62`）\n* 维克托·埃马努埃尔（`@SINAPSA-IC`）\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#352---2024-12-13)","2024-12-14T00:22:57",{"id":158,"version":159,"summary_zh":160,"released_at":161},206318,"v3.5.1","## 新增内容\n* **聊天模板修复**：适用于 Llama 3.2 模型、Nous Hermes 2 Mistral、Mistral OpenOrca、Qwen 2 以及远程模型\n* **Bug修复**：修复默认模型按钮，使其在 3.5.0 版本更新后恢复正常功能\n\n## 贡献者\n* Jared Van Bortel (Nomic AI)\n* Adam Treat (Nomic AI)\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#351---2024-12-10)","2024-12-10T20:04:53",{"id":163,"version":164,"summary_zh":165,"released_at":166},206319,"v3.5.0","## 新功能\n* **消息编辑：**\n  * 现在你可以通过点击消息下方的铅笔图标来编辑自己发送的任何消息。\n  * 现在你可以在对话中重新编辑之前的回复。\n* **模板：** 聊天模板已全面重构！现在采用 Jinja 样式的语法。你可能会在界面中看到一些警告或错误提示。请阅读相关文档链接，如有疑问，请在 Discord 上提问。\n* **文件附件：** 现在支持将 Markdown 和纯文本文件作为文件附件上传。\n* **系统托盘：** 应用设置中新增了一个选项，允许 GPT4All 最小化到系统托盘，而不是完全关闭。\n* **本地 API 服务器：**\n  * API 服务器现在支持来自客户端的系统消息，不再使用设置中的系统消息。\n  * 现在你可以按照模型支持的任意顺序向 API 服务器发送消息，而不仅限于用户\u002F助手的配对。\n* **翻译：** 意大利语和罗马尼亚语的翻译得到了改进。\n\n## 贡献者\n* 贾里德·范·博特尔（Nomic AI）\n* 亚当·特里特（Nomic AI）\n* 本杰明·加卢瓦（`@bgallois`）\n* 里卡多·乔瓦内蒂（`@Harvester62`）\n* 维克托·伊曼纽尔（`@SINAPSA-IC`）\n\n**完整变更日志**：[CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#350---2024-12-09)","2024-12-09T21:52:34",{"id":168,"version":169,"summary_zh":170,"released_at":171},206320,"v3.4.2","## What's New\r\n* **LocalDocs Fixes:** Several issues with LocalDocs, some of which were introduced in v3.4.0, have been fixed.\r\n  * Fixed the possible use of references from unselected collections.\r\n  * Fixed unnecessary reindexing of files with uppercase extensions.\r\n  * Fixed hybrid search failure due to inconsistent database state.\r\n  * Fully fixed the blank Embeddings Device selection in LocalDocs settings.\r\n  * Fixed LocalDocs indexing of large PDFs making very slow progress or even stalling.\r\n\r\n## Contributors\r\n* Adam Treat (Nomic AI)\r\n* Jared Van Bortel (Nomic AI)\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#342---2024-10-16)","2024-10-16T18:20:44",{"id":173,"version":174,"summary_zh":175,"released_at":176},206321,"v3.4.1","## What's New\r\n* **LocalDocs Fixes:** Several issues with LocalDocs in v3.4.0 have been fixed, including missing words and very slow indexing.\r\n* **Syntax Highlighting:** Go code is now highlighted with the correct colors.\r\n* **Cache Fixes:** The model list cache is now stored with a version number, and in a more appropriate directory.\r\n* **Translation Updates:** The Italian translation has been improved.\r\n\r\n## Contributors\r\n* Jared Van Bortel (Nomic AI)\r\n* Adam Treat (Nomic AI)\r\n* John Parent (Kitware)\r\n* Riccardo Giovanetti (`@Harvester62`)\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#341---2024-10-11)","2024-10-11T22:25:37",{"id":178,"version":179,"summary_zh":180,"released_at":181},206322,"v3.4.0","## What's New\r\n* **Attached Files:** You can now attach a small Microsoft Excel spreadsheet (.xlsx) to a chat message and ask the model about it.\r\n  * Read more [here](https:\u002F\u002Fdocs.gpt4all.io\u002Fgpt4all_desktop\u002Fcookbook\u002Fuse-local-ai-models-to-privately-chat-with-microsoft-excel.html).\r\n* **LocalDocs Accuracy:** The LocalDocs algorithm has been enhanced to find more accurate references for some queries.\r\n* **Word Document Support:** LocalDocs now supports Microsoft Word (.docx) documents natively.\r\n  * **IMPORTANT NOTE:** If .docx files are not found, make sure Settings > LocalDocs > Allowed File Extensions includes \"docx\".\r\n* **Forgetful Model Fixes:** Issues with the \"Redo last chat response\" button, and with continuing chats from previous sessions, have been fixed.\r\n* **Chat Saving Improvements:** On exit, GPT4All will no longer save chats that are not new or modified. As a bonus, downgrading without losing access to all chats will be possible in the future, should the need arise.\r\n* **UI Fixes:** The model list no longer scrolls to the top when you start downloading a model.\r\n* **New Models:** Llama 3.2 Instruct 3B and 1B models are now available in the model list.\r\n\r\n## Contributors\r\n* Jared Van Bortel (Nomic AI)\r\n* Adam Treat (Nomic AI)\r\n* Andriy Mulyar (Nomic AI)\r\n* Ikko Eltociear Ashimine (`@eltociear`)\r\n* Victor Emanuel (`@SINAPSA-IC`)\r\n* Shiranui (`@supersonictw`)\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#340---2024-10-08)","2024-10-08T20:10:50",{"id":183,"version":184,"summary_zh":185,"released_at":186},206323,"v3.3.1","## What's New\r\n* Fixed a crash when attempting to continue a chat loaded from disk\r\n* Fixed the local server rejecting min\\_p\u002Ftop\\_p less than 1\r\n\r\n## Contributors\r\n* Jared Van Bortel (Nomic AI)\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#331---2024-09-27-v33y)","2024-09-27T15:44:33",{"id":188,"version":189,"summary_zh":190,"released_at":191},206324,"v3.3.0","## What's New\r\n* **UI Improvements**: The minimum window size now adapts to the font size. A few labels and links have been fixed. The Embeddings Device selection of \"Auto\"\u002F\"Application default\" works again. The window icon is now set on Linux. The antenna icon now displays when the API server is listening.\r\n* **Single Instance**: Only one instance of GPT4All can be opened at a time. This is now enforced.\r\n* **Greedy Sampling**: Set temperature to zero to enable greedy sampling.\r\n* **API Server Changes**: The built-in API server now responds correctly to both legacy completions, and chats with message history. Also, it now uses the system prompt configured in the UI.\r\n* **Translation Improvements**: The Italian, Romanian, and Traditional Chinese translations have been updated.\r\n\r\n## Contributors\r\n* Jared Van Bortel (Nomic AI)\r\n* Adam Treat (Nomic AI)\r\n* 3Simplex (`@3Simplex`)\r\n* Riccardo Giovanetti (`@Harvester62`)\r\n* Victor Emanuel (`@SINAPSA-IC`)\r\n* Dominik (`@cosmic-snow`)\r\n* Shiranui (`@supersonictw`)\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#330---2024-09-20)","2024-09-23T15:54:46",{"id":193,"version":194,"summary_zh":195,"released_at":196},206325,"v3.2.1","## Fixed\r\n* Fix a potential Vulkan crash on application exit on some Linux systems (https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2843)\r\n* Fix a bad CUDA build option that led to gibberish on newer NVIDIA GPUs (https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2855)\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fcompare\u002Fv3.2.0...v3.2.1","2024-08-13T23:47:53",{"id":198,"version":199,"summary_zh":200,"released_at":201},206326,"v3.2.0","## Added\r\n- Add Qwen2-1.5B-Instruct to models3.json (by @ThiloteE in [#2759](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2759))\r\n- Enable translation feature for seven languages: English, Spanish, Italian, Portuguese, Chinese Simplified, Chinese Traditional, Romanian ([#2830](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2830))\r\n\r\n## Changed\r\n- Add missing entries to Italian transltation (by @Harvester62 in [#2783](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2783))\r\n- Use llama\\_kv\\_cache ops to shift context faster ([#2781](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2781))\r\n- Don't stop generating at end of context ([#2781](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2781))\r\n\r\n## Fixed\r\n- Case-insensitive LocalDocs source icon detection (by @cosmic-snow in [#2761](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2761))\r\n- Fix comparison of pre- and post-release versions for update check and models3.json ([#2762](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2762), [#2772](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2772))\r\n- Fix several backend issues ([#2778](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2778))\r\n  - Restore leading space removal logic that was incorrectly removed in [#2694](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2694)\r\n  - CUDA: Cherry-pick llama.cpp DMMV cols requirement fix that caused a crash with long conversations since [#2694](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2694)\r\n- Make reverse prompt detection work more reliably and prevent it from breaking output ([#2781](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2781))\r\n- Disallow context shift for chat name and follow-up generation to prevent bugs ([#2781](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2781))\r\n- Explicitly target macOS 12.6 in CI to fix Metal compatibility on older macOS ([#2846](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2846))\r\n\r\n## New Contributors\r\n* @SINAPSA-IC made their first contribution in https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fpull\u002F2828\r\n\r\n**Full Changelog**: [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fblob\u002Fmain\u002Fgpt4all-chat\u002FCHANGELOG.md#320---2024-08-12)","2024-08-12T21:32:03",{"id":203,"version":204,"summary_zh":205,"released_at":206},206327,"v3.1.1","### Added\r\n- Ability to add OpenAI compatible remote models (#2683)\r\n\r\n### Fixed\r\n- Update llama.cpp to cherry-pick Llama 3.1 RoPE fix. (#2758)","2024-07-27T21:54:33",{"id":208,"version":209,"summary_zh":210,"released_at":211},206328,"v3.1.1-web_search_beta_2","This is version 2 of the web search beta which contains some important fixes including upstream llama.cpp fixes for Llama 3.1. \r\n\r\n## Fixes\r\n\r\n- Update to latest llama.cpp which includes RoPE fix\r\n- Fix problem with only displaying one source for tool call excerpts\r\n- Add the extra snippets to the source excerpts\r\n- Fix the way we're injecting the context back into the model for web search\r\n- Change the suggestion mode to turn on for tool calls by default\r\n\r\nWARNING:\r\n\r\nThere was a problem with the synchronization between this beta release and the models.json. In order to make this work you have to perform the following steps:\r\n\r\n1) Rename the file `Meta-Llama-3.1-8B-Instruct-128k-Q4_0.gguf`  to `Meta-Llama-3.1-8B-Instruct-Q4_0.gguf`\r\n2) Copy the following into the prompt template:\r\n\r\n```\r\n\u003C|start_header_id|>user\u003C|end_header_id|>\r\n\r\n%1\u003C|eot_id|>\u003C|start_header_id|>assistant\u003C|end_header_id|>\r\n\r\n%2\r\n```\r\n3) Copy the following into the system prompt:\r\n\r\n```\r\n\u003C|start_header_id|>system\u003C|end_header_id|>\r\nEnvironment: ipython\r\nTools: brave_search\r\n\r\nCutting Knowledge Date: December 2023\r\nToday Date: 25 Jul 2024\r\n\r\nYou are a helpful assistant.\u003C|eot_id|> \r\n```\r\n\r\n","2024-07-27T22:45:27",{"id":213,"version":214,"summary_zh":215,"released_at":216},206329,"v3.1.0-web_search_beta","This is the beta version of GPT4All including a new web search feature powered by Llama 3.1. To use this version you should consult the guide located here: https:\u002F\u002Fgithub.com\u002Fnomic-ai\u002Fgpt4all\u002Fwiki\u002FWeb-Search-Beta-Release\r\n\r\nFor questions and feedback please join the discord channel: https:\u002F\u002Fdiscord.com\u002Finvite\u002F4M2QFmTt2k","2024-07-25T21:30:21",[218,230,238,247,255,264],{"id":219,"name":220,"github_repo":221,"description_zh":222,"stars":223,"difficulty_score":224,"last_commit_at":225,"category_tags":226,"status":84},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[227,79,228,229],"Agent","图像","数据工具",{"id":231,"name":232,"github_repo":233,"description_zh":234,"stars":235,"difficulty_score":224,"last_commit_at":236,"category_tags":237,"status":84},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[79,228,227],{"id":239,"name":240,"github_repo":241,"description_zh":242,"stars":243,"difficulty_score":244,"last_commit_at":245,"category_tags":246,"status":84},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[79,227,78],{"id":248,"name":249,"github_repo":250,"description_zh":251,"stars":252,"difficulty_score":244,"last_commit_at":253,"category_tags":254,"status":84},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[79,228,227],{"id":256,"name":257,"github_repo":258,"description_zh":259,"stars":260,"difficulty_score":244,"last_commit_at":261,"category_tags":262,"status":84},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[263,227,228,79],"插件",{"id":265,"name":266,"github_repo":267,"description_zh":268,"stars":269,"difficulty_score":244,"last_commit_at":270,"category_tags":271,"status":84},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[263,79]]