[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-ohmplatform--FreedomGPT":3,"similar-ohmplatform--FreedomGPT":164},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":19,"owner_twitter":19,"owner_website":19,"owner_url":20,"languages":21,"stars":46,"forks":47,"last_commit_at":48,"license":49,"difficulty_score":50,"env_os":51,"env_gpu":52,"env_ram":53,"env_deps":54,"category_tags":67,"github_topics":71,"view_count":76,"oss_zip_url":19,"oss_zip_packed_at":19,"status":77,"created_at":78,"updated_at":79,"faqs":80,"releases":111},3794,"ohmplatform\u002FFreedomGPT","FreedomGPT","This codebase is for a React and Electron-based app that executes the FreedomGPT LLM locally (offline and private) on Mac and Windows using a chat-based interface","FreedomGPT 是一款基于 React 和 Electron 开发的桌面应用，旨在让用户在 Mac 和 Windows 电脑上本地运行大型语言模型（LLM）。它通过简洁的聊天界面，实现了完全离线且私密的 AI 对话体验，无需依赖云端服务器或担心数据泄露。\n\n这款工具主要解决了用户对隐私安全和网络依赖的痛点。在传统云模型服务中，敏感数据往往需要上传至第三方，而 FreedomGPT 让所有计算都在用户自己的设备上完成，确保数据始终掌握在用户手中。同时，它也摆脱了对稳定互联网连接的依赖，在无网环境下依然能流畅使用。\n\nFreedomGPT 非常适合注重数据隐私的个人用户、需要在内网环境工作的企业员工，以及对本地部署大模型感兴趣的技术爱好者。虽然它也提供了源码供开发者编译和定制（支持 Linux 及挖矿收益扩展），但其图形化界面设计让普通用户也能轻松上手，无需深厚的编程背景。\n\n其核心技术亮点在于集成了高效的 llama.cpp 库，能够在消费级硬件上流畅运行高性能开源模型。此外，项目采用 GNU 开源协议，社区活跃，并支持手动加载特定的\"Liberty Edge\"模型，为用户提供了高","FreedomGPT 是一款基于 React 和 Electron 开发的桌面应用，旨在让用户在 Mac 和 Windows 电脑上本地运行大型语言模型（LLM）。它通过简洁的聊天界面，实现了完全离线且私密的 AI 对话体验，无需依赖云端服务器或担心数据泄露。\n\n这款工具主要解决了用户对隐私安全和网络依赖的痛点。在传统云模型服务中，敏感数据往往需要上传至第三方，而 FreedomGPT 让所有计算都在用户自己的设备上完成，确保数据始终掌握在用户手中。同时，它也摆脱了对稳定互联网连接的依赖，在无网环境下依然能流畅使用。\n\nFreedomGPT 非常适合注重数据隐私的个人用户、需要在内网环境工作的企业员工，以及对本地部署大模型感兴趣的技术爱好者。虽然它也提供了源码供开发者编译和定制（支持 Linux 及挖矿收益扩展），但其图形化界面设计让普通用户也能轻松上手，无需深厚的编程背景。\n\n其核心技术亮点在于集成了高效的 llama.cpp 库，能够在消费级硬件上流畅运行高性能开源模型。此外，项目采用 GNU 开源协议，社区活跃，并支持手动加载特定的\"Liberty Edge\"模型，为用户提供了高度的灵活性和自主权。","# FreedomGPT\nThis is the offical repository for the FreedomGPT application. It is built using [Electron](https:\u002F\u002Fwww.electronjs.org\u002F) and [React](https:\u002F\u002Freactjs.org\u002F) and allows users to run LLM models on their local machine.\n\n![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-GNU-blue.svg)\n\n![GitHub release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fohmplatform\u002Ffreedom-gpt-electron-app.svg)\n\n![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fohmplatform\u002Ffreedom-gpt-electron-app.svg)\n\n![GitHub All Releases](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fohmplatform\u002Ffreedom-gpt-electron-app\u002Ftotal.svg)\n\n# Join our Discord Community\nJoin our Discord server to get the latest updates and to interact with the community.\n\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-%235865F2.svg?style=for-the-badge&logo=discord&logoColor=white)](https:\u002F\u002Fdiscord.gg\u002Fh77wvJS4ga)\n\n\n# How to Contribute\n\n## Prerequisites\n- [Node.js](https:\u002F\u002Fnodejs.org\u002Fen\u002Fdownload\u002F)\n- [Git](https:\u002F\u002Fgit-scm.com\u002Fdownloads)\n\n## Quick Install\n```sh\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT.git freedom-gpt\ncd freedom-gpt\nnpx yarn install\n```\n\n### Building the llama.cpp library\n\n#### macOS\n```sh\ncd llama.cpp\nmake\n```\n\n#### Windows\n- Download and install CMake: \u003Chttps:\u002F\u002Fcmake.org\u002Fdownload\u002F>\n- Run the following commands:\n\n```ps1\ncd llama.cpp\ncmake .\ncmake --build . --config Release\n```\n\nYou should now have a `Release` folder with a `main.exe` file inside it. You can run this file to test the chat client.\n\n\n### Running the App\nTo run the app, run the following command in your terminal from the root directory of the project:\n\n```sh\nnpx yarn start\n```\n\n## Changing Ports\nIf needed, ports can be changed in:\n`src\u002Fports.ts`\n\n## Installation and Setup Guide for Linux\n\n### Required Packages\n\nTo get started, you need to install several required packages. Run the following commands:\n\n```bash\nsudo apt install nodejs\nsudo apt install yarn\nsudo apt install git\nsudo apt install make\nsudo apt install g++\nsudo apt install npm\n```\n\n### Build the Project\n\nNavigate to the project directory and build it:\n\n```bash\ncd freedom-gpt\u002Fllama.cpp\nmake\ncd ..\nnpm install\nnpm run\nnpm start\n```\n\n### Usage\n\n### Working with Liberty Edge Models\n\nYou can manually download the Liberty Edge models and set the paths to these files from the AI Models screen.\n\n### Mining Earnings\n\nTo enable mining earnings, follow these steps:\n\n1. Download the XMRig Linux Static, CPU-only version from [xmrig.com\u002Fdownload](https:\u002F\u002Fxmrig.com\u002Fdownload)\n2. Extract the archive and copy the `xmrig` binary to the `freedom-gpt\u002Fminer\u002Fmac\u002Ffgptminer` directory:\n\n```bash\n# Assuming you have extracted xmrig in the current directory\ncp xmrig freedom-gpt\u002Fminer\u002Fmac\u002Ffgptminer\n```\n\n\n\u003C!-- ## Dockerizing the App\n\nTo run the docker image, run the following command in your terminal:\n\n```sh\ndocker pull freedomgpt\u002Ffreedomgpt\ndocker run -d -p 8889:8889 freedomgpt\u002Ffreedomgpt\n```\n\nIf you want to build the docker image yourself, run the following command in your terminal:\n\n```sh\ndocker build -t freedomgpt\u002Ffreedomgpt .\n\nOR\n\nnpx yarn docker\n``` -->\n\n# Credits\n\nThis project utilizes several open-source packages and libraries, without which this project would not have been possible:\n\n\"llama.cpp\" - C++ library. https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\n\n\"LLAMA\" by Facebook Research - a low-latency, large-scale approximate nearest neighbor search algorithm. https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama\n\n\"Chatbot UI\" - https:\u002F\u002Fgithub.com\u002Fmckaywrigley\u002Fchatbot-ui\n\nWe would like to express our gratitude to the developers of these packages and their contributors for making their work available to the public under open source licenses. Their contributions have enabled us to build a more robust and efficient project.\n\n# LICENSE\n\nSee the \u003Ca href=\"\u002FLICENSE\"> LICENSE \u003C\u002Fa>file.\n","# FreedomGPT\n这是 FreedomGPT 应用程序的官方仓库。它使用 [Electron](https:\u002F\u002Fwww.electronjs.org\u002F) 和 [React](https:\u002F\u002Freactjs.org\u002F) 构建，允许用户在本地运行 LLM 模型。\n\n![GitHub 许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-GNU-blue.svg)\n\n![GitHub 发布](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fohmplatform\u002Ffreedom-gpt-electron-app.svg)\n\n![GitHub 星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fohmplatform\u002Ffreedom-gpt-electron-app.svg)\n\n![GitHub 所有发布下载量](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fohmplatform\u002Ffreedom-gpt-electron-app\u002Ftotal.svg)\n\n# 加入我们的 Discord 社区\n加入我们的 Discord 服务器，获取最新更新并与社区互动。\n\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-%235865F2.svg?style=for-the-badge&logo=discord&logoColor=white)](https:\u002F\u002Fdiscord.gg\u002Fh77wvJS4ga)\n\n\n# 如何贡献\n\n## 前提条件\n- [Node.js](https:\u002F\u002Fnodejs.org\u002Fen\u002Fdownload\u002F)\n- [Git](https:\u002F\u002Fgit-scm.com\u002Fdownloads)\n\n## 快速安装\n```sh\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT.git freedom-gpt\ncd freedom-gpt\nnpx yarn install\n```\n\n### 构建 llama.cpp 库\n\n#### macOS\n```sh\ncd llama.cpp\nmake\n```\n\n#### Windows\n- 下载并安装 CMake：\u003Chttps:\u002F\u002Fcmake.org\u002Fdownload\u002F>\n- 运行以下命令：\n\n```ps1\ncd llama.cpp\ncmake .\ncmake --build . --config Release\n```\n\n现在你应该会有一个包含 `main.exe` 文件的 `Release` 文件夹。你可以运行这个文件来测试聊天客户端。\n\n\n### 运行应用\n要运行应用，在项目根目录下终端中执行以下命令：\n\n```sh\nnpx yarn start\n```\n\n## 更改端口\n如果需要，可以在以下文件中更改端口：\n`src\u002Fports.ts`\n\n## Linux 安装与设置指南\n\n### 必需软件包\n\n要开始使用，你需要安装几个必需的软件包。运行以下命令：\n\n```bash\nsudo apt install nodejs\nsudo apt install yarn\nsudo apt install git\nsudo apt install make\nsudo apt install g++\nsudo apt install npm\n```\n\n### 构建项目\n\n导航到项目目录并构建：\n\n```bash\ncd freedom-gpt\u002Fllama.cpp\nmake\ncd ..\nnpm install\nnpm run\nnpm start\n```\n\n### 使用方法\n\n### 使用 Liberty Edge 模型\n你可以手动下载 Liberty Edge 模型，并从 AI 模型界面设置这些文件的路径。\n\n### 矿工收益\n要启用矿工收益，请按照以下步骤操作：\n\n1. 从 [xmrig.com\u002Fdownload](https:\u002F\u002Fxmrig.com\u002Fdownload) 下载 XMRig Linux 静态版（仅 CPU）。\n2. 解压压缩包，并将 `xmrig` 二进制文件复制到 `freedom-gpt\u002Fminer\u002Fmac\u002Ffgptminer` 目录：\n\n```bash\n# 假设你已将 xmrig 解压到当前目录\ncp xmrig freedom-gpt\u002Fminer\u002Fmac\u002Ffgptminer\n```\n\n\n\u003C!-- ## 将应用容器化\n\n要运行 Docker 镜像，在终端中执行以下命令：\n\n```sh\ndocker pull freedomgpt\u002Ffreedomgpt\ndocker run -d -p 8889:8889 freedomgpt\u002Ffreedomgpt\n```\n\n如果你想自己构建 Docker 镜像，在终端中运行以下命令：\n\n```sh\ndocker build -t freedomgpt\u002Ffreedomgpt .\n\n或者\n\nnpx yarn docker\n``` -->\n\n# 致谢\n\n本项目使用了多个开源软件包和库，没有它们，本项目将无法实现：\n\n“llama.cpp”——C++ 库。https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\n\nFacebook Research 的 “LLAMA”——一种低延迟、大规模的近似最近邻搜索算法。https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama\n\n“Chatbot UI”——https:\u002F\u002Fgithub.com\u002Fmckaywrigley\u002Fchatbot-ui\n\n我们谨向这些软件包的开发者及其贡献者表示感谢，感谢他们以开源许可协议将其作品公开。正是他们的贡献使我们能够构建一个更强大、更高效的项目。\n\n# 许可证\n\n请参阅 \u003Ca href=\"\u002FLICENSE\"> LICENSE \u003C\u002Fa> 文件。","# FreedomGPT 快速上手指南\n\nFreedomGPT 是一款基于 Electron 和 React 构建的开源应用，允许用户在本地机器上运行大型语言模型（LLM），无需依赖云端服务。\n\n## 环境准备\n\n在开始之前，请确保您的系统已安装以下基础依赖：\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **Node.js**：[下载地址](https:\u002F\u002Fnodejs.org\u002F) (建议使用 LTS 版本)\n*   **Git**：[下载地址](https:\u002F\u002Fgit-scm.com\u002F)\n*   **包管理器**：推荐使用 `yarn` (若未安装可通过 `npm install -g yarn` 获取)\n*   **编译工具** (用于构建底层推理引擎)：\n    *   **macOS**: 需安装 Xcode Command Line Tools (`xcode-select --install`)\n    *   **Windows**: 需安装 [CMake](https:\u002F\u002Fcmake.org\u002Fdownload\u002F) 和 Visual Studio Build Tools\n    *   **Linux**: 需安装 `make`, `g++`, `build-essential` 等开发包\n\n> **提示**：国内用户若下载依赖较慢，可配置 npm\u002Fyarn 镜像源（如淘宝镜像）：\n> ```sh\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> yarn config set registry https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n## 安装步骤\n\n### 1. 克隆项目\n使用 Git 递归克隆仓库以包含子模块（llama.cpp）：\n```sh\ngit clone --recursive https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT.git freedom-gpt\ncd freedom-gpt\n```\n\n### 2. 安装前端依赖\n```sh\nnpx yarn install\n```\n\n### 3. 构建底层推理库 (llama.cpp)\n根据操作系统选择对应的构建命令：\n\n**macOS:**\n```sh\ncd llama.cpp\nmake\ncd ..\n```\n\n**Windows (PowerShell):**\n```ps1\ncd llama.cpp\ncmake .\ncmake --build . --config Release\ncd ..\n```\n*构建完成后，`llama.cpp\u002FRelease` 目录下应生成 `main.exe`。*\n\n**Linux:**\n```bash\ncd llama.cpp\nmake\ncd ..\n```\n*若缺少编译工具，请先执行：`sudo apt install make g++ build-essential`*\n\n## 基本使用\n\n### 启动应用\n在项目根目录执行以下命令启动开发服务器并运行应用：\n```sh\nnpx yarn start\n```\n\n### 加载模型\n1. 应用启动后，进入 **AI Models** 界面。\n2. 手动下载 Liberty Edge 系列模型文件（通常为 `.bin` 或 `.gguf` 格式）。\n3. 在界面中设置模型文件的本地路径即可开始对话。\n\n### 高级功能：挖矿收益 (可选)\n若需启用挖矿功能赚取收益：\n1. 从 [xmrig.com](https:\u002F\u002Fxmrig.com\u002Fdownload) 下载 Linux Static CPU 版本。\n2. 将解压后的 `xmrig` 二进制文件复制到指定目录：\n```bash\ncp xmrig freedom-gpt\u002Fminer\u002Fmac\u002Ffgptminer\n```\n*(注：路径示例针对 macOS，Windows\u002FLinux 用户请参照项目内的 miner 目录结构放置)*","某金融合规分析师需要在完全隔离的内网环境中，对大量敏感的客户交易记录进行自动化摘要和风险评估，且严禁任何数据上传至云端。\n\n### 没有 FreedomGPT 时\n- **数据泄露风险高**：使用在线大模型必须将敏感交易数据上传至第三方服务器，严重违反金融行业的数据隐私合规要求。\n- **网络依赖性强**：一旦内网切断或外部 API 服务波动，分析工作立即停滞，无法保证业务的连续性。\n- **响应延迟不可控**：网络传输加上云端排队处理，导致每次查询耗时较长，难以满足高频实时分析的需求。\n- **定制部署困难**：缺乏本地化运行方案，无法在不连接互联网的情况下为特定硬件环境部署私有化智能助手。\n\n### 使用 FreedomGPT 后\n- **实现绝对隐私安全**：FreedomGPT 基于 Electron 和 React 构建，所有推理过程均在本地离线完成，敏感数据从未离开过分析师的电脑。\n- **全天候离线可用**：无需任何网络连接即可随时启动服务，即使在高度保密的隔离网络中也能稳定运行，确保持续产出。\n- **低延迟即时响应**：利用本地算力直接调用 llama.cpp 引擎，消除了网络往返时间，大幅提升了大批量文档的处理速度。\n- **灵活本地部署**：支持在 Mac 和 Windows 上直接编译运行，分析师可轻松将模型集成到现有的内部工作流中，无需复杂的基础设施改造。\n\nFreedomGPT 通过纯粹的本地化执行方案，彻底解决了敏感行业在享受 AI 效率红利与严守数据隐私红线之间的两难困境。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fohmplatform_FreedomGPT_276ee074.png","ohmplatform","Ohm Platform","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fohmplatform_f13c8e58.png","Our mission is to align AI with Human Flourishing",null,"https:\u002F\u002Fgithub.com\u002Fohmplatform",[22,26,30,34,38,42],{"name":23,"color":24,"percentage":25},"TypeScript","#3178c6",96.5,{"name":27,"color":28,"percentage":29},"JavaScript","#f1e05a",1.3,{"name":31,"color":32,"percentage":33},"Batchfile","#C1F12E",1,{"name":35,"color":36,"percentage":37},"CSS","#663399",0.8,{"name":39,"color":40,"percentage":41},"Shell","#89e051",0.2,{"name":43,"color":44,"percentage":45},"HTML","#e34c26",0.1,2678,365,"2026-04-04T18:24:30","GPL-3.0",4,"Linux, macOS, Windows","未说明 (基于 llama.cpp，主要依赖 CPU 运行，README 中提到的挖矿步骤指定了 CPU-only 版本)","未说明",{"notes":55,"python":56,"dependencies":57},"该项目是基于 Electron 和 React 的桌面应用，核心推理引擎为 llama.cpp。Windows 用户需安装 CMake 来构建 llama.cpp；Linux 用户需安装 build-essential (g++, make) 等编译工具。若需启用挖矿功能，需手动下载并配置 XMRig (CPU 版本)。支持手动下载 Liberty Edge 模型并在应用中设置路径。","未说明 (项目基于 Node.js 和 C++)",[58,59,60,61,62,63,64,65,66],"Node.js","Git","Yarn","llama.cpp","Electron","React","CMake (Windows)","g++ (Linux)","make",[68,69,70],"Agent","语言模型","开发框架",[72,73,74,75],"electron","gpt","llm","react",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T06:44:25.353338",[81,86,91,96,101,106],{"id":82,"question_zh":83,"answer_zh":84,"source_url":85},17370,"在 Windows 上运行应用时提示 'electron-forge' 不是内部或外部命令，或者找不到模块 '.\u002Fdevconst' 怎么办？","这是依赖缺失或配置错误导致的。请尝试以下步骤修复：\n1. 全局安装 electron-forge：`npm install -g electron-forge`\n2. 添加开发依赖：`yarn add --dev electron-prebuilt-compile`\n3. 清理旧的 electron 模块：`rm -rf node_modules\u002Felectron` (Windows Git Bash) 或直接删除文件夹\n4. 重新安装依赖：`yarn install`\n5. 安装 electron：`npm install electron`\n6. 重新启动：`yarn start`\n如果仍有模块缺失错误（如 bufferutil），可能需要手动安装对应的原生模块。","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F2",{"id":87,"question_zh":88,"answer_zh":89,"source_url":90},17371,"应用启动后卡在 'Stop Generating' 或模型输出乱码怎么办？","这通常是旧版本（如 2.0.1）的已知问题。建议升级到最新版本（如 v2.5.1 或更高），新版本修复了模型无法响应和输出乱码的问题。请访问 Releases 页面下载最新版：https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Freleases","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F120",{"id":92,"question_zh":93,"answer_zh":94,"source_url":95},17372,"GUI 打开后模型下载卡在 0MB 不动怎么办？","自动下载可能因网络问题失败。解决方案是手动下载模型文件并放置到正确位置。\n1. 访问链接手动下载模型：https:\u002F\u002Fhuggingface.co\u002FSosaka\u002FAlpaca-native-4bit-ggml\u002Fblob\u002Fmain\u002Fggml-alpaca-7b-q4.bin\n2. 将下载的文件放入应用程序目录或与 chat.exe 同级目录（具体路径视操作系统而定，有时需重试几次或重启应用才能识别）。","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F28",{"id":97,"question_zh":98,"answer_zh":99,"source_url":100},17373,"启动时出现 'ERR_CONNECTION_REFUSED' 错误（端口 8889 或 3001）且界面空白怎么办？","该问题通常在后端服务未正确启动或端口被占用时发生。\n1. 确保已更新到最新代码提交，维护者已修复端口 3001 的连接拒绝问题。\n2. 检查端口 8888、8889、9000 是否被其他程序占用，必要时重启系统释放端口。\n3. 如果是 Linux (Ubuntu ARM64) 用户，确保所有依赖已正确加载，虽然 GUI 能打开但后端服务可能崩溃导致空白。","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F115",{"id":102,"question_zh":103,"answer_zh":104,"source_url":105},17374,"发送消息后没有回复，并出现 GPU 初始化错误或端口错误怎么办？","常见原因及解决方法：\n1. **启动命令错误**：确保使用生产环境启动命令 `yarn start:prod` 而不是 `yarn start`。\n2. **端口冲突**：应用需要使用端口 8889 和 9000，请确保这些端口可用，重启电脑通常能解决端口占用问题。\n3. **GPU 错误**：如果出现 'Passthrough is not supported, GL is disabled'，可能是显卡驱动或 Electron 兼容性问题，尝试更新显卡驱动或在非虚拟化环境中运行。","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F16",{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},17375,"在 Hyper-V 动态内存虚拟机中运行速度极慢或内存未完全加载怎么办？","这是因为 server.exe 默认使用内存映射可能导致文件被交换到磁盘。可以通过修改源码强制将模型锁定在物理内存中：\n1. 找到文件：`AppData\\Local\\FreedomGPT\\app-\u003C版本号>\\resources\\app\\main\\index.js`\n2. 定位到 `exports.inferenceProcess = ...` 行。\n3. 修改代码，在启动参数前添加 `--mlock` 和 `--no-mmap` 标志。示例代码逻辑如下：\n   ```javascript\n   let hackConfig = config.slice();\n   hackConfig.unshift('--mlock');\n   hackConfig.unshift('--no-mmap');\n   exports.inferenceProcess = (0, child_process_1.spawn)(CHAT_SERVER_LOCATION, hackConfig);\n   ```\n   其中 `--mlock` 强制系统将模型保留在 RAM 中，`--no-mmap` 禁用内存映射以减少页面交换。","https:\u002F\u002Fgithub.com\u002Fohmplatform\u002FFreedomGPT\u002Fissues\u002F144",[112,116,120,124,128,132,136,140,144,148,152,156,160],{"id":113,"version":114,"summary_zh":19,"released_at":115},100867,"v3.0.4","2024-06-07T21:12:24",{"id":117,"version":118,"summary_zh":19,"released_at":119},100868,"v3.0.4-beta-3","2024-06-07T08:09:15",{"id":121,"version":122,"summary_zh":19,"released_at":123},100869,"v3.0.4-beta-2","2024-06-04T22:03:12",{"id":125,"version":126,"summary_zh":19,"released_at":127},100870,"v3.0.4-beta-1","2024-06-03T22:00:37",{"id":129,"version":130,"summary_zh":19,"released_at":131},100871,"v3.0.3","2024-05-21T20:57:27",{"id":133,"version":134,"summary_zh":19,"released_at":135},100872,"v3.0.2","2024-05-17T20:38:08",{"id":137,"version":138,"summary_zh":19,"released_at":139},100873,"v3.0.1","2024-04-23T18:09:35",{"id":141,"version":142,"summary_zh":19,"released_at":143},100874,"v3.0.0","2024-04-12T20:29:16",{"id":145,"version":146,"summary_zh":19,"released_at":147},100875,"v2.5.1","2023-12-22T17:23:02",{"id":149,"version":150,"summary_zh":19,"released_at":151},100876,"v2.0.1","2023-08-26T04:35:48",{"id":153,"version":154,"summary_zh":19,"released_at":155},100877,"v2.0.0","2023-08-25T06:28:45",{"id":157,"version":158,"summary_zh":19,"released_at":159},100878,"v1.1.3","2023-05-06T18:14:01",{"id":161,"version":162,"summary_zh":19,"released_at":163},100879,"v1.1.2","2023-03-29T13:52:38",[165,175,183,191,199,212],{"id":166,"name":167,"github_repo":168,"description_zh":169,"stars":170,"difficulty_score":171,"last_commit_at":172,"category_tags":173,"status":77},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[70,174,68],"图像",{"id":176,"name":177,"github_repo":178,"description_zh":179,"stars":180,"difficulty_score":76,"last_commit_at":181,"category_tags":182,"status":77},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[70,68,69],{"id":184,"name":185,"github_repo":186,"description_zh":187,"stars":188,"difficulty_score":76,"last_commit_at":189,"category_tags":190,"status":77},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[70,174,68],{"id":192,"name":193,"github_repo":194,"description_zh":195,"stars":196,"difficulty_score":76,"last_commit_at":197,"category_tags":198,"status":77},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[70,69],{"id":200,"name":201,"github_repo":202,"description_zh":203,"stars":204,"difficulty_score":76,"last_commit_at":205,"category_tags":206,"status":77},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[174,207,208,209,68,210,69,70,211],"数据工具","视频","插件","其他","音频",{"id":213,"name":214,"github_repo":215,"description_zh":216,"stars":217,"difficulty_score":171,"last_commit_at":218,"category_tags":219,"status":77},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[68,174,70,69,210]]