[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-GaiaNet-AI--gaianet-node":3,"similar-GaiaNet-AI--gaianet-node":203},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":22,"stars":35,"forks":36,"last_commit_at":37,"license":38,"difficulty_score":39,"env_os":40,"env_gpu":41,"env_ram":42,"env_deps":43,"category_tags":50,"github_topics":55,"view_count":39,"oss_zip_url":18,"oss_zip_packed_at":18,"status":69,"created_at":70,"updated_at":71,"faqs":72,"releases":102},6086,"GaiaNet-AI\u002Fgaianet-node","gaianet-node","Install, run and deploy your own decentralized AI agent service","gaianet-node 是一款帮助你在个人电脑上快速搭建并运行去中心化 AI 智能体服务的开源工具。它旨在解决大模型部署门槛高、依赖云端服务以及数据隐私难以保障等痛点，让每个人都能轻松拥有属于自己的 AI 节点。\n\n无论是具备一定技术基础的开发者、希望本地化实验的研究人员，还是对去中心化网络感兴趣的普通用户，只需在 Mac、Linux 或 Windows 系统中执行一行命令，即可完成从环境配置到服务启动的全过程。gaianet-node 会自动下载所需的开源大语言模型文件和向量数据库，并在本地构建一个可交互的 AI 聊天界面。\n\n其核心技术亮点在于集成了 WasmEdge 运行时与 GGML 插件，实现了高效的本地推理能力，同时结合 Qdrant 向量数据库支持检索增强生成（RAG），让 AI 能够基于特定知识库进行精准回答。此外，每个节点都会生成唯一的去中心化地址，既方便分享交流，也体现了 Web3 时代的自主可控理念。通过 gaianet-node，你不仅能体验前沿的 AI 技术，还能参与到构建开放、分布式的智能网络生态中。","# Run your own GaiaNet node\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002Fgaianet-ai\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-Discord-7289DA?logo=discord\" alt=\"GaiaNet Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FGaianet_AI\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-1DA1F2?logo=twitter&amp;logoColor=white\" alt=\"GaiaNet Twitter\">\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fwww.gaianet.ai\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fwebsite?up_message=Website&url=https:\u002F\u002Fwww.gaianet.ai\u002F\" alt=\"Gaianet website\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n[Japanese(日本語)](README-ja.md) | [Chinese(中文)](README-cn.md) | [Korean(한국어)](README-kr.md) | [Turkish (Türkçe)](README-tr.md) | [Farsi(فارسی)](README-fa.md) | [Arabic (العربية)](README-ar.md) | [Indonesia](README-id.md) | [Russian (русскийة)](README-ru.md) | [Portuguese (português)](README-pt.md) | We need your help to translate this README into your native language.\n\nLike our work? ⭐ Star us!\n\nCheckout our [official docs](https:\u002F\u002Fdocs.gaianet.ai\u002F) and a [Manning ebook](https:\u002F\u002Fwww.manning.com\u002Fliveprojectseries\u002Fopen-source-llms-on-your-own-computer) on how to customize open source models.\n\n---\n\n## Quick start\n\nInstall the default node software stack with a single line of command on Mac, Linux, or Windows WSL.\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Freleases\u002Flatest\u002Fdownload\u002Finstall.sh' | bash\n```\n\n> Then, follow the prompt on your screen to set up the environment path. The command line will begin with `source`.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGaiaNet-AI_gaianet-node_readme_53c2b373d89f.png)\n\n\nInitialize the node. It will download the model files and vector database files specified in the `$HOME\u002Fgaianet\u002Fconfig.json` file, and it could take a few minutes since the files are large.\n\n```bash\ngaianet init\n```\n\nStart the node.\n\n```bash\ngaianet start\n```\n\nThe script prints the official node address on the console as follows.\nYou can open a browser to that URL to see the node information and then chat with the AI agent on the node.\n\n```\n... ... https:\u002F\u002F0xf63939431ee11267f4855a166e11cc44d24960c0.us.gaianet.network\n```\n\nTo stop the node, you can run the following script.\n\n```bash\ngaianet stop\n```\n\n## Install guide\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fmain\u002Finstall.sh' | bash\n```\n\n\u003Cdetails>\u003Csummary> The output should look like below: \u003C\u002Fsummary>\n\n```console\n[+] Downloading default config file ...\n\n[+] Downloading nodeid.json ...\n\n[+] Installing WasmEdge with wasi-nn_ggml plugin ...\n\nInfo: Detected Linux-x86_64\n\nInfo: WasmEdge Installation at \u002Fhome\u002Fazureuser\u002F.wasmedge\n\nInfo: Fetching WasmEdge-0.13.5\n\n\u002Ftmp\u002Fwasmedge.2884467 ~\u002Fgaianet\n######################################################################## 100.0%\n~\u002Fgaianet\nInfo: Fetching WasmEdge-GGML-Plugin\n\nInfo: Detected CUDA version:\n\n\u002Ftmp\u002Fwasmedge.2884467 ~\u002Fgaianet\n######################################################################## 100.0%\n~\u002Fgaianet\nInstallation of wasmedge-0.13.5 successful\nWasmEdge binaries accessible\n\n    The WasmEdge Runtime wasmedge version 0.13.5 is installed in \u002Fhome\u002Fazureuser\u002F.wasmedge\u002Fbin\u002Fwasmedge.\n\n\n[+] Installing Qdrant binary...\n    * Download Qdrant binary\n################################################################################################## 100.0%\n\n    * Initialize Qdrant directory\n\n[+] Downloading the rag-api-server.wasm ...\n################################################################################################## 100.0%\n\n[+] Downloading dashboard ...\n################################################################################################## 100.0%\n```\n\n\u003C\u002Fdetails>\n\nBy default, it installs into the `$HOME\u002Fgaianet` directory. You can also choose to install into an alternative directory.\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fmain\u002Finstall.sh' | bash -s -- --base $HOME\u002Fgaianet.alt\n```\n\n## Initialize the node\n\n```\ngaianet init\n```\n\n\u003Cdetails>\u003Csummary> The output should look like below: \u003C\u002Fsummary>\n\n```bash\n[+] Downloading Llama-2-7b-chat-hf-Q5_K_M.gguf ...\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n[+] Downloading all-MiniLM-L6-v2-ggml-model-f16.gguf ...\n\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n[+] Creating 'default' collection in the Qdrant instance ...\n\n    * Start a Qdrant instance ...\n\n    * Remove the existed 'default' Qdrant collection ...\n\n    * Download Qdrant collection snapshot ...\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n    * Import the Qdrant collection snapshot ...\n\n    * Recovery is done successfully\n```\n\n\u003C\u002Fdetails>\n\nThe `init` command initializes the node according to the `$HOME\u002Fgaianet\u002Fconfig.json` file. You can use some of our pre-set configurations. For example, the command below initializes a node with the llama-3 8B model with a London guidebook as knowledge base.\n\n```bash\ngaianet init --config https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fnode-configs\u002Fmain\u002Fllama-3-8b-instruct_london\u002Fconfig.json\n```\n\nTo see a list of pre-set configurations, you can do `gaianet init --help`.\nBesides a pre-set configurations like `gaianet_docs`, you can also pass a URL to your own `config.json` for the node to be initialized to the state you'd like.\n\nIf you need to `init` a node installed in an alternative directory, do this.\n\n```bash\ngaianet init --base $HOME\u002Fgaianet.alt\n```\n\n## Start the node\n\n```\ngaianet start\n```\n\n\u003Cdetails>\u003Csummary> The output should look like below: \u003C\u002Fsummary>\n\n```bash\n[+] Starting Qdrant instance ...\n\n    Qdrant instance started with pid: 39762\n\n[+] Starting LlamaEdge API Server ...\n\n    Run the following command to start the LlamaEdge API Server:\n\nwasmedge --dir .:.\u002Fdashboard --nn-preload default:GGML:AUTO:Llama-2-7b-chat-hf-Q5_K_M.gguf --nn-preload embedding:GGML:AUTO:all-MiniLM-L6-v2-ggml-model-f16.gguf rag-api-server.wasm --model-name Llama-2-7b-chat-hf-Q5_K_M,all-MiniLM-L6-v2-ggml-model-f16 --ctx-size 4096,384 --prompt-template llama-2-chat --qdrant-collection-name default --web-ui .\u002F --socket-addr 0.0.0.0:8080 --log-prompts --log-stat --rag-prompt \"Use the following pieces of context to answer the user's question.\\nIf you don't know the answer, just say that you don't know, don't try to make up an answer.\\n----------------\\n\"\n\n\n    LlamaEdge API Server started with pid: 39796\n```\n\n\u003C\u002Fdetails>\n\nYou can start the node for local use. It will be only accessible via `localhost` and not available on any of the GaiaNet domain's public URLs.\n\n```bash\ngaianet start --local-only\n```\n\nYou can also start a node installed in an alternative base directory.\n\n```bash\ngaianet start --base $HOME\u002Fgaianet.alt\n```\n\n### Stop the node\n\n```bash\ngaianet stop\n```\n\n\u003Cdetails>\u003Csummary> The output should look like below: \u003C\u002Fsummary>\n\n```bash\n[+] Stopping WasmEdge, Qdrant and frpc ...\n```\n\n\u003C\u002Fdetails>\n\nStop a node installed in an alternative base directory.\n\n```bash\ngaianet stop --base $HOME\u002Fgaianet.alt\n```\n\n### Update configuration\n\nUsing `gaianet config` subcommand can update the key fields defined in the `config.json` file. You MUST run `gaianet init` again after you update the configuartion.\n\nTo update the `chat` field, for example, use the following command:\n\n```bash\ngaianet config --chat-url \"https:\u002F\u002Fhuggingface.co\u002Fsecond-state\u002FLlama-2-13B-Chat-GGUF\u002Fresolve\u002Fmain\u002FLlama-2-13b-chat-hf-Q5_K_M.gguf\"\n```\n\nTo update the `chat_ctx_size` field, for example, use the following command:\n\n```bash\ngaianet config --chat-ctx-size 5120\n```\n\nBelow are all options of the `config` subcommand.\n\n```console\n$ gaianet config --help\n\nUsage: gaianet config [OPTIONS]\n\nOptions:\n  --chat-url \u003Curl>               Update the url of chat model.\n  --chat-ctx-size \u003Cval>          Update the context size of chat model.\n  --embedding-url \u003Curl>          Update the url of embedding model.\n  --embedding-ctx-size \u003Cval>     Update the context size of embedding model.\n  --prompt-template \u003Cval>        Update the prompt template of chat model.\n  --port \u003Cval>                   Update the port of LlamaEdge API Server.\n  --system-prompt \u003Cval>          Update the system prompt.\n  --rag-prompt \u003Cval>             Update the rag prompt.\n  --rag-policy \u003Cval>             Update the rag policy [Possible values: system-message, last-user-message].\n  --reverse-prompt \u003Cval>         Update the reverse prompt.\n  --domain \u003Cval>                 Update the domain of GaiaNet node.\n  --snapshot \u003Curl>               Update the Qdrant snapshot.\n  --qdrant-limit \u003Cval>           Update the max number of result to return.\n  --qdrant-score-threshold \u003Cval> Update the minimal score threshold for the result.\n  --base \u003Cpath>                  The base directory of GaiaNet node.\n  --help                         Show this help message\n```\n\nHave fun!\n\n## Resources & Contributing Back\n\nLooking for the docs? Check the [documentation](https:\u002F\u002Fdocs.gaianet.ai\u002Fintro) or the [Contributing Guide](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) out. We also recommend reading [Awesome-Gaia](https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fawesome-gaia) for a curated list of tools, projects, and resources from the Gaia community\n\nWant to talk to the community? Hop in our [Telegram](https:\u002F\u002Ft.me\u002F+a0bJInD5lsYxNDJl) and share your ideas and what you've build with Gaianet.\n\nFind a bug? Head over to our [issue tracker](https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues) and we'll do our best to help. We love pull requests, too!\n\nWe expect all Gaianet contributors to abide by the terms of our [Code of Conduct](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCODE_OF_CONDUCT.md).\n\n[**→ Start contributing on GitHub**](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)\n\n### Contributors\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGaiaNet-AI_gaianet-node_readme_7ab77c64a824.png\" alt=\"Gaia project contributors\" \u002F>\n\u003C\u002Fa>\n","# 运行您自己的 GaiaNet 节点\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002Fgaianet-ai\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-Discord-7289DA?logo=discord\" alt=\"GaiaNet Discord\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FGaianet_AI\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-1DA1F2?logo=twitter&amp;logoColor=white\" alt=\"GaiaNet Twitter\">\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fwww.gaianet.ai\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fwebsite?up_message=Website&url=https:\u002F\u002Fwww.gaianet.ai\u002F\" alt=\"Gaianet website\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n[日语(日本語)](README-ja.md) | [中文(中文)](README-cn.md) | [韩语(한국어)](README-kr.md) | [土耳其语 (Türkçe)](README-tr.md) | [波斯语(فارسی)](README-fa.md) | [阿拉伯语 (العربية)](README-ar.md) | [印尼语](README-id.md) | [俄语 (русскийة)](README-ru.md) | [葡萄牙语 (português)](README-pt.md) | 我们需要您的帮助，将本 README 翻译成您的母语。\n喜欢我们的工作吗？⭐ 请给我们加星标！\n\n查看我们的[官方文档](https:\u002F\u002Fdocs.gaianet.ai\u002F)以及一本关于如何自定义开源模型的[Manning 电子书](https:\u002F\u002Fwww.manning.com\u002Fliveprojectseries\u002Fopen-source-llms-on-your-own-computer)。\n\n---\n\n## 快速入门\n\n在 Mac、Linux 或 Windows WSL 上，只需一行命令即可安装默认节点软件栈。\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Freleases\u002Flatest\u002Fdownload\u002Finstall.sh' | bash\n```\n\n> 随后，请按照屏幕上的提示设置环境路径。命令行将以 `source` 开头。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGaiaNet-AI_gaianet-node_readme_53c2b373d89f.png)\n\n\n初始化节点。它会下载 `$HOME\u002Fgaianet\u002Fconfig.json` 文件中指定的模型文件和向量数据库文件，由于文件较大，可能需要几分钟时间。\n\n```bash\ngaianet init\n```\n\n启动节点。\n\n```bash\ngaianet start\n```\n\n脚本会在控制台上打印出官方节点地址，如下所示：\n您可以打开浏览器访问该 URL，查看节点信息，并与节点上的 AI 代理进行对话。\n\n```\n... ... https:\u002F\u002F0xf63939431ee11267f4855a166e11cc44d24960c0.us.gaianet.network\n```\n\n要停止节点，可以运行以下脚本。\n\n```bash\ngaianet stop\n```\n\n## 安装指南\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fmain\u002Finstall.sh' | bash\n```\n\n\u003Cdetails>\u003Csummary> 输出应如下所示： \u003C\u002Fsummary>\n\n```console\n[+] 下载默认配置文件 ...\n\n[+] 下载 nodeid.json ...\n\n[+] 使用 wasi-nn_ggml 插件安装 WasmEdge ...\n\n信息：检测到 Linux-x86_64\n\n信息：WasmEdge 安装于 \u002Fhome\u002Fazureuser\u002F.wasmedge\n\n信息：正在获取 WasmEdge-0.13.5\n\n\u002Ftmp\u002Fwasmedge.2884467 ~\u002Fgaianet\n######################################################################## 100.0%\n~\u002Fgaianet\n信息：正在获取 WasmEdge-GGML-插件\n\n信息：检测到 CUDA 版本：\n\n\u002Ftmp\u002Fwasmedge.2884467 ~\u002Fgaianet\n######################################################################## 100.0%\n~\u002Fgaianet\nWasmEdge-0.13.5 安装成功\nWasmEdge 二进制文件可访问\n\n    WasmEdge Runtime wasmedge 版本 0.13.5 已安装在 \u002Fhome\u002Fazureuser\u002F.wasmedge\u002Fbin\u002Fwasmedge 中。\n\n\n[+] 安装 Qdrant 二进制文件...\n    * 下载 Qdrant 二进制文件\n################################################################################################## 100.0%\n\n    * 初始化 Qdrant 目录\n\n[+] 下载 rag-api-server.wasm ...\n################################################################################################## 100.0%\n\n[+] 下载仪表盘 ...\n################################################################################################## 100.0%\n```\n\n\u003C\u002Fdetails>\n\n默认情况下，它会安装到 `$HOME\u002Fgaianet` 目录。您也可以选择安装到其他目录。\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fmain\u002Finstall.sh' | bash -s -- --base $HOME\u002Fgaianet.alt\n```\n\n## 初始化节点\n\n```\ngaianet init\n```\n\n\u003Cdetails>\u003Csummary> 输出应如下所示： \u003C\u002Fsummary>\n\n```bash\n[+] 下载 Llama-2-7b-chat-hf-Q5_K_M.gguf ...\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n[+] 下载 all-MiniLM-L6-v2-ggml-model-f16.gguf ...\n\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n[+] 在 Qdrant 实例中创建“default”集合 ...\n\n    * 启动 Qdrant 实例 ...\n\n    * 删除已存在的“default”Qdrant 集合 ...\n\n    * 下载 Qdrant 集合快照 ...\n############################################################################################################################## 100.0%############################################################################################################################## 100.0%\n\n    * 导入 Qdrant 集合快照 ...\n\n    * 恢复成功完成\n```\n\n\u003C\u002Fdetails>\n\n`init` 命令会根据 `$HOME\u002Fgaianet\u002Fconfig.json` 文件初始化节点。您可以使用我们预设的一些配置。例如，以下命令会初始化一个搭载 llama-3 8B 模型、以伦敦旅游指南为知识库的节点。\n\n```bash\ngaianet init --config https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fnode-configs\u002Fmain\u002Fllama-3-8b-instruct_london\u002Fconfig.json\n```\n\n要查看预设配置列表，可以执行 `gaianet init --help`。\n除了像 `gaianet_docs` 这样的预设配置外，您还可以传递您自己的 `config.json` 的 URL，使节点初始化为您期望的状态。\n\n如果您需要在其他目录下安装的节点上执行 `init` 操作，请这样做：\n\n```bash\ngaianet init --base $HOME\u002Fgaianet.alt\n```\n\n## 启动节点\n\n```\ngaianet start\n```\n\n\u003Cdetails>\u003Csummary> 输出应如下所示： \u003C\u002Fsummary>\n\n```bash\n[+] 启动 Qdrant 实例 ...\n\n    Qdrant 实例已启动，进程 ID 为：39762\n\n[+] 启动 LlamaEdge API 服务器 ...\n\n    运行以下命令以启动 LlamaEdge API 服务器：\n\nwasmedge --dir .:.\u002Fdashboard --nn-preload default:GGML:AUTO:Llama-2-7b-chat-hf-Q5_K_M.gguf --nn-preload embedding:GGML:AUTO:all-MiniLM-L6-v2-ggml-model-f16.gguf rag-api-server.wasm --model-name Llama-2-7b-chat-hf-Q5_K_M,all-MiniLM-L6-v2-ggml-model-f16 --ctx-size 4096,384 --prompt-template llama-2-chat --qdrant-collection-name default --web-ui .\u002F --socket-addr 0.0.0.0:8080 --log-prompts --log-stat --rag-prompt \"请使用以下上下文信息回答用户的问题。\\n如果您不知道答案，请直接说明您不知道，不要尝试编造答案。\\n----------------\\n\"\n\n\n    LlamaEdge API 服务器已启动，进程 ID 为：39796\n```\n\n\u003C\u002Fdetails>\n\n您可以启动用于本地使用的节点。该节点仅可通过 `localhost` 访问，不会在 GaiaNet 域名的任何公共 URL 上可用。\n\n```bash\ngaianet start --local-only\n```\n\n您也可以启动安装在替代基础目录中的节点。\n\n```bash\ngaianet start --base $HOME\u002Fgaianet.alt\n```\n\n### 停止节点\n\n```bash\ngaianet stop\n```\n\n\u003Cdetails>\u003Csummary> 输出应如下所示： \u003C\u002Fsummary>\n\n```bash\n[+] 停止 WasmEdge、Qdrant 和 frpc ...\n```\n\n\u003C\u002Fdetails>\n\n停止安装在替代基础目录中的节点。\n\n```bash\ngaianet stop --base $HOME\u002Fgaianet.alt\n```\n\n### 更新配置\n\n使用 `gaianet config` 子命令可以更新 `config.json` 文件中定义的关键字段。在更新配置后，您必须再次运行 `gaianet init`。\n\n例如，要更新 `chat` 字段，可使用以下命令：\n\n```bash\ngaianet config --chat-url \"https:\u002F\u002Fhuggingface.co\u002Fsecond-state\u002FLlama-2-13B-Chat-GGUF\u002Fresolve\u002Fmain\u002FLlama-2-13b-chat-hf-Q5_K_M.gguf\"\n```\n\n再如，要更新 `chat_ctx_size` 字段，可使用以下命令：\n\n```bash\ngaianet config --chat-ctx-size 5120\n```\n\n以下是 `config` 子命令的所有选项。\n\n```console\n$ gaianet config --help\n\n用法：gaianet config [选项]\n\n选项：\n  --chat-url \u003Curl>               更新聊天模型的 URL。\n  --chat-ctx-size \u003Cval>          更新聊天模型的上下文大小。\n  --embedding-url \u003Curl>          更新嵌入模型的 URL。\n  --embedding-ctx-size \u003Cval>     更新嵌入模型的上下文大小。\n  --prompt-template \u003Cval>        更新聊天模型的提示模板。\n  --port \u003Cval>                   更新 LlamaEdge API 服务器的端口。\n  --system-prompt \u003Cval>          更新系统提示。\n  --rag-prompt \u003Cval>             更新 RAG 提示。\n  --rag-policy \u003Cval>             更新 RAG 策略 [可能值：system-message, last-user-message]。\n  --reverse-prompt \u003Cval>         更新反向提示。\n  --domain \u003Cval>                 更新 GaiaNet 节点的域名。\n  --snapshot \u003Curl>               更新 Qdrant 快照。\n  --qdrant-limit \u003Cval>           更新返回结果的最大数量。\n  --qdrant-score-threshold \u003Cval> 更新结果的最低得分阈值。\n  --base \u003Cpath>                  GaiaNet 节点的基础目录。\n  --help                         显示此帮助信息\n```\n\n祝您玩得开心！\n\n## 资源与贡献回馈\n\n正在寻找文档吗？请查看 [文档](https:\u002F\u002Fdocs.gaianet.ai\u002Fintro) 或 [贡献指南](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)。我们还建议阅读 [Awesome-Gaia](https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fawesome-gaia)，其中收录了 Gaia 社区精选的工具、项目和资源。\n\n想与社区交流吗？欢迎加入我们的 [Telegram](https:\u002F\u002Ft.me\u002F+a0bJInD5lsYxNDJl)，分享您的想法以及您使用 GaiaNet 构建的内容。\n\n发现 bug 了吗？请前往我们的 [问题追踪器](https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues)，我们会尽力协助解决。我们也非常欢迎 Pull Request！\n\n我们期望所有 GaiaNet 贡献者遵守我们的 [行为准则](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCODE_OF_CONDUCT.md)。\n\n[**→ 开始在 GitHub 上贡献**](https:\u002F\u002Fgithub.com\u002FGaianet-AI\u002Fgaianet-node\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)\n\n### 贡献者\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGaiaNet-AI_gaianet-node_readme_7ab77c64a824.png\" alt=\"Gaia 项目贡献者\" \u002F>\n\u003C\u002Fa>","# GaiaNet Node 快速上手指南\n\nGaiaNet Node 允许你在本地计算机上运行自己的 AI 节点，部署开源大语言模型（LLM）和向量数据库，构建具备知识库检索能力（RAG）的 AI 智能体。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**：macOS、Linux 或 Windows (需使用 WSL2)。\n*   **硬件建议**：\n    *   **CPU**：支持 AVX2 指令集的现代处理器。\n    *   **内存**：建议至少 8GB RAM（运行 7B 参数模型），更大模型需更多内存。\n    *   **磁盘**：预留至少 10GB 可用空间用于存放模型文件和向量数据库。\n    *   **GPU (可选)**：若拥有 NVIDIA GPU 并安装了 CUDA，可显著加速推理过程。\n*   **网络**：需要稳定的互联网连接以下载模型文件和组件。\n*   **前置依赖**：无需手动安装复杂依赖，安装脚本会自动配置 `WasmEdge`、`Qdrant` 等运行时环境。\n\n## 安装步骤\n\n### 1. 一键安装\n\n在终端中运行以下命令，自动下载并安装默认的节点软件栈：\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Freleases\u002Flatest\u002Fdownload\u002Finstall.sh' | bash\n```\n\n> **注意**：安装完成后，终端会提示你配置环境变量路径。请根据提示执行以 `source` 开头的命令（例如 `source ~\u002F.bashrc` 或 `source ~\u002F.zshrc`），以便在任意目录使用 `gaianet` 命令。\n\n*(可选) 自定义安装目录*\n如果你希望将节点安装到非默认目录（默认为 `$HOME\u002Fgaianet`），可以使用以下命令：\n\n```bash\ncurl -sSfL 'https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fmain\u002Finstall.sh' | bash -s -- --base $HOME\u002Fgaianet.alt\n```\n\n### 2. 初始化节点\n\n初始化过程会根据配置文件下载对应的 LLM 模型文件和向量数据库文件（文件较大，请耐心等待）：\n\n```bash\ngaianet init\n```\n\n*(可选) 使用预设配置初始化*\n你可以指定特定的模型和知识库配置进行初始化。例如，初始化一个基于 Llama-3 8B 模型且包含伦敦指南知识库的节点：\n\n```bash\ngaianet init --config https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fnode-configs\u002Fmain\u002Fllama-3-8b-instruct_london\u002Fconfig.json\n```\n\n查看可用的预设配置列表：\n```bash\ngaianet init --help\n```\n\n## 基本使用\n\n### 启动节点\n\n运行以下命令启动你的 AI 节点：\n\n```bash\ngaianet start\n```\n\n启动成功后，终端会输出节点的访问地址，格式如下：\n```text\n... ... https:\u002F\u002F0xf63939431ee11267f4855a166e11cc44d24960c0.us.gaianet.network\n```\n\n复制该 URL 到浏览器打开，即可看到节点信息面板并与 AI 智能体进行对话。\n\n*(可选) 仅本地模式*\n如果你只想在本地测试，不暴露公网地址，可使用：\n```bash\ngaianet start --local-only\n```\n\n### 停止节点\n\n需要停止服务时，运行：\n\n```bash\ngaianet stop\n```\n\n### 更新配置\n\n若需更换模型或调整参数，可使用 `gaianet config` 命令修改 `config.json` 中的关键字段。**修改配置后必须重新运行 `gaianet init` 才能生效。**\n\n示例：更新聊天模型地址\n```bash\ngaianet config --chat-url \"https:\u002F\u002Fhuggingface.co\u002Fsecond-state\u002FLlama-2-13B-Chat-GGUF\u002Fresolve\u002Fmain\u002FLlama-2-13b-chat-hf-Q5_K_M.gguf\"\n```\n\n示例：更新上下文窗口大小\n```bash\ngaianet config --chat-ctx-size 5120\n```\n\n查看所有配置选项：\n```bash\ngaianet config --help\n```","一家专注于法律科技的小型初创团队，希望为律师提供基于私有案例库的专属 AI 助手，但受限于预算和数据隐私要求，无法依赖公有云大模型服务。\n\n### 没有 gaianet-node 时\n- **数据泄露风险高**：必须将敏感的法律案情和客户信息上传至第三方云平台，违反行业合规要求。\n- **部署运维成本巨大**：自行搭建向量数据库、推理引擎和 API 服务需要多名后端工程师耗时数周调试环境。\n- **资源利用率低**：为了运行模型不得不购买昂贵的云端 GPU 实例，即便在夜间无请求时也需持续付费。\n- **定制化困难**：难以针对特定法律领域微调模型或替换本地知识库，响应速度慢且不够精准。\n\n### 使用 gaianet-node 后\n- **实现数据完全本地化**：通过一条命令即可在自有服务器上部署节点，所有推理与检索过程均在内部网络完成，确保数据不出域。\n- **一键自动化部署**：利用 `gaianet init` 和 `start` 指令，自动下载并配置 WasmEdge 运行时、Qdrant 向量库及模型文件，将部署周期从数周缩短至几分钟。\n- **低成本边缘计算**：直接利用现有硬件资源运行去中心化节点，无需依赖昂贵的云端 GPU，显著降低运营开支。\n- **灵活的知识库更新**：只需修改本地配置文件即可切换不同的法律垂直模型或更新案例向量库，即时响应业务需求变化。\n\ngaianet-node 让小型团队也能以极低的门槛构建安全、可控且高效的私有化 AI 代理服务，真正实现了“数据主权”与“技术民主化”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGaiaNet-AI_gaianet-node_5c32db34.png","GaiaNet-AI","Gaia 🌱","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGaiaNet-AI_2fccdea1.jpg","Developer framework for coordinating AI development",null,"Gaianet_AI","https:\u002F\u002Fgaianet.ai","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI",[23,27,31],{"name":24,"color":25,"percentage":26},"Shell","#89e051",89.8,{"name":28,"color":29,"percentage":30},"Rust","#dea584",9.6,{"name":32,"color":33,"percentage":34},"Dockerfile","#384d54",0.6,5001,328,"2026-04-09T10:36:59","GPL-3.0",2,"Linux, macOS, Windows (WSL)","非必需。安装脚本会自动检测 CUDA 版本并下载对应的 WasmEdge GGML 插件，支持 CPU 和 GPU 推理。具体显存需求取决于所选模型（如 Llama-2-7b）。","未说明（取决于运行的模型大小，通常 7B 模型建议 8GB+）",{"notes":44,"python":45,"dependencies":46},"该工具通过一键脚本安装，默认目录为 $HOME\u002Fgaianet。核心依赖是 WasmEdge 运行时和 Qdrant 数据库，而非传统的 Python 深度学习库。首次初始化（gaianet init）需下载较大的模型文件和向量数据库快照，耗时较长。支持通过 config.json 自定义模型和知识库配置。","未说明",[47,48,49],"WasmEdge >= 0.13.5 (带 wasi-nn_ggml 插件)","Qdrant (向量数据库)","GGUF 格式模型文件",[51,52,53,54],"Agent","图像","语言模型","开发框架",[56,57,58,59,60,61,62,63,64,65,66,67,68],"agentic-ai","agentic-framework","ai","ai-agents","chatbot","decentralized","ethereum","machine-learning","mcp","ml","web3","hacktoberfest","hacktoberfest-accepted","ready","2026-03-27T02:49:30.150509","2026-04-10T11:25:20.472450",[73,78,83,88,93,98],{"id":74,"question_zh":75,"answer_zh":76,"source_url":77},27575,"RAG API 服务器无法启动或未被触发怎么办？","这通常是由于 WasmEdge 版本不兼容导致的。GaiaNet Node 的所有版本目前仅支持 WasmEdge 0.13.5。如果您使用的是其他版本（如 0.14.0），请切换到 0.13.5。\n\n建议使用以下官方安装命令，它会自动部署正确版本的 WasmEdge 及插件：\n```bash\ncurl -sSfL 'https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Freleases\u002Flatest\u002Fdownload\u002Finstall.sh' | bash\n```\n安装完成后请重试您的查询。","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues\u002F123",{"id":79,"question_zh":80,"answer_zh":81,"source_url":82},27576,"在 Windows WSL 环境中初始化失败或遇到内存回收问题如何解决？","如果在 WSL (Windows Subsystem for Linux) 中遇到问题，可能是由于 Qdrant 与 WSL 的自动内存回收功能冲突。\n\n解决步骤：\n1. 编辑配置文件：`C:\\Users\\\u003C您的用户名>\\.wslconfig`\n2. 找到 `[experimental]` 部分。\n3. 删除或注释掉 `autoMemoryReclaim` 这一行。\n4. 重启 WSL 后重试。\n\n注意：该功能默认是关闭的，如果您之前手动开启过，请按上述步骤关闭它。","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues\u002F46",{"id":84,"question_zh":85,"answer_zh":86,"source_url":87},27577,"运行 gaianet start 时卡在某个步骤或没有显示节点 URL 怎么办？","如果启动过程卡住或未显示节点 URL，可以尝试按顺序执行以下命令来重置服务：\n\n方案一：\n```bash\ngaianet stop\ngaianet start\n```\n\n方案二（如果方案一无效）：\n```bash\ngaianet stop\ngaianet init\ngaianet start\n```\n如果问题依旧存在，建议收集 logs 文件夹中的日志文件以便进一步排查。","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues\u002F166",{"id":89,"question_zh":90,"answer_zh":91,"source_url":92},27578,"启动节点后没有显示公共域名 (.gaia.domains) 怎么办？","如果启动后卡在 \"Starting downstream servers\" 且未打印 `.gaia.domains` URL，即使配置文件中 `expose` 已设为 true，可以尝试使用特定的配置文件重新初始化和启动。\n\n执行以下命令序列：\n```bash\ngaianet stop\ngaianet init --config https:\u002F\u002Fraw.githubusercontent.com\u002FGaiaNet-AI\u002Fnode-configs\u002Fmain\u002Fqwen2.5-0.5b-instruct\u002Fconfig.json\ngaianet start\n```\n这将强制使用最新的兼容配置重新初始化节点。","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues\u002F185",{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},27579,"使用 stream 模式时输出陷入无限循环是什么原因？","流式输出陷入无限循环可能与以下因素有关：\n1. 提示词（Prompt）或聊天模板格式问题。\n2. 特殊 UTF-8 字符（如藏文等特殊符号）导致 GPU 推理出错。\n3. 客户端 UI 的连接关闭\u002F停止机制未正确触发。\n4. 特定环境下的内存问题（例如在 Ubuntu VM 中复现但在 Mac M2 上正常）。\n\n建议检查输入内容是否包含特殊字符，并尝试更新到最新版本或更换运行环境测试。如果问题不再复现，可能是临时性的状态异常。","https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Fissues\u002F141",{"id":99,"question_zh":100,"answer_zh":101,"source_url":77},27580,"如何查看 GaiaNet Node 各组件的正确版本对应关系？","GaiaNet Node 的不同版本依赖特定版本的组件（如 WasmEdge、Qdrant 等）。要查看所有组件的正确版本列表，请访问 GaiaNet Node 的 Release 页面。\n\n例如，v0.2.5 版本的组件列表地址为：\nhttps:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fgaianet-node\u002Freleases\u002Ftag\u002F0.2.5\n\n确保您安装的各组件版本与该页面列出的版本一致，以避免兼容性问题。",[103,108,113,118,123,128,133,138,143,148,153,158,163,168,173,178,183,188,193,198],{"id":104,"version":105,"summary_zh":106,"released_at":107},180737,"0.6.0","重大变更：\n\n- 升级至 `gaia-nexus 0.8.2`\n- 升级至 `cardea-agentic-search 0.10.0`\n- 升级至 `llama-api-server 0.27.0`\n- 更新 `config.json`\n  - 将默认聊天模型更新为 `Qwen3-4B-Q5_K_M.gguf`，并相应更新相关配置项的值\n  - 移除 `context_window` 配置项\n  - 移除 `rag_policy` 配置项\n  - 移除 `rag_prompt` 配置项\n\n组件\n\n- `CLI Tool v0.6.0`\n- `gaia-nexus v0.8.2`\n- `llama-api-server v0.27.0`\n- `WasmEdge v0.14.1，带 ggml 插件 b6399`\n- `cardea-agentic-search v0.10.0`\n- `qdrant v1.14.1`\n- `dashboard v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-10-13T03:27:09",{"id":109,"version":110,"summary_zh":111,"released_at":112},180738,"0.0.0","此版本仅用于演示目的。","2025-10-13T02:46:37",{"id":114,"version":115,"summary_zh":116,"released_at":117},180739,"0.5.4","重大更新：\n\n- 升级至 `llama-api-server 0.25.1`\n- 升级至 `ggml 插件 b6097`\n- 升级至 `gaia-nexus 0.1.4`\n\n组件\n\n- `CLI 工具 v0.5.3`\n- `gaia-nexus v0.1.4`\n- `llama-api-server v0.25.1`\n- `WasmEdge v0.14.1，带 ggml 插件 b6097`\n- `qdrant v1.14.1`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-08-11T14:42:40",{"id":119,"version":120,"summary_zh":121,"released_at":122},180740,"0.5.3","重大更新：\n\n- 升级至 `gaia-nexus 0.1.2`\n- 升级至 `llama-api-server 0.24.1`\n- 升级至 `ggml 插件 b5896`\n- 升级至 `Qdrant 1.14.1`\n\n组件\n\n- `CLI 工具 v0.5.3`\n- `gaia-nexus v0.1.2`\n- `llama-api-server v0.24.1`\n- `WasmEdge v0.14.1，搭载 ggml 插件 b5896`\n- `qdrant v1.14.1`\n- `仪表盘 v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-07-25T02:32:10",{"id":124,"version":125,"summary_zh":126,"released_at":127},180741,"0.5.2","重大变更：\n\n- 升级至 `ggml 插件 b5640`\n- 将 `gaianet start` 命令的 `--wait` CLI 选项的默认值由 `20` 秒更新为 `30` 秒\n- 优化 `gaia-nexus` 运行状态的验证\n\n组件\n\n- `CLI 工具 v0.5.2`\n- `gaia-nexus v0.1.0`\n- `llama-api-server v0.18.5`\n- `WasmEdge v0.14.1，搭载 ggml 插件 b5640`\n- `qdrant v1.13.4`\n- `仪表盘 v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-06-27T07:36:54",{"id":129,"version":130,"summary_zh":131,"released_at":132},180742,"0.5.1","重大变更：\n\n- 升级至 `llama-api-server v0.18.5`\n- 升级至 `ggml 插件 b5361`\n\n组件\n\n- `CLI 工具 v0.5.1`\n- `gaia-nexus v0.1.0`\n- `llama-api-server v0.18.5`\n- `WasmEdge v0.14.1，带 ggml 插件 b5361`\n- `qdrant v1.13.4`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-05-19T07:00:52",{"id":134,"version":135,"summary_zh":136,"released_at":137},180743,"0.5.0","> [!重要]  \r\n> 要升级到 `0.5.0`，最低要求版本是 **`0.4.17`**。\r\n\r\n重大变更：\n\n- 引入 `gaia-nexus v0.1.0`\n- 升级至 `llama-api-server v0.17.0`\n- 为 `gaianet start` 命令添加 `--wait` 选项\n- 移除 `rag-api-server`\n- 移除 `server-assistant`\n- 更新 `config.toml`\n\n组件\n\n- `CLI 工具 v0.5.0`\n- `gaia-nexus v0.1.0`\n- `llama-api-server v0.17.0`\n- `WasmEdge v0.14.1，带 ggml 插件 b5074`\n- `qdrant v1.13.4`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `frpc v0.1.3`","2025-05-08T09:52:11",{"id":139,"version":140,"summary_zh":141,"released_at":142},180744,"0.4.28","重大更新：\n\n- 升级至 `ggml 插件 b5201`\n- 支持 [Qwen3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fsecond-state\u002Fqwen3-gguf-models-68100e9cb92a97ce612528cd)\n\n组件\n\n- `CLI 工具 v0.4.28`\n- `rag-api-server v0.13.15`\n- `llama-api-server v0.16.16`\n- `WasmEdge v0.14.1，配备 ggml 插件 b5201`\n- `qdrant v1.13.4`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `server-assistant v0.4.3`\n- `frpc v0.1.3`\n","2025-04-30T03:07:44",{"id":144,"version":145,"summary_zh":146,"released_at":147},180745,"0.4.27","重大更新：\n\n- 升级至 `rag-api-server v0.13.15`：https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.15\n- 升级至 `llama-api-server v0.16.16`：https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.16\n\n组件\n\n- `CLI 工具 v0.4.27`\n- `rag-api-server v0.13.15`\n- `llama-api-server v0.16.16`\n- `WasmEdge v0.14.1，附带 ggml 插件 b5074`\n- `qdrant v1.13.4`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `服务器助手 v0.4.3`\n- `frpc v0.1.3`","2025-04-14T07:17:16",{"id":149,"version":150,"summary_zh":151,"released_at":152},180746,"0.4.26","重大更新：\n\n- 升级至 `rag-api-server v0.13.14`：https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.14\n- 升级至 `llama-api-server v0.16.15`：https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.15\n\n组件\n\n- `CLI 工具 v0.4.26`\n- `rag-api-server v0.13.14`\n- `llama-api-server v0.16.15`\n- `WasmEdge v0.14.1，附带 ggml 插件 b5074`\n- `qdrant v1.13.4`\n- `仪表板 v3.1`\n- `vector v0.38.0`\n- `服务器助手 v0.4.3`\n- `frpc v0.1.3`","2025-04-09T07:30:00",{"id":154,"version":155,"summary_zh":156,"released_at":157},180747,"0.4.25","Major changes:\r\n\r\n- Upgrade to `rag-api-server v0.13.13`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.13\r\n- Upgrade to `llama-api-server v0.16.14`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.14\r\n- Update the default vlaue of the `snapshot` field of `config.json` to empty string\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.25`\r\n- `rag-api-server v0.13.13`\r\n- `llama-api-server v0.16.14`\r\n- `WasmEdge v0.14.1 with ggml plugin b4917`\r\n- `qdrant v1.13.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`\r\n- `frpc v0.1.3`","2025-03-31T09:41:10",{"id":159,"version":160,"summary_zh":161,"released_at":162},180748,"0.4.24","Major changes:\r\n\r\n- Upgrade to `rag-api-server v0.13.12`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.12\r\n- Upgrade to `llama-api-server v0.16.13`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.13\r\n- Upgrade to `ggml plugin b4917`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.24`\r\n- `rag-api-server v0.13.12`\r\n- `llama-api-server v0.16.13`\r\n- `WasmEdge v0.14.1 with ggml plugin b4917`\r\n- `qdrant v1.13.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`\r\n- `frpc v0.1.3`","2025-03-21T13:57:51",{"id":164,"version":165,"summary_zh":166,"released_at":167},180749,"0.4.23","Major changes:\r\n\r\n- Upgrade to `rag-api-server v0.13.10`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.10\r\n- Upgrade to `llama-api-server v0.16.11`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.11\r\n- Upgrade to `qdrant v1.13.4`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.23`\r\n- `rag-api-server v0.13.10`\r\n- `llama-api-server v0.16.11`\r\n- `WasmEdge v0.14.1 with ggml plugin b4875`\r\n- `qdrant v1.13.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`\r\n- `frpc v0.1.3`","2025-03-17T03:25:16",{"id":169,"version":170,"summary_zh":171,"released_at":172},180750,"0.4.22","Major changes:\r\n\r\n- Upgrade to `rag-api-server v0.13.9`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.9\r\n- Upgrade to `llama-api-server v0.16.10`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.10\r\n- Upgrade to `ggml plugin b4875`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.22`\r\n- `rag-api-server v0.13.9`\r\n- `llama-api-server v0.16.10`\r\n- `WasmEdge v0.14.1 with ggml plugin b4875`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`\r\n- `frpc v0.1.3`","2025-03-13T06:27:40",{"id":174,"version":175,"summary_zh":176,"released_at":177},180751,"0.4.21","Major changes:\r\n\r\n- Upgrade to `rag-api-server v0.13.8`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.8\r\n- Upgrade to `llama-api-server v0.16.9`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.9\r\n- Upgrade to `ggml plugin b4762`\r\n- Upgrade to `frpc v0.1.3`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.21`\r\n- `rag-api-server v0.13.8`\r\n- `llama-api-server v0.16.9`\r\n- `WasmEdge v0.14.1 with ggml plugin b4762`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`\r\n- `frpc v0.1.3`","2025-02-26T03:21:36",{"id":179,"version":180,"summary_zh":181,"released_at":182},180752,"0.4.20","Major changes:\r\n\r\n- Upgrade to `server-assistant v0.4.3`: https:\u002F\u002Fgithub.com\u002FGaiaNet-AI\u002Fserver-assistant\u002Freleases\u002Ftag\u002F0.4.3\r\n- Upgrade to `ggml plugin b4681`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.20`\r\n- `rag-api-server v0.13.7`\r\n- `llama-api-server v0.16.8`\r\n- `WasmEdge v0.14.1 with ggml plugin b4681`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.3`","2025-02-21T10:26:27",{"id":184,"version":185,"summary_zh":186,"released_at":187},180753,"0.4.19","Major changes:\r\n\r\n- Upgrade to `server-assistant v0.4.2`\r\n- Upgrade to `rag-api-server v0.13.7`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.7\r\n- Upgrade to `llama-api-server v0.16.8`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.8\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.19`\r\n- `rag-api-server v0.13.7`\r\n- `llama-api-server v0.16.8`\r\n- `WasmEdge v0.14.1 with ggml plugin b4623`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.2`","2025-02-12T11:27:57",{"id":189,"version":190,"summary_zh":191,"released_at":192},180754,"0.4.18","Major changes:\r\n\r\n- Improve the format of `ubatch` fields added to `config.json` via the `--upgrade` of installer\r\n- Upgrade to `rag-api-server v0.13.4`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.4\r\n- Upgrade to `llama-api-server v0.16.6`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.6\r\n- Upgrade to `ggml plugin b4623`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.18`\r\n- `rag-api-server v0.13.4`\r\n- `llama-api-server v0.16.6`\r\n- `WasmEdge v0.14.1 with ggml plugin b4623`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.1`\r\n\r\n**Known issue**\r\n\r\n- In the streaming work mode, the chunks fails to return when the `include_usage` param is set in the request.","2025-02-08T16:51:58",{"id":194,"version":195,"summary_zh":196,"released_at":197},180755,"0.4.17","Major changes:\r\n\r\n- Support `chat_ubatch_size` and `embedding_ubatch_size`\r\n- Upgrade to `rag-api-server v0.13.0`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.13.0\r\n- Upgrade to `llama-api-server v0.16.2`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.2\r\n- Upgrade to `ggml plugin b4466`\r\n- Upgrade to `server-assistant v0.4.1`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.17`\r\n- `rag-api-server v0.13.0`\r\n- `llama-api-server v0.16.2`\r\n- `WasmEdge v0.14.1 with ggml plugin b4466`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.4.1`\r\n\r\n**Known issue**\r\n\r\n- The streaming work mode does not work","2025-01-26T03:23:44",{"id":199,"version":200,"summary_zh":201,"released_at":202},180756,"0.4.16","Major changes:\r\n\r\n- Increase the health notification interval to `60s`\r\n- Upgrade to `rag-api-server v0.12.1`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002Frag-api-server\u002Freleases\u002Ftag\u002F0.12.1\r\n- Upgrade to `llama-api-server v0.16.1`: https:\u002F\u002Fgithub.com\u002FLlamaEdge\u002FLlamaEdge\u002Freleases\u002Ftag\u002F0.16.1\r\n- Upgrade to `ggml plugin b4419`\r\n\r\nComponents\r\n\r\n- `CLI Tool v0.4.16`\r\n- `rag-api-server v0.12.1`\r\n- `llama-api-server v0.16.1`\r\n- `WasmEdge v0.14.1 with ggml plugin b4419`\r\n- `qdrant v1.11.4`\r\n- `dashboard v3.1`\r\n- `vector v0.38.0`\r\n- `server-assistant v0.3.6`","2025-01-17T06:18:55",[204,214,222,230,238,247],{"id":205,"name":206,"github_repo":207,"description_zh":208,"stars":209,"difficulty_score":210,"last_commit_at":211,"category_tags":212,"status":69},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[51,54,52,213],"数据工具",{"id":215,"name":216,"github_repo":217,"description_zh":218,"stars":219,"difficulty_score":210,"last_commit_at":220,"category_tags":221,"status":69},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[54,52,51],{"id":223,"name":224,"github_repo":225,"description_zh":226,"stars":227,"difficulty_score":39,"last_commit_at":228,"category_tags":229,"status":69},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,"2026-04-09T23:34:24",[54,51,53],{"id":231,"name":232,"github_repo":233,"description_zh":234,"stars":235,"difficulty_score":39,"last_commit_at":236,"category_tags":237,"status":69},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[54,52,51],{"id":239,"name":240,"github_repo":241,"description_zh":242,"stars":243,"difficulty_score":39,"last_commit_at":244,"category_tags":245,"status":69},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[246,51,52,54],"插件",{"id":248,"name":249,"github_repo":250,"description_zh":251,"stars":252,"difficulty_score":39,"last_commit_at":253,"category_tags":254,"status":69},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[246,54]]