[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GradientHQ--parallax":3,"tool-GradientHQ--parallax":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":112,"forks":113,"last_commit_at":114,"license":115,"difficulty_score":116,"env_os":117,"env_gpu":118,"env_ram":119,"env_deps":120,"category_tags":128,"github_topics":129,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":147,"updated_at":148,"faqs":149,"releases":184},9341,"GradientHQ\u002Fparallax","parallax","Parallax is a distributed model serving framework that lets you build your own AI cluster anywhere","Parallax 是一款由 Gradient 开发的分布式模型服务框架，旨在帮助用户在任何地方构建属于自己的去中心化 AI 集群。它解决了大型语言模型（LLM）推理对昂贵集中式算力依赖的痛点，允许用户将不同配置、不同物理位置的设备（包括个人电脑和 Mac）连接起来，协同运行大模型。\n\n无论是希望降低推理成本的开发者，还是想要利用闲置设备参与 AI 计算的研究人员，亦或是希望在本地部署大模型的极客用户，都能通过 Parallax 轻松搭建高性能的推理环境。其核心技术亮点包括支持跨平台部署、采用流水线并行技术进行模型分片、以及针对 Mac 设备优化的分页 KV 缓存管理和连续批处理功能。此外，Parallax 后端集成了 SGLang、vLLM 和 MLX LM 等主流引擎，并通过 Lattica 实现高效的点对点通信，确保动态请求调度与路由的高性能表现。目前，该项目已支持 DeepSeek、Qwen 等多个知名模型系列，让构建主权 AI 基础设施变得更加简单灵活。","\u003Cdiv align=\"center\">\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_d2f0c9646df8.png\" width=\"720\">\n    \u003Cdiv align=\"center\">\n      \u003Cp style=\"font-size: 1.3em; font-weight: 600; margin-bottom: 10px;\">Trusted by Partners\u003C\u002Fp>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_44020c2d71e7.png\" alt=\"SGLang\" height=\"28\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_5dab2260b7fe.png\" alt=\"vLLM\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_07c110afd58e.png\" alt=\"Qwen\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_17ab46043160.png\" alt=\"DeepSeek\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_da07113fd053.png\" alt=\"Kimi\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_6b8556fc3fe6.png\" alt=\"Minimax\" height=\"30\" style=\"margin: 0 10px;\">\n      \u003Cimg src=\"docs\u002Fimages\u002Fzai.svg\" alt=\"ZAI\" height=\"30\" style=\"margin: 0 10px;\"\u002F>\n    \u003C\u002Fdiv>\n  \u003C\u002Fp>\n\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FGradientHQ\u002Fparallax.svg)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Ftree\u002Fmain\u002FLICENSE)\n[![issue resolution](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed-raw\u002FGradientHQ\u002Fparallax)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues)\n[![open issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FGradientHQ\u002Fparallax)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues)\n\n\u003Ca href=\"https:\u002F\u002Fwww.producthunt.com\u002Fproducts\u002Fparallax-by-gradient?embed=true&utm_source=badge-top-post-badge&utm_medium=badge&utm_source=badge-parallax&#0045;by&#0045;gradient\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fapi.producthunt.com\u002Fwidgets\u002Fembed-image\u002Fv1\u002Ftop-post-badge.svg?post_id=1030922&theme=light&period=daily&t=1761986433128\" alt=\"Parallax&#0032;by&#0032;Gradient - Host&#0032;LLMs&#0032;across&#0032;devices&#0032;sharing&#0032;GPU&#0032;to&#0032;make&#0032;your&#0032;AI&#0032;go&#0032;brrr | Product Hunt\" style=\"width: 250px; height: 54px;\" width=\"250\" height=\"54\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n| [**Gradient**](https:\u002F\u002Fgradient.network)\n| [**Blog**](https:\u002F\u002Fgradient.network\u002Fblog\u002Fparallax-the-sovereign-ai-os)\n| [**X(Twitter)(Gradient)**](https:\u002F\u002Fx.com\u002FGradient_HQ)\n| [**X(Twitter)(Parallax)**](https:\u002F\u002Fx.com\u002FtryParallax)\n| [**Discord**](https:\u002F\u002Fdiscord.gg\u002Fparallaxai)\n| [**Arxiv**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.26182v1)\n\n## News\n- [2026\u002F2] 🦞 Parallax now supports OpenClaw integration! See [Docs](.\u002Fdocs\u002Fuser_guide\u002Fwork_with_openclaw.md)\n- [2025\u002F10] 🔥 Parallax won #1 Product of The Day on Product Hunt!\n- [2025\u002F10] 🔥 Parallax version 0.0.1 has been released!\n\n## About\nA fully decentralized inference engine developed by [Gradient](https:\u002F\u002Fgradient.network). Parallax lets you build your own AI cluster for model inference onto a set of distributed nodes despite their varying configuration and physical location. Its core features include:\n\n- **Host local LLM on personal devices**\n- **Cross-platform support**\n- **Pipeline parallel model sharding**\n- **Paged KV cache management & continuous batching for Mac**\n- **Dynamic request scheduling and routing for high performance**\n\nThe backend architecture:\n\n* P2P communication powered by [Lattica](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Flattica)\n* GPU backend powered by [SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang) and [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm)\n* MAC backend powered by [MLX LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm)\n\n## User Guide\n\n- [Installation](.\u002Fdocs\u002Fuser_guide\u002Finstall.md)\n- [Getting Started](.\u002Fdocs\u002Fuser_guide\u002Fquick_start.md)\n- [Working with OpenClaw 🦞](.\u002Fdocs\u002Fuser_guide\u002Fwork_with_openclaw.md)\n\n## Contributing\n\nWe warmly welcome contributions of all kinds! For guidelines on how to get involved, please refer to our [Contributing Guide](.\u002Fdocs\u002FCONTRIBUTING.md).\n\n## Supported Models\n\n|              | Provider     | HuggingFace Collection  |  Blog  | Description |\n|:-------------|:-------------|:----------------------------:|:----------------------------:|:----------------------------|\n|DeepSeek      | Deepseek     | [DeepSeek-V3.2](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2)\u003Cbr>[DeepSeek-R1](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fdeepseek-ai\u002Fdeepseek-r1) \u003Cbr>| [Deep Seek AI Launches Revolutionary Language Model](https:\u002F\u002Fdeepseek.ai\u002Fblog\u002Fdeepseek-v32) | Deep Seek AI is proud to announce the launch of our latest language model, setting new standards in natural language processing and understanding. This breakthrough represents a significant step forward in AI technology, offering unprecedented capabilities in text generation, comprehension, and analysis. |\n|MiniMax-M2    | MiniMax AI  | [MiniMax-M2](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2)\u003Cbr>[MiniMax-M2.1](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.1) | [MiniMax M2.1: Significantly Enhanced Multi-Language Programming](https:\u002F\u002Fwww.minimax.io\u002Fnews\u002Fminimax-m21) | MiniMax-M2.1 is an enhanced sparse MoE model (230B parameters, 10B active) built for advanced coding and agentic workflows. It offers state-of-the-art intelligence, delivering efficient, reliable tool use and strong multi-step reasoning. |\n|GLM           | Z AI | [GLM-4.7](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.7) \u003Cbr>[GLM-4.7-Flash](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.7-Flash) | [GLM-4.7: Advancing the Coding Capability](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.7) | \"GLM\" is an advanced large language model series from Z AI, including GLM-4.6 and GLM-4.7. These models feature long-context support, strong coding and reasoning performance, enhanced tool-use and agent integration, and competitive results across leading open-source benchmarks. |\n|Kimi-K2       | Moonshot AI  | [Kimi-K2](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmoonshotai\u002Fkimi-k2-6871243b990f2af5ba60617d) | [Kimi K2: Open Agentic Intelligence](https:\u002F\u002Fmoonshotai.github.io\u002FKimi-K2\u002F) | \"Kimi-K2\" is Moonshot AI's Kimi-K2 model family, including Kimi-K2-Base, Kimi-K2-Instruct and Kimi-K2-Thinking. Kimi K2 Thinking is a state-of-the-art open-source agentic model designed for deep, step-by-step reasoning and dynamic tool use. It features native INT4 quantization and a 256k context window for fast, memory-efficient inference. Uniquely stable in long-horizon tasks, Kimi K2 enables reliable autonomous workflows with consistent performance across hundreds of tool calls.\n|Qwen          | Qwen         | [Qwen3-Next](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-next-68c25fd6838e585db8eeea9d) \u003Cbr>[Qwen3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-67dd247413f0e2e4f653967f) \u003Cbr>[Qwen2.5](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e)| [Qwen3-Next: Towards Ultimate Training & Inference Efficiency](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) | The Qwen series is a family of large language models developed by Alibaba's Qwen team. It includes multiple generations such as Qwen2.5, Qwen3, and Qwen3-Next, which improve upon model architecture, efficiency, and capabilities. The models are available in various sizes and instruction-tuned versions, with support for cutting-edge features like long context and quantization. Suitable for a wide range of language tasks and open-source use cases. |\n|gpt-oss       | OpenAI       | [gpt-oss](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenai\u002Fgpt-oss-68911959590a1634ba11c7a4) \u003Cbr>[gpt-oss-safeguard](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenai\u002Fgpt-oss-safeguard) | [Introducing gpt-oss-safeguard](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss-safeguard\u002F) | gpt-oss are OpenAI’s open-weight GPT models (20B & 120B). The gpt-oss-safeguard variants are reasoning-based safety classification models: developers provide their own policy at inference, and the model uses chain-of-thought to classify content and explain its reasoning. This allows flexible, policy-driven moderation in complex or evolving domains, with open weights under Apache 2.0. |\n|Meta Llama 3  | Meta         | [Meta Llama 3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fmeta-llama-3-66214712577ca38149ebb2b6) \u003Cbr>[Llama 3.1](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-31-669fc079a0c406a149a5738f) \u003Cbr>[Llama 3.2](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-32-66f448ffc8c32f949b04c8cf) \u003Cbr>[Llama 3.3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-33-67531d5c405ec5d08a852000) | [Introducing Meta Llama 3: The most capable openly available LLM to date](https:\u002F\u002Fai.meta.com\u002Fblog\u002Fmeta-llama-3\u002F) | \"Meta Llama 3\" is Meta's third-generation Llama model, available in sizes such as 8B and 70B parameters. Includes instruction-tuned and quantized (e.g., FP8) variants. |\n","\u003Cdiv align=\"center\">\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_d2f0c9646df8.png\" width=\"720\">\n    \u003Cdiv align=\"center\">\n      \u003Cp style=\"font-size: 1.3em; font-weight: 600; margin-bottom: 10px;\">受合作伙伴信赖\u003C\u002Fp>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_44020c2d71e7.png\" alt=\"SGLang\" height=\"28\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_5dab2260b7fe.png\" alt=\"vLLM\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_07c110afd58e.png\" alt=\"Qwen\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_17ab46043160.png\" alt=\"DeepSeek\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_da07113fd053.png\" alt=\"Kimi\" height=\"30\" style=\"margin: 0 20px;\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_readme_6b8556fc3fe6.png\" alt=\"Minimax\" height=\"30\" style=\"margin: 0 10px;\">\n      \u003Cimg src=\"docs\u002Fimages\u002Fzai.svg\" alt=\"ZAI\" height=\"30\" style=\"margin: 0 10px;\"\u002F>\n    \u003C\u002Fdiv>\n  \u003C\u002Fp>\n\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FGradientHQ\u002Fparallax.svg)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Ftree\u002Fmain\u002FLICENSE)\n[![issue resolution](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed-raw\u002FGradientHQ\u002Fparallax)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues)\n[![open issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FGradientHQ\u002Fparallax)](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues)\n\n\u003Ca href=\"https:\u002F\u002Fwww.producthunt.com\u002Fproducts\u002Fparallax-by-gradient?embed=true&utm_source=badge-top-post-badge&utm_medium=badge&utm_source=badge-parallax&#0045;by&#0045;gradient\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fapi.producthunt.com\u002Fwidgets\u002Fembed-image\u002Fv1\u002Ftop-post-badge.svg?post_id=1030922&theme=light&period=daily&t=1761986433128\" alt=\"Parallax&#0032;by&#0032;Gradient - 在多设备间托管LLM，共享GPU资源，让您的AI飞速运行 | Product Hunt\" style=\"width: 250px; height: 54px;\" width=\"250\" height=\"54\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n| [**Gradient**](https:\u002F\u002Fgradient.network)\n| [**博客**](https:\u002F\u002Fgradient.network\u002Fblog\u002Fparallax-the-sovereign-ai-os)\n| [**X(Twitter)(Gradient)**](https:\u002F\u002Fx.com\u002FGradient_HQ)\n| [**X(Twitter)(Parallax)**](https:\u002F\u002Fx.com\u002FtryParallax)\n| [**Discord**](https:\u002F\u002Fdiscord.gg\u002Fparallaxai)\n| [**Arxiv**](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.26182v1)\n\n## 新闻\n- [2026\u002F2] 🦞 Parallax 现已支持 OpenClaw 集成！详情请参阅 [文档](.\u002Fdocs\u002Fuser_guide\u002Fwork_with_openclaw.md)\n- [2025\u002F10] 🔥 Parallax 在 Product Hunt 上荣获“今日最佳产品”第一名！\n- [2025\u002F10] 🔥 Parallax 0.0.1 版本正式发布！\n\n## 关于\nParallax 是由 [Gradient](https:\u002F\u002Fgradient.network) 开发的一款完全去中心化的推理引擎。它允许您在一组分布式节点上构建自己的 AI 集群，用于模型推理，无论这些节点的配置和物理位置如何。其核心功能包括：\n\n- **在个人设备上托管本地 LLM**\n- **跨平台支持**\n- **流水线并行模型分片**\n- **适用于 Mac 的分页式 KV 缓存管理和连续批处理**\n- **动态请求调度与路由，以实现高性能**\n\n后端架构如下：\n* 基于 [Lattica](https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Flattica) 的 P2P 通信\n* 基于 [SGLang](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002Fsglang) 和 [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm) 的 GPU 后端\n* 基于 [MLX LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm) 的 Mac 后端\n\n## 用户指南\n\n- [安装](.\u002Fdocs\u002Fuser_guide\u002Finstall.md)\n- [快速入门](.\u002Fdocs\u002Fuser_guide\u002Fquick_start.md)\n- [使用 OpenClaw 🦞](.\u002Fdocs\u002Fuser_guide\u002Fwork_with_openclaw.md)\n\n## 贡献\n\n我们热烈欢迎各种形式的贡献！有关参与方式的详细说明，请参阅我们的 [贡献指南](.\u002Fdocs\u002FCONTRIBUTING.md)。\n\n## 支持的模型\n\n|              | 提供方     | HuggingFace 仓库  |  博客  | 描述 |\n|:-------------|:-------------|:----------------------------:|:----------------------------:|:----------------------------|\n|DeepSeek      | Deepseek     | [DeepSeek-V3.2](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2)\u003Cbr>[DeepSeek-R1](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fdeepseek-ai\u002Fdeepseek-r1) \u003Cbr>| [Deep Seek AI 发布革命性语言模型](https:\u002F\u002Fdeepseek.ai\u002Fblog\u002Fdeepseek-v32) | Deep Seek AI 很荣幸地宣布推出我们最新的语言模型，为自然语言处理和理解设定了新标准。这一突破标志着人工智能技术的重大进步，提供了前所未有的文本生成、理解和分析能力。 |\n|MiniMax-M2    | MiniMax AI  | [MiniMax-M2](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2)\u003Cbr>[MiniMax-M2.1](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.1) | [MiniMax M2.1：显著增强的多语言编程能力](https:\u002F\u002Fwww.minimax.io\u002Fnews\u002Fminimax-m21) | MiniMax-M2.1 是一款增强型稀疏 MoE 模型（230B 参数，10B 激活），专为高级编码和代理工作流设计。它提供最先进的智能水平，能够高效、可靠地使用工具，并具备强大的多步推理能力。 |\n|GLM           | Z AI | [GLM-4.7](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.7) \u003Cbr>[GLM-4.7-Flash](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.7-Flash) | [GLM-4.7：提升编码能力](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.7) | “GLM” 是 Z AI 推出的一系列先进大型语言模型，包括 GLM-4.6 和 GLM-4.7。这些模型支持长上下文，具有强大的编码和推理性能，增强了工具使用和代理集成能力，并在领先的开源基准测试中取得了具有竞争力的成绩。 |\n|Kimi-K2       | Moonshot AI  | [Kimi-K2](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmoonshotai\u002Fkimi-k2-6871243b990f2af5ba60617d) | [Kimi K2：开放的代理智能](https:\u002F\u002Fmoonshotai.github.io\u002FKimi-K2\u002F) | “Kimi-K2” 是 Moonshot AI 的 Kimi-K2 模型家族，包括 Kimi-K2-Base、Kimi-K2-Instruct 和 Kimi-K2-Thinking。Kimi K2 Thinking 是一款最先进的开源代理模型，专为深度、逐步的推理和动态工具使用而设计。它采用原生 INT4 量化，并拥有 256k 上下文窗口，可实现快速且内存高效的推理。在长期任务中表现出独特的稳定性，Kimi K2 能够在数百次工具调用中保持一致的性能，从而实现可靠的自主工作流。 |\n|Qwen          | Qwen         | [Qwen3-Next](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-next-68c25fd6838e585db8eeea9d) \u003Cbr>[Qwen3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-67dd247413f0e2e4f653967f) \u003Cbr>[Qwen2.5](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e)| [Qwen3-Next：迈向极致的训练与推理效率](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) | Qwen 系列是由阿里巴巴 Qwen 团队开发的一系列大型语言模型。它包括多个版本，如 Qwen2.5、Qwen3 和 Qwen3-Next，这些版本在模型架构、效率和功能上都有所提升。模型提供多种尺寸和指令微调版本，并支持长上下文和量化等前沿特性。适用于广泛的语言任务和开源应用场景。 |\n|gpt-oss       | OpenAI       | [gpt-oss](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenai\u002Fgpt-oss-68911959590a1634ba11c7a4) \u003Cbr>[gpt-oss-safeguard](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenai\u002Fgpt-oss-safeguard) | [推出 gpt-oss-safeguard](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss-safeguard\u002F) | gpt-oss 是 OpenAI 的开源权重 GPT 模型（20B 和 120B）。gpt-oss-safeguard 变体是基于推理的安全分类模型：开发者可以在推理时提供自己的策略，模型会通过思维链来对内容进行分类并解释其推理过程。这使得在复杂或不断变化的领域中能够实现灵活、由策略驱动的审核，同时模型权重以 Apache 2.0 许可证开源。 |\n|Meta Llama 3  | Meta         | [Meta Llama 3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fmeta-llama-3-66214712577ca38149ebb2b6) \u003Cbr>[Llama 3.1](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-31-669fc079a0c406a149a5738f) \u003Cbr>[Llama 3.2](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-32-66f448ffc8c32f949b04c8cf) \u003Cbr>[Llama 3.3](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-33-67531d5c405ec5d08a852000) | [推出 Meta Llama 3：迄今为止功能最强大的公开可用 LLM](https:\u002F\u002Fai.meta.com\u002Fblog\u002Fmeta-llama-3\u002F) | “Meta Llama 3” 是 Meta 的第三代 Llama 模型，提供 8B 和 70B 参数等多种尺寸。包含指令微调版和量化版（例如 FP8）等变体。 |","# Parallax 快速上手指南\n\nParallax 是由 Gradient 开发的全去中心化推理引擎。它允许你将个人设备（如笔记本电脑、台式机）组成一个分布式 AI 集群，通过流水线并行（Pipeline Parallelism）技术跨设备运行大型语言模型（LLM），即使这些设备的配置和物理位置各不相同。\n\n## 1. 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n### 系统要求\n- **操作系统**：支持 macOS (Apple Silicon) 和 Linux。Windows 用户建议使用 WSL2。\n- **硬件**：\n  - **GPU 节点**：配备 NVIDIA GPU 的设备（用于 SGLang\u002FvLLM 后端）。\n  - **Mac 节点**：配备 M1\u002FM2\u002FM3 系列芯片的 Mac（用于 MLX LM 后端）。\n  - 网络环境需支持 P2P 通信（基于 Lattica）。\n\n### 前置依赖\n- **Python**: 版本 >= 3.9\n- **包管理器**: `pip` 或 `conda`\n- **网络**: 稳定的互联网连接以下载模型权重和建立节点连接。\n\n> **提示**：由于涉及大模型下载，国内开发者建议配置 Hugging Face 镜像源以加速下载：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> ```\n\n## 2. 安装步骤\n\n你可以通过 PyPI 直接安装 Parallax 的核心库。\n\n### 使用 pip 安装\n打开终端，执行以下命令：\n\n```bash\npip install parallax-ai\n```\n\n### 验证安装\n安装完成后，检查版本以确保安装成功：\n\n```bash\nparallax --version\n```\n\n> **注意**：如果你计划贡献代码或使用最新特性，也可以从源码安装：\n> ```bash\n> git clone https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax.git\n> cd parallax\n> pip install -e .\n> ```\n\n## 3. 基本使用\n\nParallax 的核心用法是将多个设备连接成一个集群来共同推理一个大模型。以下是启动一个简单分布式推理会话的流程。\n\n### 步骤一：启动主节点（Coordinator）\n在一台性能较好的设备上启动主节点，它将负责调度请求和管理 KV Cache。\n\n```bash\nparallax serve --model deepseek-ai\u002FDeepSeek-V3.2 --role coordinator --host 0.0.0.0 --port 8080\n```\n\n### 步骤二：加入工作节点（Worker）\n在其他设备（如另一台带有 GPU 的机器或 Mac）上启动工作节点，并指向主节点的地址。\n\n```bash\n# 在第二台设备上执行\nparallax serve --model deepseek-ai\u002FDeepSeek-V3.2 --role worker --coordinator-address \u003C主节点 IP>:8080\n```\n\n*注：`--model` 参数在所有节点上必须保持一致，Parallax 会自动处理模型分片。*\n\n### 步骤三：发送推理请求\n集群组建完成后，你可以像使用普通 API 一样发送请求。Parallax 会自动将计算任务分发到所有可用节点。\n\n```python\nimport requests\n\nurl = \"http:\u002F\u002F\u003C主节点 IP>:8080\u002Fv1\u002Fchat\u002Fcompletions\"\npayload = {\n    \"model\": \"deepseek-ai\u002FDeepSeek-V3.2\",\n    \"messages\": [\n        {\"role\": \"user\", \"content\": \"你好，请介绍一下 Parallax 的工作原理。\"}\n    ]\n}\n\nresponse = requests.post(url, json=payload)\nprint(response.json()['choices'][0]['message']['content'])\n```\n\n### 支持的主流模型\nParallax 原生支持多种主流开源模型，包括但不限于：\n- **DeepSeek**: DeepSeek-V3.2, DeepSeek-R1\n- **Qwen**: Qwen3, Qwen2.5\n- **MiniMax**: MiniMax-M2\n- **GLM**: GLM-4.7\n- **Llama**: Meta Llama 3.1\u002F3.2\u002F3.3\n- **Kimi**: Kimi-K2\n\n只需将 `--model` 参数替换为对应的 HuggingFace 模型 ID 即可自动加载。","一家拥有多台闲置游戏 PC 和 MacBook 的初创团队，试图在不购买昂贵云端 GPU 的情况下，本地部署并运行 DeepSeek-V3.2 等大参数模型进行内部测试。\n\n### 没有 parallax 时\n- **硬件资源孤岛化**：每台设备的显存相互独立，单卡显存不足导致根本无法加载大模型，大量算力被迫闲置。\n- **部署门槛极高**：需要手动配置复杂的分布式通信环境，且难以协调 Windows、Linux 和 macOS 之间的异构兼容性问题。\n- **推理性能低下**：缺乏统一的请求调度机制，无法实现跨设备的流水线并行，导致首字延迟极高甚至频繁显存溢出崩溃。\n- **维护成本高昂**：每次更新模型或调整参数，都需要逐台机器手动操作，缺乏集中式的管理界面。\n\n### 使用 parallax 后\n- **构建虚拟超算集群**：parallax 自动将分散在不同房间、不同系统的设备显存池化，通过流水线并行技术成功加载并运行超大模型。\n- **异构无缝协同**：依托其跨平台架构，轻松打通 NVIDIA GPU 与 Apple Silicon 芯片，让游戏本和 Mac 共同承担推理任务。\n- **高性能动态调度**：利用内置的动态路由和连续批处理技术，显著降低延迟，使多用户并发访问流畅如单一高性能服务器。\n- **一键弹性扩展**：新设备只需安装客户端即可自动加入集群，模型更新与状态管理由框架统一处理，运维效率提升数倍。\n\nparallax 的核心价值在于将零散的消费级硬件转化为可生产级使用的去中心化 AI 算力网络，让大模型推理真正摆脱对昂贵云服务的依赖。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGradientHQ_parallax_f615be0a.png","GradientHQ","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGradientHQ_6dcd0ad3.png","",null,"https:\u002F\u002Fgithub.com\u002FGradientHQ",[78,82,86,90,94,98,102,106,109],{"name":79,"color":80,"percentage":81},"Python","#3572A5",77.6,{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",12.3,{"name":87,"color":88,"percentage":89},"Metal","#8f14e9",6.2,{"name":91,"color":92,"percentage":93},"HTML","#e34c26",2.5,{"name":95,"color":96,"percentage":97},"C++","#f34b7d",1.3,{"name":99,"color":100,"percentage":101},"Shell","#89e051",0.1,{"name":103,"color":104,"percentage":105},"JavaScript","#f1e05a",0,{"name":107,"color":108,"percentage":105},"CSS","#663399",{"name":110,"color":111,"percentage":105},"Dockerfile","#384d54",1248,129,"2026-04-18T04:21:42","Apache-2.0",5,"Linux, macOS","Linux 节点需要 NVIDIA GPU（后端基于 SGLang\u002FvLLM）；macOS 节点利用 Apple Silicon (MLX LM)。具体显存大小取决于所加载的模型分片大小，未说明具体最低显存要求。","未说明（取决于模型大小及分布式配置）",{"notes":121,"python":122,"dependencies":123},"该工具是一个去中心化推理引擎，支持跨不同配置和物理位置的分布式节点构建 AI 集群。核心特性包括流水线并行模型分片、动态请求调度以及针对 Mac 的分页 KV 缓存管理。不支持 Windows。","未说明",[124,125,126,127],"SGLang","vLLM","MLX LM","Lattica",[14,35],[130,131,132,133,134,135,136,137,138,139,140,141,142,143,144,145,146],"chatbot","distributed-systems","kimi","llama","llm","qwen","oss-gpt","large-language-models","python","pytorch","decentralized-inference","blackwell","transformer","llm-serving","glm","minimax","deepseek","2026-03-27T02:49:30.150509","2026-04-19T09:17:46.235363",[150,155,160,165,170,175,180],{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},41903,"在多机部署时遇到 'operation timeout' 或 RPC 调用超时错误怎么办？","这通常是因为节点间的通信端口未正确配置。Parallax 的调度器（scheduler）和节点（node）使用随机端口进行 Lattica 通信，这些端口必须在所有设备间可访问。解决方法是显式指定 TCP 和 UDP 端口：\n1. 启动调度器时使用：`parallax run --tcp-port \u003C端口号> --udp-port \u003C端口号>`\n2. 加入节点时使用：`parallax join --tcp-port \u003C端口号> --udp-port \u003C端口号>`\n确保指定的端口在防火墙中已开放，且所有机器之间可以互相访问。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F219",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},41904,"安装时提示 'No matching distribution found for lattica' 或 glibc 版本过低如何解决？","该错误通常是因为系统的 glibc 版本低于 2.34，而 `lattica` 包需要更高版本的支持。\n解决方案有两种：\n1. 升级系统的 glibc 到至少 2.34 版本。\n2. 如果无法升级系统，可以尝试更新 `lattica` 到支持更低 glibc 的版本（如 1.0.14 或更高），或者检查是否有兼容当前环境的预编译包。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F275",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},41905,"如何在 Windows 上完全卸载 Parallax？","目前 Windows 上的卸载需要通过 WSL 手动操作。请以管理员身份打开终端（PowerShell 或 CMD），运行以下命令来注销 Ubuntu 环境（假设使用的是 Ubuntu-24.04）：\n`wsl --unregister Ubuntu-24.04`\n注意：此操作会删除该 WSL 发行版中的所有数据。如果安装过程中占用了大量空间且卸载后未释放，可能需要手动清理残留文件或磁盘映像。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F320",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},41906,"在中国大陆无法访问 Hugging Face 下载模型怎么办？","可以通过设置环境变量使用 Hugging Face 的镜像站点来解决下载问题，而不必依赖 ModelScope（因为文件结构可能不兼容）。\n请在运行 Parallax 之前执行以下命令：\n`export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com`\n设置后，Parallax 将自动从镜像站下载模型文件。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F237",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},41907,"多机集群运行时出现 CUDA Out Of Memory (OOM) 错误，显存分配不合理怎么办？","如果遇到 GPU 显存溢出且分配量超过物理显存的情况，这通常是一个已知的调度或内存管理 Bug。\n建议尝试以下操作：\n1. 确保已将 Parallax 升级到最新版本，相关修复（如 PR #228）已合并。\n2. 如果是 PyTorch 内存碎片化导致的，可以尝试设置环境变量：`export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True`。\n3. 检查各节点的显存配置是否被正确识别，必要时重启服务或重新初始化集群。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F210",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},41908,"在 Mac (MLX) 上加载模型时报错 'Invalid type torch.Tensor received in array initialization' 是什么原因？","这是一个类型转换错误，通常发生在混合使用 PyTorch 张量和 MLX 数组时。错误表明代码试图用 `torch.Tensor` 类型初始化 `mx.array`。\n解决方法：\n1. 确保你使用的是最新版本的 Parallax，该问题可能在后续提交中已修复。\n2. 检查模型文件格式，确保加载的是适用于 MLX 后端的权重格式，或者确认加载逻辑中包含了从 Torch 到 MLX 的正确转换步骤（例如使用 `mx.array(torch_tensor.numpy())` 进行显式转换）。","https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fissues\u002F276",{"id":181,"question_zh":182,"answer_zh":183,"source_url":154},41909,"为什么两台 H100 机器无法运行 Qwen2.5-72b 这样的大模型，提示资源不足？","这通常是因为显存分配比例配置不当，导致无法容纳整个模型的层或 KV Cache。\n可以尝试调整参数托管比例和 KV Cache 比例来适应显存限制：\n在启动命令中添加参数：`--param-hosting-ratio` 和 `--kv-cache-ratio`。\n通过降低 KV Cache 的比例或调整参数分布，可以让模型适配有限的显存资源。具体数值需要根据模型大小和显卡显存进行实验调整。",[185,190,195,200],{"id":186,"version":187,"summary_zh":188,"released_at":189},333911,"v0.1.2","## 亮点\n* 添加分页 KV 实现\n* 支持在聊天页面切换模型\n\n## 变更内容\n* chore(version): 将 mlx 升级至 0.30.0，该版本由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F284 中引入了 arm64 轮子包。\n* chore(version): 撤销将 mlx 升级至 0.30.0 的操作，该版本由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F285 中引入了 arm64 轮子包。\n* refactor(test): 由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F287 中重构 test_executor，以支持混合后端。\n* chore(lattica): 将 lattica 升级至 1.0.14，以支持较低版本的 glibc，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F288 中完成。\n* refactor(executor): 由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F291 中将不同后端的执行器代码分离。\n* feat(backend): 由 @wasamtc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F283 中添加 Mac 平台的 LoRA 功能。\n* feat(backend): 由 @JasonOE 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F289 中实现模型切换功能。\n* feat(pagedkv): 由 @yuhao-zh 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F278 中添加分页 KV 实现。\n* chore(version): 由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F300 中将版本更新至 0.1.2。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fcompare\u002Fv0.1.1...v0.1.2","2025-12-02T07:53:31",{"id":191,"version":192,"summary_zh":193,"released_at":194},333912,"v0.1.1","## 亮点\n* 添加 DGX Spark 的 Docker 镜像\n* 支持 Hugging Face 离线模式\n* 重构执行器和 P2P 服务器，使用子进程代替子线程\n* 添加分页注意力朴素内核\n\n## 变更内容\n* chore(lattica): 将 Lattica 升级至 1.0.10，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F221 中完成\n* fix(executor): 初始化 http_requests 列表以接收新请求，由 @RWL-Dittrich 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F217 中完成\n* feat(backend): 添加使用 Hugging Face 缓存的标志，由 @JasonOE 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F220 中完成\n* fix(backend): 添加 param_hosting_ratio 参数用于估算所需显存，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F224 中完成\n* feat(scheduler): 将 TP>0 作为子进程启动，并优化调度器，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F222 中完成\n* fix(bug): 防止在剩余节点分配过程中出现节点重复，由 @IAMDAVID0920 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F209 中完成\n* fix(backend): 修复猴子补丁无效的问题，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F228 中完成\n* chore(lattica): 在调试模式下显示 Lattica 日志，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F231 中完成\n* feat(scheduler): 在全局再平衡之前进行预热，由 @JasonOE 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F204 中完成\n* fix(bug): 仅更改 kvcache 和 param_host 名称，由 @wasamtc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F229 中完成\n* fix(scheduler): 如果节点不在节点列表中，则忽略其更新，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F232 中完成\n* docs(readme): 添加合作伙伴 Zai，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F233 中完成\n* docs(fqa): 在用户指南中添加常见问题解答，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F234 中完成\n* docs(faq): 添加两条问答，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F235 中完成\n* fix(test): 修复 GPU 上的执行器测试，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F236 中完成\n* fix(server): 暴露 chat-template 错误，由 @Odysseusailoon 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F208 中完成\n* fix(backend): 修复使用 HF 本地缓存时的显存估算错误，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F238 中完成\n* fix(backend): 如果已指定模型路径，则跳过加载模型信息，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F241 中完成\n* chore(lattica): 将 Lattica 升级至 1.0.12，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F243 中完成\n* feat(pre-commit): 隐藏空白字符，由 @yuhao-zh 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F249 中完成\n* fix(backend): 修复未从配置中初始化模型信息时的模型列表 API 错误，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F250 中完成\n* docs(dgx spark): 添加 DGX Spark 的 Docker 镜像，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F251 中完成\n* feat(backend): 添加 VLLM 支持，由 @yuhao-zh 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F223 中完成\n* feat(docker): 构建 DGX Spark 的 Docker 镜像，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F244 中完成\n* chore(docker): 构建 do","2025-11-26T04:17:12",{"id":196,"version":197,"summary_zh":198,"released_at":199},333913,"v0.1.0","## 亮点\n* 支持 Kimi-K2、DeepSeek、MiniMax、GLM 和 gpt-oss-safeguard 模型\n* 优化通信方式，并新增中继服务器支持，便于远程连接\n* 新增 parallax chat 命令，用于启动聊天页面服务器\n* 调整 README 结构，完善用户指南和贡献指南\n\n## 变更内容\n* 修复（前端）：聊天页面侧边栏副标题，并添加节点对话框，由 @xz-gradient 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F44 中完成\n* 修复（节点）：修复节点离线上报过慢的问题，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F46 中完成\n* 修复（前端）：设置输入及节点离线状态，由 @xz-gradient 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F47 中完成\n* 新增功能（模型）：添加 Kimi K2 (DeepSeekV3) 模型，由 @yuhao-zh 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F10 中完成\n* 文档（README）：更新关于调度算法的 README，由 @Youhe-Jiang 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F43 中完成\n* 杂项（Lattica）：使用 Lattica 1.0.0 版本，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F50 中完成\n* 修复（批处理调度器）：添加 mlx 模型名称映射，并加入 gpt-oss 的猴子补丁，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F45 中完成\n* 修复：UI 问题，由 @yuyin-zhang 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F49 中完成\n* 新增功能（前端）：聊天消息输出适配 GPT 格式，由 @xz-gradient 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F51 中完成\n* 新增功能（README）：更新产品相关的 README，由 @ramenyu 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F52 中完成\n* 新增功能（README）：更新 README 中的图片，由 @ramenyu 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F53 中完成\n* 新增功能（后端）：为 parallax run\u002Fparallax join 添加 ASCII 动画效果，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F48 中完成\n* 新增功能（中继）：添加中继服务器支持，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F19 中完成\n* 修复（前端）：对聊天、侧边栏、选择框和数字输入等组件的 UI 进行优化，由 @yuyin-zhang 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F55 中完成\n* 修复（模型）：mlx gpt-oss 模型名称调整，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F59 中完成\n* 杂项（README）：更新 README.md 文件，由 @Youhe-Jiang 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F58 中完成\n* 新增功能（后端）：后端支持连接中继服务器，并禁用 index.html 的缓存功能，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F56 中完成\n* 新增功能（README）：更新 README 中的图片及集群搭建教程，由 @ramenyu 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F57 中完成\n* 修复（节点）：在 finally 块中关闭 HTTP 服务器进程，并修复相关问题，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F61 中完成\n* 修复（README）：更新支持的模型信息，并在启动后端时添加 is-local-network 参数，由 @sl-gn 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F62 中完成\n* 修复（调度器）：调整图层分配器参数大小的计算方法，由 @TianyiZhao1437 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F60 中完成\n* 新增功能（调度器）：通过 P2P 方式发送聊天完成请求，由 @gufengc 在 https:\u002F\u002Fgithub.com\u002FGradientHQ\u002Fparallax\u002Fpull\u002F63 中完成\n* 修复（节点）：更改 ASCII","2025-11-11T12:29:35",{"id":201,"version":202,"summary_zh":75,"released_at":203},333914,"v0.0.1","2025-09-29T10:03:24"]