[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIA--dgx-spark-playbooks":3,"tool-NVIDIA--dgx-spark-playbooks":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":127,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":157},4303,"NVIDIA\u002Fdgx-spark-playbooks","dgx-spark-playbooks","Collection of step-by-step playbooks for setting up AI\u002FML workloads on NVIDIA DGX Spark devices with Blackwell architecture.","dgx-spark-playbooks 是一套专为 NVIDIA DGX Spark 设备（基于 Blackwell 架构）设计的实战指南合集，旨在帮助用户快速搭建和优化各类人工智能与机器学习工作负载。面对高性能硬件复杂的配置环境，它有效解决了从基础驱动安装、开发环境构建到模型推理与微调过程中的技术门槛问题，让用户无需在繁琐的配置文档中摸索。\n\n这套指南特别适合 AI 开发者、数据科学家以及希望充分利用本地算力的研究人员使用。无论是需要部署 ComfyUI、Ollama 等流行框架，还是进行 FLUX.1 微调、多智能体聊天机器人构建，甚至是连接多台设备组成集群，dgx-spark-playbooks 都提供了详尽的步骤说明。其独特亮点在于不仅涵盖主流工具链的优化配置（如 vLLM、TensorRT-LLM），还包含了多机互联拓扑设置、量化技术（NVFP4）应用以及故障排查指导，并附带示例代码。通过这份资源，用户可以高效地将先进的 Blackwell 算力转化为实际的生产力，专注于算法创新与应用落地。","\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_dgx-spark-playbooks_readme_9f9bd07b8d1e.png\" alt=\"NVIDIA DGX Spark\"\u002F>\n\u003C\u002Fp>\n\n# DGX Spark Playbooks\n\nCollection of step-by-step playbooks for setting up AI\u002FML workloads on NVIDIA DGX Spark devices with Blackwell architecture.\n\n## About\n\nThese playbooks provide detailed instructions for:\n- Installing and configuring popular AI frameworks\n- Running inference with optimized models\n- Setting up development environments\n- Connecting and managing your DGX Spark device\n\nEach playbook includes prerequisites, step-by-step instructions, troubleshooting guidance, and example code.\n\n## Available Playbooks\n\n### NVIDIA\n\n- [Comfy UI](nvidia\u002Fcomfy-ui\u002F)\n- [Connect Three DGX Spark in a Ring Topology](nvidia\u002Fconnect-three-sparks\u002F)\n- [Set Up Local Network Access](nvidia\u002Fconnect-to-your-spark\u002F)\n- [Connect Two Sparks](nvidia\u002Fconnect-two-sparks\u002F)\n- [CUDA-X Data Science](nvidia\u002Fcuda-x-data-science\u002F)\n- [DGX Dashboard](nvidia\u002Fdgx-dashboard\u002F)\n- [FLUX.1 Dreambooth LoRA Fine-tuning](nvidia\u002Fflux-finetuning\u002F)\n- [Install and Use Isaac Sim and Isaac Lab](nvidia\u002Fisaac\u002F)\n- [Optimized JAX](nvidia\u002Fjax\u002F)\n- [Live VLM WebUI](nvidia\u002Flive-vlm-webui\u002F)\n- [Run models with llama.cpp on DGX Spark](nvidia\u002Fllama-cpp\u002F)\n- [LLaMA Factory](nvidia\u002Fllama-factory\u002F)\n- [LM Studio on DGX Spark](nvidia\u002Flm-studio\u002F)\n- [Build and Deploy a Multi-Agent Chatbot](nvidia\u002Fmulti-agent-chatbot\u002F)\n- [Multi-modal Inference](nvidia\u002Fmulti-modal-inference\u002F)\n- [Connect Multiple DGX Spark through a Switch](nvidia\u002Fmulti-sparks-through-switch\u002F)\n- [NCCL for Two Sparks](nvidia\u002Fnccl\u002F)\n- [Fine-tune with NeMo](nvidia\u002Fnemo-fine-tune\u002F)\n- [NemoClaw with Nemotron-3-Super and Telegram on DGX Spark](nvidia\u002Fnemoclaw\u002F)\n- [Nemotron-3-Nano with llama.cpp](nvidia\u002Fnemotron\u002F)\n- [NIM on Spark](nvidia\u002Fnim-llm\u002F)\n- [NVFP4 Quantization](nvidia\u002Fnvfp4-quantization\u002F)\n- [Ollama](nvidia\u002Follama\u002F)\n- [Open WebUI with Ollama](nvidia\u002Fopen-webui\u002F)\n- [OpenClaw 🦞](nvidia\u002Fopenclaw\u002F)\n- [Secure Long Running AI Agents with OpenShell on DGX Spark](nvidia\u002Fopenshell\u002F)\n- [Portfolio Optimization](nvidia\u002Fportfolio-optimization\u002F)\n- [Fine-tune with Pytorch](nvidia\u002Fpytorch-fine-tune\u002F)\n- [RAG Application in AI Workbench](nvidia\u002Frag-ai-workbench\u002F)\n- [SGLang for Inference](nvidia\u002Fsglang\u002F)\n- [Single-cell RNA Sequencing](nvidia\u002Fsingle-cell\u002F)\n- [Spark & Reachy Photo Booth](nvidia\u002Fspark-reachy-photo-booth\u002F)\n- [Speculative Decoding](nvidia\u002Fspeculative-decoding\u002F)\n- [Set up Tailscale on Your Spark](nvidia\u002Ftailscale\u002F)\n- [TRT LLM for Inference](nvidia\u002Ftrt-llm\u002F)\n- [Text to Knowledge Graph on DGX Spark](nvidia\u002Ftxt2kg\u002F)\n- [Unsloth on DGX Spark](nvidia\u002Funsloth\u002F)\n- [Vibe Coding in VS Code](nvidia\u002Fvibe-coding\u002F)\n- [vLLM for Inference](nvidia\u002Fvllm\u002F)\n- [VS Code](nvidia\u002Fvscode\u002F)\n- [Build a Video Search and Summarization (VSS) Agent](nvidia\u002Fvss\u002F)\n\n## Resources\n\n- **Documentation**: https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fproducts\u002Fworkstations\u002Fdgx-spark\u002F\n- **Developer Forum**: https:\u002F\u002Fforums.developer.nvidia.com\u002Fc\u002Faccelerated-computing\u002Fdgx-spark-gb10\n- **Terms of Service**: https:\u002F\u002Fassets.ngc.nvidia.com\u002Fproducts\u002Fapi-catalog\u002Flegal\u002FNVIDIA%20API%20Trial%20Terms%20of%20Service.pdf\n\n## License\n\nSee:\n- [LICENSE](LICENSE) for licensing information.\n- [LICENSE-3rd-party](LICENSE-3rd-party) for third-party licensing information.","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_dgx-spark-playbooks_readme_9f9bd07b8d1e.png\" alt=\"NVIDIA DGX Spark\"\u002F>\n\u003C\u002Fp>\n\n# DGX Spark 操作手册\n\n针对采用 Blackwell 架构的 NVIDIA DGX Spark 设备，提供部署 AI\u002FML 工作负载的分步操作指南合集。\n\n## 关于\n\n这些操作手册提供了详细的指导，涵盖以下内容：\n- 安装和配置流行的 AI 框架\n- 使用优化模型进行推理\n- 搭建开发环境\n- 连接并管理您的 DGX Spark 设备\n\n每份操作手册均包含先决条件、分步说明、故障排除指南以及示例代码。\n\n## 可用操作手册\n\n### NVIDIA\n\n- [Comfy UI](nvidia\u002Fcomfy-ui\u002F)\n- [将三台 DGX Spark 组成环形拓扑](nvidia\u002Fconnect-three-sparks\u002F)\n- [设置本地网络访问权限](nvidia\u002Fconnect-to-your-spark\u002F)\n- [连接两台 DGX Spark](nvidia\u002Fconnect-two-sparks\u002F)\n- [CUDA-X 数据科学](nvidia\u002Fcuda-x-data-science\u002F)\n- [DGX 控制面板](nvidia\u002Fdgx-dashboard\u002F)\n- [FLUX.1 Dreambooth LoRA 微调](nvidia\u002Fflux-finetuning\u002F)\n- [安装并使用 Isaac Sim 和 Isaac Lab](nvidia\u002Fisaac\u002F)\n- [优化的 JAX](nvidia\u002Fjax\u002F)\n- [Live VLM WebUI](nvidia\u002Flive-vlm-webui\u002F)\n- [在 DGX Spark 上使用 llama.cpp 运行模型](nvidia\u002Fllama-cpp\u002F)\n- [LLaMA Factory](nvidia\u002Fllama-factory\u002F)\n- [LM Studio 在 DGX Spark 上运行](nvidia\u002Flm-studio\u002F)\n- [构建并部署多智能体聊天机器人](nvidia\u002Fmulti-agent-chatbot\u002F)\n- [多模态推理](nvidia\u002Fmulti-modal-inference\u002F)\n- [通过交换机连接多台 DGX Spark](nvidia\u002Fmulti-sparks-through-switch\u002F)\n- [NCCL 用于两台 DGX Spark](nvidia\u002Fnccl\u002F)\n- [使用 NeMo 进行微调](nvidia\u002Fnemo-fine-tune\u002F)\n- [Nemotron-3-Super 结合 Telegram，在 DGX Spark 上运行 Nemoclaw](nvidia\u002Fnemoclaw\u002F)\n- [Nemotron-3-Nano 结合 llama.cpp](nvidia\u002Fnemotron\u002F)\n- [NIM 在 Spark 上运行](nvidia\u002Fnim-llm\u002F)\n- [NVFP4 量化](nvidia\u002Fnvfp4-quantization\u002F)\n- [Ollama](nvidia\u002Follama\u002F)\n- [Open WebUI 结合 Ollama](nvidia\u002Fopen-webui\u002F)\n- [OpenClaw 🦞](nvidia\u002Fopenclaw\u002F)\n- [在 DGX Spark 上使用 OpenShell 保障长期运行的 AI 代理安全](nvidia\u002Fopenshell\u002F)\n- [投资组合优化](nvidia\u002Fportfolio-optimization\u002F)\n- [使用 PyTorch 进行微调](nvidia\u002Fpytorch-fine-tune\u002F)\n- [AI Workbench 中的 RAG 应用](nvidia\u002Frag-ai-workbench\u002F)\n- [SGLang 用于推理](nvidia\u002Fsglang\u002F)\n- [单细胞 RNA 测序](nvidia\u002Fsingle-cell\u002F)\n- [Spark 与 Reachy 照相亭](nvidia\u002Fspark-reachy-photo-booth\u002F)\n- [推测性解码](nvidia\u002Fspeculative-decoding\u002F)\n- [在您的 DGX Spark 上设置 Tailscale](nvidia\u002Ftailscale\u002F)\n- [TRT LLM 用于推理](nvidia\u002Ftrt-llm\u002F)\n- [在 DGX Spark 上实现文本到知识图谱的转换](nvidia\u002Ftxt2kg\u002F)\n- [Unsloth 在 DGX Spark 上运行](nvidia\u002Funsloth\u002F)\n- [VS Code 中的 Vibe 编程](nvidia\u002Fvibe-coding\u002F)\n- [vLLM 用于推理](nvidia\u002Fvllm\u002F)\n- [VS Code](nvidia\u002Fvscode\u002F)\n- [构建视频搜索与摘要（VSS）智能体](nvidia\u002Fvss\u002F)\n\n## 资源\n\n- **文档**: https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fproducts\u002Fworkstations\u002Fdgx-spark\u002F\n- **开发者论坛**: https:\u002F\u002Fforums.developer.nvidia.com\u002Fc\u002Faccelerated-computing\u002Fdgx-spark-gb10\n- **服务条款**: https:\u002F\u002Fassets.ngc.nvidia.com\u002Fproducts\u002Fapi-catalog\u002Flegal\u002FNVIDIA%20API%20Trial%20Terms%20of%20Service.pdf\n\n## 许可证\n\n详情请参阅：\n- [LICENSE](LICENSE) 获取许可信息。\n- [LICENSE-3rd-party](LICENSE-3rd-party) 获取第三方许可信息。","# DGX Spark Playbooks 快速上手指南\n\n本指南旨在帮助开发者在基于 Blackwell 架构的 NVIDIA DGX Spark 设备上快速部署和运行 AI\u002FML 工作负载。DGX Spark Playbooks 提供了一系列分步教程，涵盖环境配置、模型推理、微调及多机互联等场景。\n\n## 1. 环境准备\n\n在开始之前，请确保您的硬件和软件环境满足以下要求：\n\n*   **硬件设备**：NVIDIA DGX Spark (GB10 Blackwell 架构)。\n*   **操作系统**：预装的 DGX OS 或兼容的 Ubuntu Linux 发行版。\n*   **网络连接**：确保设备已连接互联网，以便下载容器镜像和依赖包。\n    *   *国内用户建议*：若遇到拉取镜像缓慢问题，建议配置 Docker\u002FContainerd 使用国内镜像加速器（如阿里云、腾讯云或网易云镜像源）。\n*   **基础工具**：已安装 `git`, `docker` (或 `podman`), 以及 NVIDIA Container Toolkit。\n\n## 2. 安装步骤\n\nDGX Spark Playbooks 并非单一软件，而是一组针对特定任务的配置脚本和文档集合。以下是获取并运行任意一个 Playbook 的通用流程：\n\n### 第一步：克隆仓库\n将官方 Playbooks 仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks.git\ncd dgx-spark-playbooks\n```\n\n### 第二步：选择具体任务\n根据您的需求进入对应的子目录。例如，若要部署 **Ollama** 进行大模型推理：\n\n```bash\ncd nvidia\u002Follama\u002F\n```\n\n若要配置 **VS Code** 开发环境：\n\n```bash\ncd nvidia\u002Fvscode\u002F\n```\n\n### 第三步：执行安装脚本\n大多数 Playbook 目录下包含 `README.md` 详细说明及自动化脚本。通常只需运行提供的 shell 脚本即可自动完成环境搭建。以 Ollama 为例：\n\n```bash\n# 查看具体指令说明\ncat README.md\n\n# 运行安装脚本 (示例命令，具体以各目录说明为准)\n.\u002Fsetup.sh\n```\n\n> **注意**：部分高级功能（如多机互联 `connect-three-sparks` 或 `nccl`）需要确保多台 DGX Spark 设备之间的网络拓扑已正确物理连接。\n\n## 3. 基本使用\n\n安装完成后，您可以根据所选 Playbook 的功能立即开始使用。以下是两个典型场景的快速示例：\n\n### 场景一：运行本地大模型推理 (基于 Ollama)\n如果您安装了 `nvidia\u002Follama\u002F` Playbook，可以直接通过命令行拉取并运行模型：\n\n```bash\n# 拉取并运行 Llama 3 模型\nollama run llama3\n\n# 在交互界面中输入提示词\n>>> 你好，请介绍一下 NVIDIA Blackwell 架构的特点。\n```\n\n### 场景二：启动可视化 Web 界面 (基于 Open WebUI)\n如果您部署了 `nvidia\u002Fopen-webui\u002F`，可以通过浏览器访问本地服务：\n\n1.  确保服务已启动（通常脚本会自动后台运行）。\n2.  在浏览器中打开：\n    ```text\n    http:\u002F\u002Flocalhost:8080\n    ```\n3.  创建账户后即可在图形化界面中调用 DGX Spark 上的加速模型。\n\n### 场景三：多智能体聊天机器人 (Multi-Agent Chatbot)\n若部署了 `nvidia\u002Fmulti-agent-chatbot\u002F`，可运行示例代码测试多智能体协作：\n\n```bash\npython main.py --config config.yaml\n```\n\n---\n\n**更多资源**：\n*   完整文档列表请参阅各子目录下的 `README.md`。\n*   官方产品文档：[NVIDIA DGX Spark Documentation](https:\u002F\u002Fwww.nvidia.com\u002Fen-us\u002Fproducts\u002Fworkstations\u002Fdgx-spark\u002F)\n*   开发者论坛：[NVIDIA Developer Forum](https:\u002F\u002Fforums.developer.nvidia.com\u002Fc\u002Faccelerated-computing\u002Fdgx-spark-gb10)","一家初创公司的 AI 团队急需在最新的 NVIDIA DGX Spark（Blackwell 架构）设备上部署多模态推理服务并微调 FLUX.1 模型，以快速验证其创意生成产品。\n\n### 没有 dgx-spark-playbooks 时\n- 团队需手动查阅零散的官方文档来配置 Blackwell 架构特有的驱动和 CUDA 环境，极易因版本不匹配导致安装失败。\n- 搭建 FLUX.1 Dreambooth LoRA 微调环境时，缺乏针对该硬件优化的依赖库清单，反复试错消耗了数天开发时间。\n- 在多卡互联测试中，由于不清楚 NCCL 在 DGX Spark 上的特定拓扑配置，导致分布式训练效率低下甚至无法启动。\n- 遇到报错时只能盲目搜索通用解决方案，缺乏针对 DGX Spark 设备的专属故障排查指南，问题定位极其困难。\n- 从零编写推理代码和部署脚本，不仅重复造轮子，还难以发挥硬件在量化（如 NVFP4）和 speculative decoding 上的性能优势。\n\n### 使用 dgx-spark-playbooks 后\n- 直接运行“优化 JAX\"或\"CUDA-X Data Science\"剧本，一键完成适配 Blackwell 架构的全套环境配置，零错误启动。\n- 参照\"FLUX.1 Dreambooth LoRA Fine-tuning\"剧本中的步骤和示例代码，半小时内即可拉起经过深度优化的微调流水线。\n- 利用\"NCCL for Two Sparks\"等网络拓扑剧本，快速建立高效的多卡通信环境，显著加速分布式训练任务。\n- 每个剧本均包含详细的故障排除章节，团队能迅速对照解决特定于 DGX Spark 的兼容性问题，大幅缩短调试周期。\n- 直接复用\"Multi-modal Inference\"和\"TRT LLM for Inference\"中的现成代码与参数配置，立即获得硬件级的推理加速效果。\n\ndgx-spark-playbooks 将原本需要数周的环境搭建与调优工作压缩至小时级，让开发者能专注于核心算法创新而非底层基础设施的磨合。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_dgx-spark-playbooks_9f9bd07b.png","NVIDIA","NVIDIA Corporation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA_7dcf6000.png","",null,"https:\u002F\u002Fnvidia.com","https:\u002F\u002Fgithub.com\u002FNVIDIA",[80,84,88,92,96,99,103],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",69.4,{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",18.8,{"name":89,"color":90,"percentage":91},"Python","#3572A5",10.1,{"name":93,"color":94,"percentage":95},"CSS","#663399",0.8,{"name":97,"color":98,"percentage":95},"Shell","#89e051",{"name":100,"color":101,"percentage":102},"Dockerfile","#384d54",0.1,{"name":104,"color":105,"percentage":102},"JavaScript","#f1e05a",674,176,"2026-04-05T22:50:47","Apache-2.0",4,"Linux (Ubuntu)","必需，仅限 NVIDIA DGX Spark 设备 (Blackwell 架构\u002FGB10)，具体显存大小未说明，需支持 CUDA-X","未说明",{"notes":115,"python":113,"dependencies":116},"本工具集专为 NVIDIA DGX Spark (Blackwell 架构) 硬件设计，提供针对该特定设备的优化配置脚本。内容涵盖多机互联（环形拓扑或交换机连接）、本地网络设置、以及多种 AI 框架（如 ComfyUI, Isaac Sim, FLUX.1 等）的安装与微调指南。由于针对特定硬件，普通消费级显卡或其他服务器可能无法直接适用所有功能。",[117,118,119,120,121,122,123,124,125,126],"CUDA-X Data Science","PyTorch","JAX","vLLM","SGLang","llama.cpp","Ollama","NVIDIA NeMo","TensorRT-LLM","NCCL",[35,15,52,14,13,128],"其他","2026-03-27T02:49:30.150509","2026-04-06T17:04:56.085905",[132,137,142,147,152],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19601,"DGX Spark (GB10\u002Fsm_121) 是否支持第五代 Tensor Cores、TMEM 和 TMA 等 Blackwell 特性？","DGX Spark\u002FGB10 确实配备了第五代 Tensor Cores。其 CUDA 计算能力为 sm_121，您应查阅 PTX 文档中针对 sm_121 架构支持的指令列表。如果某些特定指令（如 tcgen05）当前不可用，是因为它们尚未在 sm_121 的 PTXAS 中得到支持，但硬件本身是存在的。如有更多疑问，建议前往 DGX Spark 官方论坛获取支持。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks\u002Fissues\u002F22",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19602,"运行 txt2kg playbook 时 Ollama 为什么只使用 CPU 推理导致速度极慢？","这是因为默认配置未正确启用 GPU 支持。解决方法是修改 docker-compose.yml 文件中的环境变量，将 `OLLAMA_LLM_LIBRARY` 设置为 `cuda_v13`。具体操作如下：\n在 `docker-compose.yml` (第 111 行) 或 `docker-compose.complete.yml` (第 107 行) 中添加或修改：\n`- OLLAMA_LLM_LIBRARY=cuda_v13`\n修改后重启容器，Ollama 即可使用 GPU 进行推理。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks\u002Fissues\u002F16",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},19603,"Multi-Agent Chatbot Playbook 运行后应用无响应怎么办？","该问题通常由 playbook 命令中的错误引起，维护者已修复相关命令。如果遇到此问题，请尝试重新运行最新的 playbook 指令。如果问题依旧，可能需要编辑相关的 cpp 文件进行手动修复，或者参考社区提供的详细修复指南（如 Medium 上的相关文章）。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks\u002Fissues\u002F21",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},19604,"构建 VLM Fine-tuning Recipes 的 Docker 镜像失败怎么办？","该 Playbook 目前已被暂时下架进行返工，稍后会重新发布。如果您遇到构建错误，建议先尝试清理本地的 Docker 镜像缓存（运行 `docker system prune`），然后重试。如果问题依然存在，请耐心等待官方重新发布更新后的版本。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks\u002Fissues\u002F2",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},19605,"部署 Multi-Agent Chatbot 时出现 Next.js 错误且无法远程访问应用如何解决？","若要支持远程访问，需要修改前端配置文件以监听所有网络接口。具体步骤如下：\n1. 修改 `assets\u002Ffrontend\u002Fpackage.json` 中的 dev 脚本，添加 `-H 0.0.0.0` 参数：\n   `\"dev\": \"next dev --turbopack -H 0.0.0.0\"`\n2. 修改 `assets\u002Ffrontend\u002Fsrc\u002Fcomponents\u002FQuerySection.tsx` 中的 WebSocket 连接逻辑，将硬编码的 'localhost' 替换为动态获取当前主机地址：\n   `const wsHost = window.location.hostname;`\n   并确保协议（ws\u002Fwss）和端口正确指向后端服务（通常为 8000）。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fdgx-spark-playbooks\u002Fissues\u002F9",[]]