[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huggingface--meshgen":3,"tool-huggingface--meshgen":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[26,14,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":100,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":133},3362,"huggingface\u002Fmeshgen","meshgen","Use AI Agents directly in Blender.","MeshGen 是一款专为 Blender 设计的 AI 插件，旨在让用户通过自然语言指令直接操控这款强大的 3D 创作软件。它并非要取代设计师的创意工作，而是作为智能助手，帮助用户更高效地执行建模、场景调整等复杂操作，解决了传统 3D 制作中命令繁琐、学习曲线陡峭的痛点。\n\n无论是专业 3D 设计师、游戏开发者，还是对 AI 辅助创作感兴趣的研究人员，都能从中受益。普通用户若拥有高性能显卡，也可利用本地部署轻松体验；而追求极致效果的专业人士则可通过 API 连接云端大模型。\n\nMeshGen 的技术亮点在于其灵活的架构：支持本地运行（基于 llama.cpp 或 Ollama），保护数据隐私且无需联网；同时也兼容 Hugging Face、Anthropic 和 OpenAI 等远程服务，让用户能按需调用 Llama、Claude 或 GPT-4o 等顶尖模型。此外，它还可选集成 LLaMA-Mesh 和 Hyper3D 技术，进一步增强对 3D 网格的理解与高保真生成能力。只需在 Blender 偏好设置中简单配置，即可开启“对话式”3D 创作新体验。","# MeshGen\n\nUse AI Agents to control Blender with natural language.\n\n![meshgen](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_065c116837ae.gif)\n\n## Features\n\n-   Focused on AI as a tool, not replacement\n-   Multiple backend options:\n    -   Local inference with [llama.cpp](#local-backend) or [Ollama](#ollama)\n    -   Remote inference with [Hugging Face](#hugging-face), [Anthropic](#anthropic), or [OpenAI](#openai)\n-   Optional [LLaMA-Mesh](#llama-mesh) integration for local mesh understanding and generation\n-   Optional [Hyper3D](#hyper3d) integration for high-fidelity 3D mesh generation\n\n## Installation\n\n1. Go to the [Latest Release](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Freleases\u002Flatest) page\n2. Download the addon ZIP file for your platform\n3. In Blender, go to `Edit` -> `Preferences` -> `Add-ons` -> Top-Right Arrow -> `Install from Disk...`\n4. Select the downloaded ZIP file\n\n## Setup\n\n1. In blender, go to `Edit` -> `Preferences` -> `Add-ons` -> `meshgen`\n2. Select either [`Local`](#local-backend) or [`Remote`](#remote-backend) and follow instructions below\n\n### Local Backend\n\n![local-backend](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_fae264f40982.png)\n\nRun models free locally directly in Blender.\n\nOnly select this option if you:\n\n1. Have a powerful NVIDIA GPU with at least 8GB of VRAM\n2. Installed a `cuda` version of the addon during [Installation](#installation)\n3. Prefer running the model directly in Blender instead of a local [Ollama](#ollama) server\n\nTo set up the local backend, you can either:\n\n1. Click `Download Recommended Model` to download [Meta-Llama-3.1-8B-Instruct-GGUF](https:\u002F\u002Fhuggingface.co\u002Fbartowski\u002FMeta-Llama-3.1-8B-Instruct-GGUF)\n2. Manually download a `.GGUF` model and put it in the models folder (located by clicking the folder icon)\n\n### Remote Backend\n\n![remote-backend](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_8d061d40f8ae.png)\n\nMeshGen supports a variety of remote backends.\n\n1. [Ollama](#ollama) to run models in a free local server\n2. [Hugging Face](#hugging-face), [Anthropic](#anthropic), or [OpenAI](#openai) to run powerful models via API\n\n[Hugging Face](#hugging-face) is recommended for most users, providing limited free use of powerful models.\n\n#### Ollama\n\nRun models free locally with an Ollama server.\n\n1. Install [Ollama](https:\u002F\u002Follama.com\u002F)\n2. Run `ollama serve` in the terminal\n3. Select `Ollama` in the `Provider` dropdown\n4. Enter your `Ollama` server endpoint and model name (the defaults should work for most users)\n\n#### Hugging Face\n\nRun a wide variety of models such as Llama, DeepSeek, Mistral, Qwen, and more via the Hugging Face API.\n\n1. Create an account on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002F)\n2. Go to [hf.co\u002Fsettings\u002Ftokens](https:\u002F\u002Fhf.co\u002Fsettings\u002Ftokens) and create a new token\n3. Select `Hugging Face` in the `Provider` dropdown\n4. Enter your `Hugging Face` token in the `API Key` field\n5. Optionally, change the `Model ID` to the model you want to use (e.g. `meta-llama\u002FLlama-3.3-70B-Instruct`)\n\n#### Anthropic\n\nRun Anthropic models (i.e. Claude) with the Anthropic API.\n\n1. Create an account on [Anthropic](https:\u002F\u002Fconsole.anthropic.com\u002F)\n2. Go to [console.anthropic.com\u002Fsettings\u002Fkeys](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fkeys) and create a new key\n3. Select `Anthropic` in the `Provider` dropdown\n4. Enter your `Anthropic` key in the `API Key` field\n5. Optionally, change the `Model ID` to the model you want to use (e.g. `claude-3-5-sonnet-latest`)\n\n#### OpenAI\n\nRun OpenAI models (i.e. ChatGPT) with the OpenAI API.\n\n1. Create an account on [OpenAI](https:\u002F\u002Fplatform.openai.com\u002F)\n2. Go to [platform.openai.com\u002Fapi-keys](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) and create a new secret key\n3. Select `OpenAI` in the `Provider` dropdown\n4. Enter your `OpenAI` secret key in the `API Key` field\n5. Optionally, change the `Model ID` to the model you want to use (e.g. `gpt-4o-mini`)\n\n## Optional Integrations\n\n![integrations](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_528de6823a8e.png)\n\nTo enable optional integrations, go to `Edit` -> `Preferences` -> `Add-ons` -> `meshgen` -> `Integrations`.\n\nWhen these are enabled, the agent will automatically be given access to these tools, depending on the context.\n\n### LLaMA-Mesh\n\nUse [LlamaMesh](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FLLaMA-Mesh) local mesh understanding and generation.\n\nOnly select this option if you:\n\n1. Have a powerful NVIDIA GPU with at least 8GB of VRAM\n2. Installed a `cuda` version of the addon during [Installation](#installation)\n3. Are using a remote API backend (e.g. [Hugging Face](#hugging-face), [Anthropic](#anthropic), or [OpenAI](#openai)), as LLaMA-Mesh will load locally on your machine\n\nTo enable LLaMA-Mesh, click `Load LLama-Mesh` and wait for the model to load.\n\n### Hyper3D\n\nUse [Hyper3D](https:\u002F\u002Fhyper3d.ai\u002F) for high-fidelity 3D mesh generation.\n\nTo enable:\n\n1. Check `Enable Hyper3D`\n2. Enter your Hyper3D API key in the `API Key` field (free use is currently provided with the `awesomemcp` key)\n\nThis may take several minutes per mesh.\n\n## Usage\n\n-   Press `N` -> `MeshGen` (or `View` -> `Sidebar` -> Select the `MeshGen` tab)\n-   Enter a prompt, for example: `Create a snowman`\n-   Click `Submit`\n\n## Troubleshooting\n\n-   Find errors in the console:\n    -   Windows: In Blender, go to `Window` -> `Toggle System Console`\n    -   Mac\u002FLinux: Launch Blender from the terminal\n-   Report errors in [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues)\n","# MeshGen\n\n使用 AI 代理通过自然语言控制 Blender。\n\n![meshgen](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_065c116837ae.gif)\n\n## 功能\n\n-   专注于将 AI 作为工具，而非替代品\n-   多种后端选项：\n    -   本地推理：使用 [llama.cpp](#local-backend) 或 [Ollama](#ollama)\n    -   远程推理：使用 [Hugging Face](#hugging-face)、[Anthropic](#anthropic) 或 [OpenAI](#openai)\n-   可选的 [LLaMA-Mesh](#llama-mesh) 集成，用于本地网格理解和生成\n-   可选的 [Hyper3D](#hyper3d) 集成，用于高保真 3D 网格生成\n\n## 安装\n\n1. 访问 [最新发布](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Freleases\u002Flatest) 页面\n2. 下载适用于您平台的插件 ZIP 文件\n3. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件` -> 右上角箭头 -> `从磁盘安装...`\n4. 选择下载的 ZIP 文件\n\n## 设置\n\n1. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件` -> `meshgen`\n2. 选择 [`本地`](#local-backend) 或 [`远程`](#remote-backend)，并按照下方说明操作\n\n### 本地后端\n\n![local-backend](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_fae264f40982.png)\n\n在 Blender 中直接免费运行模型。\n\n仅当满足以下条件时才选择此选项：\n\n1. 您拥有一块至少 8GB 显存的强大 NVIDIA 显卡\n2. 在 [安装](#installation) 时已安装了带有 `cuda` 的插件版本\n3. 您更倾向于直接在 Blender 中运行模型，而不是在本地 [Ollama](#ollama) 服务器上运行\n\n要设置本地后端，您可以：\n\n1. 点击 `下载推荐模型`，以下载 [Meta-Llama-3.1-8B-Instruct-GGUF](https:\u002F\u002Fhuggingface.co\u002Fbartowski\u002FMeta-Llama-3.1-8B-Instruct-GGUF)\n2. 手动下载一个 `.GGUF` 模型，并将其放入模型文件夹中（可通过点击文件夹图标找到该文件夹）\n\n### 远程后端\n\n![remote-backend](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_8d061d40f8ae.png)\n\nMeshGen 支持多种远程后端。\n\n1. [Ollama](#ollama)：在免费的本地服务器上运行模型\n2. [Hugging Face](#hugging-face)、[Anthropic](#anthropic) 或 [OpenAI](#openai)：通过 API 运行强大的模型\n\n对于大多数用户来说，推荐使用 [Hugging Face](#hugging-face)，它提供对强大模型的有限免费使用。\n\n#### Ollama\n\n通过 Ollama 服务器在本地免费运行模型。\n\n1. 安装 [Ollama](https:\u002F\u002Follama.com\u002F)\n2. 在终端中运行 `ollama serve`\n3. 在 `提供商` 下拉菜单中选择 `Ollama`\n4. 输入您的 `Ollama` 服务器地址和模型名称（默认设置通常适用于大多数用户）\n\n#### Hugging Face\n\n通过 Hugging Face API 运行各种模型，如 Llama、DeepSeek、Mistral、Qwen 等。\n\n1. 在 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002F) 上创建一个账户\n2. 前往 [hf.co\u002Fsettings\u002Ftokens](https:\u002F\u002Fhf.co\u002Fsettings\u002Ftokens) 并创建一个新的令牌\n3. 在 `提供商` 下拉菜单中选择 `Hugging Face`\n4. 将您的 `Hugging Face` 令牌输入到 `API 密钥` 字段中\n5. 您还可以根据需要更改 `模型 ID`，例如使用 `meta-llama\u002FLlama-3.3-70B-Instruct`\n\n#### Anthropic\n\n使用 Anthropic API 运行 Anthropic 模型（如 Claude）。\n\n1. 在 [Anthropic](https:\u002F\u002Fconsole.anthropic.com\u002F) 上创建一个账户\n2. 前往 [console.anthropic.com\u002Fsettings\u002Fkeys](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fkeys) 并创建一个新的密钥\n3. 在 `提供商` 下拉菜单中选择 `Anthropic`\n4. 将您的 `Anthropic` 密钥输入到 `API 密钥` 字段中\n5. 您还可以根据需要更改 `模型 ID`，例如使用 `claude-3-5-sonnet-latest`\n\n#### OpenAI\n\n使用 OpenAI API 运行 OpenAI 模型（如 ChatGPT）。\n\n1. 在 [OpenAI](https:\u002F\u002Fplatform.openai.com\u002F) 上创建一个账户\n2. 前往 [platform.openai.com\u002Fapi-keys](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) 并创建一个新的密钥\n3. 在 `提供商` 下拉菜单中选择 `OpenAI`\n4. 将您的 `OpenAI` 秘密密钥输入到 `API 密钥` 字段中\n5. 您还可以根据需要更改 `模型 ID`，例如使用 `gpt-4o-mini`\n\n## 可选集成\n\n![integrations](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_readme_528de6823a8e.png)\n\n要启用可选集成，请依次进入 `编辑` -> `偏好设置` -> `附加组件` -> `meshgen` -> `集成`。\n\n启用这些功能后，代理会根据上下文自动获得对这些工具的访问权限。\n\n### LLaMA-Mesh\n\n使用 [LlamaMesh](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FLLaMA-Mesh) 进行本地网格理解和生成。\n\n仅当满足以下条件时才选择此选项：\n\n1. 您拥有一块至少 8GB 显存的强大 NVIDIA 显卡\n2. 在 [安装](#installation) 时已安装了带有 `cuda` 的插件版本\n3. 您正在使用远程 API 后端（如 [Hugging Face](#hugging-face)、[Anthropic](#anthropic) 或 [OpenAI](#openai)），因为 LLaMA-Mesh 会在您的本地机器上加载\n\n要启用 LLaMA-Mesh，点击 `加载 LLama-Mesh`，并等待模型加载完成。\n\n### Hyper3D\n\n使用 [Hyper3D](https:\u002F\u002Fhyper3d.ai\u002F) 进行高保真 3D 网格生成。\n\n启用步骤如下：\n\n1. 勾选 `启用 Hyper3D`\n2. 在 `API 密钥` 字段中输入您的 Hyper3D API 密钥（目前可以使用 `awesomemcp` 密钥免费使用）\n\n每生成一个网格可能需要几分钟时间。\n\n## 使用方法\n\n-   按下 `N` 键 -> `MeshGen`（或依次进入 `视图` -> `侧边栏` -> 选择 `MeshGen` 选项卡）\n-   输入提示词，例如：`创建一个雪人`\n-   点击 `提交`\n\n## 故障排除\n\n-   在控制台中查找错误信息：\n    -   Windows：在 Blender 中，依次进入 `窗口` -> `切换系统控制台`\n    -   Mac\u002FLinux：从终端启动 Blender\n-   如有错误，请在 [问题页面](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 上报告","# MeshGen 快速上手指南\n\nMeshGen 是一款 Blender 插件，允许用户通过自然语言指令控制 AI Agent 进行 3D 网格的生成与编辑。它支持本地部署（需高性能显卡）或调用远程 API（如 Hugging Face、OpenAI 等）。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n*   **软件依赖**：已安装 **Blender**（推荐最新稳定版）。\n*   **硬件要求（仅本地模式）**：\n    *   若选择**本地后端**或启用 **LLaMA-Mesh** 集成：需要配备至少 **8GB 显存** 的 NVIDIA GPU，并确保护展已安装 CUDA 支持版本。\n    *   若使用**远程后端**（推荐）：对本地硬件无特殊要求，普通配置即可运行。\n*   **网络环境**：访问 Hugging Face、Ollama 或大模型 API 需要稳定的网络连接。国内用户建议配置网络加速工具或使用国内镜像源下载模型文件。\n\n## 安装步骤\n\n1.  **下载插件**\n    前往 [MeshGen Latest Release](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Freleases\u002Flatest) 页面，下载对应平台的 addon ZIP 文件。\n    > 注意：若计划使用本地推理，请务必下载带有 `cuda` 标识的版本。\n\n2.  **导入 Blender**\n    打开 Blender，依次点击菜单栏：\n    `Edit` -> `Preferences` -> `Add-ons`\n    点击右上角箭头图标，选择 `Install from Disk...`，选中刚才下载的 ZIP 文件并确认安装。\n\n3.  **配置后端**\n    在 Add-ons 列表中搜索并点击 `meshgen` 进入设置面板，根据需求选择后端模式：\n\n    *   **方案 A：远程后端（推荐大多数用户）**\n        1.  选择 `Remote` 模式。\n        2.  在 `Provider` 下拉菜单中选择服务商（推荐 **Hugging Face**，提供免费额度；也可选 Anthropic 或 OpenAI）。\n        3.  填入对应的 `API Key`。\n            *   *Hugging Face*: 在 [hf.co\u002Fsettings\u002Ftokens](https:\u002F\u002Fhf.co\u002Fsettings\u002Ftokens) 创建 Token 并填入。\n            *   *Anthropic\u002FOpenAI*: 分别在各自控制台创建 Key 并填入。\n        4.  （可选）修改 `Model ID` 以指定特定模型（例如 `meta-llama\u002FLlama-3.3-70B-Instruct`）。\n\n    *   **方案 B：本地后端（需高配显卡）**\n        1.  选择 `Local` 模式。\n        2.  点击 `Download Recommended Model` 自动下载模型，或手动将 `.GGUF` 模型文件放入插件指定的 models 文件夹中。\n\n4.  **可选集成（高级功能）**\n    如需使用高精度生成或本地网格理解，可在 `Integrations` 标签页中：\n    *   **LLaMA-Mesh**：点击 `Load LLama-Mesh`（需本地 CUDA 环境且配合远程 API 使用）。\n    *   **Hyper3D**：勾选 `Enable Hyper3D` 并填入 API Key（当前可使用 `awesomemcp` 作为免费测试 Key）。\n\n## 基本使用\n\n安装配置完成后，即可通过自然语言生成 3D 模型：\n\n1.  **打开面板**\n    在 Blender 界面右侧按下快捷键 `N` 打开侧边栏，点击 `MeshGen` 标签页（或通过菜单 `View` -> `Sidebar` 查找）。\n\n2.  **输入指令**\n    在文本框中输入你的创作意图，例如：\n    ```text\n    Create a snowman\n    ```\n\n3.  **执行生成**\n    点击 `Submit` 按钮，AI Agent 将自动调用 Blender 工具链完成建模。\n\n> **提示**：操作过程中如遇错误，Windows 用户可通过 `Window` -> `Toggle System Console` 查看控制台日志；Mac\u002FLinux 用户请在终端启动 Blender 以查看输出信息。","一位独立游戏开发者正在 Blender 中紧急构建一个科幻风格的废弃空间站场景，需要快速生成大量结构复杂且风格统一的资产。\n\n### 没有 meshgen 时\n- **重复劳动繁重**：手动建模每一个通风管道、破损面板和支撑梁，耗费数小时在机械性的挤出和倒角操作上。\n- **技术门槛限制**：面对复杂的拓扑结构或程序化生成需求，因不熟悉 Python 脚本编写而无法实现自动化批量处理。\n- **创意迭代缓慢**：想要尝试“更扭曲的金属结构”或“不同分布的电缆”时，必须推翻重做或花费大量时间微调参数，严重打断心流。\n- **上下文切换频繁**：需要在查阅建模教程、寻找外部插件和返回 Blender 操作之间不断切换，导致注意力分散，效率低下。\n\n### 使用 meshgen 后\n- **自然语言驱动建模**：直接在 Blender 侧边栏输入“生成一组带有锈蚀痕迹的六边形通风口”，meshgen 调用 AI Agent 自动执行建模步骤，瞬间完成基础形态。\n- **零代码实现自动化**：无需编写一行 Python 代码，通过对话指令即可让 meshgen 控制 Blender API，批量生成并随机化排列数百个场景道具。\n- **实时创意验证**：随口说出“让结构看起来更像被爆炸冲击过”，meshgen 立即理解意图并调整网格形变与细节，支持秒级的多方案对比。\n- **沉浸式工作流**：全程无需离开 Blender 界面，本地或云端大模型直接在软件内响应指令，让开发者专注于艺术指导而非技术实现。\n\nmeshgen 将繁琐的建模执行转化为直观的创意对话，让艺术家真正掌控 3D 创作的节奏与想象力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_meshgen_bb2d94c5.png","huggingface","Hugging Face","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuggingface_90da21a4.png","The AI community building the future.",null,"https:\u002F\u002Fhuggingface.co\u002F","https:\u002F\u002Fgithub.com\u002Fhuggingface",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,850,67,"2026-04-03T08:26:28","MIT","Windows, macOS, Linux","本地推理或 LLaMA-Mesh 集成必需：NVIDIA GPU，显存至少 8GB，需安装 CUDA 版本的插件；远程推理非必需。","未说明",{"notes":95,"python":93,"dependencies":96},"该工具是 Blender 插件，需通过 Blender 界面安装。支持多种后端：本地运行（需高性能 NVIDIA GPU 和 CUDA 版插件）或通过 Ollama、Hugging Face、Anthropic、OpenAI 进行远程推理。可选集成 LLaMA-Mesh（需本地 GPU）和 Hyper3D（需 API Key）。推荐使用 Hugging Face 后端以获得有限的免费高性能模型使用权。",[97,98,99],"llama.cpp (可选)","Ollama (可选)","Blender Add-on",[15,45,46],"2026-03-27T02:49:30.150509","2026-04-06T05:37:17.522443",[104,109,114,119,124,129],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},15457,"加载生成器时提示错误：'Shared library with base name llama not found'（未找到 llama 共享库）怎么办？","这通常是因为下载了错误的文件。请不要直接从主分支下载源码压缩包，而应该去 GitHub Actions 的构建页面下载预编译好的插件版本。例如，从特定的 Action 运行记录（如 https:\u002F\u002Fgithub.com\u002Fzosman1\u002Fmeshgen\u002Factions\u002Fruns\u002F12267123439）中下载 artifacts（构建产物），里面包含已编译好的依赖库。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues\u002F14",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},15458,"在 Windows 上加载生成器失败，提示找不到 'llama.dll' 或其依赖项，如何解决？","该问题通常与 CUDA 环境配置有关。尝试重新安装特定版本的 CUDA（例如 CUDA 12.1）通常可以解决此问题。确保系统环境变量正确指向了 CUDA 安装路径。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues\u002F11",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},15459,"Linux 下 CUDA 版本运行极慢，且几乎不占用 GPU 显存，只使用 CPU，如何处理？","这可能是使用了不包含完整 CUDA 支持的旧版本或基础版本。请尝试下载并安装最新的发布版本（例如 v0.3.1 或更高），新版本通常修复了 GPU 调用问题并能显著提升速度。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues\u002F16",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},15460,"加载生成器时遇到 'CUDA out of memory'（显存不足）错误，有什么解决办法？","显存不足通常是因为模型过大或版本优化不够。建议升级到最新的发布版本，新版本已经降低了 VRAM（显存）的需求。如果问题依旧，可以尝试设置环境变量 `PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True` 以避免内存碎片化。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues\u002F7",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},15461,"是否支持连接远程 Ollama 后端而不是使用本地内置的推理引擎？","是的，项目已支持此功能。你可以在插件的偏好设置中找到相关选项（可能在“显示开发者选项”中），配置远程 Ollama 服务器的主机地址和端口，即可利用头显式 GPU 机器进行推理，而无需在本地运行庞大的模型。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues\u002F12",{"id":130,"question_zh":131,"answer_zh":132,"source_url":108},15462,"导入 numpy 时报错：'you should not try to import numpy from its source directory'，如何解决？","这个错误表明插件安装了错误的文件版本（通常是源码包而非构建包）。请务必从 GitHub Actions 的构建记录中下载预编译的 artifacts 文件进行安装，不要直接克隆仓库或下载主分支的源码压缩包，因为后者缺少编译好的二进制依赖。",[134,139,144,149,154,159,164,169],{"id":135,"version":136,"summary_zh":137,"released_at":138},90131,"v0.7.1","本次更新包括：\n- 改进了 README 文件\n- 在安装过程中添加了更多信息\n- 将默认后端从 `Remote` 更改为 `Hugging Face`，以避免使用可能在大多数设备上无法运行的大型本地模型的默认行为\n- 重型工具（`LLaMA-Mesh`、`hyper3d`）不再阻塞 Blender 的主线程\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本运行本地模型时速度较慢，但支持更多设备。如果您满足相关要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cpu-{platform}.zip`。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，然后选择 `从磁盘安装`。\n3. 选择 `meshgen-cpu-{platform}.zip` 文件。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本运行本地模型时速度更快，但需要高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少配备 8GB 显存的 NVIDIA 显卡\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cuda-{platform}.zip`。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，然后选择 `从磁盘安装`。\n3. 选择 `meshgen-cuda-{platform}.zip` 文件。\n\n# 设置\n\n安装完成后，请按照 [设置](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen?tab=readme-ov-file#setup) 中的说明进行操作。","2025-04-14T20:00:02",{"id":140,"version":141,"summary_zh":142,"released_at":143},90132,"v0.7.0","本次重大发布为 Blender 新增了 AI 代理功能。\n\n- 可使用多种 Blender 工具，类似于 [blender-mcp](https:\u002F\u002Fgithub.com\u002Fahujasid\u002Fblender-mcp)。\n- 支持任意模型后端：\n  - 本地（llama_cpp_python、ollama）\n  - Hugging Face 推理 API\n  - Anthropic API\n  - OpenAI API\n- 增加可选集成：\n  - LLaMA-Mesh，用于本地网格生成与理解\n  - Hyper3D（Rodin）API，用于生成复杂对象\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本运行本地模型速度较慢，但支持更多设备。若满足条件，建议使用 GPU 版本。\n\n### 需求\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 步骤\n1. 根据您的平台，在下方“Assets”中下载 `meshgen-cpu-{platform}.zip`。\n2. 在 Blender 中，依次进入 `Edit` -> `Preferences` -> `Add-ons`，点击右上角的箭头，选择 `Install from Disk`。\n3. 选择 `meshgen-cpu-{platform}.zip`。\n4. 在插件偏好设置中，点击 `Download Recommended Model`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本运行本地模型速度快得多，但需要高端 NVIDIA 显卡。\n\n### 需求\n- 至少配备 8GB 显存的 NVIDIA 显卡\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 步骤\n1. 根据您的平台，在下方“Assets”中下载 `meshgen-cuda-{platform}.zip`。\n2. 在 Blender 中，依次进入 `Edit` -> `Preferences` -> `Add-ons`，点击右上角的箭头，选择 `Install from Disk`。\n3. 选择 `meshgen-cuda-{platform}.zip`。\n4. 在插件偏好设置中，点击 `Download Recommended Model`。\n\n# 使用方法\n\n- 按下 `N` 键，打开 `MeshGen` 面板（或通过 `View` -> `Sidebar`，选择 `MeshGen` 选项卡）。\n- 输入提示词，例如：`Create a snowman`。\n- 点击 `Submit`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `Window` -> `Toggle System Console`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如有错误，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交报告。","2025-04-01T21:33:29",{"id":145,"version":146,"summary_zh":147,"released_at":148},90133,"v0.6.0","**本次更新包含重大的后端和用户界面重构**\n- 现已支持多后端，包括用于不同提供商的远程 `litellm` 后端\n- 整体 UI\u002FUX 得到显著提升\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本速度较慢，但兼容更多设备。若您的硬件满足要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的操作系统，在下方“Assets”中下载 `meshgen-cpu-{platform}.zip`。\n2. 在 Blender 中，依次进入 `Edit` -> `Preferences` -> `Add-ons`，点击右上角的箭头，选择 `Install from Disk`。\n3. 选择 `meshgen-cpu-{platform}.zip` 文件。\n4. 在插件设置中，点击 `Download Recommended Model`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本速度大幅提升，但需要高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少配备 8GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的操作系统，在下方“Assets”中下载 `meshgen-cuda-{platform}.zip`。\n2. 在 Blender 中，依次进入 `Edit` -> `Preferences` -> `Add-ons`，点击右上角的箭头，选择 `Install from Disk`。\n3. 选择 `meshgen-cuda-{platform}.zip` 文件。\n4. 在插件设置中，点击 `Download Recommended Model`。\n\n# 使用方法\n\n- 按下 `N` 键，打开 `MeshGen` 面板（或通过 `View` -> `Sidebar` 选择 `MeshGen` 选项卡）。\n- 点击 `Load Generator`（此过程可能需要一些时间）。\n- 输入提示词，例如：`根据以下描述创建一个 3D 对象文件：一张桌子`。\n- 点击 `Generate Mesh`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `Window` -> `Toggle System Console`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如遇问题，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交错误报告。","2025-03-14T20:01:36",{"id":150,"version":151,"summary_zh":152,"released_at":153},90134,"v0.5.0","此版本通过使用[内置的 wheel 包](https:\u002F\u002Fdocs.blender.org\u002Fmanual\u002Fen\u002Flatest\u002Fadvanced\u002Fextensions\u002Fpython_wheels.html)极大地简化了依赖管理。\n\n因此，ollama 后端选项已被移除。未来将提供一种更灵活的方式来使用各种模型和后端。目前，如果您需要使用 ollama 后端，建议您使用[之前的版本](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Freleases\u002Ftag\u002Fv0.4.0)。\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本速度较慢，但支持更多设备。如果您的硬件满足要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cpu-{platform}.zip`。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，然后选择 `从磁盘安装`。\n3. 选择 `meshgen-cpu-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本速度更快，但需要高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少配备 8GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cuda-{platform}.zip`。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，然后选择 `从磁盘安装`。\n3. 选择 `meshgen-cuda-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n# 使用方法\n\n- 按 `N` 键打开侧边栏，找到 `MeshGen` 面板（或通过 `视图` -> `侧边栏` 选择 `MeshGen` 选项卡）。\n- 点击 `加载生成器`（此过程可能需要一些时间）。\n- 输入提示词，例如：`根据以下描述创建一个 3D 对象文件：一张桌子`。\n- 点击 `生成网格`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `窗口` -> `切换系统控制台`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如有错误，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交报告。","2025-03-08T03:16:24",{"id":155,"version":156,"summary_zh":157,"released_at":158},90135,"v0.4.0","此版本已迁移到新的 [Blender 扩展](https:\u002F\u002Fdocs.blender.org\u002Fmanual\u002Fen\u002Flatest\u002Fadvanced\u002Fextensions\u002Findex.html)系统，适用于 Blender 4.2 及更高版本。\n\n**安装前，请先卸载所有旧版本，然后重启 Blender。**\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本速度较慢，但支持更多设备。如果您满足相关要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的操作系统，在下方的“Assets”中下载 `meshgen-cpu-{platform}.zip` 文件。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cpu-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本速度更快，但需要配备高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少拥有 8GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2+](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的操作系统，在下方的“Assets”中下载 `meshgen-cuda-{platform}.zip` 文件。\n2. 在 Blender 中，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cuda-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n# 使用方法\n\n- 按 `N` 键，打开侧边栏，找到 `MeshGen` 面板（或通过 `视图` -> `侧边栏` 选择 `MeshGen` 选项卡）。\n- 点击 `加载生成器`（此过程可能需要一些时间）。\n- 输入提示词，例如：`根据以下描述创建一个 3D 对象文件：一张桌子`。\n- 点击 `生成网格`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `窗口` -> `切换系统控制台`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如有错误，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交报告。","2025-03-07T02:45:55",{"id":160,"version":161,"summary_zh":162,"released_at":163},90136,"v0.3.1","此版本新增对 Ollama 服务器的支持，并增加了更多发布架构。\n\n感谢：\n- @AidanNelson 添加了 Ollama 服务器支持 #13\n- @zosman1 增加了更多发布架构 #15\n\n**安装前，请先卸载所有旧版本，然后重启 Blender。**\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本速度较慢，但支持的设备更广泛。如果您满足相关要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cpu-{platform}.zip`。\n2. 打开 Blender，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cpu-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本速度大幅提升，但需要高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少配备 8GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 根据您的平台，在下方的 Assets 中下载 `meshgen-cuda-{platform}.zip`。\n2. 打开 Blender，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cuda-{platform}.zip` 文件。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n# 使用方法\n\n- 按 `N` 键，打开侧边栏中的 `MeshGen` 面板（或通过 `视图` -> `侧边栏` 选择 `MeshGen` 选项卡）。\n- 点击 `加载生成器`（此过程可能需要一些时间）。\n- 输入提示词，例如：`根据以下描述创建一个 3D 对象文件：一张桌子`。\n- 点击 `生成网格`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `窗口` -> `切换系统控制台`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如有错误，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交报告。","2024-12-23T17:50:40",{"id":165,"version":166,"summary_zh":167,"released_at":168},90137,"v0.3.0","此版本大幅提升了性能并降低了内存需求。其实现方式是将原有的 Transformer 后端和完整模型替换为 llama-cpp-python 后端和量化模型。\n\n**安装前，请先卸载所有旧版本，然后重启 Blender。**\n\n# 安装\n\n## Windows\u002FMac\u002FLinux（CPU）\n\n此版本速度较慢，但支持更多设备。若您的硬件满足要求，建议使用 GPU 版本。\n\n### 系统要求\n\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 在下方的“Assets”中下载 `meshgen-cpu.zip`。\n2. 打开 Blender，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cpu.zip`。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n## Windows\u002FLinux（NVIDIA GPU）\n\n此版本速度显著更快，但需要高端 NVIDIA 显卡。\n\n### 系统要求\n- 至少配备 8GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 操作步骤\n1. 在下方的“Assets”中下载 `meshgen-cuda.zip`。\n2. 打开 Blender，依次进入 `编辑` -> `偏好设置` -> `附加组件`，点击右上角的箭头，选择 `从磁盘安装`。\n3. 选择 `meshgen-cuda.zip`。\n4. 在附加组件的偏好设置中，点击 `下载所需模型`。\n\n# 使用方法\n\n- 按下 `N` 键，打开侧边栏，找到 `MeshGen` 面板（或通过 `视图` -> `侧边栏` 选择 `MeshGen` 标签页）。\n- 点击 `加载生成器`（此过程可能需要一些时间）。\n- 输入提示词，例如：`根据以下描述创建一个 3D 对象文件：一张桌子`。\n- 点击 `生成网格`。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入 `窗口` -> `切换系统控制台`。\n  - Mac\u002FLinux：请从终端启动 Blender。\n- 如有错误，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues) 中提交报告。","2024-12-03T18:54:35",{"id":170,"version":171,"summary_zh":172,"released_at":173},90138,"v0.1.0","此初始版本在 Blender 中实现了对 [LLaMa-Mesh](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FLLaMA-Mesh) 的最小化集成。\n\n# 安装\n\n## Windows\u002FLinux\n\n### 需求\n- 至少配备 16GB 显存的 NVIDIA GPU\n- [CUDA 12.1](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-1-0-download-archive)\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n- [7-Zip] (https:\u002F\u002F7-zip.org\u002Fdownload.html)\n\n### 步骤\n1. 在下方的 Assets 中下载 `meshgen-win-linux-cuda.7z` 文件。\n2. 右键单击该文件，选择“显示更多选项” -> “7-Zip” -> “解压到此处”，以提取 `meshgen.zip` 文件。\n3. 打开 Blender，依次进入“编辑” -> “偏好设置” -> “附加组件”，点击右上角的箭头，然后选择“从磁盘安装”。\n4. 选择 `meshgen.zip` 文件。\n\n## Mac（未测试）\n\n### 需求\n- [Blender 4.2](https:\u002F\u002Fwww.blender.org\u002Fdownload\u002Freleases\u002F4-2\u002F)\n\n### 步骤\n1. 在下方的 Assets 中下载 `meshgen-macos-arm.zip` 文件。\n2. 解压其中的 `meshgen.zip` 文件。\n3. 打开 Blender，依次进入“编辑” -> “偏好设置” -> “附加组件”，点击右上角的箭头，然后选择“从磁盘安装”。\n4. 选择 `meshgen.zip` 文件。\n\n# 设置\n- 在 `MeshGen` 插件的偏好设置中，点击“下载所需模型”。\n- 如果设置正确，插件偏好设置应显示消息：“已准备就绪。按 ‘N’ -> MeshGen 即可开始。”\n\n# 使用\n\n- 按 `N` -> `MeshGen`。\n- 点击“加载生成器”（此过程可能需要一些时间）。\n- 输入提示词，例如：“根据以下描述创建一个 3D 对象文件：一张桌子”。\n- 点击“生成网格”。\n\n# 故障排除\n\n- 查看控制台中的错误信息：\n  - Windows：在 Blender 中，依次进入“窗口” -> “切换系统控制台”。\n  - Mac\u002FLinux：从终端启动 Blender。\n- 将错误报告提交至 [Issues](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fmeshgen\u002Fissues)。","2024-11-27T20:18:21"]