[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bodaay--HuggingFaceModelDownloader":3,"tool-bodaay--HuggingFaceModelDownloader":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":108,"forks":109,"last_commit_at":110,"license":111,"difficulty_score":112,"env_os":113,"env_gpu":114,"env_ram":115,"env_deps":116,"category_tags":121,"github_topics":122,"view_count":23,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":127,"updated_at":128,"faqs":129,"releases":160},3805,"bodaay\u002FHuggingFaceModelDownloader","HuggingFaceModelDownloader","Simple go utility to download HuggingFace Models and Datasets","HuggingFaceModelDownloader 是一款基于 Go 语言开发的高效实用工具，专为快速下载 HuggingFace Hub 上的模型和数据集而设计。它主要解决了官方下载方式速度慢、大文件易中断以及难以选择合适量化版本等痛点。\n\n该工具特别适合需要频繁获取大模型的 AI 开发者、研究人员以及本地部署爱好者。其核心亮点在于强大的并行下载能力，支持单文件多连接和多重文件并发，能最大化利用带宽并自动支持断点续传。独有的交互式 GGUF 分析器是其一大特色，用户可通过终端界面直观查看不同量化版本的显存占用估算和质量评级，轻松选出最适合硬件配置的模型版本，无需盲目猜测。\n\n此外，HuggingFaceModelDownloader 默认将文件保存至标准的 HuggingFace 缓存目录，确保 Python 库（如 Transformers）能直接识别并使用，实现了与现有工作流的无缝衔接。它还提供了完整的代理支持和简易的 Web 管理界面，即便在企业防火墙环境下也能稳定运行。无论是通过命令行脚本自动化操作，还是使用交互式界面手动挑选，它都能提供流畅、透明的下载体验。","\u003Cdiv align=\"center\">\n\n# HuggingFace Downloader\n\n**The fastest, smartest way to download models from HuggingFace Hub**\n\n[![Go Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGo-1.24+-00ADD8?style=flat&logo=go)](https:\u002F\u002Fgo.dev)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](LICENSE)\n[![Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fbodaay\u002FHuggingFaceModelDownloader?color=green)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases)\n[![Downloads](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Ftotal?color=purple)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases)\n[![Build](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Frelease.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Frelease.yml)\n[![Docker](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Fdocker-publish.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Fdocker-publish.yml)\n\n**Parallel downloads** • **Smart GGUF analyzer** • **Python compatible** • **Full proxy support**\n\n[Quick Start](#quick-start) •\n[Why This Tool](#why-this-tool) •\n[Smart Analyzer](#smart-analyzer) •\n[Web UI](#web-ui) •\n[Mirror Sync](#mirror-sync) •\n[Proxy Support](#proxy-support)\n\n\u003C\u002Fdiv>\n\n---\n\n## Why This Tool?\n\n### Parallel Downloads\n\nMaximize your bandwidth with **multiple connections per file** and **concurrent file downloads**:\n\n- Up to 16 parallel connections per file (chunked download)\n- Up to 8 files downloading simultaneously\n- Automatic resume on interruption\n\n![CLI Download Progress](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_3f5f05983d5f.png)\n\nReal-time progress with per-file status, speed, and ETA.\n\n### Interactive GGUF Picker\n\nDon't guess which quantization to download. Use `-i` for an **interactive picker** with quality ratings and RAM estimates:\n\n```bash\nhfdownloader analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n\n![GGUF Analyzer TUI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_e065e8121ecc.png)\n\n**Interactive mode features:**\n- **Keyboard navigation** - Use ↑↓ to browse, space to toggle selection\n- **Quality ratings** - Stars (★★★★☆) show relative quality\n- **RAM estimates** - Know if it'll fit in your VRAM\n- **\"Recommended\" badge** - We highlight the best balance (Q4_K_M)\n- **Live totals** - See combined size as you select\n- **One-click download** - Press Enter to start, or `c` to copy command\n\n**Without `-i`**, output is text\u002FJSON — perfect for scripts and piping to other tools.\n\n### Python Just Works\n\nDownloads go to the standard HuggingFace cache. Python libraries find them automatically:\n\n```python\nfrom transformers import AutoModel\nmodel = AutoModel.from_pretrained(\"TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\")  # Just works\n```\n\nPlus, you get **human-readable paths** at `~\u002F.cache\u002Fhuggingface\u002Fmodels\u002F` for easy browsing.\n\n### Works Behind Corporate Firewalls\n\nFull proxy support including **SOCKS5**, **authentication**, and **CIDR bypass rules**:\n\n```bash\nhfdownloader download meta-llama\u002FLlama-2-7b --proxy socks5:\u002F\u002Flocalhost:1080\n```\n\n---\n\n## Quick Start\n\n**Try it first — no installation required:**\n\n```bash\n# Analyze a model with interactive GGUF picker\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n\n# Download a model\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n\n# Start web UI\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve\n\n# Start web UI with authentication\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve --auth-user admin --auth-pass secret\n```\n\n**Like it? Install permanently:**\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) install\n```\n\nNow use directly:\n\n```bash\nhfdownloader analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m\nhfdownloader serve\nhfdownloader serve --auth-user admin --auth-pass secret   # with authentication\n```\n\nFiles go to `~\u002F.cache\u002Fhuggingface\u002F` — Python libraries find them automatically.\n\n---\n\n## Smart Analyzer\n\nNot sure what's in a repository? Analyze it first:\n\n```bash\nhfdownloader analyze \u003Cany-repo>\n```\n\nFor **GGUF models**, you get an interactive picker (see screenshot above). For other types, the analyzer **auto-detects** and shows relevant information:\n\n| Type | What It Shows |\n|------|---------------|\n| **GGUF** | Interactive picker with quality ratings, RAM estimates, multi-select |\n| **Transformers** | Architecture, parameters, context length, vocabulary size |\n| **Diffusers** | Pipeline type, components, variants (fp16, bf16) |\n| **LoRA** | Base model, rank, alpha, target modules |\n| **GPTQ\u002FAWQ** | Bits, group size, estimated VRAM |\n| **Dataset** | Formats, configs, splits, sizes |\n\n### Multi-Branch Support\n\nSome repos have multiple branches (fp16, onnx, flax). The analyzer lets you pick:\n\n```bash\nhfdownloader analyze -i CompVis\u002Fstable-diffusion-v1-4\n```\n\n![Branch Picker](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_e802b50fcd64.png)\n\n### Diffusers Component Picker\n\nFor Stable Diffusion models, pick exactly which components you need:\n\n![Diffusers Picker](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_cddb2cc58944.png)\n\nSelect `unet`, `vae`, `text_encoder` — skip what you don't need. The command is generated automatically.\n\n---\n\n## Download Features\n\n### Inline Filter Syntax\n\nDownload specific files without extra flags:\n\n```bash\n# Download only Q4_K_M quantization\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m\n\n# Download multiple quantizations\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m,q5_k_m\n\n# Or use flags\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF -F q4_k_m -E \".md,fp16\"\n```\n\n### Resume & Verify\n\n```bash\n# Interrupted? Just run again - automatically resumes\nhfdownloader download owner\u002Frepo\n\n# Strict verification\nhfdownloader download owner\u002Frepo --verify sha256\n\n# Preview what would download\nhfdownloader download owner\u002Frepo --dry-run\n```\n\n### High-Speed Mode\n\n```bash\n# Maximum parallelism\nhfdownloader download owner\u002Frepo -c 16 --max-active 8\n```\n\n| Flag | Default | Description |\n|------|---------|-------------|\n| `-c, --connections` | 8 | Connections per file |\n| `--max-active` | 3 | Concurrent file downloads |\n| `-F, --filters` | | Include patterns |\n| `-E, --exclude` | | Exclude patterns |\n| `-b, --revision` | main | Branch, tag, or commit |\n\n---\n\n## Dual-Layer Storage\n\nWe maintain **two views** of your downloads:\n\n```\n~\u002F.cache\u002Fhuggingface\u002F\n├── hub\u002F                              # Layer 1: HF Cache (Python compatible)\n│   └── models--TheBloke--Mistral...\u002F\n│       └── snapshots\u002Fa1b2c3d4...\u002F\n│           └── model.gguf\n│\n└── models\u002F                           # Layer 2: Human-Readable\n    └── TheBloke\u002F\n        └── Mistral-7B-GGUF\u002F\n            ├── model.gguf            → symlink to hub\u002F...\n            └── hfd.yaml              # Download manifest\n```\n\n**Layer 1 (hub\u002F)**: Standard HuggingFace cache structure. Python libraries work automatically.\n\n**Layer 2 (models\u002F)**: Human-readable paths with symlinks. Browse your downloads like normal folders.\n\n> **Windows Note**: The friendly view (Layer 2) requires symlinks, which need Administrator privileges or Developer Mode on Windows. Downloads still work — files are stored in the HuggingFace cache (Layer 1) — but the human-readable symlinks won't be created.\n\n### Manifest Tracking\n\nEvery download creates `hfd.yaml` so you know exactly what you have:\n\n```yaml\nrepo: TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nbranch: main\ncommit: a1b2c3d4...\ndownloaded_at: 2024-01-15T10:30:00Z\ncommand: hfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF -F q4_k_m\nfiles:\n  - path: mistral-7b.Q4_K_M.gguf\n    size: 4368438272\n```\n\n```bash\n# List everything you've downloaded\nhfdownloader list\n\n# Get details about a specific download\nhfdownloader info Mistral\n```\n\n---\n\n## Web UI\n\nA modern web interface with real-time progress:\n\n```bash\nhfdownloader serve\n# Open http:\u002F\u002Flocalhost:8080\n```\n\n![Web Dashboard](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_9bcceeacb84a.png)\n\n### Cache Browser\n\nBrowse everything you've downloaded with stats, search, and filters:\n\n![Cache Browser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_3ff9bc0b5cf5.png)\n\n### All Pages\n\n| Page | Features |\n|------|----------|\n| **Analyze** | Enter any repo, auto-detect type, see files\u002Fsizes, pick GGUF quantizations |\n| **Jobs** | Real-time WebSocket progress, pause\u002Fresume\u002Fcancel, download history |\n| **Cache** | Browse downloaded repos, disk usage stats, search & filter |\n| **Mirror** | Configure targets, compare differences, push\u002Fpull sync |\n| **Settings** | Token, connections, proxy, verification mode |\n\n### Server Options\n\n```bash\nhfdownloader serve \\\n  --port 3000 \\\n  --auth-user admin \\\n  --auth-pass secret \\\n  -t hf_xxxxx\n```\n\n---\n\n## Mirror Sync\n\nSync your model cache between machines — home, office, NAS, USB drive.\n\n![Mirror Sync](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_443059523bec.png)\n\n```bash\n# Add mirror targets\nhfdownloader mirror target add office \u002Fmnt\u002Fnas\u002Fhf-models\nhfdownloader mirror target add usb \u002Fmedia\u002Fusb\u002Fhf-cache\n\n# Compare local vs target\nhfdownloader mirror diff office\n\n# Push local cache to target\nhfdownloader mirror push office\n\n# Pull from target to local\nhfdownloader mirror pull office\n\n# Sync specific repos only\nhfdownloader mirror push office --filter \"Llama,GGUF\"\n\n# Verify integrity after sync\nhfdownloader mirror push office --verify\n```\n\nPerfect for:\n- **Air-gapped environments**: Download at home, sync to office\n- **Team sharing**: Central NAS with all models\n- **Backup**: Keep a copy on external drive\n\n---\n\n## Proxy Support\n\nFull proxy support for corporate environments:\n\n```bash\n# HTTP proxy\nhfdownloader download owner\u002Frepo --proxy http:\u002F\u002Fproxy:8080\n\n# SOCKS5 (e.g., SSH tunnel)\nhfdownloader download owner\u002Frepo --proxy socks5:\u002F\u002Flocalhost:1080\n\n# With authentication\nhfdownloader download owner\u002Frepo \\\n  --proxy http:\u002F\u002Fproxy:8080 \\\n  --proxy-user myuser \\\n  --proxy-pass mypassword\n\n# Test proxy connectivity before downloading\nhfdownloader proxy test --proxy http:\u002F\u002Fproxy:8080\n```\n\n### Supported Types\n\n| Type | URL Format |\n|------|------------|\n| HTTP | `http:\u002F\u002Fhost:port` |\n| HTTPS | `https:\u002F\u002Fhost:port` |\n| SOCKS5 | `socks5:\u002F\u002Fhost:port` |\n| SOCKS5h | `socks5h:\u002F\u002Fhost:port` (remote DNS) |\n\n### Configuration File\n\nSave proxy settings in `~\u002F.config\u002Fhfdownloader.yaml`:\n\n```yaml\nproxy:\n  url: http:\u002F\u002Fproxy.corp.com:8080\n  username: myuser\n  password: mypassword\n  no_proxy: localhost,.internal.com,10.0.0.0\u002F8\n```\n\n---\n\n## Installation\n\n### One-Liner (Recommended)\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) install\n```\n\nThat's it. Works on Linux, macOS, and WSL.\n\n**Or run without installing:**\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve   # Web UI\n```\n\n### Download Binary\n\nGet from [Releases](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases):\n\n| Platform | Architecture | File |\n|----------|--------------|------|\n| Linux | x86_64 | `hfdownloader_linux_amd64_*` |\n| Linux | ARM64 | `hfdownloader_linux_arm64_*` |\n| macOS | Apple Silicon | `hfdownloader_darwin_arm64_*` |\n| macOS | Intel | `hfdownloader_darwin_amd64_*` |\n| Windows | x86_64 | `hfdownloader_windows_amd64_*.exe` |\n\n### Build from Source\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\ncd HuggingFaceModelDownloader\ngo build -o hfdownloader .\u002Fcmd\u002Fhfdownloader\n```\n\n### Docker\n\n```bash\n# Pull from GitHub Container Registry\ndocker pull ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader:latest\n\n# Or build locally\ndocker build -t hfdownloader .\n\n# Run (mounts your local HF cache)\ndocker run --rm -v ~\u002F.cache\u002Fhuggingface:\u002Fhome\u002Fhfdownloader\u002F.cache\u002Fhuggingface \\\n  ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n\n---\n\n## Private & Gated Models\n\nFor private repos or gated models (Llama, etc.):\n\n```bash\n# Set token via environment\nexport HF_TOKEN=hf_xxxxx\nhfdownloader download meta-llama\u002FLlama-2-7b\n\n# Or via flag\nhfdownloader download meta-llama\u002FLlama-2-7b -t hf_xxxxx\n```\n\nFor gated models, you must first accept the license on the model's HuggingFace page.\n\n---\n\n## China Mirror\n\nUse the HuggingFace mirror for faster downloads in China:\n\n```bash\nhfdownloader download owner\u002Frepo --endpoint https:\u002F\u002Fhf-mirror.com\n```\n\nOr set in config file:\n\n```yaml\nendpoint: https:\u002F\u002Fhf-mirror.com\n```\n\n---\n\n## CLI Reference\n\n| Command | Description |\n|---------|-------------|\n| `download` | Download models or datasets (default command) |\n| `analyze` | Analyze repository before downloading |\n| `serve` | Start web server with REST API |\n| `list` | List all downloaded repos |\n| `info` | Show details about a downloaded repo |\n| `rebuild` | Regenerate friendly view from HF cache |\n| `mirror` | Sync cache between locations |\n| `proxy` | Test and show proxy configuration |\n| `config` | Manage configuration |\n| `version` | Show version info |\n\nFull documentation: [docs\u002FCLI.md](docs\u002FCLI.md) • [docs\u002FAPI.md](docs\u002FAPI.md) • [docs\u002FV3_FEATURES.md](docs\u002FV3_FEATURES.md)\n\n---\n\n## What's New in v3.0\n\n| Feature | Description |\n|---------|-------------|\n| **HF Cache Compatibility** | Downloads now use standard HuggingFace cache structure |\n| **Dual-Layer Storage** | Python-compatible cache + human-readable symlinks |\n| **Smart Analyzer** | Auto-detect model types, GGUF quality ratings, RAM estimates |\n| **Web UI v3** | Modern interface with real-time WebSocket progress |\n| **Mirror Sync** | Push\u002Fpull cache between locations |\n| **Full Proxy Support** | HTTP, SOCKS5, authentication, CIDR bypass |\n| **Manifest Tracking** | `hfd.yaml` records what\u002Fwhen\u002Fhow for every download |\n\n### Upgrading from v2.x\n\nv3.0 uses HF cache by default. For v2.x behavior:\n\n```bash\nhfdownloader download owner\u002Frepo --legacy -o .\u002Fmy-models\n```\n\n---\n\n## Environment Variables\n\n| Variable | Purpose |\n|----------|---------|\n| `HF_TOKEN` | HuggingFace access token |\n| `HF_HOME` | Override `~\u002F.cache\u002Fhuggingface` |\n| `HTTP_PROXY` | Proxy for HTTP requests |\n| `HTTPS_PROXY` | Proxy for HTTPS requests |\n| `NO_PROXY` | Comma-separated bypass list |\n\n---\n\n## License\n\n[Apache 2.0](LICENSE) — use freely in personal and commercial projects.\n\n---\n\n\u003Cdiv align=\"center\">\n\n**[Full CLI Docs](docs\u002FCLI.md)** • **[REST API](docs\u002FAPI.md)** • **[V3 Features](docs\u002FV3_FEATURES.md)** • **[Issues](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues)**\n\n\u003C\u002Fdiv>\n","\u003Cdiv align=\"center\">\n\n# HuggingFace 下载器\n\n**从 HuggingFace Hub 下载模型的最快、最智能方式**\n\n[![Go 版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGo-1.24+-00ADD8?style=flat&logo=go)](https:\u002F\u002Fgo.dev)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](LICENSE)\n[![发布版本](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fbodaay\u002FHuggingFaceModelDownloader?color=green)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases)\n[![下载量](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Ftotal?color=purple)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases)\n[![构建](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Frelease.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Frelease.yml)\n[![Docker](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Fdocker-publish.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Factions\u002Fworkflows\u002Fdocker-publish.yml)\n\n**并行下载** • **智能 GGUF 分析器** • **兼容 Python** • **全面代理支持**\n\n[快速开始](#quick-start) •\n[为何选择此工具](#why-this-tool) •\n[智能分析器](#smart-analyzer) •\n[Web UI](#web-ui) •\n[镜像同步](#mirror-sync) •\n[代理支持](#proxy-support)\n\n\u003C\u002Fdiv>\n\n---\n\n## 为何选择此工具？\n\n### 并行下载\n\n通过**每个文件多连接**和**并发文件下载**，最大化您的带宽：\n\n- 每个文件最多 16 个并行连接（分块下载）\n- 最多 8 个文件同时下载\n- 中断后自动恢复\n\n![CLI 下载进度](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_3f5f05983d5f.png)\n\n实时显示每个文件的状态、速度和预计完成时间。\n\n### 交互式 GGUF 选择器\n\n无需猜测该下载哪种量化。使用 `-i` 参数启用带有质量评分和显存估算的**交互式选择器**：\n\n```bash\nhfdownloader analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n\n![GGUF 分析器 TUI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_e065e8121ecc.png)\n\n**交互模式功能：**\n- **键盘导航**：使用 ↑↓ 键浏览，空格键切换选择\n- **质量评分**：星级（★★★★☆）显示相对质量\n- **显存估算**：了解是否适合您的显存\n- **“推荐”徽章**：我们突出显示最佳平衡选项 (Q4_K_M)\n- **实时总计**：选择时查看总大小\n- **一键下载**：按 Enter 键开始，或输入 `c` 复制命令\n\n**不使用 `-i` 时**，输出为文本或 JSON 格式，非常适合脚本和与其他工具的管道操作。\n\n### Python 直接可用\n\n下载的模型会保存到标准的 HuggingFace 缓存目录中。Python 库可以自动找到它们：\n\n```python\nfrom transformers import AutoModel\nmodel = AutoModel.from_pretrained(\"TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\")  # 直接可用\n```\n\n此外，您还可以在 `~\u002F.cache\u002Fhuggingface\u002Fmodels\u002F` 中找到**人类可读的路径**，方便浏览。\n\n### 适用于企业防火墙后\n\n全面支持代理，包括 **SOCKS5**、**身份验证** 和 **CIDR 绕过规则**：\n\n```bash\nhfdownloader download meta-llama\u002FLlama-2-7b --proxy socks5:\u002F\u002Flocalhost:1080\n```\n\n---\n\n## 快速开始\n\n**先试用一下——无需安装：**\n\n```bash\n# 使用交互式 GGUF 选择器分析模型\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n\n# 下载模型\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n\n# 启动 Web UI\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve\n\n# 带认证的 Web UI\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve --auth-user admin --auth-pass secret\n```\n\n**喜欢吗？永久安装：**\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) install\n```\n\n现在可以直接使用：\n\n```bash\nhfdownloader analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m\nhfdownloader serve\nhfdownloader serve --auth-user admin --auth-pass secret   # 带认证\n```\n\n文件会保存到 `~\u002F.cache\u002Fhuggingface\u002F` 目录下——Python 库可以自动找到它们。\n\n---\n\n## 智能分析器\n\n不确定仓库里有什么内容？先进行分析：\n\n```bash\nhfdownloader analyze \u003C任意仓库>\n```\n\n对于 **GGUF 模型**，您将获得一个交互式选择器（见上方截图）。对于其他类型，分析器会**自动检测**并显示相关信息：\n\n| 类型 | 显示内容 |\n|------|----------|\n| **GGUF** | 带质量评分、显存估算和多选功能的交互式选择器 |\n| **Transformers** | 架构、参数量、上下文长度、词汇表大小 |\n| **Diffusers** | 流水线类型、组件、变体（fp16、bf16） |\n| **LoRA** | 基础模型、秩、alpha、目标模块 |\n| **GPTQ\u002FAWQ** | 位数、分组大小、估计显存 |\n| **数据集** | 格式、配置、拆分、大小 |\n\n### 多分支支持\n\n有些仓库有多个分支（fp16、onnx、flax）。分析器允许您选择：\n\n```bash\nhfdownloader analyze -i CompVis\u002Fstable-diffusion-v1-4\n```\n\n![分支选择器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_e802b50fcd64.png)\n\n### Diffusers 组件选择器\n\n对于 Stable Diffusion 模型，您可以精确选择所需的组件：\n\n![Diffusers 选择器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_cddb2cc58944.png)\n\n选择 `unet`、`vae`、`text_encoder`——跳过不需要的部分。命令会自动生成。\n\n---\n\n## 下载功能\n\n### 内联过滤语法\n\n无需额外标志即可下载特定文件：\n\n```bash\n# 只下载 Q4_K_M 量化\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m\n\n# 下载多种量化\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m,q5_k_m\n\n# 或者使用标志\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF -F q4_k_m -E \".md,fp16\"\n```\n\n### 断点续传与校验\n\n```bash\n# 下载中断？再次运行即可自动续传\nhfdownloader download owner\u002Frepo\n\n# 严格校验\nhfdownloader download owner\u002Frepo --verify sha256\n\n# 预览将要下载的内容\nhfdownloader download owner\u002Frepo --dry-run\n```\n\n### 高速模式\n\n```bash\n# 最大化并行度\nhfdownloader download owner\u002Frepo -c 16 --max-active 8\n```\n\n| 标志 | 默认值 | 描述 |\n|------|--------|------|\n| `-c, --connections` | 8 | 每个文件的连接数 |\n| `--max-active` | 3 | 并发文件下载数量 |\n| `-F, --filters` | | 包含模式 |\n| `-E, --exclude` | | 排除模式 |\n| `-b, --revision` | main | 分支、标签或提交 |\n\n---\n\n## 双层存储\n\n我们为您的下载内容维护**两种视图**：\n\n```\n~\u002F.cache\u002Fhuggingface\u002F\n├── hub\u002F                              # 第一层：HF 缓存（Python 兼容）\n│   └── models--TheBloke--Mistral...\u002F\n│       └── snapshots\u002Fa1b2c3d4...\u002F\n│           └── model.gguf\n│\n└── models\u002F                           # 第二层：人类可读\n    └── TheBloke\u002F\n        └── Mistral-7B-GGUF\u002F\n            ├── model.gguf            → 指向 hub\u002F... 的符号链接\n            └── hfd.yaml              # 下载清单\n```\n\n**第一层（hub\u002F）**：标准的 HuggingFace 缓存结构。Python 库可以自动处理。\n\n**第二层（models\u002F）**：人类可读的路径和符号链接。您可以像浏览普通文件夹一样查看下载内容。\n\n> **Windows 注意**：友好视图（第二层）需要使用符号链接，这通常需要管理员权限或启用 Windows 开发者模式。尽管如此，下载仍然会正常工作——文件会被存储在 HuggingFace 缓存中（第一层）——但不会创建人类可读的符号链接。\n\n### 清单跟踪\n\n每次下载都会生成 `hfd.yaml` 文件，以便您清楚地了解已下载的内容：\n\n```yaml\nrepo: TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nbranch: main\ncommit: a1b2c3d4...\ndownloaded_at: 2024-01-15T10:30:00Z\ncommand: hfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF -F q4_k_m\nfiles:\n  - path: mistral-7b.Q4_K_M.gguf\n    size: 4368438272\n```\n\n```bash\n# 列出所有已下载的内容\nhfdownloader list\n\n# 获取特定下载的详细信息\nhfdownloader info Mistral\n```\n\n---\n\n## Web 界面\n\n现代化的网页界面，提供实时进度显示：\n\n```bash\nhfdownloader serve\n# 打开 http:\u002F\u002Flocalhost:8080\n```\n\n![Web 控制面板](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_9bcceeacb84a.png)\n\n### 缓存浏览器\n\n浏览所有已下载的内容，支持统计、搜索和筛选功能：\n\n![缓存浏览器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_3ff9bc0b5cf5.png)\n\n### 各页面功能\n\n| 页面 | 功能 |\n|------|------|\n| **分析** | 输入任意仓库，自动检测类型，查看文件及大小，选择 GGUF 量化格式 |\n| **任务** | 实时 WebSocket 进度显示，支持暂停、恢复和取消操作，以及下载历史记录 |\n| **缓存** | 浏览已下载的仓库，查看磁盘使用情况统计，支持搜索和筛选 |\n| **镜像** | 配置目标位置，比较差异，执行推送和拉取同步 |\n| **设置** | 令牌、连接、代理、验证模式等配置 |\n\n### 服务器选项\n\n```bash\nhfdownloader serve \\\n  --port 3000 \\\n  --auth-user admin \\\n  --auth-pass secret \\\n  -t hf_xxxxx\n```\n\n---\n\n## 镜像同步\n\n在不同设备之间同步模型缓存——例如家庭、办公室、NAS 或 USB 驱动器。\n\n![镜像同步](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_readme_443059523bec.png)\n\n```bash\n# 添加镜像目标\nhfdownloader mirror target add office \u002Fmnt\u002Fnas\u002Fhf-models\nhfdownloader mirror target add usb \u002Fmedia\u002Fusb\u002Fhf-cache\n\n# 比较本地与目标\nhfdownloader mirror diff office\n\n# 将本地缓存推送到目标\nhfdownloader mirror push office\n\n# 从目标拉取到本地\nhfdownloader mirror pull office\n\n# 仅同步特定仓库\nhfdownloader mirror push office --filter \"Llama,GGUF\"\n\n# 同步后验证完整性\nhfdownloader mirror push office --verify\n```\n\n非常适合以下场景：\n- **空气隔离环境**：在家下载，同步到办公室\n- **团队共享**：中央 NAS 存储所有模型\n- **备份**：在外置驱动器上保留一份副本\n\n---\n\n## 代理支持\n\n全面支持企业环境中的代理设置：\n\n```bash\n# HTTP 代理\nhfdownloader download owner\u002Frepo --proxy http:\u002F\u002Fproxy:8080\n\n# SOCKS5（例如 SSH 隧道）\nhfdownloader download owner\u002Frepo --proxy socks5:\u002F\u002Flocalhost:1080\n\n# 带认证\nhfdownloader download owner\u002Frepo \\\n  --proxy http:\u002F\u002Fproxy:8080 \\\n  --proxy-user myuser \\\n  --proxy-pass mypassword\n\n# 在下载前测试代理连通性\nhfdownloader proxy test --proxy http:\u002F\u002Fproxy:8080\n```\n\n### 支持的类型\n\n| 类型 | URL 格式 |\n|------|----------|\n| HTTP | `http:\u002F\u002Fhost:port` |\n| HTTPS | `https:\u002F\u002Fhost:port` |\n| SOCKS5 | `socks5:\u002F\u002Fhost:port` |\n| SOCKS5h | `socks5h:\u002F\u002Fhost:port`（远程 DNS） |\n\n### 配置文件\n\n将代理设置保存在 `~\u002F.config\u002Fhfdownloader.yaml` 中：\n\n```yaml\nproxy:\n  url: http:\u002F\u002Fproxy.corp.com:8080\n  username: myuser\n  password: mypassword\n  no_proxy: localhost,.internal.com,10.0.0.0\u002F8\n```\n\n---\n\n## 安装\n\n### 一键安装（推荐）\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) install\n```\n\n就这么简单。适用于 Linux、macOS 和 WSL。\n\n**或者无需安装直接运行：**\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve   # Web 界面\n```\n\n### 下载二进制文件\n\n从 [Releases](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Freleases) 获取：\n\n| 平台 | 架构 | 文件 |\n|----------|--------------|------|\n| Linux | x86_64 | `hfdownloader_linux_amd64_*` |\n| Linux | ARM64 | `hfdownloader_linux_arm64_*` |\n| macOS | Apple Silicon | `hfdownloader_darwin_arm64_*` |\n| macOS | Intel | `hfdownloader_darwin_amd64_*` |\n| Windows | x86_64 | `hfdownloader_windows_amd64_*.exe` |\n\n### 从源码构建\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\ncd HuggingFaceModelDownloader\ngo build -o hfdownloader .\u002Fcmd\u002Fhfdownloader\n```\n\n### Docker\n\n```bash\n# 从 GitHub Container Registry 拉取镜像\ndocker pull ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader:latest\n\n# 或者本地构建\ndocker build -t hfdownloader .\n\n# 运行（挂载本地 HF 缓存）\ndocker run --rm -v ~\u002F.cache\u002Fhuggingface:\u002Fhome\u002Fhfdownloader\u002F.cache\u002Fhuggingface \\\n  ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n\n---\n\n## 私有及受控模型\n\n对于私有仓库或受控模型（如 Llama 等）：\n\n```bash\n# 通过环境变量设置令牌\nexport HF_TOKEN=hf_xxxxx\nhfdownloader download meta-llama\u002FLlama-2-7b\n\n# 或者通过命令行参数\nhfdownloader download meta-llama\u002FLlama-2-7b -t hf_xxxxx\n```\n\n对于受控模型，您必须先在模型的 HuggingFace 页面上接受许可协议。\n\n---\n\n## 中国镜像\n\n在中国境内使用 HuggingFace 镜像以加快下载速度：\n\n```bash\nhfdownloader download owner\u002Frepo --endpoint https:\u002F\u002Fhf-mirror.com\n```\n\n或者在配置文件中设置：\n\n```yaml\nendpoint: https:\u002F\u002Fhf-mirror.com\n```\n\n---\n\n## CLI 参考\n\n| 命令 | 描述 |\n|---------|-------------|\n| `download` | 下载模型或数据集（默认命令） |\n| `analyze` | 下载前分析仓库 |\n| `serve` | 启动带有 REST API 的 Web 服务器 |\n| `list` | 列出所有已下载的仓库 |\n| `info` | 显示已下载仓库的详细信息 |\n| `rebuild` | 从 HF 缓存重新生成友好视图 |\n| `mirror` | 在不同位置之间同步缓存 |\n| `proxy` | 测试并显示代理配置 |\n| `config` | 管理配置 |\n| `version` | 显示版本信息 |\n\n完整文档：[docs\u002FCLI.md](docs\u002FCLI.md) • [docs\u002FAPI.md](docs\u002FAPI.md) • [docs\u002FV3_FEATURES.md](docs\u002FV3_FEATURES.md)\n\n---\n\n## v3.0 新增功能\n\n| 功能 | 描述 |\n|---------|-------------|\n| **HF 缓存兼容性** | 下载现在使用标准的 HuggingFace 缓存结构 |\n| **双层存储** | 兼容 Python 的缓存 + 人类可读的符号链接 |\n| **智能分析器** | 自动检测模型类型、GGUF 质量评级、内存估算 |\n| **Web UI v3** | 现代化界面，支持实时 WebSocket 进度显示 |\n| **镜像同步** | 在不同位置之间推送\u002F拉取缓存 |\n| **完整代理支持** | HTTP、SOCKS5、认证、CIDR 绕过 |\n| **清单跟踪** | `hfd.yaml` 记录每次下载的内容、时间及方式 |\n\n### 从 v2.x 升级\n\nv3.0 默认使用 HF 缓存。若需保留 v2.x 行为：\n\n```bash\nhfdownloader download owner\u002Frepo --legacy -o .\u002Fmy-models\n```\n\n---\n\n## 环境变量\n\n| 变量 | 用途 |\n|----------|---------|\n| `HF_TOKEN` | HuggingFace 访问令牌 |\n| `HF_HOME` | 覆盖 `~\u002F.cache\u002Fhuggingface` |\n| `HTTP_PROXY` | HTTP 请求代理 |\n| `HTTPS_PROXY` | HTTPS 请求代理 |\n| `NO_PROXY` | 逗号分隔的绕过列表 |\n\n---\n\n## 许可证\n\n[Apache 2.0](LICENSE) — 可在个人和商业项目中自由使用。\n\n---\n\n\u003Cdiv align=\"center\">\n\n**[完整 CLI 文档](docs\u002FCLI.md)** • **[REST API](docs\u002FAPI.md)** • **[V3 特性](docs\u002FV3_FEATURES.md)** • **[问题](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues)**\n\n\u003C\u002Fdiv>","# HuggingFaceModelDownloader 快速上手指南\n\nHuggingFaceModelDownloader 是一款基于 Go 语言开发的高效工具，专为加速从 HuggingFace Hub 下载模型而设计。它支持多线程并行下载、智能 GGUF 量化模型选择、断点续传以及完整的代理支持，完美适配国内网络环境和企业防火墙。\n\n## 环境准备\n\n*   **操作系统**：Linux、macOS、Windows (WSL 推荐) 或任何支持 Docker 的环境。\n*   **架构支持**：x86_64 (AMD\u002FIntel) 及 ARM64 (Apple Silicon\u002FRaspberry Pi)。\n*   **前置依赖**：\n    *   **无需安装 Go 环境**：直接使用预编译二进制文件或一键安装脚本。\n    *   **网络要求**：若能直接访问 HuggingFace 则无需额外配置；若受限，需准备 HTTP\u002FSOCKS5 代理地址（见“基本使用”中的代理部分）。\n    *   **权限注意**：在 Windows 上使用“人类可读路径”功能需要管理员权限或开启开发者模式以支持符号链接。\n\n## 安装步骤\n\n推荐使用官方提供的一键安装脚本，自动检测系统架构并配置环境变量。\n\n### 方法一：一键安装（推荐）\n\n在终端执行以下命令：\n\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) install\n```\n\n安装完成后，可直接在任意目录使用 `hfdownloader` 命令。\n\n### 方法二：免安装运行\n\n如果不希望永久安装，可直接通过管道运行单次命令：\n\n```bash\n# 直接运行下载命令\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download \u003C模型仓库名>\n\n# 直接启动 Web UI\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve\n```\n\n### 方法三：Docker 运行\n\n适合容器化环境，直接挂载本地缓存目录：\n\n```bash\ndocker run --rm -v ~\u002F.cache\u002Fhuggingface:\u002Fhome\u002Fhfdownloader\u002F.cache\u002Fhuggingface \\\n  ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader download \u003C模型仓库名>\n```\n\n## 基本使用\n\n### 1. 智能分析与交互式下载 (GGUF 模型首选)\n\n对于量化模型（如 GGUF），工具提供交互式界面，可根据显存大小推荐最佳量化版本。\n\n**启动交互模式：**\n```bash\nhfdownloader analyze -i TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n*   **操作方式**：使用 `↑` `↓` 浏览，`空格` 勾选，`Enter` 确认下载。\n*   **功能**：显示质量评级、预估显存占用，并自动标记推荐版本（如 Q4_K_M）。\n\n### 2. 快速下载指定模型\n\n**下载整个仓库：**\n```bash\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF\n```\n\n**下载特定量化版本（使用内联过滤器）：**\n```bash\n# 仅下载 Q4_K_M 版本\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m\n\n# 下载多个特定版本\nhfdownloader download TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF:q4_k_m,q5_k_m\n```\n\n**下载后验证：**\n文件默认保存至 `~\u002F.cache\u002Fhuggingface\u002F`，Python (`transformers`, `llama-cpp-python` 等) 可直接识别并加载，无需额外配置路径。\n\n### 3. 国内网络加速与代理支持\n\n针对无法直连 HuggingFace 的情况，工具内置完整的代理支持。\n\n**使用 HTTP 代理：**\n```bash\nhfdownloader download meta-llama\u002FLlama-2-7b --proxy http:\u002F\u002F127.0.0.1:7890\n```\n\n**使用 SOCKS5 代理（如 Clash\u002FV2Ray）：**\n```bash\nhfdownloader download meta-llama\u002FLlama-2-7b --proxy socks5:\u002F\u002F127.0.0.1:7891\n```\n\n**带认证的代理：**\n```bash\nhfdownloader download owner\u002Frepo --proxy http:\u002F\u002Fuser:pass@proxy-ip:port\n```\n\n> **提示**：也可将代理配置写入 `~\u002F.config\u002Fhfdownloader.yaml` 以避免每次输入。\n\n### 4. 启动 Web 管理界面\n\n提供可视化的下载管理、缓存浏览和进度监控。\n\n```bash\n# 启动服务，默认端口 8080\nhfdownloader serve\n\n# 带身份验证启动\nhfdownloader serve --auth-user admin --auth-pass secret\n```\n启动后访问 `http:\u002F\u002Flocalhost:8080` 即可在浏览器中管理下载任务。\n\n### 5. 私有模型下载\n\n对于 Llama 等受控模型或私有仓库，需传入 Token：\n\n```bash\n# 方式 A：环境变量\nexport HF_TOKEN=hf_xxxxx\nhfdownloader download meta-llama\u002FLlama-2-7b\n\n# 方式 B：命令行参数\nhfdownloader download meta-llama\u002FLlama-2-7b -t hf_xxxxx\n```","某初创公司的算法工程师需要在受限的企业内网环境中，快速为本地推理服务部署多个量化版的 Llama 3 模型，以进行性能基准测试。\n\n### 没有 HuggingFaceModelDownloader 时\n- **下载效率极低**：使用官方 Python 库单线程下载大模型文件，一旦网络波动中断，往往需要从头重来，耗时数小时。\n- **选型盲目试错**：面对数十种 GGUF 量化版本（如 Q4_K_M, Q8_0 等），无法直观预估显存占用，常因选错版本导致本地 OOM（内存溢出）崩溃。\n- **内网穿透困难**：公司防火墙阻挡直连，配置复杂的代理环境变量经常失效，导致连接超时无法获取资源。\n- **路径管理混乱**：手动下载的文件散落在不同目录，Python 脚本无法自动识别缓存，需反复编写代码指定本地路径。\n\n### 使用 HuggingFaceModelDownloader 后\n- **极速断点续传**：利用每文件 16 路并行连接和自动续传功能，将原本 3 小时的下载时间压缩至 20 分钟，且无惧网络抖动。\n- **智能交互选型**：通过 `-i` 交互式模式，直接查看各量化版本的星级评分与显存估算，一键锁定推荐的 Q4_K_M 版本，彻底避免运行报错。\n- **原生代理支持**：内置 SOCKS5 及认证代理支持，只需一条命令即可穿透企业防火墙，稳定拉取元数据和大文件。\n- **无缝生态集成**：下载文件自动存入标准 HuggingFace 缓存目录，后续 Python 代码调用 `from_pretrained` 时无需任何修改即可直接加载。\n\nHuggingFaceModelDownloader 通过并行加速、智能分析与原生代理支持，将繁琐的模型获取流程转化为高效、可靠的自动化体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbodaay_HuggingFaceModelDownloader_3f5f0598.png","bodaay",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbodaay_320c0e27.jpg","https:\u002F\u002Fgithub.com\u002Fbodaay",[80,84,88,92,96,100,104],{"name":81,"color":82,"percentage":83},"Go","#00ADD8",72.1,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",10.2,{"name":89,"color":90,"percentage":91},"CSS","#663399",6,{"name":93,"color":94,"percentage":95},"Shell","#89e051",5.8,{"name":97,"color":98,"percentage":99},"HTML","#e34c26",3.8,{"name":101,"color":102,"percentage":103},"Python","#3572A5",1.8,{"name":105,"color":106,"percentage":107},"Dockerfile","#384d54",0.3,937,107,"2026-04-04T18:24:10","Apache-2.0",1,"Linux, macOS, Windows","无需求（该工具为模型下载器，不涉及模型推理或训练）","未说明",{"notes":117,"python":118,"dependencies":119},"该工具是用于高速下载 HuggingFace 模型的命令行工具，本身不依赖 GPU 或大量内存。在 Windows 上使用‘人类可读路径’功能需要管理员权限或开启开发者模式以支持符号链接。支持通过 Docker 运行，也支持 SOCKS5\u002FHTTP 代理以适应企业防火墙环境。","无需 Python 环境（基于 Go 语言编译的二进制文件，但下载的模型可与 Python 库兼容）",[120],"Go 1.24+ (仅源码编译时需要)",[13,26,14],[123,124,125,126],"golang","huggingface","llm","transformers","2026-03-27T02:49:30.150509","2026-04-06T05:35:43.067536",[130,135,140,145,150,155],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},17431,"下载进度超过 100% 且一直无法完成怎么办？","这通常是因为临时文件损坏或重复下载导致的。解决方法是：手动删除那些大小异常（例如超过预期大小）的 .tmp 临时文件，然后重新运行下载命令。如果之前使用了校验和标志导致失败，可以尝试跳过校验和标志继续下载。建议检查命令行参数和过滤器设置是否正确。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F19",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},17432,"在 Tmux 中运行时光标不断抖动或文本重复显示如何解决？","这是由于状态行重绘频率过高导致的。该问题已在后续版本中通过限制每秒重绘次数为 10 次修复。作为临时替代方案，可以使用静默模式（silentMode）禁用进度条打印，这样只会输出开始和结束信息，从而避免光标抖动。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F18",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},17433,"下载中断后无法断点续传，重新开始会从头下载怎么办？","该功能已在版本 1.2.5 中实现。现在工具支持使用 HTTP Range 头进行断点续传。如果遇到网络中断或程序被 Ctrl+C 终止的情况，重新运行相同的下载命令即可从上次中断的位置继续下载，而无需重新开始。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F5",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},17434,"在 Windows 上下载大文件时程序经常暂停，需要按键才能继续是怎么回事？","这是 Windows 控制台的已知问题，当启用“快速编辑模式”（QuickEdit Mode）时，点击窗口或按某些键会导致进程挂起直到再次输入。永久解决方法是：右键点击命令行窗口标题栏 -> 属性 -> 取消勾选“快速编辑模式”。这将防止程序因误触而暂停。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F3",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},17435,"如何在 Docker 或脚本中使用静默模式以减少日志输出？","从版本 1.3.4 开始，可以使用 `-q` 标志启用静默模式。该模式会禁用动态进度条的打印，仅在每个文件下载开始和结束时输出一行信息。这非常适合用于 Docker 构建日志或自动化脚本，避免产生大量冗余输出。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F22",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},17436,"是否支持配置 HTTP 或 SOCKS 代理？","是的，代理支持已在 v3.0.0 版本中实现。用户可以通过相关 API 配置 HTTP 和 SOCKS 代理。此外，高级用户还可以传入自定义的 dialer 创建函数或直接传入自定义的 http.Client，以便更灵活地控制网络连接行为。","https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fissues\u002F52",[161,166,171,176,181,186,191,196,201,206,211,216,221,226,231,236,241,246,251,256],{"id":162,"version":163,"summary_zh":164,"released_at":165},104899,"v3.0.3","## v3.0.3 的变更内容\n\n### 功能\n- 添加 GitHub Actions 用于发布和 Docker 构建，升级至 v3.0.0 (`b1cf225`)\n- 为多分支仓库添加版本选择器，并改进 Web UI (`183603c`)\n- 添加现代化的 Web UI，包含分析、缓存浏览器和认证功能（阶段 3.9）(`2bdad97`)\n- 增加详细的 Transformers 模型分析功能（阶段 3.3）(`1170f50`)\n- 为 HuggingFace 仓库添加智能下载器分析工具 (`9c2b5c6`)\n- 新增 list、info 和 mirror 命令 (`0253046`)\n- 实现对 HuggingFace 缓存结构及清单文件的支持 (`e2bd0c8`)\n\n### Bug 修复\n- 所有命令均从配置文件加载 cache-dir (`5d7960f`)\n- 在 Windows 上优雅地跳过符号链接（下载功能仍可正常工作）(`179e80b`)\n- 在示例中使用正确的 HuggingFace 仓库名称（TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF）(`5a8ac93`)\n- 使用 `install` 命令代替 `-i` 标志，以避免与 CLI 的 `-i`（交互式）选项冲突 (`0d0b5c9`)\n- 除非使用 `-i` 标志，否则不将二进制文件保存到当前目录 (`154f542`)\n- 更新 Dockerfile 以使用 Go 1.24，确保与 go.mod 兼容 (`673445d`)\n- 使发布工作流与安装脚本保持一致，并重新排序快速入门指南 (`29db31b`)\n- 修复 Jobs 页面的 WebSocket 消息处理问题 (`c16f3c0`)\n- 对于 Web 下载（v3 模式），使用 HuggingFace 缓存结构 (`fb4bcb3`)\n- 对缓存结构进行小幅优化并支持重建 (`d71b6ee`)\n\n### 文档更新\n- 更新安装命令（`-i` → `install`, `-w` → `serve`）(`959f368`)\n- 添加 GitHub Actions 状态徽章，并将 Go 版本更新至 1.24 (`91ee5a2`)\n- 添加 v3.0.0 发布说明 (`bcc6648`)\n- 在快速入门指南中添加 Web UI 认证示例 (`63ccc14`)\n- 从 README 中移除无法验证的速度相关声明 (`0bf2bd7`)\n- 针对 v3 版本全面重构 README，加入截图和功能亮点介绍 (`d821b1d`)\n\n### 其他变更\n- 移除重复的镜像同步操作 (`55370ee`)\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fcompare\u002Fv2.3.4-final...v3.0.3","2026-01-30T18:59:29",{"id":167,"version":168,"summary_zh":169,"released_at":170},104900,"v3.0.1","## 错误修复\n\n- **Windows 支持**：在 Windows 上优雅地跳过符号链接（下载仍可正常工作，但会跳过友好视图）\n- **安装脚本**：将 `-i` 更改为 `install` 命令，以避免与 CLI 的 `-i`（交互模式）选项冲突\n- **示例仓库**：修复了文档中错误的模型名称（`TheBloke\u002FMistral-7B-GGUF` → `TheBloke\u002FMistral-7B-Instruct-v0.2-GGUF`）\n- **Dockerfile**：更新至 Go 1.24，以兼容 `go.mod`\n\n## 文档\n\n- 添加了关于 Windows 符号链接限制的说明\n- 更新了 README，使用正确的 `install` 和 `serve` 命令\n- 添加了 GitHub Actions 状态徽章\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fcompare\u002Fv3.0.0...v3.0.1","2026-01-30T11:34:52",{"id":172,"version":173,"summary_zh":174,"released_at":175},104901,"v3.0.0","# 发布说明 - v3.0.0\n\n> **发布日期：** 2026年1月  \n> **原生 Hugging Face 版本**\n\n## 亮点\n\n版本 3.0.0 是一次重大更新，带来了 **完全的 Hugging Face CLI 兼容性**。您的下载内容现在将存储在标准的 Hugging Face 缓存结构中，从而使其能够立即被 Transformers、Diffusers 以及其他基于 Hugging Face 的工具访问。\n\n---\n\n## 新特性\n\n### Hugging Face 缓存结构（默认）\n\n下载内容现在会直接保存到 `~\u002F.cache\u002Fhuggingface\u002Fhub\u002F` 目录下——与 `huggingface_hub`、Transformers 等其他 Hugging Face 工具使用的路径相同。\n\n```bash\n# 下载一个模型——它会立即对 Transformers 可用\nhfdownloader download microsoft\u002FDialoGPT-medium\n\n# 在 Python 中直接使用——无需复制！\nfrom transformers import AutoModel\nmodel = AutoModel.from_pretrained(\"microsoft\u002FDialoGPT-medium\")\n```\n\n### 双层存储\n\n兼得两者的优点：\n- **Hugging Face 缓存**：内容寻址的 Blob 格式，便于去重\n- **人类可读的符号链接**：可在 `~\u002F.cache\u002Fhuggingface\u002Fhub\u002Fmodels--{owner}--{repo}\u002Fsnapshots\u002F{revision}\u002F` 轻松浏览文件\n\n### 多版本支持\n\n您可以下载特定的分支、标签或提交：\n\n```bash\n# 下载特定分支\nhfdownloader download TheBloke\u002FMistral-7B-GGUF --revision main\n\n# 下载特定标签\nhfdownloader download owner\u002Frepo --revision v1.0.0\n```\n\n### 模型分析\n\n通过新的 `analyze` 命令，在下载前了解模型详情：\n\n```bash\nhfdownloader analyze microsoft\u002FDialoGPT-medium\n```\n\n显示内容包括：\n- 模型架构和框架\n- 文件类型及大小\n- 可用的量化格式\n- 针对您的使用场景推荐的过滤器\n\n### 增强的 Web UI\n\n- **版本选择器**：从下拉菜单中选择分支或标签\n- **模型分析**：在下载前进行分析\n- **缓存浏览器**：探索本地 Hugging Face 缓存\n- **认证功能**：使用 `--auth-user` 和 `--auth-pass` 为您的 Web 服务器提供安全保护\n\n### Web 认证\n\n当您需要将服务暴露到网络时，可以使用认证功能来保护您的 Web 服务器：\n\n```bash\nhfdownloader serve --auth-user admin --auth-pass secret\n```\n\n### 兼容旧模式\n\n如果您仍然需要旧的扁平目录结构，可以使用 `--legacy` 参数：\n\n```bash\nhfdownloader download TheBloke\u002FMistral-7B-GGUF --legacy -o .\u002Fmodels\n```\n\n---\n\n## Docker\n\nDocker 镜像现已自动发布到 GitHub Container Registry：\n\n```bash\n# 拉取镜像\ndocker pull ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader:3.0.0\n\n# 使用 Hugging Face 缓存挂载运行\ndocker run --rm -p 8080:8080 \\\n  -v ~\u002F.cache\u002Fhuggingface:\u002Fhome\u002Fhfdownloader\u002F.cache\u002Fhuggingface \\\n  ghcr.io\u002Fbodaay\u002Fhuggingfacemodeldownloader:3.0.0 serve\n```\n\n---\n\n## 快速入门\n\n```bash\n# 分析模型（无需下载）\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) analyze TheBloke\u002FMistral-7B-GGUF\n\n# 仅下载 Q4_K_M 量化版本\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) download TheBloke\u002FMistral-7B-GGUF:q4_k_m\n\n# 启动带认证的 Web UI\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) serve --auth-user admin --auth-pass secret\n\n# 永久安装","2026-01-30T11:11:05",{"id":177,"version":178,"summary_zh":179,"released_at":180},104902,"2.3.4","更新了构建脚本和二进制文件，以避免 Windows 版本被误报为病毒。","2026-01-13T16:52:35",{"id":182,"version":183,"summary_zh":184,"released_at":185},104903,"2.3.3","## 🐛 Bug 修复\n\n### 修复：TUI\u002FWeb UI 显示的总文件大小不正确\n- **问题**：下载过程中，总下载大小会从 8GB 跳至 35GB，再跳至 214GB。\n- **原因**：`plan_item` 事件是在下载循环中逐步发出的，而非在开始前一次性发出。\n- **修复**：现在所有 `plan_item` 事件都会在扫描完成后、下载开始之前立即发出。\n\n### 修复：Web UI 中设置未生效\n- **问题**：更改设置（连接数、最大并发数、重试次数等）对下载没有影响。\n- **原因**：多处代码中硬编码了设置；`serve` 命令缺少相关标志。\n- **修复**：\n  - 在服务器配置中新增了 `MultipartThreshold`、`Verify` 和 `Retries` 字段。\n  - 向 `serve` 命令添加了 `--multipart-threshold`、`--verify` 和 `--retries` 标志。\n  - Web UI 现在会在页面加载时从服务器获取设置（作为权威来源）。\n\n### 修复：计划 API 缺少排除规则和端点\n- **问题**：预览\u002F计划请求未遵循排除模式或自定义端点。\n- **修复**：在计划处理器中为作业添加了 `Excludes` 和 `AppendFilterSubdir`，并为设置添加了 `Endpoint`。","2026-01-01T12:28:30",{"id":187,"version":188,"summary_zh":189,"released_at":190},104904,"2.3.1","# 发布说明 - v2.3.1\n\n> **发布日期：** 2025年12月31日\n\n## 🎉 社区功能\n\n本次发布融入了社区的贡献与建议：\n\n### ✨ 新特性\n\n#### 🚫 排除模式 (`--exclude`, `-E`)\n可以从下载中排除特定文件。感谢 **@jeroenkroese** 的贡献（[#41](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F41)）！\n\n```bash\n# 排除 Markdown 和 ONNX 文件\nhfdownloader download TheBloke\u002FMistral-7B-GGUF -E .md,onnx\n\n# 排除全精度模型\nhfdownloader download owner\u002Frepo -E fp16,fp32\n```\n\n#### 🌍 自定义端点 (`--endpoint`)\n可以使用 HuggingFace 镜像或企业级端点。感谢 **@windtail** 的贡献（[#38](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F38)）！\n\n```bash\n# 使用中国镜像\nhfdownloader download owner\u002Frepo --endpoint https:\u002F\u002Fhf-mirror.com\n\n# 使用企业级端点\nhfdownloader serve --endpoint https:\u002F\u002Fyour-enterprise.com\u002Fhf\n```\n\n#### 🐳 Docker 支持\n可以在容器中运行 hfdownloader。感谢 **@cdeving** 的贡献（[#50](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F50)）！\n\n```bash\n# 构建 Docker 镜像\ndocker build -t hfdownloader .\n\n# 在容器中运行 CLI\ndocker run --rm -v .\u002Fmodels:\u002Fdata hfdownloader download TheBloke\u002FMistral-7B-GGUF -o \u002Fdata\n\n# 在容器中运行 Web 服务器\ndocker run --rm -p 8080:8080 -v .\u002Fmodels:\u002Fdata hfdownloader serve --models-dir \u002Fdata\u002FModels\n```\n\n---\n\n## 📋 变更\n\n- 向 CLI 下载命令添加了 `--exclude` \u002F `-E` 标志\n- 向下载和服务器命令都添加了 `--endpoint` 标志\n- 向 Job 结构体添加了 `Excludes` 字段\n- 向 Settings 结构体添加了 `Endpoint` 字段\n- 创建了采用多阶段构建的 `Dockerfile`\n- 更新了 API，以支持下载请求中的 `excludes`\n- 更新了设置端点，使其包含自定义端点配置\n- **Web UI：** 在模型和数据集下载表单中添加了“排除”输入框\n- **Web UI：** 将版本显示更新为 v2.3.1\n\n---\n\n## 🙏 致谢\n\n特别感谢以下社区成员的 PR，它们启发了这些功能：\n\n| 贡献者 | PR | 功能 |\n|-------------|-----|---------|\n| **[@jeroenkroese](https:\u002F\u002Fgithub.com\u002Fjeroenkroese)** | [#41](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F41) | 排除文件模式 |\n| **[@windtail](https:\u002F\u002Fgithub.com\u002Fwindtail)** | [#38](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F38) | 自定义 HuggingFace 端点 |\n| **[@cdeving](https:\u002F\u002Fgithub.com\u002Fcdeving)** | [#50](https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F50) | Docker 支持 |\n\n同时也要感谢社区提供的错误报告和 PR，它们帮助我们发现了 v2.3.0 中的问题：\n- URL 转义修复（与 #60 相关）\n- TUI 速度改进（与 #59 相关）\n- API 400 错误修复（与 #58 相关）\n\n---\n\n# 发布说明 - v2.3.0\n\n> **发布日期：** 2025年12月31日\n\n## 🎉 亮点\n\n这是一个**重大版本**，引入了全新的**Web UI**、完整的项目重构以及大量错误修复。该项目拥有","2025-12-31T18:28:19",{"id":192,"version":193,"summary_zh":194,"released_at":195},104905,"2.3.0","# 发布说明 - v2.3.0\n\n> **发布日期：** 2024年12月31日\n\n## 🎉 亮点\n\n这是一个**重大版本更新**，引入了全新的**Web UI**、完整的项目重构以及多项错误修复。项目现已按照 Go 语言的最佳实践，重新组织为整洁的模块化架构。\n\n---\n\n## ✨ 新特性\n\n### 🌐 Web 界面\n- 基于 Terminal-Noir 主题的精美 Web UI，用于管理下载任务\n- 通过 WebSocket 实时更新下载进度\n- 分别提供用于下载**模型**和**数据集**的独立页面\n- 每个文件的进度条支持实时状态更新\n- 设置管理功能（连接配置、重试次数、校验模式等）\n- 任务去重功能——防止重复下载同一仓库的内容\n\n### 🚀 一键启动 Web 模式\n只需运行以下命令即可立即启动 Web UI：\n```bash\nbash \u003C(curl -sSL https:\u002F\u002Fg.bodaay.io\u002Fhfd) -w\n```\n系统会自动打开浏览器并访问 `http:\u002F\u002Flocalhost:8080`。\n\n### 🔧 新增 CLI 命令\n- `hfdownloader serve` — 启动 Web 服务器\n- `hfdownloader version` — 显示版本信息\n- `hfdownloader config` — 管理配置\n\n### 📦 可复用的 Go 包\n下载器现已成为可导入的包，您可以通过以下方式使用：\n```go\nimport \"github.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpkg\u002Fhfdownloader\"\n```\n\n---\n\n## 🐛 错误修复\n\n### 修复：“error: tree API failed: 400 Bad Request”\n- 修复了包含斜杠的仓库路径（如 `Qwen\u002FQwen3-0.6B`）被错误 URL 编码的问题\n- 现在能够正确处理仓库 ID，而不会对斜杠进行二次转义\n\n### 修复：TUI 速度\u002FETA 显示频繁跳变\n- 引入**指数移动平均（EMA）**算法，使速度计算更加平滑\n- 添加最小时间间隔（50 毫秒），避免过快刷新速度值\n- 文件级和总进度的速度显示现在更加稳定、清晰易读\n\n### 修复：TUI 总文件大小波动\n- 在进度更新过程中，总文件大小不会再被错误值覆盖\n- 现在仅当提供有效值时才会更新总大小\n\n### 修复：下载任务看似卡住\n- 移除了扫描仓库时阻塞式的 HEAD 请求\n- 对于大型仓库（90+ 个文件），下载现在可在几秒钟内开始，而非几分钟\n- 假设 LFS 文件支持范围请求（Hugging Face 上始终支持）\n\n### 修复：Web UI 进度不更新\n- 为单文件下载添加了 `progressReader` 包装器，实现实时进度更新\n- 进度事件现在使用正确的 `Downloaded` 字段（累计字节数）\n- UI 更新频率被限制为每秒 10 帧，以防止 DOM 过度渲染\n\n---\n\n## 🏗️ 架构变更\n\n### 项目结构\n代码库已完全重构：\n\n```\n├── cmd\u002Fhfdownloader\u002F     # CLI 入口\n├── internal\u002F\n│   ├── cli\u002F              # CLI 命令（Cobra）\n│   ├── server\u002F           # Web 服务器及 API\n│   ├── tui\u002F              # 终端 UI\n│   └── assets\u002F           # 内嵌 Web 资源\n├── pkg\u002Fhfdownloader\u002F     # 可复用的下载库\n└── scripts\u002F              # 安装脚本\n```\n\n### 安全性改进\n- **输出路径由服务器控制** — 不再允许…","2025-12-31T16:56:07",{"id":197,"version":198,"summary_zh":199,"released_at":200},104906,"2.0.0","更清晰的概念模型（一个下载命令，合理的默认设置）。\n\n仅基于文件系统的续传——可靠且透明；无需担心“状态”文件被损坏。\n\nJSON 事件与在各平台上都表现优秀的 TUI 界面。\n\n针对真实场景中长时间运行的下载任务，提供了强大的取消机制。","2025-09-05T16:52:11",{"id":202,"version":203,"summary_zh":204,"released_at":205},104907,"1.4.2","强制 cgo_enabled=0","2024-10-26T03:00:13",{"id":207,"version":208,"summary_zh":209,"released_at":210},104908,"1.4.1","固定安装和安装路径","2024-10-12T11:39:21",{"id":212,"version":213,"summary_zh":214,"released_at":215},104909,"1.4.0","Added support llamafile extension filtering\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fcompare\u002F1.3.9...1.4.0","2024-10-12T11:03:35",{"id":217,"version":218,"summary_zh":219,"released_at":220},104910,"1.3.9","Fixed a bug  where filters are missed when the file within a sub folder","2024-10-12T09:47:36",{"id":222,"version":223,"summary_zh":224,"released_at":225},104911,"1.3.8","Merged Pending Pull Requests\r\n\r\n\r\n## What's Changed\r\n* Use less CPU during downloads by @issuj in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F36\r\n* fix deprecated env var HUGGING_FACE_HUB_TOKEN by @yuxi-liu-wired in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F34\r\n* - Use \u002Fusr\u002Fbin\u002Fenv to find bash, making build scripts compatiable with NixOS and other non-standard systems. by @deftdawg in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F29\r\n* Make hfDownloader functions respect silent mode by @RJKeevil in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F33\r\n\r\n## New Contributors\r\n* @issuj made their first contribution in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F36\r\n* @yuxi-liu-wired made their first contribution in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F34\r\n* @deftdawg made their first contribution in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F29\r\n* @RJKeevil made their first contribution in https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fpull\u002F33\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fbodaay\u002FHuggingFaceModelDownloader\u002Fcompare\u002F1.3.4...1.3.8","2024-10-06T21:21:26",{"id":227,"version":228,"summary_zh":229,"released_at":230},104912,"1.3.4","Merged Pull Request #25 \r\nAdded Silent Mode as temporary solution to progress bar printing issue ","2024-03-07T15:41:46",{"id":232,"version":233,"summary_zh":234,"released_at":235},104913,"1.2.9","Merged Pull requests\r\n\r\n- #13 \r\n- #6 ","2023-11-11T03:53:50",{"id":237,"version":238,"summary_zh":239,"released_at":240},104914,"1.2.8","Adding new extension for LFS files","2023-09-01T13:22:34",{"id":242,"version":243,"summary_zh":244,"released_at":245},104915,"1.2.7","changed Hugging Face Token Env Variable name to follow standard","2023-07-19T19:56:20",{"id":247,"version":248,"summary_zh":249,"released_at":250},104916,"1.2.6","added support to supply HF_API_KEY by .env file or Env ","2023-07-19T13:26:30",{"id":252,"version":253,"summary_zh":254,"released_at":255},104917,"1.2.5","Support resuming interrupted download per LFS","2023-07-17T19:12:13",{"id":257,"version":258,"summary_zh":259,"released_at":260},104918,"1.2.1","added support for onnx models","2023-07-15T15:43:36"]