HuggingFaceModelDownloader
HuggingFaceModelDownloader 是一款基于 Go 语言开发的高效实用工具,专为快速下载 HuggingFace Hub 上的模型和数据集而设计。它主要解决了官方下载方式速度慢、大文件易中断以及难以选择合适量化版本等痛点。
该工具特别适合需要频繁获取大模型的 AI 开发者、研究人员以及本地部署爱好者。其核心亮点在于强大的并行下载能力,支持单文件多连接和多重文件并发,能最大化利用带宽并自动支持断点续传。独有的交互式 GGUF 分析器是其一大特色,用户可通过终端界面直观查看不同量化版本的显存占用估算和质量评级,轻松选出最适合硬件配置的模型版本,无需盲目猜测。
此外,HuggingFaceModelDownloader 默认将文件保存至标准的 HuggingFace 缓存目录,确保 Python 库(如 Transformers)能直接识别并使用,实现了与现有工作流的无缝衔接。它还提供了完整的代理支持和简易的 Web 管理界面,即便在企业防火墙环境下也能稳定运行。无论是通过命令行脚本自动化操作,还是使用交互式界面手动挑选,它都能提供流畅、透明的下载体验。
使用场景
某初创公司的算法工程师需要在受限的企业内网环境中,快速为本地推理服务部署多个量化版的 Llama 3 模型,以进行性能基准测试。
没有 HuggingFaceModelDownloader 时
- 下载效率极低:使用官方 Python 库单线程下载大模型文件,一旦网络波动中断,往往需要从头重来,耗时数小时。
- 选型盲目试错:面对数十种 GGUF 量化版本(如 Q4_K_M, Q8_0 等),无法直观预估显存占用,常因选错版本导致本地 OOM(内存溢出)崩溃。
- 内网穿透困难:公司防火墙阻挡直连,配置复杂的代理环境变量经常失效,导致连接超时无法获取资源。
- 路径管理混乱:手动下载的文件散落在不同目录,Python 脚本无法自动识别缓存,需反复编写代码指定本地路径。
使用 HuggingFaceModelDownloader 后
- 极速断点续传:利用每文件 16 路并行连接和自动续传功能,将原本 3 小时的下载时间压缩至 20 分钟,且无惧网络抖动。
- 智能交互选型:通过
-i交互式模式,直接查看各量化版本的星级评分与显存估算,一键锁定推荐的 Q4_K_M 版本,彻底避免运行报错。 - 原生代理支持:内置 SOCKS5 及认证代理支持,只需一条命令即可穿透企业防火墙,稳定拉取元数据和大文件。
- 无缝生态集成:下载文件自动存入标准 HuggingFace 缓存目录,后续 Python 代码调用
from_pretrained时无需任何修改即可直接加载。
HuggingFaceModelDownloader 通过并行加速、智能分析与原生代理支持,将繁琐的模型获取流程转化为高效、可靠的自动化体验。
运行环境要求
- Linux
- macOS
- Windows
无需求(该工具为模型下载器,不涉及模型推理或训练)
未说明

快速开始
HuggingFace 下载器
从 HuggingFace Hub 下载模型的最快、最智能方式
并行下载 • 智能 GGUF 分析器 • 兼容 Python • 全面代理支持
为何选择此工具?
并行下载
通过每个文件多连接和并发文件下载,最大化您的带宽:
- 每个文件最多 16 个并行连接(分块下载)
- 最多 8 个文件同时下载
- 中断后自动恢复

实时显示每个文件的状态、速度和预计完成时间。
交互式 GGUF 选择器
无需猜测该下载哪种量化。使用 -i 参数启用带有质量评分和显存估算的交互式选择器:
hfdownloader analyze -i TheBloke/Mistral-7B-Instruct-v0.2-GGUF

交互模式功能:
- 键盘导航:使用 ↑↓ 键浏览,空格键切换选择
- 质量评分:星级(★★★★☆)显示相对质量
- 显存估算:了解是否适合您的显存
- “推荐”徽章:我们突出显示最佳平衡选项 (Q4_K_M)
- 实时总计:选择时查看总大小
- 一键下载:按 Enter 键开始,或输入
c复制命令
不使用 -i 时,输出为文本或 JSON 格式,非常适合脚本和与其他工具的管道操作。
Python 直接可用
下载的模型会保存到标准的 HuggingFace 缓存目录中。Python 库可以自动找到它们:
from transformers import AutoModel
model = AutoModel.from_pretrained("TheBloke/Mistral-7B-Instruct-v0.2-GGUF") # 直接可用
此外,您还可以在 ~/.cache/huggingface/models/ 中找到人类可读的路径,方便浏览。
适用于企业防火墙后
全面支持代理,包括 SOCKS5、身份验证 和 CIDR 绕过规则:
hfdownloader download meta-llama/Llama-2-7b --proxy socks5://localhost:1080
快速开始
先试用一下——无需安装:
# 使用交互式 GGUF 选择器分析模型
bash <(curl -sSL https://g.bodaay.io/hfd) analyze -i TheBloke/Mistral-7B-Instruct-v0.2-GGUF
# 下载模型
bash <(curl -sSL https://g.bodaay.io/hfd) download TheBloke/Mistral-7B-Instruct-v0.2-GGUF
# 启动 Web UI
bash <(curl -sSL https://g.bodaay.io/hfd) serve
# 带认证的 Web UI
bash <(curl -sSL https://g.bodaay.io/hfd) serve --auth-user admin --auth-pass secret
喜欢吗?永久安装:
bash <(curl -sSL https://g.bodaay.io/hfd) install
现在可以直接使用:
hfdownloader analyze -i TheBloke/Mistral-7B-Instruct-v0.2-GGUF
hfdownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF:q4_k_m
hfdownloader serve
hfdownloader serve --auth-user admin --auth-pass secret # 带认证
文件会保存到 ~/.cache/huggingface/ 目录下——Python 库可以自动找到它们。
智能分析器
不确定仓库里有什么内容?先进行分析:
hfdownloader analyze <任意仓库>
对于 GGUF 模型,您将获得一个交互式选择器(见上方截图)。对于其他类型,分析器会自动检测并显示相关信息:
| 类型 | 显示内容 |
|---|---|
| GGUF | 带质量评分、显存估算和多选功能的交互式选择器 |
| Transformers | 架构、参数量、上下文长度、词汇表大小 |
| Diffusers | 流水线类型、组件、变体(fp16、bf16) |
| LoRA | 基础模型、秩、alpha、目标模块 |
| GPTQ/AWQ | 位数、分组大小、估计显存 |
| 数据集 | 格式、配置、拆分、大小 |
多分支支持
有些仓库有多个分支(fp16、onnx、flax)。分析器允许您选择:
hfdownloader analyze -i CompVis/stable-diffusion-v1-4

Diffusers 组件选择器
对于 Stable Diffusion 模型,您可以精确选择所需的组件:

选择 unet、vae、text_encoder——跳过不需要的部分。命令会自动生成。
下载功能
内联过滤语法
无需额外标志即可下载特定文件:
# 只下载 Q4_K_M 量化
hfdownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF:q4_k_m
# 下载多种量化
hfdownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF:q4_k_m,q5_k_m
# 或者使用标志
hfdownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF -F q4_k_m -E ".md,fp16"
断点续传与校验
# 下载中断?再次运行即可自动续传
hfdownloader download owner/repo
# 严格校验
hfdownloader download owner/repo --verify sha256
# 预览将要下载的内容
hfdownloader download owner/repo --dry-run
高速模式
# 最大化并行度
hfdownloader download owner/repo -c 16 --max-active 8
| 标志 | 默认值 | 描述 |
|---|---|---|
-c, --connections |
8 | 每个文件的连接数 |
--max-active |
3 | 并发文件下载数量 |
-F, --filters |
包含模式 | |
-E, --exclude |
排除模式 | |
-b, --revision |
main | 分支、标签或提交 |
双层存储
我们为您的下载内容维护两种视图:
~/.cache/huggingface/
├── hub/ # 第一层:HF 缓存(Python 兼容)
│ └── models--TheBloke--Mistral.../
│ └── snapshots/a1b2c3d4.../
│ └── model.gguf
│
└── models/ # 第二层:人类可读
└── TheBloke/
└── Mistral-7B-GGUF/
├── model.gguf → 指向 hub/... 的符号链接
└── hfd.yaml # 下载清单
第一层(hub/):标准的 HuggingFace 缓存结构。Python 库可以自动处理。
第二层(models/):人类可读的路径和符号链接。您可以像浏览普通文件夹一样查看下载内容。
Windows 注意:友好视图(第二层)需要使用符号链接,这通常需要管理员权限或启用 Windows 开发者模式。尽管如此,下载仍然会正常工作——文件会被存储在 HuggingFace 缓存中(第一层)——但不会创建人类可读的符号链接。
清单跟踪
每次下载都会生成 hfd.yaml 文件,以便您清楚地了解已下载的内容:
repo: TheBloke/Mistral-7B-Instruct-v0.2-GGUF
branch: main
commit: a1b2c3d4...
downloaded_at: 2024-01-15T10:30:00Z
command: hfdownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF -F q4_k_m
files:
- path: mistral-7b.Q4_K_M.gguf
size: 4368438272
# 列出所有已下载的内容
hfdownloader list
# 获取特定下载的详细信息
hfdownloader info Mistral
Web 界面
现代化的网页界面,提供实时进度显示:
hfdownloader serve
# 打开 http://localhost:8080

缓存浏览器
浏览所有已下载的内容,支持统计、搜索和筛选功能:

各页面功能
| 页面 | 功能 |
|---|---|
| 分析 | 输入任意仓库,自动检测类型,查看文件及大小,选择 GGUF 量化格式 |
| 任务 | 实时 WebSocket 进度显示,支持暂停、恢复和取消操作,以及下载历史记录 |
| 缓存 | 浏览已下载的仓库,查看磁盘使用情况统计,支持搜索和筛选 |
| 镜像 | 配置目标位置,比较差异,执行推送和拉取同步 |
| 设置 | 令牌、连接、代理、验证模式等配置 |
服务器选项
hfdownloader serve \
--port 3000 \
--auth-user admin \
--auth-pass secret \
-t hf_xxxxx
镜像同步
在不同设备之间同步模型缓存——例如家庭、办公室、NAS 或 USB 驱动器。

# 添加镜像目标
hfdownloader mirror target add office /mnt/nas/hf-models
hfdownloader mirror target add usb /media/usb/hf-cache
# 比较本地与目标
hfdownloader mirror diff office
# 将本地缓存推送到目标
hfdownloader mirror push office
# 从目标拉取到本地
hfdownloader mirror pull office
# 仅同步特定仓库
hfdownloader mirror push office --filter "Llama,GGUF"
# 同步后验证完整性
hfdownloader mirror push office --verify
非常适合以下场景:
- 空气隔离环境:在家下载,同步到办公室
- 团队共享:中央 NAS 存储所有模型
- 备份:在外置驱动器上保留一份副本
代理支持
全面支持企业环境中的代理设置:
# HTTP 代理
hfdownloader download owner/repo --proxy http://proxy:8080
# SOCKS5(例如 SSH 隧道)
hfdownloader download owner/repo --proxy socks5://localhost:1080
# 带认证
hfdownloader download owner/repo \
--proxy http://proxy:8080 \
--proxy-user myuser \
--proxy-pass mypassword
# 在下载前测试代理连通性
hfdownloader proxy test --proxy http://proxy:8080
支持的类型
| 类型 | URL 格式 |
|---|---|
| HTTP | http://host:port |
| HTTPS | https://host:port |
| SOCKS5 | socks5://host:port |
| SOCKS5h | socks5h://host:port(远程 DNS) |
配置文件
将代理设置保存在 ~/.config/hfdownloader.yaml 中:
proxy:
url: http://proxy.corp.com:8080
username: myuser
password: mypassword
no_proxy: localhost,.internal.com,10.0.0.0/8
安装
一键安装(推荐)
bash <(curl -sSL https://g.bodaay.io/hfd) install
就这么简单。适用于 Linux、macOS 和 WSL。
或者无需安装直接运行:
bash <(curl -sSL https://g.bodaay.io/hfd) download TheBloke/Mistral-7B-Instruct-v0.2-GGUF
bash <(curl -sSL https://g.bodaay.io/hfd) serve # Web 界面
下载二进制文件
从 Releases 获取:
| 平台 | 架构 | 文件 |
|---|---|---|
| Linux | x86_64 | hfdownloader_linux_amd64_* |
| Linux | ARM64 | hfdownloader_linux_arm64_* |
| macOS | Apple Silicon | hfdownloader_darwin_arm64_* |
| macOS | Intel | hfdownloader_darwin_amd64_* |
| Windows | x86_64 | hfdownloader_windows_amd64_*.exe |
从源码构建
git clone https://github.com/bodaay/HuggingFaceModelDownloader
cd HuggingFaceModelDownloader
go build -o hfdownloader ./cmd/hfdownloader
Docker
# 从 GitHub Container Registry 拉取镜像
docker pull ghcr.io/bodaay/huggingfacemodeldownloader:latest
# 或者本地构建
docker build -t hfdownloader .
# 运行(挂载本地 HF 缓存)
docker run --rm -v ~/.cache/huggingface:/home/hfdownloader/.cache/huggingface \
ghcr.io/bodaay/huggingfacemodeldownloader download TheBloke/Mistral-7B-Instruct-v0.2-GGUF
私有及受控模型
对于私有仓库或受控模型(如 Llama 等):
# 通过环境变量设置令牌
export HF_TOKEN=hf_xxxxx
hfdownloader download meta-llama/Llama-2-7b
# 或者通过命令行参数
hfdownloader download meta-llama/Llama-2-7b -t hf_xxxxx
对于受控模型,您必须先在模型的 HuggingFace 页面上接受许可协议。
中国镜像
在中国境内使用 HuggingFace 镜像以加快下载速度:
hfdownloader download owner/repo --endpoint https://hf-mirror.com
或者在配置文件中设置:
endpoint: https://hf-mirror.com
CLI 参考
| 命令 | 描述 |
|---|---|
download |
下载模型或数据集(默认命令) |
analyze |
下载前分析仓库 |
serve |
启动带有 REST API 的 Web 服务器 |
list |
列出所有已下载的仓库 |
info |
显示已下载仓库的详细信息 |
rebuild |
从 HF 缓存重新生成友好视图 |
mirror |
在不同位置之间同步缓存 |
proxy |
测试并显示代理配置 |
config |
管理配置 |
version |
显示版本信息 |
完整文档:docs/CLI.md • docs/API.md • docs/V3_FEATURES.md
v3.0 新增功能
| 功能 | 描述 |
|---|---|
| HF 缓存兼容性 | 下载现在使用标准的 HuggingFace 缓存结构 |
| 双层存储 | 兼容 Python 的缓存 + 人类可读的符号链接 |
| 智能分析器 | 自动检测模型类型、GGUF 质量评级、内存估算 |
| Web UI v3 | 现代化界面,支持实时 WebSocket 进度显示 |
| 镜像同步 | 在不同位置之间推送/拉取缓存 |
| 完整代理支持 | HTTP、SOCKS5、认证、CIDR 绕过 |
| 清单跟踪 | hfd.yaml 记录每次下载的内容、时间及方式 |
从 v2.x 升级
v3.0 默认使用 HF 缓存。若需保留 v2.x 行为:
hfdownloader download owner/repo --legacy -o ./my-models
环境变量
| 变量 | 用途 |
|---|---|
HF_TOKEN |
HuggingFace 访问令牌 |
HF_HOME |
覆盖 ~/.cache/huggingface |
HTTP_PROXY |
HTTP 请求代理 |
HTTPS_PROXY |
HTTPS 请求代理 |
NO_PROXY |
逗号分隔的绕过列表 |
许可证
Apache 2.0 — 可在个人和商业项目中自由使用。
版本历史
v3.0.32026/01/30v3.0.12026/01/30v3.0.02026/01/302.3.42026/01/132.3.32026/01/012.3.12025/12/312.3.02025/12/312.0.02025/09/051.4.22024/10/261.4.12024/10/121.4.02024/10/121.3.92024/10/121.3.82024/10/061.3.42024/03/071.2.92023/11/111.2.82023/09/011.2.72023/07/191.2.62023/07/191.2.52023/07/171.2.12023/07/15常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。