[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huggingface--smollm":3,"tool-huggingface--smollm":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":77,"owner_website":82,"owner_url":83,"languages":84,"stars":108,"forks":109,"last_commit_at":110,"license":111,"difficulty_score":10,"env_os":112,"env_gpu":113,"env_ram":112,"env_deps":114,"category_tags":119,"github_topics":81,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":153},3485,"huggingface\u002Fsmollm","smollm","Everything about the SmolLM and SmolVLM family of models ","smollm 是 Hugging Face 推出的一系列高效、轻量级开源 AI 模型家族，涵盖文本理解的 SmolLM 和视觉语言处理的 SmolVLM。它旨在解决大型模型难以在本地设备（如手机、笔记本）上流畅运行的痛点，让用户在无需依赖强大云端算力的情况下，也能享受高性能的 AI 服务。\n\n这套模型非常适合开发者、研究人员以及希望在本地部署 AI 应用的技术爱好者。无论是构建多语言聊天机器人、进行图像内容分析，还是探索端侧智能应用，smollm 都能提供坚实的基础。其中，最新发布的 SmolLM3 表现尤为亮眼：作为一个仅 30 亿参数的模型，它在多项基准测试中超越了同量级的 Llama 3.2 和 Qwen2.5，甚至能与部分 40 亿参数模型媲美。\n\nsmollm 的独特亮点在于其“完全开放”的理念，不仅公开模型权重，还详细披露了训练数据构成与配置细节。技术上，它支持包括中文在内的六国语言，具备长达 128k 的上下文窗口，并创新性地引入了“思考\u002F非思考”双模式推理机制。而 SmolVLM 则能轻松处理图文混合任务，支持单轮对话中分析多张图片。凭借小巧的体积与强大的性能，smol","smollm 是 Hugging Face 推出的一系列高效、轻量级开源 AI 模型家族，涵盖文本理解的 SmolLM 和视觉语言处理的 SmolVLM。它旨在解决大型模型难以在本地设备（如手机、笔记本）上流畅运行的痛点，让用户在无需依赖强大云端算力的情况下，也能享受高性能的 AI 服务。\n\n这套模型非常适合开发者、研究人员以及希望在本地部署 AI 应用的技术爱好者。无论是构建多语言聊天机器人、进行图像内容分析，还是探索端侧智能应用，smollm 都能提供坚实的基础。其中，最新发布的 SmolLM3 表现尤为亮眼：作为一个仅 30 亿参数的模型，它在多项基准测试中超越了同量级的 Llama 3.2 和 Qwen2.5，甚至能与部分 40 亿参数模型媲美。\n\nsmollm 的独特亮点在于其“完全开放”的理念，不仅公开模型权重，还详细披露了训练数据构成与配置细节。技术上，它支持包括中文在内的六国语言，具备长达 128k 的上下文窗口，并创新性地引入了“思考\u002F非思考”双模式推理机制。而 SmolVLM 则能轻松处理图文混合任务，支持单轮对话中分析多张图片。凭借小巧的体积与强大的性能，smollm 真正实现了让 AI 在本地设备上高效落地。","# Smol Models 🤏\n\nWelcome to Smol Models, a family of efficient and lightweight AI models from Hugging Face. Our mission is to create fully open powerful yet compact models, for text and vision, that can run effectively on-device while maintaining strong performance.\n\n## [NEW] SmolLM3 (Language Model)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_555dffff20f7.png)\n\nOur 3B model outperforms Llama 3.2 3B and Qwen2.5 3B while staying competitive with larger 4B alternatives (Qwen3 & Gemma3). Beyond the performance numbers, we're sharing exactly how we built it using public datasets and training frameworks.\n\nRessources:\n- [SmolLM3-Base](https:\u002F\u002Fhf.co\u002FHuggingFaceTB\u002FSmolLM3-3B-Base)\n- [SmolLM3](https:\u002F\u002Fhf.co\u002FHuggingFaceTB\u002FSmolLM3-3B)\n- [blog](https:\u002F\u002Fhf.co\u002Fblog\u002Fsmollm3)\n\nSummary:\n- **3B model** trained on 11T tokens, SoTA at the 3B scale and competitive with 4B models\n- **Fully open model**, open weights + full training details including public data mixture and training configs\n- **Instruct model** with **dual mode reasoning,** supporting think\u002Fno_think modes\n- **Multilingual support** for 6 languages: English, French, Spanish, German, Italian, and Portuguese\n- **Long context** up to 128k with NoPE and using YaRN\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_816183511fc1.png)\n\n## 👁️ SmolVLM (Vision Language Model)\n[SmolVLM](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceTB\u002FSmolVLM-Instruct) is our compact multimodal model that can:\n- Process both images and text and perform tasks like visual QA, image description, and visual storytelling\n- Handle multiple images in a single conversation\n- Run efficiently on-device\n\n## Repository Structure\n```\nsmollm\u002F\n├── text\u002F               # SmolLM3\u002F2\u002F1 related code and resources\n├── vision\u002F            # SmolVLM related code and resources\n└── tools\u002F             # Shared utilities and inference tools\n    ├── smol_tools\u002F    # Lightweight AI-powered tools\n    ├── smollm_local_inference\u002F\n    └── smolvlm_local_inference\u002F\n```\n\n## Getting Started\n\n### SmolLM3\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nmodel_name = \"HuggingFaceTB\u002FSmolLM3-3B\"\ndevice = \"cuda\"  # for GPU usage or \"cpu\" for CPU usage\n\n# load the tokenizer and the model\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n).to(device)\n\n# prepare the model input\nprompt = \"Give me a brief explanation of gravity in simple terms.\"\nmessages_think = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\ntext = tokenizer.apply_chat_template(\n    messages_think,\n    tokenize=False,\n    add_generation_prompt=True,\n)\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\n# Generate the output\ngenerated_ids = model.generate(**model_inputs, max_new_tokens=32768)\n\n# Get and decode the output\noutput_ids = generated_ids[0][len(model_inputs.input_ids[0]) :]\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n### SmolVLM\n```python\nfrom transformers import AutoProcessor, AutoModelForVision2Seq\n\nprocessor = AutoProcessor.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\nmodel = AutoModelForVision2Seq.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\n\nmessages = [\n    {\n        \"role\": \"user\",\n        \"content\": [\n            {\"type\": \"image\"},\n            {\"type\": \"text\", \"text\": \"What's in this image?\"}\n        ]\n    }\n]\n```\n\n## Ecosystem\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_30fc57e8d2b8.png\" width=\"700\"\u002F>\n\u003C\u002Fdiv>\n\n## Resources\n\n### Documentation\n- [SmolLM3 Documentation](text\u002FREADME.md)\n- [SmolLM2 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02737v1)\n- [SmolVLM Documentation](vision\u002FREADME.md)\n- [Local Inference Guide](tools\u002FREADME.md)\n\n### Pretrained Models\n- [SmolLM3 Models Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm3-686d33c1fdffe8e635317e23)\n- [SmolLM2 Models Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm2-6723884218bcda64b34d7db9)\n- [SmolVLM Model](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceTB\u002FSmolVLM-Instruct)\n\n### Datasets\n- [SmolLM3 Pretraining dataset](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm3-pretraining-datasets-685a7353fdc01aecde51b1d9)\n- [SmolTalk](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceTB\u002Fsmoltalk) - Our instruction-tuning dataset\n- [FineMath](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceTB\u002Ffinemath) - Mathematics pretraining dataset\n- [FineWeb-Edu](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceFW\u002Ffineweb-edu) - Educational content pretraining dataset\n","# Smol Models 🤏\n\n欢迎来到 Smol Models，这是 Hugging Face 推出的一系列高效、轻量级的 AI 模型。我们的使命是打造完全开源、功能强大且体积小巧的文本和视觉模型，使其能够在设备端高效运行，同时保持卓越的性能。\n\n## [新] SmolLM3（语言模型）\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_555dffff20f7.png)\n\n我们的 3B 参数模型在性能上超越了 Llama 3.2 3B 和 Qwen2.5 3B，同时与更大的 4B 模型（Qwen3 和 Gemma3）相比也毫不逊色。除了性能数据之外，我们还详细分享了如何使用公开数据集和训练框架构建该模型的过程。\n\n资源：\n- [SmolLM3-Base](https:\u002F\u002Fhf.co\u002FHuggingFaceTB\u002FSmolLM3-3B-Base)\n- [SmolLM3](https:\u002F\u002Fhf.co\u002FHuggingFaceTB\u002FSmolLM3-3B)\n- [博客](https:\u002F\u002Fhf.co\u002Fblog\u002Fsmollm3)\n\n摘要：\n- **3B 参数模型**：基于 11T 个 token 训练，在 3B 规模中处于 SOTA 水平，并可与 4B 模型相媲美。\n- **完全开源模型**：开放权重及完整的训练细节，包括公开的数据组合和训练配置。\n- **指令模型**：具备**双模式推理**，支持思考\u002F不思考两种模式。\n- **多语言支持**：涵盖 6 种语言：英语、法语、西班牙语、德语、意大利语和葡萄牙语。\n- **长上下文**：最长可达 128k，采用 NoPE 并结合 YaRN 技术。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_816183511fc1.png)\n\n## 👁️ SmolVLM（视觉语言模型）\n[SmolVLM](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceTB\u002FSmolVLM-Instruct) 是我们的紧凑型多模态模型，能够：\n- 同时处理图像和文本，执行视觉问答、图像描述和视觉叙事等任务。\n- 在单次对话中处理多张图片。\n- 在设备端高效运行。\n\n## 仓库结构\n```\nsmollm\u002F\n├── text\u002F               # SmolLM3\u002F2\u002F1 相关代码和资源\n├── vision\u002F            # SmolVLM 相关代码和资源\n└── tools\u002F             # 共享工具和推理工具\n    ├── smol_tools\u002F    # 轻量级 AI 驱动工具\n    ├── smollm_local_inference\u002F\n    └── smolvlm_local_inference\u002F\n```\n\n## 快速入门\n\n### SmolLM3\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nmodel_name = \"HuggingFaceTB\u002FSmolLM3-3B\"\ndevice = \"cuda\"  # 使用 GPU 或 \"cpu\" 使用 CPU\n\n# 加载分词器和模型\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n).to(device)\n\n# 准备模型输入\nprompt = \"用简单的语言给我解释一下引力。\"\nmessages_think = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\ntext = tokenizer.apply_chat_template(\n    messages_think,\n    tokenize=False,\n    add_generation_prompt=True,\n)\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\n# 生成输出\ngenerated_ids = model.generate(**model_inputs, max_new_tokens=32768)\n\n# 获取并解码输出\noutput_ids = generated_ids[0][len(model_inputs.input_ids[0]) :]\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n### SmolVLM\n```python\nfrom transformers import AutoProcessor, AutoModelForVision2Seq\n\nprocessor = AutoProcessor.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\nmodel = AutoModelForVision2Seq.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\n\nmessages = [\n    {\n        \"role\": \"user\",\n        \"content\": [\n            {\"type\": \"image\"},\n            {\"type\": \"text\", \"text\": \"这张图里有什么？\"}\n        ]\n    }\n]\n```\n\n## 生态系统\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_readme_30fc57e8d2b8.png\" width=\"700\"\u002F>\n\u003C\u002Fdiv>\n\n## 资源\n\n### 文档\n- [SmolLM3 文档](text\u002FREADME.md)\n- [SmolLM2 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02737v1)\n- [SmolVLM 文档](vision\u002FREADME.md)\n- [本地推理指南](tools\u002FREADME.md)\n\n### 预训练模型\n- [SmolLM3 模型合集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm3-686d33c1fdffe8e635317e23)\n- [SmolLM2 模型合集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm2-6723884218bcda64b34d7db9)\n- [SmolVLM 模型](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceTB\u002FSmolVLM-Instruct)\n\n### 数据集\n- [SmolLM3 预训练数据集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FHuggingFaceTB\u002Fsmollm3-pretraining-datasets-685a7353fdc01aecde51b1d9)\n- [SmolTalk](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceTB\u002Fsmoltalk) - 我们的指令微调数据集\n- [FineMath](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceTB\u002Ffinemath) - 数学预训练数据集\n- [FineWeb-Edu](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceFW\u002Ffineweb-edu) - 教育内容预训练数据集","# SmolLM 快速上手指南\n\nSmolLM 是 Hugging Face 推出的一系列高效、轻量级开源 AI 模型家族，包含专注于文本的 **SmolLM3** 和具备视觉理解能力的 **SmolVLM**。这些模型专为端侧部署设计，在保持紧凑体积的同时提供强大的性能。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS, Windows\n- **Python**: 3.9 或更高版本\n- **硬件**:\n  - **CPU**: 通用推理（推荐至少 8GB 内存）\n  - **GPU**: 支持 CUDA 的 NVIDIA 显卡（推荐显存 6GB+ 以流畅运行 3B 模型）\n\n### 前置依赖\n确保已安装 `pip` 和 `git`。建议创建独立的虚拟环境：\n\n```bash\npython -m venv smollm-env\nsource smollm-env\u002Fbin\u002Factivate  # Windows 用户请使用: smollm-env\\Scripts\\activate\n```\n\n## 安装步骤\n\n安装核心依赖库 `transformers` 和 `torch`。国内开发者推荐使用清华或阿里镜像源加速下载。\n\n```bash\n# 使用清华镜像源安装 PyTorch (CUDA 12.1 版本示例，如需 CPU 版请移除 torch torchvision torchaudio 后的索引参数)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\n\n# 安装 transformers 及相关依赖\npip install transformers accelerate sentencepiece protobuf -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 1. SmolLM3 (文本模型)\nSmolLM3 是一个 3B 参数的语言模型，支持多语言（含部分欧洲语言）及长上下文（最高 128k）。以下示例展示如何加载模型并生成回答。\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nmodel_name = \"HuggingFaceTB\u002FSmolLM3-3B\"\ndevice = \"cuda\"  # 如有 GPU 设为 \"cuda\"，否则设为 \"cpu\"\n\n# 加载分词器和模型\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n).to(device)\n\n# 准备输入提示\nprompt = \"Give me a brief explanation of gravity in simple terms.\"\nmessages_think = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\n# 应用聊天模板\ntext = tokenizer.apply_chat_template(\n    messages_think,\n    tokenize=False,\n    add_generation_prompt=True,\n)\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\n# 生成输出\ngenerated_ids = model.generate(**model_inputs, max_new_tokens=32768)\n\n# 解码并打印结果\noutput_ids = generated_ids[0][len(model_inputs.input_ids[0]) :]\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n### 2. SmolVLM (视觉语言模型)\nSmolVLM 能够处理图像和文本混合输入，适用于视觉问答、图像描述等任务。\n\n```python\nfrom transformers import AutoProcessor, AutoModelForVision2Seq\nfrom PIL import Image\nimport requests\n\n# 加载处理器和模型\nprocessor = AutoProcessor.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\nmodel = AutoModelForVision2Seq.from_pretrained(\"HuggingFaceTB\u002FSmolVLM-Instruct\")\n\n# 加载示例图片\nurl = \"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fhuggingface\u002Fdocumentation-images\u002Fresolve\u002Fmain\u002Fbeignets-task-guide.png\"\nimage = Image.open(requests.get(url, stream=True).raw)\n\n# 构建消息内容\nmessages = [\n    {\n        \"role\": \"user\",\n        \"content\": [\n            {\"type\": \"image\"},\n            {\"type\": \"text\", \"text\": \"What's in this image?\"}\n        ]\n    }\n]\n\n# 处理输入并生成 (需配合 processor 处理图像数据)\ninputs = processor(text=[messages[0][\"content\"][1][\"text\"]], images=[image], return_tensors=\"pt\")\ninputs = inputs.to(model.device)\n\ngenerated_ids = model.generate(**inputs, max_new_tokens=100)\ngenerated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0]\nprint(generated_text)\n```\n\n> **提示**: 首次运行时，模型权重会自动从 Hugging Face Hub 下载。若网络受限，可手动下载模型文件至本地目录，并将代码中的 `model_name` 替换为本地路径。","一位独立开发者正在为一款面向户外探险者的离线助手 App 集成多模态交互功能，需要在无网络环境下实现图文问答。\n\n### 没有 smollm 时\n- **部署门槛高**：主流大模型体积庞大，无法在移动端或边缘设备本地运行，必须依赖云端 API，导致用户在深山等无网区域完全无法使用。\n- **响应延迟严重**：即使有网络，图像上传和云端推理带来的网络延迟让实时交互体验卡顿，无法满足紧急场景下的快速反馈需求。\n- **定制成本高昂**：若需支持英、法、西等多国语言或特定的“先思考后回答”逻辑，往往需要昂贵的微调算力或复杂的工程适配。\n- **数据隐私风险**：用户拍摄的地理位置和环境照片需上传至第三方服务器，存在敏感信息泄露的隐患。\n\n### 使用 smollm 后\n- **真正的端侧智能**：借助 SmolVLM 和 SmolLM3 的轻量化特性（如 3B 参数），模型可直接嵌入手机或手持终端，在无网环境下依然流畅运行。\n- **毫秒级即时响应**：本地推理消除了网络传输耗时，用户拍摄照片后能立即获得关于地形或植物的详细解读，大幅提升安全性。\n- **原生多语与逻辑增强**：直接利用其内置的六国语言支持和双模式推理（think\u002Fno_think），无需额外训练即可提供高质量、符合逻辑的多语言指导。\n- **隐私安全可控**：所有图文数据均在设备本地处理，彻底杜绝了用户隐私外泄的风险，符合严苛的数据合规要求。\n\nsmollm 让高性能多模态 AI 真正走出服务器，成为每个人口袋中随时待命的离线智能伙伴。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smollm_81618351.png","huggingface","Hugging Face","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuggingface_90da21a4.png","The AI community building the future.",null,"https:\u002F\u002Fhuggingface.co\u002F","https:\u002F\u002Fgithub.com\u002Fhuggingface",[85,89,93,97,101,105],{"name":86,"color":87,"percentage":88},"Python","#3572A5",76.3,{"name":90,"color":91,"percentage":92},"Shell","#89e051",14.6,{"name":94,"color":95,"percentage":96},"Jupyter Notebook","#DA5B0B",8.8,{"name":98,"color":99,"percentage":100},"HTML","#e34c26",0.4,{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0,{"name":106,"color":107,"percentage":104},"JavaScript","#f1e05a",3697,284,"2026-04-04T14:53:17","Apache-2.0","未说明","非必需。示例代码支持 CUDA (GPU) 和 CPU 模式。具体显存需求取决于模型版本（如 3B 参数模型），未在文中明确指定最低显存大小或 CUDA 版本。",{"notes":115,"python":112,"dependencies":116},"该工具包含 SmolLM3（文本模型，3B 参数）和 SmolVLM（视觉语言模型）。SmolLM3 支持长达 128k 的上下文窗口，具备多语言（英、法、西、德、意、葡）及双模式推理（think\u002Fno_think）功能。代码示例显示可通过设置 device 变量轻松切换 CPU 或 GPU 运行，旨在实现高效的端侧部署。",[117,118],"transformers","torch",[15,37],"2026-03-27T02:49:30.150509","2026-04-06T05:27:28.694086",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},15981,"在哪里可以找到 SmolLM3 预训练数据集中提到的 jupyter-scripts 和 pull-requests 数据集？","这些数据集并未直接以该路径发布。关于如何提取这些数据的信息，可以参考 The Stack V2 项目：https:\u002F\u002Fgithub.com\u002Fbigcode-project\u002Fthe-stack-v2。此外，Stage3 中使用的 multilingual_wiki 路径也需要单独指定。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F108",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},15982,"如何获取 SmolLMv1 (135M) 的预训练代码以及 python-edu 数据集？","SmolLMv1 的预训练代码即当前仓库中的代码。对于 python-edu 数据集，请遵循官方指南下载：https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FHuggingFaceTB\u002Fsmollm-corpus#downloading-the-data。注意，该数据集没有默认的 \"text\" 列，可能需要使用特殊的 `--column` 参数进行指定。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F5",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},15983,"在单张 GPU（如 4090 或 Colab L4）上微调 VLM 时遇到 bitsandbytes 找不到 CUDA 的错误怎么办？","这通常是因为笔记本中硬编码了多 GPU 环境变量。解决方法是删除或注释掉设置 `CUDA_VISIBLE_DEVICES` 的代码行（例如 `os.environ[\"CUDA_VISIBLE_DEVICES\"] = \"1, 2\"`）。移除该行后，单卡环境即可正常运行。相关修复已合并至 PR #28。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F15",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},15984,"微调 SmolVLM 视频数据集后，推理输出出现重复时间戳或乱码，如何解决？","此问题通常与 transformers 库的版本有关。建议从源码安装最新版本的 transformers 来解决：`pip install -q git+https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers.git`。同时可参考社区讨论 Issue #75 中的具体处理方法。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F76",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},15985,"如何加载本地保存的微调模型（未上传到 Hugging Face）？","加载本地模型时，请确保指向正确的检查点目录（例如 `.\u002Ftest\u002Fcheckpoint-6`），而不仅仅是输出根目录。如果使用的是 LoRA 微调，目录下应包含 `adapter_config.json` 和 `adapter_model.safetensors`。加载代码示例：\n```python\nprocessor = AutoProcessor.from_pretrained(\".\u002Fpath\u002Fto\u002Fcheckpoint\")\nmodel = Idefics3ForConditionalGeneration.from_pretrained(\".\u002Fpath\u002Fto\u002Fcheckpoint\", torch_dtype=torch.bfloat16)\n```","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F47",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},15986,"Hugging Face 博客中提到的 SmolVLM 微调笔记本链接失效了，哪里可以找到正确的链接？","该问题已被修复。维护者已更新了博客文章中的链接。您可以访问最新的官方博客文章 https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fsmolvlm 获取正确的微调笔记本链接。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmollm\u002Fissues\u002F49",[]]