[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PaddlePaddle--PaddleFormers":3,"tool-PaddlePaddle--PaddleFormers":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":45,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":107,"github_topics":108,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":143},3730,"PaddlePaddle\u002FPaddleFormers","PaddleFormers","PaddleFormers is an easy-to-use library of pre-trained large language model zoo based on PaddlePaddle.","PaddleFormers 是百度基于 PaddlePaddle 深度学习框架打造的大模型训练库，旨在为开发者提供与 Hugging Face Transformers 对等且高效的模型开发体验。它主要解决了大语言模型（LLM）和视觉语言模型（VLM）在训练过程中面临的性能瓶颈、资源占用高以及底层优化复杂等难题，让用户无需深究复杂的分布式策略即可轻松上手。\n\n该工具非常适合 AI 研究人员、算法工程师及企业开发者使用，尤其是那些希望在国产算力环境或追求极致训练效率的团队。PaddleFormers 的独特亮点在于其卓越的性能表现：全面支持张量并行、流水线并行等主流分布式策略，并在 DeepSeek-V3、GLM-4.5 等前沿模型上实现了超越 Megatron-LM 的训练速度。此外，它不仅覆盖从预训练到微调（SFT、DPO 等）的全流程能力，还深度适配昆仑芯、天数智芯等国产芯片，并原生支持 Safetensors 格式，确保训练出的模型能无缝对接 vLLM、FastDeploy 等推理框架，真正实现了高性能与低门槛的平衡。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleFormers_readme_c2af7b8fa299.png\" align=\"middle\"  width=\"500\" \u002F>\n\u003C\u002Fp>\n\n------------------------------------------------------------------------------------------\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-dfd.svg\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fstargazers\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPaddlePaddle\u002FPaddleFormers?color=ccf\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch4 align=\"center\">\n    \u003Ca href=#最新更新> 最新更新 \u003C\u002Fa> |\n    \u003Ca href=#特性> 特性 \u003C\u002Fa> |\n    \u003Ca href=#安装> 安装 \u003C\u002Fa> |\n    \u003Ca href=#快速体验> 快速体验 \u003C\u002Fa> |\n    \u003Ca href=#社区交流> 社区交流 \u003C\u002Fa>\n\u003C\u002Fh4>\n\n# PaddleFormers\n## 📝简介\nPaddleFormers 是基于百度深度学习框架 PaddlePaddle 搭建的 Transformers 库，旨在为 PaddlePaddle 生态提供与 Hugging Face Transformers 项目对等的模型接口与功能体验，支持大语言模型（LLM）与视觉语言模型（VLM）的训练能力。PaddleFormers 充分发挥 PaddlePaddle 在高性能训练方面的内置优势，全面支持包括张量并行、流水线并行和专家并行在内的主流大模型分布式训练策略，以及自动混合精度等加速技术，在 DeepSeek-V3、GLM-4.5-Air 等重点模型上，训练性能明显超越 Megatron-LM ，实现了高效的预训练与后训练性能。\n\n结合业界主流优化方法与飞桨在业务实践中积累的高效特性，PaddleFormers 致力于打造**高性能、低资源占用**的训练体验，帮助用户高效便捷地完成大模型训练，而无需关注底层复杂的优化细节。\n\n## 🆕最新更新\n* 2026.03.31 - PaddleFormers v1.1 正式发布！在这个版本中我们支持了 GLM-4.5 系列模型的单步与多步 MTP 训练能力。依托 MTP 架构优势，开发者可显著提升推理效率；同时针对 MTP 模块训练场景，我们新增主干网络冻结开关，灵活满足各类模型精细化调优需求。此外，我们对视觉理解类模型进行了深度优化，Qwen3-VL 30B-A3B 模型性能相比上个版本提升48%，领先Megatron-LM 6%。\n* 2026.01.21 - PaddleFomers v1.0版本发布啦！我们提供了针对 LLM 和 VLM 等模型的训练能力，针对 DeepSeek-V3模型和 GLM-4.5-Air 等重点模型，我们实现了极致性能优化（训练性能明显超越 Megatron-LM ）。针对 PaddleOCR-VL，我们在昆仑芯 P800、天数天垓150等国产计算芯片上进行了适配，更好的满足国内用户需求。\n\n## ✨特性\n* **丰富的模型支持：** PaddleFormers 实现了对于 100+ 主流的大语言模型和视觉语言模型的训练能力支持，涵盖了 DeepSeek-V3、GLM-4.5系列、Qwen2和 Qwen3系列、Qwen3-VL 等前沿模型。同时提供了对 ERNIE-4.5、ERNIE-4.5-VL、PaddleOCR-VL 等文心系列模型完备的训练能力。\n* **高性能组网实现：** 实现了 FP8低精度训练与高性能算子优化、通信计算重叠优化、精细化存算均衡等策略，大幅提升大模型训练的计算、通信和存储效率。在 DeepSeek-V3、GLM-4.5-Air 等模型上，训练性能明显超越 Megatron-LM。\n* **全流程能力支持：** PaddleFormers 实现了从预训练到后训练的全流程训练能力支持，其中后训练支持 CPT \u002F SFT \u002F SFT-LoRA \u002F DPO \u002F DPO-LoRA 等主流能力，帮助用户高效、便捷地完成大模型的迭代与优化。PaddleFormers 还实现了对 Safetensors 格式的 **全面支持** ，训练完成的模型，其存储格式与 Hugging Face 上托管的权重格式一致，可以在任意支持该格式的框架或工具中使用（如 FastDeploy \u002F vLLM \u002F SGLang 等）。\n* **完备的训练能力支持：** PaddleFormers 实现了对于 **Function Call** 、 **Thinking**​ 等大模型前沿能力的训练支持，并通过 **Data Packing** 、 **Padding Free**​ 等数据流技术显著优化训练性能。\n* **国产芯片深度适配：** 支持昆仑芯 P800、天数天垓150、沐曦 C550等国产计算平台，基于128卡昆仑芯 P800支持 DeepSeek V3的 SFT，成为最少国产算力资源后训练方案。\n\n## 📋模型列表\n\n\u003Ctable border=\"1\" cellpadding=\"8\" cellspacing=\"0\" style=\"width:100%; border-collapse: collapse;\">\n  \u003Cthead>\n    \u003Ctr>\n      \u003Cth style=\"text-align: left;\">模型类型\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">模型系列\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">模型名称\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">Chat Template\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003C!-- LLM 分类 - 跨行合并开始 -->\n    \u003Ctr>\n      \u003Ctd rowspan=\"10\" style=\"vertical-align: top;\">LLM\u003C\u002Ftd>\n      \u003Ctd>DeepSeekv3\u003C\u002Ftd>\n      \u003Ctd>deepseek-ai\u002FDeepSeek-V3-Base、deepseek-ai\u002FDeepSeek-V3、deepseek-ai\u002FDeepSeek-V3-0324\u003C\u002Ftd>\n      \u003Ctd>deepseek3\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>🏛️ERNIE-4.5\u003C\u002Ftd>\n      \u003Ctd>baidu\u002FERNIE-4.5-0.3B-Base-PT、baidu\u002FERNIE-4.5-0.3B-PT、baidu\u002FERNIE-4.5-21B-A3B-Base-PT、baidu\u002FERNIE-4.5-21B-A3B-PT、baidu\u002FERNIE-4.5-300B-A47B-Base-PT、baidu\u002FERNIE-4.5-300B-A47B-PT、baidu\u002FERNIE-4.5-21B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>ernie、ernie_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>gemma3\u003C\u002Ftd>\n      \u003Ctd>google\u002Fgemma-3-270m、google\u002Fgemma-3-270m-it、google\u002Fgemma-3-1b-pt、google\u002Fgemma-3-1b-it、google\u002Fgemma-3-4b-pt、google\u002Fgemma-3-4b-it、google\u002Fgemma-3-12b-pt、google\u002Fgemma-3-12b-it、google\u002Fgemma-3-27b-pt、google\u002Fgemma-3-27b-it\u003C\u002Ftd>\n      \u003Ctd>gemma\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>GLM-4.5\u003C\u002Ftd>\n      \u003Ctd>zai-org\u002FGLM-4.5-Air-Base、zai-org\u002FGLM-4.5-Air、zai-org\u002FGLM-4.5-Base、zai-org\u002FGLM-4.5\u003C\u002Ftd>\n      \u003Ctd>glm4_moe\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>gpt-oss\u003C\u002Ftd>\n      \u003Ctd>openai\u002Fgpt-oss-20b、openai\u002Fgpt-oss-120b\u003C\u002Ftd>\n      \u003Ctd>gpt\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Llama-3\u003C\u002Ftd>\n      \u003Ctd>meta-llama\u002FMeta-Llama-3-8B、meta-llama\u002FMeta-Llama-3-8B-Instruct、meta-llama\u002FMeta-Llama-3-70B、meta-llama\u002FMeta-Llama-3-70B-Instruct、meta-llama\u002FLlama-3.1-8B、meta-llama\u002FLlama-3.1-8B-Instruct、meta-llama\u002FLlama-3.1-70B、meta-llama\u002FLlama-3.1-70B-Instruct、meta-llama\u002FLlama-3.1-405B、meta-llama\u002FLlama-3.1-405B-Instruct、meta-llama\u002FLlama-3.2-1B、meta-llama\u002FLlama-3.2-1B-Instruct、meta-llama\u002FLlama-3.2-3B、meta-llama\u002FLlama-3.2-3B-Instruct、meta-llama\u002FLlama-3.3-70B-Instruct\u003C\u002Ftd>\n      \u003Ctd>llama3\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>phi-4\u003C\u002Ftd>\n      \u003Ctd>microsoft\u002Fphi-4\u003C\u002Ftd>\n      \u003Ctd>phi4\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen2\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen2-0.5B、Qwen\u002FQwen2-0.5B-Instruct、Qwen\u002FQwen2-1.5B、Qwen\u002FQwen2-1.5B-Instruct、Qwen\u002FQwen2-7B、Qwen\u002FQwen2-7B-Instruct、Qwen\u002FQwen2-57B-A14B、Qwen\u002FQwen2-57B-A14B-Instruct、Qwen\u002FQwen2-72B、Qwen\u002FQwen2-0.5B-Instruct\u003C\u002Ftd>\n      \u003Ctd>qwen\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-0.6B-Base、Qwen\u002FQwen3-0.6B、Qwen\u002FQwen3-1.7B-Base、Qwen\u002FQwen3-1.7B、Qwen\u002FQwen3-4B-Base、Qwen\u002FQwen3-4B、Qwen\u002FQwen3-4B-Instruct-2507、Qwen\u002FQwen3-4B-Thinking-2507、Qwen\u002FQwen3-8B-Base、Qwen\u002FQwen3-8B、Qwen\u002FQwen3-14B-Base、Qwen\u002FQwen3-14B、Qwen\u002FQwen3-32B、Qwen\u002FQwen3-30B-A3B-Base、Qwen\u002FQwen3-30B-A3B、Qwen\u002FQwen3-30B-A3B-Instruct-2507、Qwen\u002FQwen3-30B-A3B-Thinking-2507、Qwen\u002FQwen3-235B-A22B、Qwen\u002FQwen3-235B-A22B-Instruct-2507、Qwen\u002FQwen3-235B-A22B-Thinking-2507\u003C\u002Ftd>\n      \u003Ctd>qwen3、qwen3_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3-Next\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-Next-80B-A3B-Instruct、Qwen\u002FQwen3-Next-80B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>qwen3、qwen3_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C!-- VLM 分类 - 跨行合并开始 -->\n    \u003Ctr>\n      \u003Ctd rowspan=\"4\" style=\"vertical-align: top;\">VLM\u003C\u002Ftd>\n      \u003Ctd>🏛️ERNIE-4.5-VL\u003C\u002Ftd>\n      \u003Ctd>baidu\u002FERNIE-4.5-VL-28B-A3B-Base-PT、baidu\u002FERNIE-4.5-VL-28B-A3B-PT、baidu\u002FERNIE-4.5-VL-424B-A47B-Base-PT、baidu\u002FERNIE-4.5-VL-424B-A47B-PT、baidu\u002FERNIE-4.5-VL-28B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>ernie_vl、ernie_vl_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>🏛️PaddleOCR-VL\u003C\u002Ftd>\n      \u003Ctd>PaddlePaddle\u002FPaddleOCR-VL\u003C\u002Ftd>\n      \u003Ctd>paddleocr_vl\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen2.5-VL\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen2.5-VL-3B-Instruct、Qwen\u002FQwen2.5-VL-7B-Instruct、Qwen\u002FQwen2.5-VL-32B-Instruct、Qwen\u002FQwen2.5-VL-72B-Instruct\u003C\u002Ftd>\n      \u003Ctd>qwen2_vl\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3-VL\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-VL-2B-Instruct、Qwen\u002FQwen3-VL-2B-Thinking、Qwen\u002FQwen3-VL-4B-Instruct、Qwen\u002FQwen3-VL-4B-Thinking、Qwen\u002FQwen3-VL-8B-Instruct、Qwen\u002FQwen3-VL-8B-Thinking、Qwen\u002FQwen3-VL-32B-Instruct、Qwen\u002FQwen3-VL-32B-Thinking、Qwen\u002FQwen3-VL-30B-A3B-Instruct、Qwen\u002FQwen3-VL-30B-A3B-Thinking、Qwen\u002FQwen3-VL-235B-A22B-Instruct、Qwen\u002FQwen3-VL-235B-A22B-Thinking\u003C\u002Ftd>\n      \u003Ctd>qwen3_vl、qwen3_vl_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n* 更多关于模型训练能力的支持细节，请参考：[PaddleFormers 模型能力矩阵](.\u002Fdocs\u002Fzh\u002Fmodel_capability.md)\n* 带有🏛️标签的模型是 PaddleFormers 官方维护的模型\n\n## 💾安装\n**环境依赖**\n\n* python ≥ 3.10\n* CUDA ≥ 12.0\n* PaddleFleet ≥ 0.2（仅为 GPU 训练功能依赖）\n\n**安装依赖（GPU）**\n\n\u003Cdetails>\n  \u003Csummary>基于 Docker 容器的方式（\u003Cb>推荐\u003C\u002Fb>）\u003C\u002Fsummary>\n\n------\n> 为了避免本地环境存在较多冲突，我们建议使用 PaddleFormers 的预置镜像来准备环境，容器中已经拉取了 PaddleFormers 仓库并完成了安装：\n>\n> ```shell\n> # 以cuda12.6为例\n> docker run --gpus all --name paddleformers-work -v $(pwd):\u002Fwork  \\\n>     -w=\u002Fwork --shm-size=512G --network=host -it \\\n>     ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.6-cudnn9.5 \u002Fbin\u002Fbash\n>\n> # cuda12.9镜像：ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.9-cudnn9.9\n> # cuda13.0镜像：ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda13.0-cudnn9.13\n> ```\n------\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>基于 pip\u002F源码的安装方式\u003C\u002Fsummary>\n\n------\n> 我们推荐使用 `conda` \u002F `venv` \u002F `uv` 等虚拟环境工具管理 python 环境。\n>\n> ```shell\n> # conda\n> conda create -n paddleformers-work python=3.10 #支持python3.10～3.13\n> conda activate paddleformers-work\n> # venv\n> python -m venv .paddleformers-work\n> source .paddleformers-work\u002Fbin\u002Factivate\n> # uv\n> uv venv .paddleformers-work\n> source .paddleformers-work\u002Fbin\u002Factivate\n> ```\n------\n> **安装方案一：** 拉取源码安装\n>\n> ```shell\n> # Install development version\n> git clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers.git\n> cd PaddleFormers\n> # cuda12.6\n> python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu126\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu126\u002F\n> # cuda12.9\n> # python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu129\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu129\u002F\n> # cuda13.0\n> # python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu130\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu130\u002F\n> ```\n------\n> **安装方案二：** 如果您不想拉取源码，可以基于下面的命令安装 PaddleFormers 和 PaddleFleet。\n>\n> ```shell\n> # Install via pip\n> # cuda12.6\n> python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu126\u002F\n> # cuda12.9\n> # python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu129\u002F\n> # cuda13.0\n> # python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu130\u002F\n> ```\n------\n> **安装方案三：** 如果您只需使用 tokenizer 或者 processor，可以通过以下命令安装，这种情况下不会安装训练相关的依赖，安装速度更加快。\n>\n> ```shell\n> python -m pip install paddleformers\n> ```\n------\n\n\u003C\u002Fdetails>\n\n **安装依赖（XPU & ILUVATAR-GPU & Metax GPU）**\n\n* [昆仑芯安装说明文档](.\u002Fdocs\u002Fzh\u002FXPU_installation_guide.md)\n* [天数智芯安装说明文档](.\u002Fdocs\u002Fzh\u002FILUVATAR-GPU_installation_guide.md)\n* [沐曦安装说明文档](.\u002Fdocs\u002Fzh\u002FMetax-GPU_installation_guide.md)\n\n# ⚡快速体验\n\nPaddleFormers 在 API 设计上与 Hugging Face Transformers 保持了高度一致，使用示例如下：\n\n**使用 tokenizer**\n\n```python\nfrom paddleformers.transformers import AutoTokenizer\n\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\nprint(tokenizer.encode(\"中华人民共和国\"))\n# 中华人民共和国将会被编码为两个token：\n# [105492, 104773]\n```\n\n**文本生成**\n\n```python\nfrom paddleformers.transformers import AutoTokenizer, AutoModelForCausalLM\n\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\nmodel = AutoModelForCausalLM.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\", dtype=\"bfloat16\").eval()\n\ninput_features = tokenizer(\"请给我一段大模型的简短介绍：\", return_tensors=\"pd\")\noutputs = model.generate(**input_features, max_new_tokens=256)\noutput_ids = outputs[0].tolist()[0]\n\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n**模型训练**\n\n```shell\npaddleformers-cli train .\u002Fexamples\u002Fconfig\u002Fsft\u002Ffull.yaml\n```\n\n## 📊数据处理\n* [数据集格式说明](.\u002Fdocs\u002Fzh\u002Fdataset_format.md)\n* [Chat Template 说明](.\u002Fdocs\u002Fzh\u002Fchat_template_guide.md)\n* [数据流参数说明](.\u002Fdocs\u002Fzh\u002Fdata_processing_guide.md)\n\n## 🚀模型训练 & 部署\n* [PaddleFormers 命令行工具](.\u002Fdocs\u002Fzh\u002Fcli_usage.md)\n* [训练参数配置说明](.\u002Fdocs\u002Fzh\u002Ftraining_arguments.md)\n* [基于 PaddleFormers 进行模型预训练\u002F后预训练](.\u002Fdocs\u002Fzh\u002Fpt_and_cpt_guide.md)\n* [基于 PaddleFormers 进行指令微调（SFT & LoRA）](.\u002Fdocs\u002Fzh\u002Fsft_and_lora_guide.md)\n* [基于 PaddleFormers 进行偏好对齐（DPO & LoRA）](.\u002Fdocs\u002Fzh\u002Fdpo_and_lora_guide.md)\n* [基于 FastDeploy \u002F vLLM 部署模型](.\u002Fdocs\u002Fzh\u002Fdeployment_guide.md)\n\n## 💻多硬件使用\n* [昆仑芯使用说明文档](.\u002Fdocs\u002Fzh\u002FXPU_usage_guide.md)\n* [天数智芯使用说明文档](.\u002Fdocs\u002Fzh\u002FILUVATAR-GPU_usage_guide.md)\n* [沐曦使用说明文档](.\u002Fdocs\u002Fzh\u002FMetax-GPU_usage_guide.md)\n\n## 🔍最佳实践\n* [基于 DeepSeekv3的高效预训练](.\u002Fexamples\u002Fbest_practices\u002FDeepSeek-V3\u002F)\n* [基于 ERNIE-4.5的高效预训练](.\u002Fexamples\u002Fbest_practices\u002FERNIE-4.5\u002F)\n* [训练一个偏好 Emoji 输出的对齐模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_an_emoji_model.md)\n* [训练一个支持思考能力的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_reasoning_model.md)\n* [训练一个支持 Function Call 能力的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_function_call_model.md)\n* [基于 PaddleOCR-VL 微调实现孟加拉语识别能力](.\u002Fexamples\u002Fbest_practices\u002FPaddleOCR-VL\u002F)\n* [训练一个支持 Grounding 的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_visual_grounding_model.md)\n\n## ➕其他\n* [如何下载模型](.\u002Fdocs\u002Fzh\u002Fhow_to_download_model.md)\n* [常见问题处理](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F3699)\n\n## 💬社区相关\n\n**贡献代码**\n\n* 欢迎社区用户为 PaddleFormers 贡献代码，详情请参考 [贡献指南](CONTRIBUTING.md)。\n\n**和我们交流**\n\n* 微信扫描二维码并填写问卷，即可加入交流群与众多社区开发者以及官方团队深度交流.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleFormers_readme_a976be967c62.png\" width=\"300\" alt=\"qrcode\">\n\u003C\u002Fdiv>\n\n## 🙏致谢\n我们借鉴了 Hugging Face 的[Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)🤗关于预训练模型使用的优秀设计，在此对 Hugging Face 作者及其开源社区表示感谢。\n\n## 📜许可证\nPaddleFormers 遵循[Apache-2.0开源协议](LICENSE)。\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleFormers_readme_c2af7b8fa299.png\" align=\"middle\"  width=\"500\" \u002F>\n\u003C\u002Fp>\n\n------------------------------------------------------------------------------------------\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-dfd.svg\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fstargazers\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPaddlePaddle\u002FPaddleFormers?color=ccf\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Ch4 align=\"center\">\n    \u003Ca href=#最新更新> 最新更新 \u003C\u002Fa> |\n    \u003Ca href=#特性> 特性 \u003C\u002Fa> |\n    \u003Ca href=#安装> 安装 \u003C\u002Fa> |\n    \u003Ca href=#快速体验> 快速体验 \u003C\u002Fa> |\n    \u003Ca href=#社区交流> 社区交流 \u003C\u002Fa>\n\u003C\u002Fh4>\n\n# PaddleFormers\n## 📝简介\nPaddleFormers 是基于百度深度学习框架 PaddlePaddle 搭建的 Transformers 库，旨在为 PaddlePaddle 生态提供与 Hugging Face Transformers 项目对等的模型接口与功能体验，支持大语言模型（LLM）与视觉语言模型（VLM）的训练能力。PaddleFormers 充分发挥 PaddlePaddle 在高性能训练方面的内置优势，全面支持包括张量并行、流水线并行和专家并行在内的主流大模型分布式训练策略，以及自动混合精度等加速技术，在 DeepSeek-V3、GLM-4.5-Air 等重点模型上，训练性能明显超越 Megatron-LM ，实现了高效的预训练与后训练性能。\n\n结合业界主流优化方法与飞桨在业务实践中积累的高效特性，PaddleFormers 致力于打造**高性能、低资源占用**的训练体验，帮助用户高效便捷地完成大模型训练，而无需关注底层复杂的优化细节。\n\n## 🆕最新更新\n* 2026.03.31 - PaddleFormers v1.1 正式发布！在这个版本中我们支持了 GLM-4.5 系列模型的单步与多步 MTP 训练能力。依托 MTP 架构优势，开发者可显著提升推理效率；同时针对 MTP 模块训练场景，我们新增主干网络冻结开关，灵活满足各类模型精细化调优需求。此外，我们对视觉理解类模型进行了深度优化，Qwen3-VL 30B-A3B 模型性能相比上个版本提升48%，领先Megatron-LM 6%。\n* 2026.01.21 - PaddleFomers v1.0版本发布啦！我们提供了针对 LLM 和 VLM 等模型的训练能力，针对 DeepSeek-V3模型和 GLM-4.5-Air 等重点模型，我们实现了极致性能优化（训练性能明显超越 Megatron-LM ）。针对 PaddleOCR-VL，我们在昆仑芯 P800、天数天垓150等国产计算芯片上进行了适配，更好的满足国内用户需求。\n\n## ✨特性\n* **丰富的模型支持：** PaddleFormers 实现了对于 100+ 主流的大语言模型和视觉语言模型的训练能力支持，涵盖了 DeepSeek-V3、GLM-4.5系列、Qwen2和 Qwen3系列、Qwen3-VL 等前沿模型。同时提供了对 ERNIE-4.5、ERNIE-4.5-VL、PaddleOCR-VL 等文心系列模型完备的训练能力。\n* **高性能组网实现：** 实现了 FP8低精度训练与高性能算子优化、通信计算重叠优化、精细化存算均衡等策略，大幅提升大模型训练的计算、通信和存储效率。在 DeepSeek-V3、GLM-4.5-Air 等模型上，训练性能明显超越 Megatron-LM。\n* **全流程能力支持：** PaddleFormers 实现了从预训练到后训练的全流程训练能力支持，其中后训练支持 CPT \u002F SFT \u002F SFT-LoRA \u002F DPO \u002F DPO-LoRA 等主流能力，帮助用户高效、便捷地完成大模型的迭代与优化。PaddleFormers 还实现了对 Safetensors 格式的 **全面支持** ，训练完成的模型，其存储格式与 Hugging Face 上托管的权重格式一致，可以在任意支持该格式的框架或工具中使用（如 FastDeploy \u002F vLLM \u002F SGLang 等）。\n* **完备的训练能力支持：** PaddleFormers 实现了对于 **Function Call** 、 **Thinking**​ 等大模型前沿能力的训练支持，并通过 **Data Packing** 、 **Padding Free**​ 等数据流技术显著优化训练性能。\n* **国产芯片深度适配：** 支持昆仑芯 P800、天数天垓150、沐曦 C550等国产计算平台，基于128卡昆仑芯 P800支持 DeepSeek V3的 SFT，成为最少国产算力资源后训练方案。\n\n## 📋模型列表\n\n\u003Ctable border=\"1\" cellpadding=\"8\" cellspacing=\"0\" style=\"width:100%; border-collapse: collapse;\">\n  \u003Cthead>\n    \u003Ctr>\n      \u003Cth style=\"text-align: left;\">模型类型\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">模型系列\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">模型名称\u003C\u002Fth>\n      \u003Cth style=\"text-align: left;\">Chat Template\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003C!-- LLM 分类 - 跨行合并开始 -->\n    \u003Ctr>\n      \u003Ctd rowspan=\"10\" style=\"vertical-align: top;\">LLM\u003C\u002Ftd>\n      \u003Ctd>DeepSeekv3\u003C\u002Ftd>\n      \u003Ctd>deepseek-ai\u002FDeepSeek-V3-Base、deepseek-ai\u002FDeepSeek-V3、deepseek-ai\u002FDeepSeek-V3-0324\u003C\u002Ftd>\n      \u003Ctd>deepseek3\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>🏛️ERNIE-4.5\u003C\u002Ftd>\n      \u003Ctd>baidu\u002FERNIE-4.5-0.3B-Base-PT、baidu\u002FERNIE-4.5-0.3B-PT、baidu\u002FERNIE-4.5-21B-A3B-Base-PT、baidu\u002FERNIE-4.5-21B-A3B-PT、baidu\u002FERNIE-4.5-300B-A47B-Base-PT、baidu\u002FERNIE-4.5-300B-A47B-PT、baidu\u002FERNIE-4.5-21B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>ernie、ernie_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>gemma3\u003C\u002Ftd>\n      \u003Ctd>google\u002Fgemma-3-270m、google\u002Fgemma-3-270m-it、google\u002Fgemma-3-1b-pt、google\u002Fgemma-3-1b-it、google\u002Fgemma-3-4b-pt、google\u002Fgemma-3-4b-it、google\u002Fgemma-3-12b-pt、google\u002Fgemma-3-12b-it、google\u002Fgemma-3-27b-pt、google\u002Fgemma-3-27b-it\u003C\u002Ftd>\n      \u003Ctd>gemma\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>GLM-4.5\u003C\u002Ftd>\n      \u003Ctd>zai-org\u002FGLM-4.5-Air-Base、zai-org\u002FGLM-4.5-Air、zai-org\u002FGLM-4.5-Base、zai-org\u002FGLM-4.5\u003C\u002Ftd>\n      \u003Ctd>glm4_moe\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>gpt-oss\u003C\u002Ftd>\n      \u003Ctd>openai\u002Fgpt-oss-20b、openai\u002Fgpt-oss-120b\u003C\u002Ftd>\n      \u003Ctd>gpt\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Llama-3\u003C\u002Ftd>\n      \u003Ctd>meta-llama\u002FMeta-Llama-3-8B、meta-llama\u002FMeta-Llama-3-8B-Instruct、meta-llama\u002FMeta-Llama-3-70B、meta-llama\u002FMeta-Llama-3-70B-Instruct、meta-llama\u002FLlama-3.1-8B、meta-llama\u002FLlama-3.1-8B-Instruct、meta-llama\u002FLlama-3.1-70B、meta-llama\u002FLlama-3.1-70B-Instruct、meta-llama\u002FLlama-3.1-405B、meta-llama\u002FLlama-3.1-405B-Instruct、meta-llama\u002FLlama-3.2-1B、meta-llama\u002FLlama-3.2-1B-Instruct、meta-llama\u002FLlama-3.2-3B、meta-llama\u002FLlama-3.2-3B-Instruct、meta-llama\u002FLlama-3.3-70B-Instruct\u003C\u002Ftd>\n      \u003Ctd>llama3\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>phi-4\u003C\u002Ftd>\n      \u003Ctd>microsoft\u002Fphi-4\u003C\u002Ftd>\n      \u003Ctd>phi4\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen2\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen2-0.5B、Qwen\u002FQwen2-0.5B-Instruct、Qwen\u002FQwen2-1.5B、Qwen\u002FQwen2-1.5B-Instruct、Qwen\u002FQwen2-7B、Qwen\u002FQwen2-7B-Instruct、Qwen\u002FQwen2-57B-A14B、Qwen\u002FQwen2-57B-A14B-Instruct、Qwen\u002FQwen2-72B、Qwen\u002FQwen2-0.5B-Instruct\u003C\u002Ftd>\n      \u003Ctd>qwen\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-0.6B-Base、Qwen\u002FQwen3-0.6B、Qwen\u002FQwen3-1.7B-Base、Qwen\u002FQwen3-1.7B、Qwen\u002FQwen3-4B-Base、Qwen\u002FQwen3-4B、Qwen\u002FQwen3-4B-Instruct-2507、Qwen\u002FQwen3-4B-Thinking-2507、Qwen\u002FQwen3-8B-Base、Qwen\u002FQwen3-8B、Qwen\u002FQwen3-14B-Base、Qwen\u002FQwen3-14B、Qwen\u002FQwen3-32B、Qwen\u002FQwen3-30B-A3B-Base、Qwen\u002FQwen3-30B-A3B、Qwen\u002FQwen3-30B-A3B-Instruct-2507、Qwen\u002FQwen3-30B-A3B-Thinking-2507、Qwen\u002FQwen3-235B-A22B-Instruct-2507、Qwen\u002FQwen3-235B-A22B-Thinking-2507\u003C\u002Ftd>\n      \u003Ctd>qwen3、qwen3_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3-Next\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-Next-80B-A3B-Instruct、Qwen\u002FQwen3-Next-80B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>qwen3、qwen3_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003C!-- VLM 分类 - 跨行合并开始 -->\n    \u003Ctr>\n      \u003Ctd rowspan=\"4\" style=\"vertical-align: top;\">VLM\u003C\u002Ftd>\n      \u003Ctd> semiclass=\"text-align: left;\">🏛️ERNIE-4.5-VL\u003C\u002Ftd>\n      \u003Ctd>baidu\u002FERNIE-4.5-VL-28B-A3B-Base-PT、baidu\u002FERNIE-4.5-VL-28B-A3B-PT、baidu\u002FERNIE-4.5-VL-424B-A47B-Base-PT、baidu\u002FERNIE-4.5-VL-424B-A47B-PT、baidu\u002FERNIE-4.5-VL-28B-A3B-Thinking\u003C\u002Ftd>\n      \u003Ctd>ernie_vl、ernie_vl_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd> semiclass=\"text-align: left;\">🏛️PaddleOCR-VL\u003C\u002Ftd>\n      \u003Ctd>PaddlePaddle\u002FPaddleOCR-VL\u003C\u002Ftd>\n      \u003Ctd>paddleocr_vl\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen2.5-VL\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen2.5-VL-3B-Instruct、Qwen\u002FQwen2.5-VL-7B-Instruct、Qwen\u002FQwen2.5-VL-32B-Instruct、Qwen\u002FQwen2.5-VL-72B-Instruct\u003C\u002Ftd>\n      \u003Ctd>qwen2_vl\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>Qwen3-VL\u003C\u002Ftd>\n      \u003Ctd>Qwen\u002FQwen3-VL-2B-Instruct、Qwen\u002FQwen3-VL-2B-Thinking、Qwen\u002FQwen3-VL-4B-Instruct、Qwen\u002FQwen3-VL-4B-Thinking、Qwen\u002FQwen3-VL-8B-Instruct、Qwen\u002FQwen3-VL-8B-Thinking、Qwen\u002FQwen3-VL-32B-Instruct、Qwen\u002FQwen3-VL-32B-Thinking、Qwen\u002FQwen3-VL-30B-A3B-Instruct、Qwen\u002FQwen3-VL-30B-A3B-Thinking、Qwen\u002FQwen3-VL-235B-A22B-Instruct、Qwen\u002FQwen3-235B-A22B-Thinking\u003C\u002Ftd>\n      \u003Ctd>qwen3_vl、qwen3_vl_nothink\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n* 更多关于模型训练能力的支持细节，请参考：[PaddleFormers 模型能力矩阵](.\u002Fdocs\u002Fzh\u002Fmodel_capability.md)\n* 带有 semiclass=\"text-align: left;\">标签的模型是 PaddleFormers 官方维护的模型\n\n## 💾安装\n**环境依赖**\n\n* python ≥ 3.10\n* CUDA ≥ 12.0\n* PaddleFleet ≥ 0.2（仅为 GPU 训练功能依赖）\n\n**安装依赖（GPU）**\n\n\u003Cdetails>\n  \u003Csummary>基于 Docker 容器的方式（\u003Cb>推荐\u003C\u002Fb>）\u003C\u002Fsummary>\n\n------\n> 为了避免本地环境存在较多冲突，我们建议使用 PaddleFormers 的预置镜像来准备环境，容器中已经拉取了 PaddleFormers 仓库并完成了安装：\n>\n> ```shell\n> # 以cuda12.6为例\n> docker run --gpus all --name paddleformers-work -v $(pwd):\u002Fwork  \\\n>     -w=\u002Fwork --shm-size=512G --network=host -it \\\n>     ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.6-cudnn9.5 \u002Fbin\u002Fbash\n>\n> # cuda12.9镜像：ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.9-cudnn9.9\n> # cuda13.0镜像：ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda13.0-cudnn9.13\n> ```\n------\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>基于 pip\u002F源码的安装方式\u003C\u002Fsummary>\n\n------\n> 我们推荐使用 `conda` \u002F `venv` \u002F `uv` 等虚拟环境工具管理 python 环境。\n>\n> ```shell\n> # conda\n> conda create -n paddleformers-work python=3.10 #支持python3.10～3.13\n> conda activate paddleformers-work\n> # venv\n> python -m venv .paddleformers-work\n> source .paddleformers-work\u002Fbin\u002Factivate\n> # uv\n> uv venv .paddleformers-work\n> source .paddleformers-work\u002Fbin\u002Factivate\n> ```\n------\n> **安装方案一：** 拉取源码安装\n>\n> ```shell\n> # Install development version\n> git clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers.git\n> cd PaddleFormers\n> # cuda12.6\n> python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu126\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu126\u002F\n> # cuda12.9\n> # python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu129\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu129\u002F\n> # cuda13.0\n> # python -m pip install -e '.[paddlefleet]' --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fnightly\u002Fcu130\u002F --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu130\u002F\n> ```\n------\n> **安装方案二：** 如果您不想拉取源码，可以基于下面的命令安装 PaddleFormers 和 PaddleFleet。\n>\n> ```shell\n> # Install via pip\n> # cuda12.6\n> python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu126\u002F\n> # cuda12.9\n> # python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu129\u002F\n> # cuda13.0\n> # python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu130\u002F\n> ```\n------\n> **安装方案三：** 如果您只需使用 tokenizer 或者 processor，可以通过以下命令安装，这种情况下不会安装训练相关的依赖，安装速度更加快。\n>\n> ```shell\n> python -m pip install paddleformers\n> ```\n------\n\n\u003C\u002Fdetails>\n\n **安装依赖（XPU & ILUVATAR-GPU & Metax GPU）**\n\n* [昆仑芯安装说明文档](.\u002Fdocs\u002Fzh\u002FXPU_installation_guide.md)\n* [天数智芯安装说明文档](.\u002Fdocs\u002Fzh\u002FILUVATAR-GPU_installation_guide.md)\n* [沐曦安装说明文档](.\u002Fdocs\u002Fzh\u002FMetax-GPU_installation_guide.md)\n\n# ⚡快速体验\n\nPaddleFormers 在 API 设计上与 Hugging Face Transformers 保持了高度一致，使用示例如下：\n\n**使用 tokenizer**\n\n```python\nfrom paddleformers.transformers import AutoTokenizer\n\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\nprint(tokenizer.encode(\"中华人民共和国\"))\n# 中华人民共和国将会被编码为两个token：\n# [105492, 104773]\n```\n\n**文本生成**\n\n```python\nfrom paddleformers.transformers import AutoTokenizer, AutoModelForCausalLM\n\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\nmodel = AutoModelForCausalLM.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\", dtype=\"bfloat16\").eval()\n\ninput_features = tokenizer(\"请给我一段大模型的简短介绍：\", return_tensors=\"pd\")\noutputs = model.generate(**input_features, max_new_tokens=256)\noutput_ids = outputs[0].tolist()[0]\n\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n**模型训练**\n\n```shell\npaddleformers-cli train .\u002Fexamples\u002Fconfig\u002Fsft\u002Ffull.yaml\n```\n\n## 📊数据处理\n* [数据集格式说明](.\u002Fdocs\u002Fzh\u002Fdataset_format.md)\n* [Chat Template 说明](.\u002Fdocs\u002Fzh\u002Fchat_template_guide.md)\n* [数据流参数说明](.\u002Fdocs\u002Fzh\u002Fdata_processing_guide.md)\n\n## 🚀模型训练 & 部署\n* [PaddleFormers 命令行工具](.\u002Fdocs\u002Fzh\u002Fcli_usage.md)\n* [训练参数配置说明](.\u002Fdocs\u002Fzh\u002Ftraining_arguments.md)\n* [基于 PaddleFormers 进行模型预训练\u002F后预训练](.\u002Fdocs\u002Fzh\u002Fpt_and_cpt_guide.md)\n* [基于 PaddleFormers 进行指令微调（SFT & LoRA）](.\u002Fdocs\u002Fzh\u002Fsft_and_lora_guide.md)\n* [基于 PaddleFormers 进行偏好对齐（DPO & LoRA）](.\u002Fdocs\u002Fzh\u002Fdpo_and_lora_guide.md)\n* [基于 FastDeploy \u002F vLLM 部署模型](.\u002Fdocs\u002Fzh\u002Fdeployment_guide.md)\n\n## 💻多硬件使用\n* [昆仑芯使用说明文档](.\u002Fdocs\u002Fzh\u002FXPU_usage_guide.md)\n* [天数智芯使用说明文档](.\u002Fdocs\u002Fzh\u002FILUVATAR-GPU_usage_guide.md)\n* [沐曦使用说明文档](.\u002Fdocs\u002Fzh\u002FMetax-GPU_usage_guide.md)\n\n## 🔍最佳实践\n* [基于 DeepSeekv3的高效预训练](.\u002Fexamples\u002Fbest_practices\u002FDeepSeek-V3\u002F)\n* [基于 ERNIE-4.5的高效预训练](.\u002Fexamples\u002Fbest_practices\u002FERNIE-4.5\u002F)\n* [训练一个偏好 Emoji 输出的对齐模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_an_emoji_model.md)\n* [训练一个支持思考能力的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_reasoning_model.md)\n* [训练一个支持 Function Call 能力的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_function_call_model.md)\n* [基于 PaddleOCR-VL 微调实现孟加拉语识别能力](.\u002Fexamples\u002Fbest_practices\u002FPaddleOCR-VL\u002F)\n* [训练一个支持 Grounding 的模型](.\u002Fexamples\u002Fbest_practices\u002Ftutorials\u002Fhow_to_train_a_visual_grounding_model.md)\n\n## ➕其他\n* [如何下载模型](.\u002Fdocs\u002Fzh\u002Fhow_to_download_model.md)\n* [常见问题处理](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F3699)\n\n## 💬社区相关\n\n**贡献代码**\n\n* 欢迎社区用户为 PaddleFormers 贡献代码，详情请参考 [贡献指南](CONTRIBUTING.md)。\n\n**和我们交流**\n\n* 微信扫描二维码并填写问卷，即可加入交流群与众多社区开发者以及官方团队深度交流.\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleFormers_readme_a976be967c62.png\" width=\"300\" alt=\"qrcode\">\n\u003C\u002Fdiv>\n\n## 🙏致谢\n我们借鉴了 Hugging Face 的[Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)🤗关于预训练模型使用的优秀设计，在此对 Hugging Face 作者及其开源社区表示感谢。\n\n## 📜许可证\nPaddleFormers 遵循[Apache-2.0开源协议](LICENSE)。","# PaddleFormers 快速上手指南\n\nPaddleFormers 是基于百度深度学习框架 PaddlePaddle 构建的 Transformers 库，旨在提供与 Hugging Face Transformers 对等的模型接口与功能体验。它专为大语言模型（LLM）和视觉语言模型（VLM）设计，支持包括 DeepSeek-V3、GLM-4.5、Qwen3 等在内的百余种主流模型，并针对国产芯片（如昆仑芯、天数智芯、沐曦）进行了深度适配，提供高性能的分布式训练能力。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 Windows\n*   **Python 版本**: ≥ 3.10 (支持至 3.13)\n*   **CUDA 版本**: ≥ 12.0 (仅 GPU 训练需要)\n*   **依赖库**: \n    *   PaddleFleet ≥ 0.2 (仅 GPU 训练功能依赖)\n\n> **提示**：为避免本地环境冲突，强烈推荐使用 **Docker** 容器进行开发，或使用 `conda`\u002F`venv`\u002F`uv` 创建独立的虚拟环境。\n\n## 2. 安装步骤\n\n您可以根据实际需求选择以下任一安装方式。所有安装命令均默认使用国内镜像源以加速下载。\n\n### 方案一：使用 Docker 容器（推荐）\n\n这是最简便的方式，预置镜像已包含所有必要依赖。\n\n```shell\n# 以 CUDA 12.6 为例启动容器\ndocker run --gpus all --name paddleformers-work -v $(pwd):\u002Fwork  \\\n    -w=\u002Fwork --shm-size=512G --network=host -it \\\n    ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.6-cudnn9.5 \u002Fbin\u002Fbash\n\n# 其他版本镜像参考：\n# CUDA 12.9: ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda12.9-cudnn9.9\n# CUDA 13.0: ccr-2vdh3abv-pub.cnc.bj.baidubce.com\u002Fpaddlepaddle\u002Fpaddle:3.3.0-gpu-cuda13.0-cudnn9.13\n```\n\n进入容器后，PaddleFormers 通常已预装或可直接通过源码运行。若需手动安装，请参考下方的源码安装步骤。\n\n### 方案二：基于 Pip 安装（完整功能）\n\n如果您希望在本地环境中安装完整的训练功能，请先创建虚拟环境，然后执行以下命令：\n\n```shell\n# 创建并激活虚拟环境 (以 conda 为例)\nconda create -n paddleformers-work python=3.10\nconda activate paddleformers-work\n\n# 安装 PaddleFormers 及 PaddleFleet (根据 CUDA 版本选择对应命令)\n# CUDA 12.6\npython -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu126\u002F\n\n# CUDA 12.9\n# python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu129\u002F\n\n# CUDA 13.0\n# python -m pip install \"paddleformers[paddlefleet]\" --extra-index-url https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fpackages\u002Fstable\u002Fcu130\u002F\n```\n\n### 方案三：仅安装推理组件（轻量级）\n\n如果您只需要使用 Tokenizer 或 Processor 进行推理，无需训练依赖，可使用此快速安装方式：\n\n```shell\npython -m pip install paddleformers\n```\n\n> **注**：若使用昆仑芯 (XPU)、天数智芯 (ILUVATAR) 或沐曦 (Metax) 等国产芯片，请参考官方文档中的特定安装指南。\n\n## 3. 基本使用\n\nPaddleFormers 的 API 设计与 Hugging Face Transformers 高度一致，上手非常简单。\n\n### 使用 Tokenizer 进行编码\n\n```python\nfrom paddleformers.transformers import AutoTokenizer\n\n# 加载分词器\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\n\n# 编码文本\ninput_ids = tokenizer.encode(\"中华人民共和国\")\nprint(input_ids)\n# 输出示例：[105492, 104773]\n```\n\n### 文本生成（推理）\n\n```python\nfrom paddleformers.transformers import AutoTokenizer, AutoModelForCausalLM\n\n# 加载模型和分词器\ntokenizer = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\")\nmodel = AutoModelForCausalLM.from_pretrained(\"Qwen\u002FQwen3-0.6B-Base\", dtype=\"bfloat16\").eval()\n\n# 准备输入\ninput_features = tokenizer(\"请给我一段大模型的简短介绍：\", return_tensors=\"pd\")\n\n# 生成文本\noutputs = model.generate(**input_features, max_new_tokens=256)\noutput_ids = outputs[0].tolist()[0]\n\n# 解码输出\nprint(tokenizer.decode(output_ids, skip_special_tokens=True))\n```\n\n### 启动模型训练\n\nPaddleFormers 提供了命令行工具 `paddleformers-cli` 来简化训练流程。以下是一个启动指令微调（SFT）的示例：\n\n```shell\npaddleformers-cli train .\u002Fexamples\u002Fconfig\u002Fsft\u002Ffull.yaml\n```\n\n您可以修改 YAML 配置文件来调整模型路径、数据集、超参数及分布式策略（如张量并行、流水线并行等）。","某国产人工智能实验室正计划在昆仑芯 P800 集群上对 DeepSeek-V3 模型进行全量微调，以构建垂直领域的行业大模型。\n\n### 没有 PaddleFormers 时\n- **硬件适配困难**：团队需手动修改底层算子代码以适配国产芯片，耗时数周且极易出错，导致项目启动严重滞后。\n- **训练效率低下**：缺乏针对 MoE 架构的通信与计算重叠优化，显存占用高且训练速度慢，同等算力下迭代周期比预期长一倍。\n- **生态兼容割裂**：训练完成的模型权重格式私有，无法直接对接 vLLM 或 FastDeploy 等主流推理框架，需额外开发转换工具。\n- **前沿功能缺失**：难以原生支持 Function Call 和 Thinking 模式的训练，迫使团队放弃高级智能特性或自行研发复杂插件。\n\n### 使用 PaddleFormers 后\n- **开箱即用国产化**：PaddleFormers 已深度适配昆仑芯 P800，团队无需关注底层细节，直接加载 DeepSeek-V3 即可启动分布式训练。\n- **性能显著跃升**：依托 FP8 低精度训练及精细化存算均衡策略，在国产算力上实现了超越 Megatron-LM 的训练吞吐，大幅缩短迭代时间。\n- **无缝对接生态**：训练产出的模型自动保存为 Safetensors 格式，可直接被业界标准推理引擎加载，实现了从训练到部署的零摩擦流转。\n- **先进能力原生支持**：内置对 Function Call 及思维链（Thinking）的训练支持，配合 Data Packing 技术，轻松打造具备复杂推理能力的行业模型。\n\nPaddleFormers 通过屏蔽底层异构算力差异并提供极致性能优化，让开发者能在国产硬件上高效、低成本地落地顶尖大模型应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleFormers_0f728ac0.png","PaddlePaddle","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPaddlePaddle_0457ef24.jpg","",null,"http:\u002F\u002Fpaddlepaddle.org","https:\u002F\u002Fgithub.com\u002FPaddlePaddle",[82,86,90],{"name":83,"color":84,"percentage":85},"Python","#3572A5",99,{"name":87,"color":88,"percentage":89},"Shell","#89e051",1,{"name":91,"color":92,"percentage":93},"Makefile","#427819",0,12984,2175,"2026-04-05T07:35:40","Apache-2.0","Linux, Windows","需要 NVIDIA GPU，CUDA 12.0+ (支持 12.6, 12.9, 13.0)，显存大小取决于模型规模（未明确最低要求，但支持大规模分布式训练）；同时支持国产芯片：昆仑芯 P800、天数天垓 150、沐曦 C550","未说明",{"notes":102,"python":103,"dependencies":104},"推荐使用 Docker 容器部署以避免环境冲突；建议使用 conda\u002Fvenv\u002Fuv 管理 Python 环境；支持 FP8 低精度训练及多种并行策略（张量\u002F流水线\u002F专家并行）；若仅需使用 tokenizer 可安装轻量版依赖；国产芯片需参考专门的安装文档。","3.10+",[105,106],"PaddlePaddle (paddlepaddle)","PaddleFleet >= 0.2 (GPU 训练必需)",[15],[109],"model","2026-03-27T02:49:30.150509","2026-04-06T05:35:31.403569",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},17092,"在循环处理多张图片时遇到显存不足（Out of Memory）报错，显存持续增长不回收怎么办？","这是已知的内存泄漏问题。在简单程序中循环调用 OCR 等模块处理多张图片时，显存可能不会及时释放导致 OOM 错误。目前社区反馈该问题长期未得到彻底解决。临时建议：1. 减少单次处理的图片数量；2. 尝试手动触发垃圾回收（如导入 gc 模块并调用 gc.collect()）；3. 如果显存较大，可分批处理数据；4. 监控是否有其他进程占用 GPU。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F682",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},17093,"在多标签分类任务中，模型输出的 'pre' 字段代表什么含义？","在多标签分类任务中，输出结果中的 'pre' 通常代表预测的标签列表。如果您看到类似得分或概率的数值，那通常是每个标签对应的置信度分数。具体格式取决于所使用的特定 Module 实现，建议查阅该 Module 的官方文档或通过打印输出结构来确认。注意：加载模型前需确保已使用命令行 `hub install \u003Cmodel_name>` 安装了相应模型。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F326",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},17094,"如何在 Jetson Nano (ARM 架构) 上安装和运行 PaddleHub？","Jetson Nano 采用 ARM 架构，而 PaddleHub 的官方 pip 包主要支持 x86_64 架构，因此直接通过 `pip install paddlehub` 通常会失败或不兼容。目前官方未提供针对 ARM 架构的预编译包。解决方案：1. 尝试在标准的 Ubuntu x86_64 机器上运行；2. 高级用户可尝试从源码编译 PaddlePaddle 和 PaddleHub，但这需要复杂的依赖配置且不一定成功；3. 关注官方是否发布支持 ARM 的版本。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F796",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},17095,"在使用 Tokenizer 时，max_seq_len 参数的作用是什么？如何处理未登录词（OOV）？","max_seq_len 的主要作用是控制输入序列的长度：如果分词后的单词个数不足 max_seq_len，系统会自动进行补齐（padding）；如果超过 max_seq_len，则会进行截断（truncation）。关于未登录词（Out-of-Vocabulary, OOV），Tokenizer 内部已经做了处理，当查找未登录词时，会返回 None 或特定的未知标记索引，不会直接报错。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F818",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},17096,"部署 DeepSpeech2 模型到 PaddleHub 时报错 'conv2d(): argument Filter must be Tensor, but got Parameter' 如何解决？","该错误通常发生在将原生 DeepSpeech2 模型直接封装到 PaddleHub 时，由于动态图（DyGraph）与静态图模式或参数类型定义不一致导致。解决方案是参考 DeepSpeech2 的 release 2.0 分支代码，确保模型类继承自 `paddle.nn.Layer` 并在初始化时正确构建网络结构。已有验证表明，使用 PaddleHub 2.1.0 配合 PaddlePaddle 2.1.1 及正确的 DeepSpeech2 封装代码（继承 Layer 并正确调用 forward）可以正常执行预测。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F1554",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},17097,"在 Flask 等多线程服务中同时调用文本分类或分词接口时出现报错，原因是什么？","这是因为 PaddleHub 的部分 Module 在早期版本中不是线程安全的。当多个线程同时调用同一个 Module 实例进行预测时，可能会发生资源竞争导致报错。解决方案：1. 升级 PaddleHub 到最新版本，查看是否已修复线程安全问题；2. 在 Flask 等服务中，为每个工作进程\u002F线程初始化独立的 Module 实例，避免共享同一个实例；3. 使用进程池而非线程池来处理并发请求，利用多进程隔离内存空间。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Fissues\u002F512",[144,149,154,159,164,169],{"id":145,"version":146,"summary_zh":147,"released_at":148},99310,"1.1.1","PaddleFormers 1.1 正式发布！本次版本引入了多项关键特性与优化：\n\n✨ 新特性\n\n1. 支持 GLM-4.5 的多标记预测（MTP）训练\n\n我们新增了对 GLM-4.5 系列模型的单步及多步 MTP 训练的支持。借助 MTP 的架构优势，开发者可以显著提升推理效率。此外，在 MTP 模块训练场景下，我们还推出了骨干网络冻结开关，以灵活满足不同模型的精细化调优需求。\n\n2. 优化视觉语言模型性能\n\n我们对视觉语言模型进行了深度优化。Qwen3-VL 30B-A3B 模型相比上一版本性能提升了 48%，并超越 Megatron-LM 6%。","2026-04-02T08:50:02",{"id":150,"version":151,"summary_zh":152,"released_at":153},99311,"v1.0.0","**PaddleFormers 1.0 是一个重要的里程碑版本**，它提供了一个统一、高性能的训练系统，具有更广泛的模型覆盖、多模态大模型（VLM）能力以及对硬件生态的深度支持。\n\n## ✨ 新特性  \n\n### 1. 与 PaddleFleet 的深度集成  \nPaddleFormers 与飞桨通用高性能分布式训练引擎 **PaddleFleet** 实现了深度集成。  \n凭借高度抽象化和模块化的设计，PaddleFormers 为主流的大模型架构提供了一个 **统一的训练加速框架**。优化后的训练策略可以高效地复用，并在不同模型之间以最小的工作量进行迁移，从而实现 **系统化、可扩展的性能优势**。\n\n### 2. 多模态大模型（VLM）能力支持  \nPaddleFormers 1.0 引入了增强的 **视觉-语言模型（VLM）** 支持，包括：  \n- 通过 **AutoProcessor** 实现统一的 VLM 数据预处理  \n- 基于命令行的 SFT 训练，并支持 LoRA 微调用于 VLM  \n\n这些功能显著简化了 VLM 的训练和微调流程。\n\n### 3. 新增模型支持  \n本次发布新增了以下模型的支持：  \n- [paddleocr_vl](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fpaddleocr_vl)  \n- [phi3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fphi3)  \n- [qwen2_5_vl](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fqwen2_5_vl)  \n- [qwen3_next](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fqwen3_next)  \n- [qwen3_vl](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fqwen3_vl)  \n- [qwen3_vl_moe](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv1.0\u002Fpaddleformers\u002Ftransformers\u002Fqwen3_vl_moe)  \n\n### 4. 默认检查点机制升级为 FlexCheckpoint  \n**FlexCheckpoint** 现已全面应用于 PaddleFormers 中所有支持的模型。  \n模型的加载和保存默认采用 FlexCheckpoint，这使得在多种分布式训练策略下能够实现灵活且稳健的检查点管理，同时保持与 **Hugging Face 格式权重** 的兼容性。\n\n### 5. 多种 AI 芯片支持  \nPaddleFormers 扩展了对国产 AI 硬件平台的支持，包括 **昆仑芯 P800**、**ILUVATAR BI150** 和 **MetaX C550**。  \n**ERNIE-4.5 系列**、**PaddleOCR-VL** 和 **DeepSeek-V3** 模型均已在这几款平台上得到完整支持（详情见下表）。  \n\n| 模型        | 昆仑芯 P800 | ILUVATAR BI150 | MetaX C550 |\n|--------------|--------------|---------------------|------------|\n| PaddleOCR-VL | ✓            | ✓                   | ✗          |\n| ERNIE-4.5    | ✓            | ✓                   | ✓          |\n| DeepSeek-V3  | ✓            | ✗                   | ✗          |\n\n此外，PaddleFormers 还实现了 **在 128 张昆仑芯 P800 卡上对 DeepSeek-V3-671B 进行全参数微调**，从而实","2026-01-21T08:38:13",{"id":155,"version":156,"summary_zh":157,"released_at":158},99312,"v0.4.0","PaddleFormers 0.4 正式发布！本次版本引入了多项关键特性与改进：\n\n## ✨ 新特性  \n\n### 1. 统一的 CLI 训练工作流\n\nPaddleFormers 通过基于 YAML 的配置文件和统一的 CLI 接口，提供了一套 streamlined 的训练工作流。用户只需一条命令即可启动完整的训练流程，大幅减少样板代码，加速迭代效率。该功能支持 CPT、SFT 和 DPO 等多种训练范式，覆盖全参数微调以及基于 LoRA 的微调。\n\n### 2. 新模型支持\n新增对以下模型的支持：\n- [deepseek_v3](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv0.4\u002Fpaddleformers\u002Ftransformers\u002Fdeepseek_v3)\n- [llama](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Frelease\u002Fv0.4\u002Fpaddleformers\u002Ftransformers\u002Fllama)\n\n### 3. FlexCheckpoint 功能增强\n\nFlexCheckpoint 首次支持 Qwen3-MoE 和 GLM-4.5-MoE，能够在多样化的分布式训练场景中灵活加载和保存与 Hugging Face 兼容的模型权重。训练过程中生成的模型检查点可以直接部署到 vLLM、SGLang 和 FastDeploy 等主流推理框架，无需额外的转换或适配，从而实现从训练到推理部署的无缝端到端流程。","2026-01-21T08:00:45",{"id":160,"version":161,"summary_zh":162,"released_at":163},99313,"v0.3","**PaddleFormers 0.3** 正式发布！本次版本引入了多项关键特性与改进：  \n\n## ✨ 新特性  \n\n### 1. 支持 Hugging Face safetensors 格式的权重加载与保存  \nPaddleFormers 现在支持加载和保存 Hugging Face 的 safetensors 模型权重。  \n```python\nfrom paddleformers.transformers import AutoTokenizer, AutoModelForCausalLM\n\nmodel = AutoModelForCausalLM.from_pretrained(\n    \"Qwen\u002FQwen3-0.6B-Base\",\n    convert_from_hf=True\n)\nmodel.save_pretrained(\"Qwen\u002FQwen3-0.6B-Base-new\", save_to_hf=True)\n```  \n\n### 2. 新增模型支持  \n新增对以下模型的支持：  \n- qwen2  \n- qwen3  \n- qwen2moe  \n- qwen3moe  \n- ernie4_5  \n- ernie4_5_moe  \n- gpt_oss  \n\n### 3. 大模型通用模块库（paddleformers\u002Fnn）  \n推出了面向大模型的通用模块库，以降低分布式训练集成的成本。  \n包含：  \n- Attention  \n- Embedding  \n- 流水线并行模型  \n- 归一化  \n- MLP  \n- LM Head  \n- Linear  \n\n实现细节请参阅：  \nhttps:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleFormers\u002Ftree\u002Fdevelop\u002Fpaddleformers\u002Fnn","2025-09-18T12:35:00",{"id":165,"version":166,"summary_zh":167,"released_at":168},99314,"v0.2","**PaddleFormers 0.2** 正式发布！本次版本引入了多项关键功能和改进：  \n\n## ✨ 新特性  \n\n### 1. 多源模型下载  \n- 新增对 **HuggingFace Hub**、**ModelScope** 和 **AI Studio** 的模型下载支持，使模型获取更加灵活便捷。  \n\n### 2. HuggingFace Tokenizer 兼容性  \n- PaddleFormers 现在封装并支持 **HuggingFace Tokenizer**，用户可以直接使用 HuggingFace 的分词器生态，同时保持 PaddleFormers 的一致使用体验。  \n\n### 3. 懒加载优化  \n- 引入 **懒加载机制**，使得 Tokenizer 模块可以独立使用，无需预先安装 PaddlePaddle。  \n- 这一改进便于在轻量级场景下使用 Tokenizer，例如预处理或纯推理任务，同时提升了模块化程度和易用性。","2025-09-04T09:33:09",{"id":170,"version":171,"summary_zh":172,"released_at":173},99315,"v0.1","**PaddleFormers 0.1** 正式发布！该初始版本支持 SFT\u002FDPO 训练范式，可通过统一的 Trainer API 配置分布式训练，并集成 PEFT、MergeKit 和量化 API，以满足多样化的大模型应用需求。\n\n## 亮点\n\n### ⚙️ 简化分布式训练\n通过统一的 Trainer API 实现 4D 并行策略，降低了大模型分布式训练的门槛。\n\n### 🛠 高效的后训练优化\n集成 Packing 数据流和 [FlashMask](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.01359) 算子，用于 SFT\u002FDPO 训练，消除填充带来的浪费并提升吞吐量。\n\n### 💾 工业级存储解决方案\n提供面向大模型的 **统一检查点** 存储工具，支持训练断点续训和资源动态扩展。同时实现了异步存储（速度提升高达 95%）以及优化器状态量化（存储空间减少 78%），确保工业级训练在效率与稳定性方面均达到要求。","2025-06-29T13:36:44"]