[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mindspore-lab--mindnlp":3,"tool-mindspore-lab--mindnlp":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":120,"forks":121,"last_commit_at":122,"license":123,"difficulty_score":10,"env_os":124,"env_gpu":125,"env_ram":124,"env_deps":126,"category_tags":136,"github_topics":137,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":149,"updated_at":150,"faqs":151,"releases":181},2728,"mindspore-lab\u002Fmindnlp","mindnlp","MindSpore +  🤗Huggingface: Run any Transformers\u002FDiffusers model on MindSpore with seamless compatibility and acceleration.","MindNLP 是一座连接 Hugging Face 庞大模型生态与 MindSpore 深度学习框架的桥梁。它的核心目标是让用户无需修改任何代码，只需导入 `mindnlp` 库，即可直接在昇腾（Ascend NPU）、英伟达 GPU 或 CPU 上运行超过 20 万个 Hugging Face 模型，涵盖 Transformers 和 Diffusers 两大主流库。\n\n这一工具主要解决了国产算力平台上大模型应用门槛高、适配复杂的问题。以往开发者若想将 Hugging Face 上的开源模型迁移至昇腾硬件，往往需要繁琐的代码重构和算子适配工作，而 MindNLP 通过无缝兼容技术消除了这一障碍，实现了“零代码改动”的平滑迁移，同时提供了高效的硬件加速能力。\n\nMindNLP 非常适合 AI 开发者、算法研究人员以及希望快速验证大模型应用的企业团队使用。无论是进行文本生成、图像创作（如 Stable Diffusion），还是传统的自然语言处理任务，用户都能利用现有代码迅速在多种硬件环境中部署和测试。其独特的技术亮点在于对 Hugging Face 接口的完全复用性，以及对混合精度训","MindNLP 是一座连接 Hugging Face 庞大模型生态与 MindSpore 深度学习框架的桥梁。它的核心目标是让用户无需修改任何代码，只需导入 `mindnlp` 库，即可直接在昇腾（Ascend NPU）、英伟达 GPU 或 CPU 上运行超过 20 万个 Hugging Face 模型，涵盖 Transformers 和 Diffusers 两大主流库。\n\n这一工具主要解决了国产算力平台上大模型应用门槛高、适配复杂的问题。以往开发者若想将 Hugging Face 上的开源模型迁移至昇腾硬件，往往需要繁琐的代码重构和算子适配工作，而 MindNLP 通过无缝兼容技术消除了这一障碍，实现了“零代码改动”的平滑迁移，同时提供了高效的硬件加速能力。\n\nMindNLP 非常适合 AI 开发者、算法研究人员以及希望快速验证大模型应用的企业团队使用。无论是进行文本生成、图像创作（如 Stable Diffusion），还是传统的自然语言处理任务，用户都能利用现有代码迅速在多种硬件环境中部署和测试。其独特的技术亮点在于对 Hugging Face 接口的完全复用性，以及对混合精度训练和推理的原生支持，让开发者能够专注于模型逻辑本身，而非底层硬件适配细节，极大地提升了研发效率。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fmindspore-lab\u002Fmindnlp\u002Fmaster\u002Fassets\u002Fmindnlp_logo.png\" width=\"400\" alt=\"MindNLP Logo\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">MindNLP\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>Run HuggingFace Models on MindSpore with Zero Code Changes\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cem>The easiest way to use 200,000+ HuggingFace models on Ascend NPU, GPU, and CPU\u003C\u002Fem>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fstargazers\">\n    \u003Cimg alt=\"GitHub stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmindspore-lab\u002Fmindnlp?style=for-the-badge&logo=github&color=yellow\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fmindnlp\u002F\">\n    \u003Cimg alt=\"PyPI Downloads\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fmindnlp?style=for-the-badge&logo=pypi&color=blue\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fblob\u002Fmaster\u002FLICENSE\">\n    \u003Cimg alt=\"License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmindspore-lab\u002Fmindnlp?style=for-the-badge&color=green\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fmindnlp.cqu.ai\u002Fen\u002Flatest\u002F\">\n    \u003Cimg alt=\"Documentation\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue?style=flat-square\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Factions\">\n    \u003Cimg alt=\"CI\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002Fmindspore-lab\u002Fmindnlp\u002Fci_pipeline.yaml?style=flat-square&label=CI\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpulls\">\n    \u003Cimg alt=\"PRs Welcome\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen?style=flat-square\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\">\n    \u003Cimg alt=\"Issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fmindspore-lab\u002Fmindnlp?style=flat-square\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#-quick-start\">Quick Start\u003C\u002Fa> •\n  \u003Ca href=\"#-features\">Features\u003C\u002Fa> •\n  \u003Ca href=\"#-installation\">Installation\u003C\u002Fa> •\n  \u003Ca href=\"#-why-mindnlp\">Why MindNLP\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Fmindnlp.cqu.ai\">Documentation\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🎯 What is MindNLP?\n\n**MindNLP** bridges the gap between HuggingFace's massive model ecosystem and MindSpore's hardware acceleration. With just `import mindnlp`, you can run any HuggingFace model on **Ascend NPU**, **NVIDIA GPU**, or **CPU** - no code changes required.\n\n```python\nimport mindnlp  # That's it! HuggingFace now runs on MindSpore\nfrom transformers import pipeline\n\npipe = pipeline(\"text-generation\", model=\"Qwen\u002FQwen2-0.5B\")\nprint(pipe(\"Hello, I am\")[0][\"generated_text\"])\n```\n\n## ⚡ Quick Start\n\n### Text Generation with LLMs\n\n```python\nimport mindspore\nimport mindnlp\nfrom transformers import pipeline\n\npipe = pipeline(\n    \"text-generation\",\n    model=\"Qwen\u002FQwen3-8B\",\n    ms_dtype=mindspore.bfloat16,\n    device_map=\"auto\"\n)\n\nmessages = [{\"role\": \"user\", \"content\": \"Write a haiku about coding\"}]\nprint(pipe(messages, max_new_tokens=100)[0][\"generated_text\"][-1][\"content\"])\n```\n\n### Image Generation with Stable Diffusion\n\n```python\nimport mindspore\nimport mindnlp\nfrom diffusers import DiffusionPipeline\n\npipe = DiffusionPipeline.from_pretrained(\n    \"stable-diffusion-v1-5\u002Fstable-diffusion-v1-5\",\n    ms_dtype=mindspore.float16\n)\nimage = pipe(\"A sunset over mountains, oil painting style\").images[0]\nimage.save(\"sunset.png\")\n```\n\n### BERT for Text Classification\n\n```python\nimport mindnlp\nfrom transformers import AutoTokenizer, AutoModelForSequenceClassification\n\ntokenizer = AutoTokenizer.from_pretrained(\"bert-base-uncased\")\nmodel = AutoModelForSequenceClassification.from_pretrained(\"bert-base-uncased\")\n\ninputs = tokenizer(\"MindNLP is awesome!\", return_tensors=\"pt\")\noutputs = model(**inputs)\n```\n\n## ✨ Features\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"50%\">\n\n### 🤗 Full HuggingFace Compatibility\n\n- **200,000+ models** from HuggingFace Hub\n- **Transformers** - All model architectures\n- **Diffusers** - Stable Diffusion, SDXL, ControlNet\n- **Zero code changes** - Just `import mindnlp`\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\">\n\n### 🚀 Hardware Acceleration\n\n- **Ascend NPU** - Full support for Huawei AI chips\n- **NVIDIA GPU** - CUDA acceleration\n- **CPU** - Optimized CPU execution\n- **Multi-device** - Automatic device placement\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd width=\"50%\">\n\n### 🔧 Advanced Capabilities\n\n- **Mixed precision** - FP16\u002FBF16 training & inference\n- **Quantization** - INT8\u002FINT4 with BitsAndBytes\n- **Distributed** - Multi-GPU\u002FNPU training\n- **PEFT\u002FLoRA** - Parameter-efficient fine-tuning\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\">\n\n### 📦 Easy Integration\n\n- **PyTorch-compatible API** via mindtorch\n- **Safetensors** support for fast loading\n- **Model Hub mirrors** for faster downloads\n- **Comprehensive documentation**\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 🧪 Mindtorch NPU Debugging\n\nMindtorch NPU ops are async by default. Use `torch.npu.synchronize()` when you need to block on results.\nFor debugging, set `ACL_LAUNCH_BLOCKING=1` to force per-op synchronization.\n\n## 📦 Installation\n\n```bash\n# From PyPI (recommended)\npip install mindnlp\n\n# From source (latest features)\npip install git+https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp.git\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>📋 Version Compatibility\u003C\u002Fb>\u003C\u002Fsummary>\n\n| MindNLP | MindSpore | Python |\n|---------|-----------|--------|\n| 0.6.x   | ≥2.7.1    | 3.10-3.11 |\n| 0.5.x   | 2.5.0-2.7.0 | 3.10-3.11 |\n| 0.4.x   | 2.2.x-2.5.0 | 3.9-3.11 |\n\n\u003C\u002Fdetails>\n\n## 💡 Why MindNLP?\n\n| Feature | MindNLP | PyTorch + HF | TensorFlow + HF |\n|---------|---------|--------------|-----------------|\n| HuggingFace Models | ✅ 200K+ | ✅ 200K+ | ⚠️ Limited |\n| Ascend NPU Support | ✅ Native | ❌ | ❌ |\n| Zero Code Migration | ✅ | - | ❌ |\n| Unified API | ✅ | ✅ | ❌ |\n| Chinese Model Support | ✅ Excellent | ✅ Good | ⚠️ Limited |\n\n### 🏆 Key Advantages\n\n1. **Instant Migration**: Your existing HuggingFace code works immediately\n2. **Ascend Optimization**: Native support for Huawei NPU hardware\n3. **Production Ready**: Battle-tested in enterprise deployments\n4. **Active Community**: Regular updates and responsive support\n\n## 🗺️ Supported Models\n\nMindNLP supports **all models** from HuggingFace Transformers and Diffusers. Here are some popular ones:\n\n| Category | Models |\n|----------|--------|\n| **LLMs** | Qwen, Llama, ChatGLM, Mistral, Phi, Gemma, BLOOM, Falcon |\n| **Vision** | ViT, CLIP, Swin, ConvNeXt, SAM, BLIP |\n| **Audio** | Whisper, Wav2Vec2, HuBERT, MusicGen |\n| **Diffusion** | Stable Diffusion, SDXL, ControlNet |\n| **Multimodal** | LLaVA, Qwen-VL, ALIGN |\n\n👉 [View all supported models](https:\u002F\u002Fmindnlp.cqu.ai\u002Fsupported_models)\n\n## 📚 Resources\n\n- 📖 [Documentation](https:\u002F\u002Fmindnlp.cqu.ai)\n- 🚀 [Quick Start Guide](https:\u002F\u002Fmindnlp.cqu.ai\u002Fquick_start)\n- 📝 [Tutorials](https:\u002F\u002Fmindnlp.cqu.ai\u002Ftutorials\u002Fquick_start)\n- 💬 [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fdiscussions)\n- 🐛 [Issue Tracker](https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues)\n\n## 🤝 Contributing\n\nWe welcome contributions! See our [Contributing Guide](https:\u002F\u002Fmindnlp.cqu.ai\u002Fcontribute) for details.\n\n```bash\n# Clone and install for development\ngit clone https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp.git\ncd mindnlp\npip install -e \".[dev]\"\n```\n\n## 👥 Community\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fgraphs\u002Fcontributors\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_441f31199448.png\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\nJoin the **MindSpore NLP SIG** (Special Interest Group) for discussions, events, and collaboration:\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_f57c83a40ea2.jpg\" width=\"200\" alt=\"QQ Group\"\u002F>\n\u003C\u002Fp>\n\n## ⭐ Star History\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#mindspore-lab\u002Fmindnlp&Date\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_aad5a0f548eb.png\" alt=\"Star History Chart\" width=\"600\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n**If you find MindNLP useful, please consider giving it a star ⭐ - it helps the project grow!**\n\n## 📄 License\n\nMindNLP is released under the [Apache 2.0 License](LICENSE).\n\n## 📖 Citation\n\n```bibtex\n@misc{mindnlp2022,\n    title={MindNLP: Easy-to-use and High-performance NLP and LLM Framework Based on MindSpore},\n    author={MindNLP Contributors},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp}},\n    year={2022}\n}\n```\n\n---\n\n\u003Cp align=\"center\">\n  Made with ❤️ by the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\">MindSpore Lab\u003C\u002Fa> team\n\u003C\u002Fp>\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fmindspore-lab\u002Fmindnlp\u002Fmaster\u002Fassets\u002Fmindnlp_logo.png\" width=\"400\" alt=\"MindNLP Logo\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">MindNLP\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>无需修改代码，即可在 MindSpore 上运行 HuggingFace 模型\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cem>在 Ascend NPU、GPU 和 CPU 上使用 20 多万个 HuggingFace 模型的最简单方法\u003C\u002Fem>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fstargazers\">\n    \u003Cimg alt=\"GitHub 星标数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmindspore-lab\u002Fmindnlp?style=for-the-badge&logo=github&color=yellow\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fmindnlp\u002F\">\n    \u003Cimg alt=\"PyPI 下载量\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fdm\u002Fmindnlp?style=for-the-badge&logo=pypi&color=blue\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fblob\u002Fmaster\u002FLICENSE\">\n    \u003Cimg alt=\"许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fmindspore-lab\u002Fmindnlp?style=for-the-badge&color=green\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fmindnlp.cqu.ai\u002Fen\u002Flatest\u002F\">\n    \u003Cimg alt=\"文档\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-blue?style=flat-square\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Factions\">\n    \u003Cimg alt=\"CI\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002Fmindspore-lab\u002Fmindnlp\u002Fci_pipeline.yaml?style=flat-square&label=CI\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpulls\">\n    \u003Cimg alt=\"欢迎 PR\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen?style=flat-square\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\">\n    \u003Cimg alt=\"问题\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fmindspore-lab\u002Fmindnlp?style=flat-square\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#-quick-start\">快速入门\u003C\u002Fa> •\n  \u003Ca href=\"#-features\">功能特性\u003C\u002Fa> •\n  \u003Ca href=\"#-installation\">安装\u003C\u002Fa> •\n  \u003Ca href=\"#-why-mindnlp\">为什么选择 MindNLP\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Fmindnlp.cqu.ai\">文档\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🎯 什么是 MindNLP？\n\n**MindNLP** 桥接了 HuggingFace 海量模型生态与 MindSpore 硬件加速之间的鸿沟。只需 `import mindnlp`，你就可以在 **Ascend NPU**、**NVIDIA GPU** 或 **CPU** 上运行任意 HuggingFace 模型——无需任何代码改动。\n\n```python\nimport mindnlp  # 就这么简单！HuggingFace 现在可以在 MindSpore 上运行\nfrom transformers import pipeline\n\npipe = pipeline(\"text-generation\", model=\"Qwen\u002FQwen2-0.5B\")\nprint(pipe(\"你好，我是\")[0][\"generated_text\"])\n```\n\n## ⚡ 快速入门\n\n### 使用大语言模型进行文本生成\n\n```python\nimport mindspore\nimport mindnlp\nfrom transformers import pipeline\n\npipe = pipeline(\n    \"text-generation\",\n    model=\"Qwen\u002FQwen3-8B\",\n    ms_dtype=mindspore.bfloat16,\n    device_map=\"auto\"\n)\n\nmessages = [{\"role\": \"user\", \"content\": \"写一首关于编程的俳句\"}]\nprint(pipe(messages, max_new_tokens=100)[0][\"generated_text\"][-1][\"content\"])\n```\n\n### 使用 Stable Diffusion 进行图像生成\n\n```python\nimport mindspore\nimport mindnlp\nfrom diffusers import DiffusionPipeline\n\npipe = DiffusionPipeline.from_pretrained(\n    \"stable-diffusion-v1-5\u002Fstable-diffusion-v1-5\",\n    ms_dtype=mindspore.float16\n)\nimage = pipe(\"山间日落，油画风格\").images[0]\nimage.save(\"sunset.png\")\n```\n\n### 使用 BERT 进行文本分类\n\n```python\nimport mindnlp\nfrom transformers import AutoTokenizer、AutoModelForSequenceClassification\n\ntokenizer = AutoTokenizer.from_pretrained(\"bert-base-uncased\")\nmodel = AutoModelForSequenceClassification.from_pretrained(\"bert-base-uncased\")\n\ninputs = tokenizer(\"MindNLP 太棒了！\", return_tensors=\"pt\")\noutputs = model(**inputs)\n```\n\n## ✨ 功能特性\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"50%\">\n\n### 🤗 完全兼容 HuggingFace\n\n- 来自 HuggingFace Hub 的 **20 多万个模型**\n- **Transformers** —— 所有模型架构\n- **Diffusers** —— Stable Diffusion、SDXL、ControlNet\n- **无需修改代码** —— 只需 `import mindnlp`\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\">\n\n### 🚀 硬件加速\n\n- **Ascend NPU** —— 完整支持华为 AI 芯片\n- **NVIDIA GPU** —— CUDA 加速\n- **CPU** —— 优化的 CPU 执行\n- **多设备** —— 自动设备分配\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd width=\"50%\">\n\n### 🔧 高级能力\n\n- **混合精度** —— FP16\u002FBF16 训练与推理\n- **量化** —— INT8\u002FINT4 结合 BitsAndBytes\n- **分布式** —— 多 GPU\u002FNPU 训练\n- **PEFT\u002FLoRA** —— 参数高效的微调\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\">\n\n### 📦 易于集成\n\n- 通过 mindtorch 提供与 PyTorch 兼容的 API\n- 支持 Safetensors 以实现快速加载\n- 模型库镜像加速下载\n- 全面的文档支持\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 🧐 Mindtorch NPU 调试\n\nMindtorch NPU 操作默认为异步执行。如果需要等待结果完成，可以使用 `torch.npu.synchronize()`。调试时，可设置 `ACL_LAUNCH_BLOCKING=1` 强制每个操作同步执行。\n\n## 📦 安装\n\n```bash\n# 推荐从 PyPI 安装\npip install mindnlp\n\n# 从源码安装（获取最新功能）\npip install git+https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp.git\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>📋 版本兼容性\u003C\u002Fb>\u003C\u002Fsummary>\n\n| MindNLP | MindSpore | Python |\n|---------|-----------|--------|\n| 0.6.x   | ≥2.7.1    | 3.10-3.11 |\n| 0.5.x   | 2.5.0-2.7.0 | 3.10-3.11 |\n| 0.4.x   | 2.2.x-2.5.0 | 3.9-3.11 |\n\n\u003C\u002Fdetails>\n\n## 💡 为什么选择 MindNLP？\n\n| 特性 | MindNLP | PyTorch + HF | TensorFlow + HF |\n|---------|---------|--------------|-----------------|\n| HuggingFace 模型 | ✅ 20 多万个 | ✅ 20 多万个 | ⚠️ 有限 |\n| Ascend NPU 支持 | ✅ 原生支持 | ❌ | ❌ |\n| 无需代码迁移 | ✅ | - | ❌ |\n| 统一的 API | ✅ | ✅ | ❌ |\n| 中文模型支持 | ✅ 极佳 | ✅ 良好 | ⚠️ 有限 |\n\n### 🏆 主要优势\n\n1. **即时迁移**：现有 HuggingFace 代码可立即运行\n2. **Ascend 优化**：原生支持华为 NPU 硬件\n3. **生产就绪**：经过企业级部署验证\n4. **活跃社区**：定期更新且响应迅速的支持\n\n## 🗺️ 支持的模型\n\nMindNLP 支持来自 HuggingFace Transformers 和 Diffusers 的 **所有模型**。以下是一些热门模型：\n\n| 类别 | 模型 |\n|----------|--------|\n| **大语言模型** | Qwen、Llama、ChatGLM、Mistral、Phi、Gemma、BLOOM、Falcon |\n| **视觉模型** | ViT、CLIP、Swin、ConvNeXt、SAM、BLIP |\n| **音频模型** | Whisper、Wav2Vec2、HuBERT、MusicGen |\n| **扩散模型** | Stable Diffusion、SDXL、ControlNet |\n| **多模态模型** | LLaVA、Qwen-VL、ALIGN |\n\n👉 [查看所有支持的模型](https:\u002F\u002Fmindnlp.cqu.ai\u002Fsupported_models)\n\n## 📚 资源\n\n- 📖 [文档](https:\u002F\u002Fmindnlp.cqu.ai)\n- 🚀 [快速入门指南](https:\u002F\u002Fmindnlp.cqu.ai\u002Fquick_start)\n- 📝 [教程](https:\u002F\u002Fmindnlp.cqu.ai\u002Ftutorials\u002Fquick_start)\n- 💬 [GitHub 讨论区](https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fdiscussions)\n- 🐛 [问题追踪器](https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues)\n\n## 🤝 贡献\n\n我们欢迎各位贡献！详情请参阅我们的 [贡献指南](https:\u002F\u002Fmindnlp.cqu.ai\u002Fcontribute)。\n\n```bash\n\n# 克隆并安装以进行开发\ngit clone https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp.git\ncd mindnlp\npip install -e \".[dev]\"\n```\n\n## 👥 社区\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fgraphs\u002Fcontributors\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_441f31199448.png\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n加入 **MindSpore NLP SIG**（特别兴趣小组），参与讨论、活动和协作：\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_f57c83a40ea2.jpg\" width=\"200\" alt=\"QQ 群\"\u002F>\n\u003C\u002Fp>\n\n## ⭐ 星标历史\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#mindspore-lab\u002Fmindnlp&Date\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_readme_aad5a0f548eb.png\" alt=\"星标历史图表\" width=\"600\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n**如果您觉得 MindNLP 很有用，请考虑给它点个赞 ⭐ —— 这将帮助项目不断成长！**\n\n## 📄 许可证\n\nMindNLP 采用 [Apache 2.0 许可证](LICENSE) 发布。\n\n## 📖 引用\n\n```bibtex\n@misc{mindnlp2022,\n    title={MindNLP：基于 MindSpore 的易用且高性能自然语言处理与大模型框架},\n    author={MindNLP 贡献者},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp}},\n    year={2022}\n}\n```\n\n---\n\n\u003Cp align=\"center\">\n  由 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmindspore-lab\">MindSpore Lab\u003C\u002Fa> 团队用心打造 ❤️\n\u003C\u002Fp>","# MindNLP 快速上手指南\n\nMindNLP 是一个旨在打通 HuggingFace 模型生态与 MindSpore 硬件加速能力的桥梁。只需一行代码 `import mindnlp`，即可在**昇腾 NPU**、**NVIDIA GPU**或**CPU**上运行超过 20 万个 HuggingFace 模型，无需修改任何原有代码。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04)\n*   **Python 版本**: 3.10 - 3.11 (根据 MindNLP 版本不同略有差异)\n*   **后端框架**:\n    *   **MindSpore**: 建议版本 ≥ 2.7.1 (对应 MindNLP 0.6.x)\n    *   **硬件驱动**:\n        *   若使用**昇腾 NPU**：需安装对应的 CANN 包和 Ascend 驱动。\n        *   若使用**NVIDIA GPU**：需安装 CUDA 和 cuDNN。\n*   **前置依赖**: 建议先安装好基础版的 `mindspore`。\n\n> **提示**：MindNLP 对国产大模型（如 Qwen, ChatGLM 等）及昇腾硬件有极佳的原生支持。\n\n## 2. 安装步骤\n\n推荐使用 PyPI 进行安装，也可从源码安装以获取最新特性。\n\n### 方式一：通过 PyPI 安装（推荐）\n\n```bash\npip install mindnlp\n```\n\n### 方式二：从源码安装（获取最新功能）\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp.git\n```\n\n### 国内加速方案（可选）\n\n如果您在国内网络环境下安装较慢，可以使用国内镜像源加速：\n\n```bash\n# 使用清华源安装\npip install mindnlp -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 3. 基本使用\n\nMindNLP 的核心优势是**零代码迁移**。您只需要在现有的 HuggingFace 代码最上方添加 `import mindnlp`，后续代码完全保持不变，底层会自动切换至 MindSpore 引擎并适配当前硬件。\n\n### 示例 1：大语言模型文本生成 (LLM)\n\n以下示例展示如何运行 Qwen 模型进行对话生成，自动利用可用的 NPU 或 GPU 加速：\n\n```python\nimport mindspore\nimport mindnlp\nfrom transformers import pipeline\n\n# 初始化流水线，device_map=\"auto\" 会自动选择最佳设备\npipe = pipeline(\n    \"text-generation\",\n    model=\"Qwen\u002FQwen3-8B\",\n    ms_dtype=mindspore.bfloat16,\n    device_map=\"auto\"\n)\n\nmessages = [{\"role\": \"user\", \"content\": \"Write a haiku about coding\"}]\nresult = pipe(messages, max_new_tokens=100)[0][\"generated_text\"][-1][\"content\"]\nprint(result)\n```\n\n### 示例 2：图像生成 (Stable Diffusion)\n\n直接运行 Diffusers 模型生成图片：\n\n```python\nimport mindspore\nimport mindnlp\nfrom diffusers import DiffusionPipeline\n\n# 加载模型，指定精度为 float16 以节省显存并加速\npipe = DiffusionPipeline.from_pretrained(\n    \"stable-diffusion-v1-5\u002Fstable-diffusion-v1-5\",\n    ms_dtype=mindspore.float16\n)\n\n# 生成图像\nimage = pipe(\"A sunset over mountains, oil painting style\").images[0]\nimage.save(\"sunset.png\")\n```\n\n### 示例 3：传统 NLP 任务 (BERT 分类)\n\n适用于传统的 Transformer 模型推理：\n\n```python\nimport mindnlp\nfrom transformers import AutoTokenizer, AutoModelForSequenceClassification\n\n# 加载分词器和模型\ntokenizer = AutoTokenizer.from_pretrained(\"bert-base-uncased\")\nmodel = AutoModelForSequenceClassification.from_pretrained(\"bert-base-uncased\")\n\n# 推理过程\ninputs = tokenizer(\"MindNLP is awesome!\", return_tensors=\"pt\")\noutputs = model(**inputs)\nprint(outputs)\n```\n\n---\n**下一步**：更多高级用法（如量化、分布式训练、LoRA 微调）请参考 [官方文档](https:\u002F\u002Fmindnlp.cqu.ai)。","某金融科技公司算法团队需要在国产昇腾（Ascend）NPU 服务器上快速部署基于 HuggingFace 社区的最新大语言模型，以构建智能客服系统。\n\n### 没有 mindnlp 时\n- **代码重构成本高**：团队必须手动将原本基于 PyTorch 编写的模型代码逐行改写为 MindSpore 原生语法，耗时数周且极易出错。\n- **硬件适配困难**：大量成熟的 HuggingFace 模型无法直接在昇腾 NPU 上运行，团队需自行开发底层算子来填补兼容性缺口。\n- **生态资源浪费**：面对社区中超过 20 万个现成模型，因缺乏迁移工具，团队只能重复造轮子，无法复用现有的优质预训练权重。\n- **调试周期漫长**：在框架转换过程中，微小的精度差异或维度错误导致模型难以收敛，排查问题占据了大部分研发时间。\n\n### 使用 mindnlp 后\n- **零代码迁移**：只需在现有代码中加入 `import mindnlp`，原本针对 HuggingFace 编写的 PyTorch 代码即可无缝在 MindSpore 上运行，无需修改任何逻辑。\n- **原生硬件加速**：mindnlp 自动调用昇腾 NPU 进行加速，完美支持 Transformers 和 Diffusers 架构，让国产硬件算力即刻释放。\n- **海量模型即用**：团队可直接加载 HuggingFace Hub 上的任意模型（如 Qwen、Stable Diffusion），瞬间将可用模型库从几十个扩展至二十多万个。\n- **开发效率倍增**：省去了繁琐的框架移植和算子开发环节，团队将精力集中于业务逻辑优化，模型上线周期从数周缩短至数小时。\n\nmindnlp 通过“一行代码”打通了 HuggingFace 庞大生态与国产昇腾硬件之间的壁垒，让开发者能零成本享受国产化算力加速的红利。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmindspore-lab_mindnlp_e6ae1018.png","mindspore-lab","MindSpore Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmindspore-lab_06de3afd.jpg","",null,"https:\u002F\u002Fgithub.com\u002Fmindspore-lab",[83,87,91,95,99,103,107,110,114,117],{"name":84,"color":85,"percentage":86},"Python","#3572A5",90.3,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",6.5,{"name":92,"color":93,"percentage":94},"Cuda","#3A4E3A",1.8,{"name":96,"color":97,"percentage":98},"C++","#f34b7d",0.8,{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.4,{"name":104,"color":105,"percentage":106},"JavaScript","#f1e05a",0.1,{"name":108,"color":109,"percentage":106},"CMake","#DA3434",{"name":111,"color":112,"percentage":113},"PowerShell","#012456",0,{"name":115,"color":116,"percentage":113},"Metal","#8f14e9",{"name":118,"color":119,"percentage":113},"Objective-C++","#6866fb",915,270,"2026-03-28T08:28:22","Apache-2.0","未说明","可选。支持 NVIDIA GPU（需 CUDA 加速）、华为 Ascend NPU 或 CPU。显存大小取决于具体模型（示例中使用 BF16\u002FFP16），CUDA 版本未明确指定。",{"notes":127,"python":128,"dependencies":129},"1. 核心依赖是 MindSpore，不同版本的 MindNLP 对应不同的 MindSpore 最低版本要求（0.6.x 需≥2.7.1，0.5.x 需 2.5.0-2.7.0，0.4.x 需 2.2.x-2.5.0）。2. 在 NPU 上调试时，默认算子是异步的，如需阻塞等待结果需使用同步函数或设置环境变量 ACL_LAUNCH_BLOCKING=1。3. 支持零代码迁移运行 HuggingFace 模型，自动适配设备。","3.9 - 3.11 (推荐 3.10-3.11，取决于 MindNLP 版本)",[130,131,132,133,134,135],"mindspore>=2.2.0","transformers","diffusers","mindtorch","bitsandbytes","safetensors",[26,14,13],[138,139,140,141,142,143,144,145,146,147,148],"mindspore","natural-language-processing","nlp","nlp-library","deep-learning","python","large-language-models","llm","diffusion-models","huggingface","vlm","2026-03-27T02:49:30.150509","2026-04-06T05:32:20.008602",[152,157,162,166,171,176],{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},12642,"下载模型文件时报错 'SafetensorError: HeaderTooLarge' 是怎么回事？","此错误通常表示下载的 safetensors 模型文件不完整或已损坏。请检查网络连接，重新从 HuggingFace 或 MindSpore 官方源下载模型文件。确保文件大小与官方记录一致，避免因下载中断导致文件头信息异常。","https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\u002F1062",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},12637,"使用 MindNLP 进行原生训练时，为什么直接使用 optimizer.param_groups 会报错或顺序对不上？","在原生 MindSpore 管道式训练中，必须将 optimizer.param_groups 替换为 model.trainable_params()。这是因为框架的微分机制要求参数顺序严格对应，否则会导致计算错误或报错。如果使用 Trainer 套件通常会自动处理此问题，但手动构建训练循环时需特别注意这一点。","https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\u002F1789",{"id":163,"question_zh":164,"answer_zh":165,"source_url":161},12638,"在动态图模式下运行遇到 'RuntimeError: Unsupported statement Try' 错误怎么办？","这通常是因为代码中包含了 try-except 语法块，而某些 MindSpore 版本在动态图模式下对此支持有限或配置有误。解决方案是在运行模型前添加 model.jit() 调用，切换到静态图模式执行，这样可以避免该语法错误并正常运行。",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},12639,"Qwen2 或 ChatGLM2 等模型在鲲鹏 CPU 环境下推理速度非常慢，如何优化？","速度慢主要由 Python 算子下发间隔和鲲鹏处理器跳核引起。优化方法是在启动脚本前使用 taskset 命令绑定 CPU 核心，防止进程在不同核之间跳转。例如：`taskset -c 0-23 python cli_demo.py`。通过此方法，ChatGLM2 的生成速度可从 320ms\u002Ftoken 优化至 160ms\u002Ftoken。","https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\u002F1168",{"id":172,"question_zh":173,"answer_zh":174,"source_url":175},12640,"运行示例代码时出现大量 Torch 相关报错，但使用的是 MindSpore 环境，是什么原因？","如果报错信息全部指向 Torch 库（如 torch, torchvision），说明当前环境可能混用了 PyTorch 依赖或加载了错误的后端。MindNLP 基于 MindSpore，不应产生纯 Torch 报错。请检查是否安装了不兼容的每日构建版本，确认 transformers、torchvision 与 mindnlp 版本的对应关系，并确保没有意外导入 PyTorch 模块。","https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\u002F2154",{"id":177,"question_zh":178,"answer_zh":179,"source_url":180},12641,"执行文本分类示例时报错 'TypeError: module object is not callable' 如何解决？","该错误通常发生在调用数据集加载函数时，原因是导入方式错误或函数名冲突。参考 HuggingFace 用法，应确保正确实例化数据集处理流程。检查是否将模块名当作了函数调用，并参照官方示例（如 bert_emotect_finetune.ipynb）重构数据预处理函数，使用 GeneratorDataset 并正确定义 tokenize_and_pad 操作。","https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fissues\u002F735",[182,186,191,196,201,206,211,216,220,225,230,234,238],{"id":183,"version":184,"summary_zh":80,"released_at":185},63038,"v0.5.1","2025-11-05T07:34:31",{"id":187,"version":188,"summary_zh":189,"released_at":190},63039,"v0.5.0","## 变更内容\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2016 中使用 mindtorch 初始化 mindnlp 0.5.0\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2017 中修复 transformers 4.51.1 的 bug\n* 【开源实习】Bartpho 模型微调 @SeasonMay 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2030 中完成\n* @ldqLDQ 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2041 中更新 Qwen 的 JIT 推理\n* 【开源实习】Barthez 模型微调 @SeasonMay 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2032 中完成\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2056 中使用新核心适配 Hugging Face 库\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2057 中使用 lazymodule 加载 transformers 子模块\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2058 中修复 transformers 单元测试（BERT）中的一些 bug\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2059 中使用 Hugging Face Transformers 官方单元测试进行测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2060 中修复代理错误并通过更多 Hugging Face 单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2061 中修复所有 BERT 单元测试，并跳过无用的测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2062 中在 Ascend 上通过所有 Llama 单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2063 中修复 Qwen 系列的 bug\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2064 中修复 LoRA 训练问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2065 中修复 Albert 相关问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2066 中修复 Autoformer 相关问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2067 中修复 A 类模型的单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2068 中修复 B 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2069 中修复 C 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2070 中修复 D 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2071 中修复 E 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2072 中修复 E 类相关问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2073 中修复 G 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2074 中修复 H 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2075 中修复 I 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2076 中修复 L 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2077 中修复 M 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2078 中修复 N 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2079 中修复 O 类单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2080 中修复 Diffuser 模型的单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2081 中修复 Diffusers UNet 的单元测试\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F2082 中修复 transformers P 类单元测试","2025-11-03T07:42:26",{"id":192,"version":193,"summary_zh":194,"released_at":195},63040,"v0.4.1","## 变更内容\n* 【开源实习】Speech2Text模型迁移 by @imeet000 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1725\n* 【开源实习】Unispeech模型迁移 by @liuyifan123123 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1722\n* 修复文档中的拼写错误 by @Yashbhatt786 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1740\n* 在OrangePi上支持O2，tinyllama从450ms降至160ms by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1744\n* 修复no_grad状态错误 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1754\n* 避免OrangePi上缺少cumsum算子 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1755\n* 修复enable_grad问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1757\n* 修复nn.Linear的名称问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1758\n* 修复nll_loss导致的反向传播错误 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1759\n* 修复Linear的out_channels问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1760\n* 在readme.md中添加目录 by @adarsh-jha-dev 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1746\n* safe_load_file使用mmap加速加载 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1763\n* 修复from_numpy导致的错误 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1765\n* 修复llama嵌入问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1774\n* 升级wav2vec by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1776\n* 更新nn.utils.parametrizations by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1777\n* 修复sew和sew_d问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1782\n* 修复whisper单元测试 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1786\n* 修复llava在Ascend上的问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1788\n* 修复mixtral的单元测试 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1790\n* 修复CPU和GPU上的gamma问题 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1791\n* 【开源之夏】为mindnlp添加dpo训练器并支持dpo训练 by @Trace2333 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1701\n* 【开源实习】GPT-J-6B模型应用开发 by @LuMH1027 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1742\n* 【开源实习】ImageGPT模型应用开发 by @Helloyouth2022 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1700\n* 【开源实习】X_CLIP模型应用开发 by @dyedd 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1694\n* 【开源实习】UPerNet模型应用开发 by @Maysixi 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1717\n* 更新whisper流式处理功能 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1796\n* 【开源实习】multilayer_perceptron_lora模型微调 by @barryyfli 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1749\n* dino应用开发 by @LuMH1027 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1797\n* 支持depth_estimation和doc_qa功能 by @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1800\n* 支持fill_mask、image_classification和image_feature_extraction流水线 b","2025-04-10T07:55:42",{"id":197,"version":198,"summary_zh":199,"released_at":200},63041,"v0.4.0","时隔5个月，MindNLP 0.4来啦！！！这一次在开源社区同学们的努力下带来了数个重大特性更新！！！\r\n1.\t模型大量更新，支持250+ transformers模型，覆盖90% huggingface模型，使用MindSpore进行模型复现、开发训练再无迁移之忧（社区会同步huggingface和业界新模型，随时更新）。\r\n2.\t全平台支持：全面支持昇腾910A、910B、310B(香橙派)、GPU、CPU。（PS：目前香橙派唯一可用的AI开发套件）\r\n3.\t分布式并行推理：支持多卡多进程并行推理（超过10B的模型可以玩啦！）\r\n4.\t量化算法支持：香橙派支持Smooth Quant，GPU支持bitsandbytes int8量化\r\n5.\tSentence transformer支持：可以开心的搞RAG啦\r\n6.\t动态图性能优化：昇腾硬件下动态图推理速度达到Pytorch+GPU同水平（Llama实测性能85ms\u002Ftoken）\r\n7.\t真正的动静统一：通过mindspore.jit一行切换图模式，完全使用huggingface code style，既保证易用性，又能快速提升性能。昇腾硬件下Llama实测性能为动态图2倍(45ms\u002Ftoken)，与mindspore其他静态图based套件性能完全一致。\r\n8.\t海量LLM应用更新：包括文本信息抽取、聊天机器人、语音识别、ChatPDF、音乐生成、代码生成、声音克隆等等，伴随着模型支持度的提高，更多好玩的应用等你来开发！\r\n\r\n欢迎大家使用、提Issue和Star一下~\r\n\r\n安装方法：\r\n```bash\r\npip install mindnlp\r\n```\r\n代码仓：\r\nhttps:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\r\n\r\nPS：获取昇腾算力的几个途径：\r\n-\t参加MindSpore社区实习和社区活动，免费领取华为云代金券：https:\u002F\u002Fgitee.com\u002Fmindspore\u002Fcommunity\u002Fissues\u002FIAUJE8\r\n-\t使用启智社区免费算力：https:\u002F\u002Fwww.openi.org.cn\u002F\r\n","2024-10-14T03:54:48",{"id":202,"version":203,"summary_zh":204,"released_at":205},63042,"v0.3.1","## 变更内容\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1066 中添加了 musicgen Gradio 示例\n* @ultranationalism 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1067 中增加了 Peft 的 Lokr 支持\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1070 中使用 MkDocs 生成文档\n* @hubosynapse 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1069 中添加了快速入门教程\n* @hypertseng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1072 中修复了 flash_attn 核心在某些情况下的精度误差\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1073 中支持 prompt_tuning\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1076 中添加了 Peft 集成\n* @antigone660 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1075 中实现了 cogvlm 模型及示例\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1077 中修复了 pipeline base 错误\n* @ultranationalism 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1078 中完善了 Peft 模块的文档\n* @xing-yiren 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1079 中添加了 MindNLP Starcoder VS Code 示例\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1080 中修复了 Starcoder 示例\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1084 中更新了文档\n\n## 新贡献者\n* @ultranationalism 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1067 中做出了首次贡献\n* @antigone660 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1075 中做出了首次贡献\n* @xing-yiren 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1079 中做出了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fcompare\u002Fv0.3.0...v0.3.1","2024-05-17T02:08:55",{"id":207,"version":208,"summary_zh":209,"released_at":210},63043,"v0.3.0","## 变更内容\n* 新增类似 hf-transformers 的 Trainer\n* 增加 timesformer、MPNet、pegasus、segformer、sam、llama3、MPT、olmo、llava_next、llava、vipllava、convnext、cvt、resnet、van、openelm、phi3 等模型\n* 支持 flash_attn_v2 和 flash_attn_bwd\n* peft 模块支持 ia3 和 adalora\n* 支持断点续传下载\n* 添加 gsm8k cot prompt 示例\n\n## 新贡献者\n* @Brain100destruction 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1038 中完成了首次贡献\n* @wjy4399 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1042 中完成了首次贡献\n* @zhouyifeng888 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F1047 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fcompare\u002Fv0.2.4...v0.3.0","2024-05-06T13:31:30",{"id":212,"version":213,"summary_zh":214,"released_at":215},63044,"v0.2.4","## 变更内容\n* @hypertseng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F962 中更新了 flashattention 内核\n* @NANDSS1 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F961 中增加了对 internlm 的支持\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F965 中添加了 qwen2_moe 并修复了若干 bug\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F966 中跳过了 CPU 上耗时较长的单元测试\n* @ShaoqLin 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F976 中新增了 table_transformer 模型\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F967 中修复了 find_cuda_home 抛出错误的问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F977 中修复了 macOS 上的错误\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F978 中添加了 jamba 模型\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F979 中添加了 bit 模型\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F980 中添加了 musicgen_melody 模型\n* @WilliamLiuAtCPC 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F982 中修复了分词索引问题\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F983 中新增了 text2vec 模块\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F984 中增加了对 blenderbot 的支持\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F985 中增加了对 blenderbot small 的支持\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F987 中增加了对 blip 的支持\n* @neoming 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F991 中添加了 `ConvBert` 模型，并通过了单元测试\n* @2802427218 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F988 中添加了 xlnet 模型\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F993 中增加了对 blip_2 的支持\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F994 中增加了对 bridgetower 和 bros 模型的支持\n* @maxmgrdv 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F995 中添加了超复数张量分解及其使用示例\n* @neoming 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F997 中对 convbert 进行了 loar 微调\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F998 中增加了对 jetmoe 的支持，并修复了由 Python 的 id() 引发的 bug\n* @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F999 中更新了支持列表\n\n## 新贡献者\n* @NANDSS1 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F961 中完成了首次贡献\n* @ShaoqLin 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F976 中完成了首次贡献\n* @WilliamLiuAtCPC 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F982 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fcompare\u002Fv0.2.3...v0.2.4","2024-04-09T08:35:07",{"id":217,"version":218,"summary_zh":80,"released_at":219},63045,"v0.2.3","2024-03-28T23:57:39",{"id":221,"version":222,"summary_zh":223,"released_at":224},63046,"v0.2.2","## 新模型\r\n\r\n- ALIGN\r\n- AltCLIP\r\n- 音频谱图 Transformer\t\r\n- BioGPT\r\n\r\n## 变更内容\r\n* 由 @FLoutione 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F935 中添加了 tokenization_layoutlm 模块\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F936 中支持 wav2vec2_with_lm 模型\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F937 中修复了 Ascend 上的 Whisper 推理问题\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F938 中修复了 Whisper 的 return_token_timestamps 错误\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F939 中添加了 evaluate 模块\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F940 中添加了 biogpt 模型\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F942 中支持 align 模型\r\n* 由 @hypertseng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F941 中修复了 _scaled_dot_product_attention 的 bug\r\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F944 中添加了 altclip 和 ast 模型\r\n\r\n\r\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fcompare\u002Fv0.2.1...v0.2.2","2024-03-20T16:16:06",{"id":226,"version":227,"summary_zh":228,"released_at":229},63047,"v0.2.1","## 新特性\n# 流水线支持\n- 自动语音识别\n- 问答\n- 文本到文本\n- 文本分类\n- 文本生成\n\n## 变更内容\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F889 中更新了 README 文件\n* 由 @JinPan-Second 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F892 中修复了 bark encodec 推理中的 bug\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F898 中增加了对 starcoder2 的支持\n* big_bird 出现单元测试失败，由 @stringency 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F905 中发现\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F909 中修复了 baichuan 的错误\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F910 中修复了 big_bird 的错误\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F912 中增加了对 mixtral 的支持\n* 由于出现致命错误，Windows 系统改用同步模式，由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F914 中实施\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F916 中增加了对 mamba 的支持\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F919 中实现了 mamba 的图模式支持\n* 由 @2802427218 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F918 中实现了文本生成功能\n* 由 @fanxing-6 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F917 中添加了 Text2Text 生成流水线的功能\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F920 中修复了 codegen 在 GPU 上的错误\n* 由 @maxmgrdv 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F921 中添加了双值 Bert 模型及其使用示例\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F922 中修复了由超复数引起的错误\n* 由 @2802427218 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F923 中新增了问答功能\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F924 中修复了 mixtral 在 Windows 上的单元测试问题\n* 由 @FLoutione 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F925 中实现了 layoutlm 模块\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F926 中更新了 peft 示例\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F927 中更新了 CI 流水线\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F928 中增加了对 deberta 模型的支持\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F930 中添加了 bce 示例\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F931 中增加了对 reformer 的支持\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F932 中修复了 roll 在 CPU 上不支持的问题\n* 由 @lvyufeng 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F934 中增加了对 automatic_speech_recognition 流水线的支持\n\n## 新贡献者\n* @stringency 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F905 中做出了首次贡献\n* @2802427218 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F918 中做出了首次贡献\n* @fanxing-6 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F917 中做出了首次贡献\n* @maxmgrdv 在 https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fmindnlp\u002Fpull\u002F921 中做出了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmindspore-lab\u002Fm","2024-03-18T11:44:53",{"id":231,"version":232,"summary_zh":80,"released_at":233},63048,"v0.2.0","2024-03-04T15:12:06",{"id":235,"version":236,"summary_zh":80,"released_at":237},63049,"v0.1.1","2024-02-23T17:50:48",{"id":239,"version":240,"summary_zh":80,"released_at":241},63050,"v0.0.1-alpha","2022-12-14T02:28:44"]