[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nlpxucan--WizardLM":3,"tool-nlpxucan--WizardLM":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":23,"last_commit_at":63,"category_tags":64,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":84,"owner_website":83,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":83,"difficulty_score":23,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":101,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":102,"updated_at":103,"faqs":104,"releases":135},5881,"nlpxucan\u002FWizardLM","WizardLM","LLMs build upon Evol Insturct: WizardLM, WizardCoder, WizardMath","WizardLM 是一系列基于“进化指令”（Evol-Instruct）技术构建的大型语言模型家族，涵盖通用对话的 WizardLM、专注代码生成的 WizardCoder 以及擅长数学推理的 WizardMath。它主要解决了传统大模型在面对复杂、多步骤指令时理解能力不足或执行偏差的问题，通过自动将简单指令演化为高难度任务进行训练，显著提升了模型遵循复杂逻辑的能力。\n\n在技术亮点上，WizardLM 独创的 Evol-Instruct 方法无需大量人工标注，即可生成高质量且多样化的复杂指令数据。其衍生模型表现卓越：WizardCoder-33B-V1.1 在 HumanEval 等权威代码评测中超越了 ChatGPT 3.5 和 Gemini Pro，成为开源界领先的编程助手；WizardMath 则在数学解题领域展现了强大的推理实力。\n\n这套工具非常适合开发者用于辅助编程与调试，研究人员可借此探索指令微调的新范式，同时也适合需要处理复杂逻辑分析或专业学科问答的高级用户。作为开源项目，WizardLM 提供了从 7B 到 70B 多种参数量级的模型选择，兼顾了部署灵活性与性能上限，是","WizardLM 是一系列基于“进化指令”（Evol-Instruct）技术构建的大型语言模型家族，涵盖通用对话的 WizardLM、专注代码生成的 WizardCoder 以及擅长数学推理的 WizardMath。它主要解决了传统大模型在面对复杂、多步骤指令时理解能力不足或执行偏差的问题，通过自动将简单指令演化为高难度任务进行训练，显著提升了模型遵循复杂逻辑的能力。\n\n在技术亮点上，WizardLM 独创的 Evol-Instruct 方法无需大量人工标注，即可生成高质量且多样化的复杂指令数据。其衍生模型表现卓越：WizardCoder-33B-V1.1 在 HumanEval 等权威代码评测中超越了 ChatGPT 3.5 和 Gemini Pro，成为开源界领先的编程助手；WizardMath 则在数学解题领域展现了强大的推理实力。\n\n这套工具非常适合开发者用于辅助编程与调试，研究人员可借此探索指令微调的新范式，同时也适合需要处理复杂逻辑分析或专业学科问答的高级用户。作为开源项目，WizardLM 提供了从 7B 到 70B 多种参数量级的模型选择，兼顾了部署灵活性与性能上限，是提升 AI 应用复杂任务处理能力的优质选择。","## WizardLM: Empowering Large Pre-Trained Language Models to Follow Complex Instructions\n\n\u003Cp style=\"font-size:50px;\" align=\"center\">\n🏠 \u003Ca href=\"https:\u002F\u002Fwizardlm.github.io\u002F\" target=\"_blank\">Home Page\u003C\u002Fa> \u003C\u002Fp>\n\u003Cp align=\"center\">\n    \n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLMTeam\" target=\"_blank\">HF Repo\u003C\u002Fa> • 🐦 \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FWizardLM_AI\" target=\"_blank\">Twitter\u003C\u002Fa> • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12244\" target=\"_blank\">[WizardLM] @ICLR2024\u003C\u002Fa>  • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder] @ICLR2024\u003C\u002Fa>    • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa> \u003Cbr>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n    👋 Join our \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FVZjjHtWrKs\" target=\"_blank\">Discord\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_6658c4271b97.png\" alt=\"WizardLM\" style=\"width: 20%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n[![Code License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FLICENSE)\n[![Data License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FData%20License-CC%20By%20NC%204.0-red.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FDATA_LICENSE)\n[![Python 3.9+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-390\u002F)\n\n**Unofficial Video Introductions**\n\nThanks to the enthusiastic friends, their video introductions are more lively and interesting.\n1. [NEW WizardLM 70b 🔥 Giant Model...Insane Performance](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WdpiIXrO4_o)\n2. [GET WizardLM NOW! 7B LLM KING That Can Beat ChatGPT! I'm IMPRESSED!](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=SaJ8wyKMBds)\n3. [WizardLM: Enhancing Large Language Models to Follow Complex Instructions](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=I6sER-qivYk)\n4. [WizardCoder AI Is The NEW ChatGPT's Coding TWIN!](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XjsyHrmd3Xo)\n\n## News\n\n- 🔥🔥🔥[2024\u002F01\u002F04] We released **WizardCoder-33B-V1.1**  trained from deepseek-coder-33b-base, the **SOTA OSS Code LLM** on [EvalPlus Leaderboard](https:\u002F\u002Fevalplus.github.io\u002Fleaderboard.html), achieves **79.9 pass@1** on HumanEval, **73.2 pass@1** on HumanEval-Plus, **78.9 pass@1** on MBPP, and **66.9 pass@1** on MBPP-Plus. **WizardCoder-33B-V1.1** outperforms **ChatGPT 3.5**, **Gemini Pro**, and **DeepSeek-Coder-33B-instruct** on HumanEval and HumanEval-Plus pass@1. **WizardCoder-33B-V1.1** is comparable with **ChatGPT 3.5**, and surpasses **Gemini Pro** on MBPP and MBPP-Plus pass@1.\n- [2023\u002F08\u002F26] We released **WizardCoder-Python-34B-V1.0** , which achieves the **73.2 pass@1** and surpasses **GPT4 (2023\u002F03\u002F15)**, **ChatGPT-3.5**, and **Claude2** on the [HumanEval Benchmarks](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fhuman-eval). For more details, please refer to [WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder).\n- [2023\u002F06\u002F16] We released **WizardCoder-15B-V1.0** , which surpasses **Claude-Plus (+6.8)**, **Bard (+15.3)** and **InstructCodeT5+ (+22.3)** on the [HumanEval Benchmarks](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fhuman-eval). For more details, please refer to [WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder).\n\n\n|  Model  |  Checkpoint  | Paper    | HumanEval  |   HumanEval+ | MBPP | MBPP+ |\n| ----- |------| ---- |------|-------| ----- |  ----- |\n|  GPT-4-Turbo (Nov 2023)  | - | - | 85.4  | 81.7 | 83.0 | 70.7 |\n|  GPT-4 (May 2023)  | - | - | 88.4  | 76.8 | - | - |\n|  GPT-3.5-Turbo (Nov 2023)  | - | - | 72.6  | 65.9 | 81.7 | 69.4 |\n|  Gemini Pro  | - | - | 63.4  | 55.5 | 72.9 | 57.9 |\n|  DeepSeek-Coder-33B-instruct | - | - |  78.7 | 72.6 | 78.7 | 66.7 |\n|  WizardCoder-33B-V1.1  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-33B-V1.1\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  79.9  | 73.2 | 78.9 | 66.9 |\n|  WizardCoder-Python-34B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-34B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  73.2   | 64.6 | 73.2 | 59.9 |\n|  WizardCoder-15B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-15B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  59.8   | 52.4 | -- | -- |\n|  WizardCoder-Python-13B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-13B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  64.0   | -- | -- | -- |\n|  WizardCoder-Python-7B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-7B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  55.5   | -- | -- | -- |\n|  WizardCoder-3B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-3B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  34.8   | -- | -- | -- |\n|  WizardCoder-1B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-1B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  23.8   | -- | -- | -- |\n\n\n\n\n- [12\u002F19\u002F2023] 🔥 We released **WizardMath-7B-V1.1** trained from Mistral-7B, the **SOTA 7B math LLM**, achieves **83.2 pass@1** on GSM8k, and **33.0 pass@1** on MATH.\n\n- [12\u002F19\u002F2023] 🔥 **WizardMath-7B-V1.1** outperforms **ChatGPT 3.5**, **Gemini Pro**, **Mixtral MOE**, and **Claude Instant** on GSM8K pass@1.\n\n- [12\u002F19\u002F2023] 🔥 **WizardMath-7B-V1.1** is comparable with **ChatGPT 3.5**, **Gemini Pro**, and surpasses **Mixtral MOE** on MATH pass@1.\n\n\n- 🔥 Our **WizardMath-70B-V1.0** model slightly outperforms some closed-source LLMs on the GSM8K, including **ChatGPT 3.5**, **Claude Instant 1** and **PaLM 2 540B**.\n- 🔥 Our **WizardMath-70B-V1.0** model achieves  **81.6 pass@1** on the [GSM8k Benchmarks](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgrade-school-math), which is **24.8** points higher than the SOTA open-source LLM.\n- 🔥 Our **WizardMath-70B-V1.0** model achieves  **22.7 pass@1** on the [MATH Benchmarks](https:\u002F\u002Fgithub.com\u002Fhendrycks\u002Fmath), which is **9.2** points higher than the SOTA open-source LLM.\n\n| Model | Checkpoint | Paper  | GSM8k | MATH  |\n| ----- |------| ---- |------|-------| \n| **WizardMath-7B-V1.1** | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.1\" target=\"_blank\">HF Link\u003C\u002Fa>  |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| \t **83.2**  |  **33.0** | \n| WizardMath-70B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-70B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa> |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| **81.6**  |  **22.7**\t|\n| WizardMath-13B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-13B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa> |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| **63.9**  |  **14.0** |\n| WizardMath-7B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>  |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| \t **54.9**  |  **10.7** |    \n\n\n- [08\u002F09\u002F2023] We released **WizardLM-70B-V1.0** model. Here is [Full Model Weight](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0). \n\n\u003Cfont size=0.5>\n    \n   \n| \u003Csup>Model\u003C\u002Fsup> | \u003Csup>Checkpoint\u003C\u002Fsup> | \u003Csup>Paper\u003C\u002Fsup> |\u003Csup>MT-Bench\u003C\u002Fsup> | \u003Csup>AlpacaEval\u003C\u002Fsup>  | \u003Csup>GSM8k\u003C\u002Fsup> | \u003Csup>HumanEval\u003C\u002Fsup>  | \u003Csup>Demo\u003C\u002Fsup>  | \u003Csup>License\u003C\u002Fsup>|\n| ----- |------| ---- |------|-------| ----- | ----- | ----- | ----- | \n| \u003Csup>**WizardLM-70B-V1.0**\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa> \u003C\u002Fsup>|\u003Csup>📃**Coming Soon**\u003C\u002Fsup>| \u003Csup>**7.78**\u003C\u002Fsup> | \u003Csup>**92.91%**\u003C\u002Fsup>\t |\u003Csup>**77.6%**\u003C\u002Fsup>\t | \u003Csup>   **50.6**\u003C\u002Fsup>| |\u003Csup> \u003Ca href=\"https:\u002F\u002Fai.meta.com\u002Fresources\u002Fmodels-and-libraries\u002Fllama-downloads\u002F\" target=\"_blank\">Llama 2 License \u003C\u002Fa>\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.2\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.2\" target=\"_blank\">HF Link\u003C\u002Fa> \u003C\u002Fsup>|  | \u003Csup>7.06\u003C\u002Fsup> | \u003Csup>89.17%\u003C\u002Fsup>\t |\u003Csup>55.3%\u003C\u002Fsup>\t | \u003Csup>36.6   \u003C\u002Fsup>| [Demo](http:\u002F\u002F47.103.63.15:50087\u002F) |\u003Csup> \u003Ca href=\"https:\u002F\u002Fai.meta.com\u002Fresources\u002Fmodels-and-libraries\u002Fllama-downloads\u002F\" target=\"_blank\">Llama 2 License \u003C\u002Fa>\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.1\u003C\u002Fsup> |\u003Csup> 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.1\" target=\"_blank\">HF Link\u003C\u002Fa> \u003C\u002Fsup> |  | \u003Csup>6.76\u003C\u002Fsup>  |\u003Csup>86.32%\u003C\u002Fsup>\t | \t | \u003Csup>25.0   \u003C\u002Fsup>|  | \u003Csup>Non-commercial\u003C\u002Fsup>|\n| \u003Csup>WizardLM-30B-V1.0\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-30B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa>\u003C\u002Fsup>  | | \u003Csup>7.01\u003C\u002Fsup> |                    | |  \u003Csup>37.8  \u003C\u002Fsup>|  | \u003Csup>Non-commercial\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.0\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa> \u003C\u002Fsup> |  | \u003Csup>6.35\u003C\u002Fsup> | \u003Csup>75.31%\u003C\u002Fsup> |  | \u003Csup> 24.0   \u003C\u002Fsup> |  | \u003Csup>Non-commercial\u003C\u002Fsup>|\n| \u003Csup>WizardLM-7B-V1.0 \u003C\u002Fsup>|  \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-7B-V1.0\" target=\"_blank\">HF Link\u003C\u002Fa> \u003C\u002Fsup> |\u003Csup> 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12244\" target=\"_blank\">[WizardLM]\u003C\u002Fa> \u003C\u002Fsup>|  |  |  |\u003Csup>19.1 \u003C\u002Fsup>|  | \u003Csup> Non-commercial\u003C\u002Fsup>|\n\u003C\u002Ffont>\n\n### Citation\n\nPlease cite the paper if you use the data or code from WizardLM.\n\n```\n@inproceedings{\nxu2024wizardlm,\ntitle={Wizard{LM}: Empowering Large Pre-Trained Language Models to Follow Complex Instructions},\nauthor={Can Xu and Qingfeng Sun and Kai Zheng and Xiubo Geng and Pu Zhao and Jiazhan Feng and Chongyang Tao and Qingwei Lin and Daxin Jiang},\nbooktitle={The Twelfth International Conference on Learning Representations},\nyear={2024},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=CfXh93NDgH}\n}\n```\nPlease cite the paper if you use the data or code from WizardCoder.\n\n```\n@inproceedings{\nluo2024wizardcoder,\ntitle={WizardCoder: Empowering Code Large Language Models with Evol-Instruct},\nauthor={Ziyang Luo and Can Xu and Pu Zhao and Qingfeng Sun and Xiubo Geng and Wenxiang Hu and Chongyang Tao and Jing Ma and Qingwei Lin and Daxin Jiang},\nbooktitle={The Twelfth International Conference on Learning Representations},\nyear={2024},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=UnUwSIgK5W}\n}\n```\n\nPlease cite the paper if you refer to our model or code or data or paper from WizardMath.\n\n```\n@article{luo2023wizardmath,\n  title={Wizardmath: Empowering mathematical reasoning for large language models via reinforced evol-instruct},\n  author={Luo, Haipeng and Sun, Qingfeng and Xu, Can and Zhao, Pu and Lou, Jianguang and Tao, Chongyang and Geng, Xiubo and Lin, Qingwei and Chen, Shifeng and Zhang, Dongmei},\n  journal={arXiv preprint arXiv:2308.09583},\n  year={2023}\n}\n```\n\n\n❗To commen concern about dataset:\n\nRecently, there have been clear changes in the open-source policy and regulations of our overall organization's code, data, and models.\nDespite this, we have still worked hard to obtain opening the weights of the model first, but the data involves stricter auditing and is in review with our legal team .\nOur researchers have no authority to publicly release them without authorization.\nThank you for your understanding.\n\n## Hiring\n\n- &#x1F4E3; We are looking for highly motivated students to join us as interns to create more intelligent AI together. Please contact caxu@microsoft.com\n\n\u003C!-- Although on our **complexity-balanced test set**, **WizardLM-7B has more cases that are preferred by human labelers than ChatGPT** in the high-complexity instructions (difficulty level >= 8), it still lags behind ChatGPT on the entire test set, and we also consider WizardLM to still be in a **baby state**. This repository will **continue to improve WizardLM**, train on larger scales, add more training data, and innovate more advanced large-model training methods. -->\n\n\n\u003Cb>Note for model system prompts usage:\u003C\u002Fb>\n\nTo obtain results **identical to our demo**, please strictly follow the prompts and invocation methods provided in the **\"src\u002Finfer_wizardlm13b.py\"** to use our model for inference. Our model adopts the prompt format from \u003Cb>Vicuna\u003C\u002Fb> and supports **multi-turn** conversation.\n\n\u003Cb>For WizardLM\u003C\u002Fb>, the Prompt should be as following:\n\n```\nA chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: Hi ASSISTANT: Hello.\u003C\u002Fs>USER: Who are you? ASSISTANT: I am WizardLM.\u003C\u002Fs>......\n```\n\n\u003Cb>For WizardCoder \u003C\u002Fb>, the Prompt should be as following:\n\n```\n\"Below is an instruction that describes a task. Write a response that appropriately completes the request.\\n\\n### Instruction:\\n{instruction}\\n\\n### Response:\"\n```\n\n\u003Cb>For WizardMath\u003C\u002Fb>, the Prompts should be as following:\n\n**Default version:**\n\n```\n\"Below is an instruction that describes a task. Write a response that appropriately completes the request.\\n\\n### Instruction:\\n{instruction}\\n\\n### Response:\"\n```\n\n\n**CoT Version:** （❗For the **simple** math questions, we do NOT recommend to use the CoT prompt.） \n\n\n```\n\"Below is an instruction that describes a task. Write a response that appropriately completes the request.\\n\\n### Instruction:\\n{instruction}\\n\\n### Response: Let's think step by step.\"\n```\n\n### GPT-4 automatic evaluation\n\nWe adopt the automatic evaluation framework based on GPT-4 proposed by FastChat to assess the performance of chatbot models. As shown in the following figure, WizardLM-30B achieved better results than Guanaco-65B. \n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_13f931c2533b.png\" alt=\"WizardLM\" style=\"width: 100%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n### WizardLM-30B performance on different skills.\n\nThe following figure compares WizardLM-30B and ChatGPT’s skill on Evol-Instruct testset. The result indicates that WizardLM-30B achieves 97.8% of ChatGPT’s performance on average, with almost 100% (or more than) capacity on 18 skills, and more than 90% capacity on 24 skills.\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_9caa1a665a7e.png\" alt=\"WizardLM\" style=\"width: 100%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n### WizardLM performance on NLP foundation tasks.\n\nThe following table provides a comparison of WizardLMs and other LLMs on NLP foundation tasks. The results indicate that WizardLMs consistently exhibit superior performance in comparison to the LLaMa models of the same size. Furthermore, our WizardLM-30B model showcases comparable performance to OpenAI's Text-davinci-003 on the MMLU and HellaSwag benchmarks.\n\n| Model            | MMLU 5-shot | ARC 25-shot | TruthfulQA 0-shot | HellaSwag 10-shot | Average    |\n|------------------|-------------|-------------|-------------------|-------------------|------------|\n| Text-davinci-003 | \u003Cu>56.9\u003Cu\u002F> | **85.2**    | **59.3**          | \u003Cu>82.2\u003Cu\u002F>       | **70.9**   |\n|Vicuna-13b 1.1   | 51.3        | 53.0        | 51.8              | 80.1              | 59.1       |\n|Guanaco 30B   | 57.6        | 63.7        | 50.7              | **85.1**              | 64.3       |   \n| WizardLM-7B 1.0      | 42.7        | 51.6        | 44.7              | 77.7              | 54.2       |\n| WizardLM-13B 1.0     | 52.3        | 57.2        | 50.5              | 81.0              | 60.2       |\n| WizardLM-30B 1.0    | **58.8**    | \u003Cu>62.5\u003Cu\u002F> | \u003Cu>52.4\u003Cu\u002F>       | 83.3          | \u003Cu>64.2\u003Cu\u002F>|\n\n### WizardLM performance on code generation.\n\nThe following table provides a comprehensive comparison of WizardLMs and several other LLMs on the code generation task, namely HumanEval. The evaluation metric is pass@1. The results indicate that WizardLMs consistently exhibit superior performance in comparison to the LLaMa models of the same size. Furthermore, our WizardLM-30B model surpasses StarCoder and OpenAI's code-cushman-001. Moreover, our Code LLM, WizardCoder, demonstrates exceptional performance, achieving a pass@1 score of 57.3, surpassing the open-source SOTA by approximately 20 points.\n\n\n| Model            | HumanEval Pass@1 |\n|------------------|------------------|\n| LLaMA-7B         | 10.5             |\n| LLaMA-13B        | 15.8             |\n| CodeGen-16B-Multi| 18.3             |\n| CodeGeeX         | 22.9             |\n| LLaMA-33B        | 21.7             |\n| LLaMA-65B        | 23.7             |\n| PaLM-540B        | 26.2             |\n| CodeGen-16B-Mono | 29.3             |\n| code-cushman-001 | 33.5             |\n| StarCoder        | \u003Cu>33.6\u003Cu\u002F>      |\n| WizardLM-7B 1.0      | 19.1             |\n| WizardLM-13B 1.0     | 24.0             |\n| WizardLM-30B  1.0   | **37.8**         |\n| WizardCoder-15B  1.0 | **57.3**     |\n\n## Call for Feedbacks\nWe welcome everyone to use your professional and difficult instructions to evaluate WizardLM, and show us examples of poor performance and your suggestions in the [issue discussion](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues) area. We are focusing on improving the Evol-Instruct now and hope to relieve existing weaknesses and issues in the the next version of WizardLM. After that, we will open the code and pipeline of up-to-date Evol-Instruct algorithm and work with you together to improve it.\n\n\n\n## Overview of Evol-Instruct\n\n[Evol-Instruct](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002Fevol-instruct) is a novel method using LLMs instead of humans to automatically mass-produce open-domain instructions of various difficulty levels and skills range, to improve the performance of LLMs. You can easily embark on your own evolutionary journey with the [Evol Script](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FEvol-Instruct) we provide.\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_e818e253bdf9.png\" alt=\"WizardLM\" style=\"width: 86%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_01e15f6cf109.png\" alt=\"WizardLM\" style=\"width: 86%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Disclaimer\n\nThe resources, including code, data, and model weights, associated with this project are restricted for academic research purposes only and cannot be used for commercial purposes. The content produced by any version of WizardLM is influenced by uncontrollable variables such as randomness, and therefore, the accuracy of the output cannot be guaranteed by this project. This project does not accept any legal liability for the content of the model output, nor does it assume responsibility for any losses incurred due to the use of associated resources and output results. \n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_c57db371dbcf.png)](https:\u002F\u002Fstar-history.com\u002F#nlpxucan\u002FWizardLM&Timeline)\n\n","## WizardLM：赋能大型预训练语言模型遵循复杂指令\n\n\u003Cp style=\"font-size:50px;\" align=\"center\">\n🏠 \u003Ca href=\"https:\u002F\u002Fwizardlm.github.io\u002F\" target=\"_blank\">首页\u003C\u002Fa> \u003C\u002Fp>\n\u003Cp align=\"center\">\n    \n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLMTeam\" target=\"_blank\">HF 仓库\u003C\u002Fa> • 🐦 \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FWizardLM_AI\" target=\"_blank\">Twitter\u003C\u002Fa> • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12244\" target=\"_blank\">[WizardLM] @ICLR2024\u003C\u002Fa>  • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder] @ICLR2024\u003C\u002Fa>    • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa> \u003Cbr>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n    👋 加入我们的 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FVZjjHtWrKs\" target=\"_blank\">Discord\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_6658c4271b97.png\" alt=\"WizardLM\" style=\"width: 20%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n[![代码许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode%20License-Apache_2.0-green.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FLICENSE)\n[![数据许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FData%20License-CC%20By%20NC%204.0-red.svg)](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002FDATA_LICENSE)\n[![Python 3.9+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-390\u002F)\n\n**非官方视频介绍**\n\n感谢热情的朋友们，他们的视频介绍更加生动有趣。\n1. [NEW WizardLM 70b 🔥 巨型模型... 疯狂性能](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=WdpiIXrO4_o)\n2. [立即获取 WizardLM！能击败 ChatGPT 的 7B LLM 之王！我太佩服了！](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=SaJ8wyKMBds)\n3. [WizardLM：增强大型语言模型以遵循复杂指令](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=I6sER-qivYk)\n4. [WizardCoder AI 是新的 ChatGPT 编码双胞胎！](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XjsyHrmd3Xo)\n\n## 新闻\n\n- 🔥🔥🔥[2024\u002F01\u002F04] 我们发布了基于 deepseek-coder-33b-base 训练的 **WizardCoder-33B-V1.1**，在 [EvalPlus Leaderboard](https:\u002F\u002Fevalplus.github.io\u002Fleaderboard.html) 上是 **SOTA 开源代码 LLM**，在 HumanEval 上达到 **79.9 pass@1**，在 HumanEval-Plus 上达到 **73.2 pass@1**，在 MBPP 上达到 **78.9 pass@1**，在 MBPP-Plus 上达到 **66.9 pass@1**。**WizardCoder-33B-V1.1** 在 HumanEval 和 HumanEval-Plus 的 pass@1 指标上均优于 **ChatGPT 3.5**、**Gemini Pro** 和 **DeepSeek-Coder-33B-instruct**。在 MBPP 和 MBPP-Plus 的 pass@1 指标上，**WizardCoder-33B-V1.1** 与 **ChatGPT 3.5** 相当，并且超越了 **Gemini Pro**。\n- [2023\u002F08\u002F26] 我们发布了 **WizardCoder-Python-34B-V1.0**，在 [HumanEval 基准测试](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fhuman-eval)上达到了 **73.2 pass@1**，超越了 **GPT4 (2023\u002F03\u002F15)**、**ChatGPT-3.5** 和 **Claude2**。更多详情请参阅 [WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder)。\n- [2023\u002F06\u002F16] 我们发布了 **WizardCoder-15B-V1.0**，在 [HumanEval 基准测试](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fhuman-eval)上超越了 **Claude-Plus (+6.8)**、**Bard (+15.3)** 和 **InstructCodeT5+ (+22.3)**。更多详情请参阅 [WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder)。\n\n\n|  模型   |  检查点  | 论文    | HumanEval  |   HumanEval+ | MBPP | MBPP+ |\n| ----- |------| ---- |------|-------| ----- |  ----- |\n|  GPT-4-Turbo (2023年11月)  | - | - | 85.4  | 81.7 | 83.0 | 70.7 |\n|  GPT-4 (2023年5月)  | - | - | 88.4  | 76.8 | - | - |\n|  GPT-3.5-Turbo (2023年11月)  | - | - | 72.6  | 65.9 | 81.7 | 69.4 |\n|  Gemini Pro  | - | - | 63.4  | 55.5 | 72.9 | 57.9 |\n|  DeepSeek-Coder-33B-instruct | - | - |  78.7 | 72.6 | 78.7 | 66.7 |\n|  WizardCoder-33B-V1.1  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-33B-V1.1\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  79.9  | 73.2 | 78.9 | 66.9 |\n|  WizardCoder-Python-34B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-34B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  73.2   | 64.6 | 73.2 | 59.9 |\n|  WizardCoder-15B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-15B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  59.8   | 52.4 | -- | -- |\n|  WizardCoder-Python-13B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-13B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  64.0   | -- | -- | -- |\n|  WizardCoder-Python-7B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-7B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  55.5   | -- | -- | -- |\n|  WizardCoder-3B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-3B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  34.8   | -- | -- | -- |\n|  WizardCoder-1B-V1.0  |   🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-1B-V1.0\" target=\"_blank\">HF 链接\u003C\u002Fa>   |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568\" target=\"_blank\">[WizardCoder]\u003C\u002Fa>  |  23.8   | -- | -- | -- |\n\n\n\n\n- [2023年12月19日] 🔥 我们发布了基于 Mistral-7B 训练的 **WizardMath-7B-V1.1**，这是 **SOTA 7B 数学 LLM**，在 GSM8k 上达到 **83.2 pass@1**，在 MATH 上达到 **33.0 pass@1**。\n\n- [2023年12月19日] 🔥 **WizardMath-7B-V1.1** 在 GSM8K 的 pass@1 指标上优于 **ChatGPT 3.5**、**Gemini Pro**、**Mixtral MOE** 和 **Claude Instant**。\n\n- [2023年12月19日] 🔥 **WizardMath-7B-V1.1** 与 **ChatGPT 3.5** 和 **Gemini Pro** 相当，在 MATH 的 pass@1 指标上则超越了 **Mixtral MOE**。\n\n\n- 🔥 我们的 **WizardMath-70B-V1.0** 模型在 GSM8K 上的表现略胜于一些闭源 LLM，包括 **ChatGPT 3.5**、**Claude Instant 1** 和 **PaLM 2 540B**。\n- 🔥 我们的 **WizardMath-70B-V1.0** 模型在 [GSM8k 基准测试](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgrade-school-math)上达到了 **81.6 pass@1**，比 SOTA 开源 LLM 高出 **24.8** 分。\n- 🔥 我们的 **WizardMath-70B-V1.0** 模型在 [MATH 基准测试](https:\u002F\u002Fgithub.com\u002Fhendrycks\u002Fmath)上达到了 **22.7 pass@1**，比 SOTA 开源 LLM 高出 **9.2** 分。\n\n| 模型 | 检查点 | 论文  | GSM8k | MATH  |\n| ----- |------| ---- |------|-------| \n| **WizardMath-7B-V1.1** | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.1\" target=\"_blank\">HF链接\u003C\u002Fa>  |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| \t **83.2**  |  **33.0** | \n| WizardMath-70B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-70B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa> |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| **81.6**  |  **22.7**\t|\n| WizardMath-13B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-13B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa> |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| **63.9**  |  **14.0** |\n| WizardMath-7B-V1.0 | 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa>  |  📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583\" target=\"_blank\">[WizardMath]\u003C\u002Fa>| \t **54.9**  |  **10.7** |    \n\n\n- [2023年8月9日] 我们发布了 **WizardLM-70B-V1.0** 模型。以下是 [完整模型权重](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0)。\n\n\u003Cfont size=0.5>\n    \n   \n| \u003Csup>模型\u003C\u002Fsup> | \u003Csup>检查点\u003C\u002Fsup> | \u003Csup>论文\u003C\u002Fsup> |\u003Csup>MT-Bench\u003C\u002Fsup> | \u003Csup>AlpacaEval\u003C\u002Fsup>  | \u003Csup>GSM8k\u003C\u002Fsup> | \u003Csup>HumanEval\u003C\u002Fsup>  | \u003Csup>演示\u003C\u002Fsup>  | \u003Csup>许可证\u003C\u002Fsup>|\n| ----- |------| ---- |------|-------| ----- | ----- | ----- | ----- | \n| \u003Csup>**WizardLM-70B-V1.0**\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa> \u003C\u002Fsup>|\u003Csup>📃**即将发布**\u003C\u002Fsup>| \u003Csup>**7.78**\u003C\u002Fsup> | \u003Csup>**92.91%**\u003C\u002Fsup>\t |\u003Csup>**77.6%**\u003C\u002Fsup>\t | \u003Csup>   **50.6**\u003C\u002Fsup>| |\u003Csup> \u003Ca href=\"https:\u002F\u002Fai.meta.com\u002Fresources\u002Fmodels-and-libraries\u002Fllama-downloads\u002F\" target=\"_blank\">Llama 2许可证 \u003C\u002Fa>\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.2\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.2\" target=\"_blank\">HF链接\u003C\u002Fa> \u003C\u002Fsup>|  | \u003Csup>7.06\u003C\u002Fsup> | \u003Csup>89.17%\u003C\u002Fsup>\t |\u003Csup>55.3%\u003C\u002Fsup>\t | \u003Csup>36.6   \u003C\u002Fsup>| [演示](http:\u002F\u002F47.103.63.15:50087\u002F) |\u003Csup> \u003Ca href=\"https:\u002F\u002Fai.meta.com\u002Fresources\u002Fmodels-and-libraries\u002Fllama-downloads\u002F\" target=\"_blank\">Llama 2许可证 \u003C\u002Fa>\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.1\u003C\u002Fsup> |\u003Csup> 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.1\" target=\"_blank\">HF链接\u003C\u002Fa> \u003C\u002Fsup> |  | \u003Csup>6.76\u003C\u002Fsup>  |\u003Csup>86.32%\u003C\u002Fsup>\t | \t | \u003Csup>25.0   \u003C\u002Fsup>|  | \u003Csup>非商业用途\u003C\u002Fsup>|\n| \u003Csup>WizardLM-30B-V1.0\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-30B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa>\u003C\u002Fsup>  | | \u003Csup>7.01\u003C\u002Fsup> |                    | |  \u003Csup>37.8  \u003C\u002Fsup>|  | \u003Csup>非商业用途\u003C\u002Fsup> |\n| \u003Csup>WizardLM-13B-V1.0\u003C\u002Fsup> | \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa> \u003C\u002Fsup> |  | \u003Csup>6.35\u003C\u002Fsup> | \u003Csup>75.31%\u003C\u002Fsup> |  | \u003Csup> 24.0   \u003C\u002Fsup> |  | \u003Csup>非商业用途\u003C\u002Fsup>|\n| \u003Csup>WizardLM-7B-V1.0 \u003C\u002Fsup>|  \u003Csup>🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-7B-V1.0\" target=\"_blank\">HF链接\u003C\u002Fa> \u003C\u002Fsup> |\u003Csup> 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12244\" target=\"_blank\">[WizardLM]\u003C\u002Fa> \u003C\u002Fsup>|  |  |  |\u003Csup>19.1 \u003C\u002Fsup>|  | \u003Csup> 非商业用途\u003C\u002Fsup>|\n\u003C\u002Ffont>\n\n\n\n### 引用\n如果您使用了 WizardLM 的数据或代码，请引用以下论文：\n\n```\n@inproceedings{\nxu2024wizardlm,\ntitle={Wizard{LM}: Empowering Large Pre-Trained Language Models to Follow Complex Instructions},\nauthor={Can Xu and Qingfeng Sun and Kai Zheng and Xiubo Geng and Pu Zhao and Jiazhan Feng and Chongyang Tao and Qingwei Lin and Daxin Jiang},\nbooktitle={The Twelfth International Conference on Learning Representations},\nyear={2024},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=CfXh93NDgH}\n}\n```\n\n如果您使用了 WizardCoder 的数据或代码，请引用以下论文：\n\n```\n@inproceedings{\nluo2024wizardcoder,\ntitle={WizardCoder: Empowering Code Large Language Models with Evol-Instruct},\nauthor={Ziyang Luo and Can Xu and Pu Zhao and Qingfeng Sun and Xiubo Geng and Wenxiang Hu and Chongyang Tao and Jing Ma and Qingwei Lin and Daxin Jiang},\nbooktitle={The Twelfth International Conference on Learning Representations},\nyear={2024},\nurl={https:\u002F\u002Fopenreview.net\u002Fforum?id=UnUwSIgK5W}\n}\n```\n\n如果您参考了 WizardMath 的模型、代码、数据或论文，请引用以下文章：\n\n```\n@article{luo2023wizardmath,\n  title={Wizardmath: Empowering mathematical reasoning for large language models via reinforced evol-instruct},\n  author={Luo, Haipeng and Sun, Qingfeng and Xu, Can and Zhao, Pu and Lou, Jianguang and Tao, Chongyang and Geng, Xiubo and Lin, Qingwei and Chen, Shifeng and Zhang, Dongmei},\n  journal={arXiv preprint arXiv:2308.09583},\n  year={2023}\n}\n```\n\n\n❗关于数据集的说明：\n\n近期，我们整个组织在开源政策及代码、数据和模型的相关规定方面发生了明显变化。\n尽管如此，我们仍努力争取率先开放模型权重，但数据涉及更为严格的审核，目前正由我们的法务团队进行审查。\n在未获授权的情况下，我们的研究人员无权公开发布这些数据。\n感谢您的理解。\n\n## 招聘\n\n- 🧑‍🎓 我们正在寻找积极进取的学生加入我们成为实习生，共同打造更智能的AI。请发送邮件至 caxu@microsoft.com 联系我们。\n\n\u003C!-- 尽管在我们的**复杂度均衡测试集**上，**WizardLM-7B 在高复杂度指令（难度等级 >= 8）中被人类标注者更青睐的案例数量多于 ChatGPT**，但在整个测试集中它仍然落后于 ChatGPT，并且我们认为 WizardLM 仍处于**起步阶段**。本仓库将持续改进 WizardLM，进行更大规模的训练，增加更多训练数据，并创新更先进的大模型训练方法。 -->\n\n\n\u003Cb>关于模型系统提示使用说明：\u003C\u002Fb>\n\n为获得与我们的演示 **完全一致** 的结果，请严格按照 **\"src\u002Finfer_wizardlm13b.py\"** 中提供的提示和调用方式来使用我们的模型进行推理。我们的模型采用了 \u003Cb>Vicuna\u003C\u002Fb> 的提示格式，并支持 **多轮** 对话。\n\n\u003Cb>对于 WizardLM\u003C\u002Fb>, 提示应如下所示：\n\n```\n一个好奇的用户与一个人工智能助手之间的对话。助手会针对用户的问题给出有帮助、详细且礼貌的回答。用户：你好 助手：您好。\u003C\u002Fs>用户：你是谁？ 助手：我是 WizardLM。\u003C\u002Fs>......\n```\n\n\u003Cb>对于 WizardCoder\u003C\u002Fb>, 提示应如下所示：\n\n```\n\"以下是一条描述任务的指令。请撰写一段恰当完成请求的回复。\\n\\n### 指令:\\n{instruction}\\n\\n### 回复:\"\n```\n\n\u003Cb>对于 WizardMath\u003C\u002Fb>, 提示应如下所示：\n\n**默认版本：**\n\n```\n\"以下是一条描述任务的指令。请撰写一段恰当完成请求的回复。\\n\\n### 指令:\\n{instruction}\\n\\n### 回复:\"\n```\n\n**思维链版本：** （❗对于 **简单** 的数学问题，我们不建议使用思维链提示。）\n\n```\n\"以下是一条描述任务的指令。请撰写一段恰当完成请求的回复。\\n\\n### 指令:\\n{instruction}\\n\\n### 回复：让我们一步步思考。\"\n```\n\n### GPT-4 自动评估\n\n我们采用 FastChat 提出的基于 GPT-4 的自动评估框架来评估聊天机器人模型的性能。如图所示，WizardLM-30B 的表现优于 Guanaco-65B。\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_13f931c2533b.png\" alt=\"WizardLM\" style=\"width: 100%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n### WizardLM-30B 在不同技能上的表现\n\n下图比较了 WizardLM-30B 和 ChatGPT 在 Evol-Instruct 测试集上的技能表现。结果显示，WizardLM-30B 的平均性能达到 ChatGPT 的 97.8%，其中在 18 项技能上几乎达到或超过 100%，在 24 项技能上则超过 90%。\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_9caa1a665a7e.png\" alt=\"WizardLM\" style=\"width: 100%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n### WizardLM 在 NLP 基础任务上的表现\n\n下表提供了 WizardLM 与其他 LLM 在 NLP 基础任务上的对比。结果显示，WizardLM 在同规模的 LLaMa 模型中始终表现出更优异的性能。此外，我们的 WizardLM-30B 模型在 MMLU 和 HellaSwag 基准测试上与 OpenAI 的 Text-davinci-003 表现相当。\n\n| 模型            | MMLU 5-shot | ARC 25-shot | TruthfulQA 0-shot | HellaSwag 10-shot | 平均    |\n|------------------|-------------|-------------|-------------------|-------------------|------------|\n| Text-davinci-003 | \u003Cu>56.9\u003Cu\u002F> | **85.2**    | **59.3**          | \u003Cu>82.2\u003Cu\u002F>       | **70.9**   |\n|Vicuna-13b 1.1   | 51.3        | 53.0        | 51.8              | 80.1              | 59.1       |\n|Guanaco 30B   | 57.6        | 63.7        | 50.7              | **85.1**              | 64.3       |   \n| WizardLM-7B 1.0      | 42.7        | 51.6        | 44.7              | 77.7              | 54.2       |\n| WizardLM-13B 1.0     | 52.3        | 57.2        | 50.5              | 81.0              | 60.2       |\n| WizardLM-30B 1.0    | **58.8**    | \u003Cu>62.5\u003Cu\u002F> | \u003Cu>52.4\u003Cu\u002F>       | 83.3          | \u003Cu>64.2\u003Cu\u002F>|\n\n### WizardLM 在代码生成任务上的表现\n\n下表全面比较了 WizardLM 与其他几种 LLM 在代码生成任务（即 HumanEval）上的表现，评估指标为 pass@1。结果显示，WizardLM 在同规模的 LLaMa 模型中始终表现出更优异的性能。此外，我们的 WizardLM-30B 模型超越了 StarCoder 和 OpenAI 的 code-cushman-001。同时，我们的 Code LLM，WizardCoder，也展现了卓越的性能，pass@1 得分为 57.3，比开源领域的 SOTA 高出约 20 分。\n\n\n| 模型            | HumanEval Pass@1 |\n|------------------|------------------|\n| LLaMA-7B         | 10.5             |\n| LLaMA-13B        | 15.8             |\n| CodeGen-16B-Multi| 18.3             |\n| CodeGeeX         | 22.9             |\n| LLaMA-33B        | 21.7             |\n| LLaMA-65B        | 23.7             |\n| PaLM-540B        | 26.2             |\n| CodeGen-16B-Mono | 29.3             |\n| code-cushman-001 | 33.5             |\n| StarCoder        | \u003Cu>33.6\u003Cu\u002F>      |\n| WizardLM-7B 1.0      | 19.1             |\n| WizardLM-13B 1.0     | 24.0             |\n| WizardLM-30B  1.0   | **37.8**         |\n| WizardCoder-15B  1.0 | **57.3**     |\n\n## 征求反馈\n我们欢迎各位使用专业且具有挑战性的指令来评估 WizardLM，并在 [issue 讨论](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues) 区域向我们展示其表现不佳的案例及您的建议。目前我们正专注于改进 Evol-Instruct 算法，希望在下一版 WizardLM 中解决现有的不足和问题。此后，我们将开放最新 Evol-Instruct 算法的代码和流程，并与您携手共同优化它。\n\n\n\n## Evol-Instruct 概述\n\n[Evol-Instruct](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002Fevol-instruct) 是一种新颖的方法，利用 LLM 代替人工，自动批量生成各种难度级别和技能范围的开放领域指令，从而提升 LLM 的性能。您可以借助我们提供的 [Evol Script](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FEvol-Instruct) 轻松开启属于您自己的进化之旅。\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_e818e253bdf9.png\" alt=\"WizardLM\" style=\"width: 86%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\" width=\"100%\">\n\u003Ca >\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_01e15f6cf109.png\" alt=\"WizardLM\" style=\"width: 86%; min-width: 300px; display: block; margin: auto;\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 免责声明\n\n本项目相关的资源，包括代码、数据和模型权重，仅限于学术研究用途，不得用于商业目的。WizardLM任何版本生成的内容均受随机性等不可控因素影响，因此本项目无法保证输出结果的准确性。本项目不对模型输出内容承担任何法律责任，亦不对其关联资源及输出结果的使用所导致的任何损失负责。\n\n## 点星历史\n\n[![点星历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_readme_c57db371dbcf.png)](https:\u002F\u002Fstar-history.com\u002F#nlpxucan\u002FWizardLM&Timeline)","# WizardLM 快速上手指南\n\nWizardLM 是一个旨在增强大型预训练语言模型遵循复杂指令能力的开源项目，旗下包含通用对话模型（WizardLM）、代码生成模型（WizardCoder）和数学推理模型（WizardMath）。其中 WizardCoder-33B-V1.1 在代码评测中表现优异，WizardMath-7B-V1.1 则是同尺寸下最强的数学模型之一。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**: 3.9 或更高版本 (`python3.9+`)。\n*   **GPU 显存**:\n    *   运行 7B 模型：建议至少 16GB 显存（量化后可更低）。\n    *   运行 13B-34B 模型：建议 24GB - 48GB 显存。\n    *   运行 70B 模型：需要多卡环境或高显存专业卡。\n*   **依赖库**: 推荐使用 `vllm`、`transformers` 或 `llama.cpp` 进行推理。\n\n## 安装步骤\n\n### 1. 创建虚拟环境\n```bash\npython3 -m venv wizardlm-env\nsource wizardlm-env\u002Fbin\u002Factivate  # Windows 用户使用: wizardlm-env\\Scripts\\activate\n```\n\n### 2. 安装核心依赖\n为了获得最佳推理速度，推荐安装 `vllm`（支持高性能推理）或 `transformers`（通用兼容）。\n\n**方案 A：使用 vllm (推荐，速度快)**\n```bash\npip install vllm\n# 国内加速源\npip install vllm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n**方案 B：使用 Transformers (兼容性最好)**\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece protobuf\n# 国内加速源\npip install transformers accelerate sentencepiece protobuf -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 获取模型权重\n模型托管在 Hugging Face 上。由于网络原因，国内用户建议使用镜像站下载或使用支持自动镜像的库。\n\n**手动下载 (推荐通过镜像站):**\n访问 [Hugging Face Mirror](https:\u002F\u002Fhf-mirror.com\u002F) 搜索 `WizardLM\u002FWizardCoder-33B-V1.1` 或 `WizardLM\u002FWizardMath-7B-V1.1` 下载权重文件。\n\n**编程方式加载 (自动配置镜像):**\n在使用代码加载前，设置环境变量以使用国内镜像：\n```bash\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n```\n\n## 基本使用\n\n以下提供两种最常用的快速启动方式。\n\n### 方式一：使用 Python 脚本 (基于 Transformers)\n\n创建一个名为 `run_wizard.py` 的文件，填入以下代码。此示例以 **WizardCoder-33B-V1.1** 为例，如需使用其他版本（如 WizardMath），只需更改 `model_name`。\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\nimport torch\n\n# 设置国内镜像加速 (可选，若网络通畅可注释掉)\nimport os\nos.environ['HF_ENDPOINT'] = 'https:\u002F\u002Fhf-mirror.com'\n\n# 选择模型 ID (可根据需求替换为 WizardMath-7B-V1.1 等)\nmodel_name = \"WizardLM\u002FWizardCoder-33B-V1.1\"\n\nprint(f\"Loading model: {model_name}...\")\n\n# 加载分词器和模型\ntokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    torch_dtype=torch.float16,\n    device_map=\"auto\",\n    trust_remote_code=True\n)\n\n# 准备输入提示 (Prompt)\nprompt = \"Write a Python function to calculate the factorial of a number.\"\n\n# 生成回复\ninputs = tokenizer(prompt, return_tensors=\"pt\").to(model.device)\noutputs = model.generate(\n    **inputs,\n    max_new_tokens=512,\n    temperature=0.2,\n    do_sample=True,\n    top_p=0.95\n)\n\nresponse = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(\"\\n--- Model Response ---\")\nprint(response)\n```\n\n运行脚本：\n```bash\npython run_wizard.py\n```\n\n### 方式二：使用命令行快速推理 (基于 vLLM)\n\n如果您已安装 `vllm`，可以使用一行命令启动本地 API 服务或直接生成文本。\n\n**启动交互式服务：**\n```bash\n# 设置镜像环境变量\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n\n# 启动服务 (将模型名称替换为您需要的版本)\npython -m vllm.entrypoints.api_server \\\n    --model WizardLM\u002FWizardCoder-33B-V1.1 \\\n    --port 8000 \\\n    --dtype float16\n```\n\n**直接生成文本测试：**\n```bash\npython -m vllm.entrypoints.llm \\\n    --model WizardLM\u002FWizardCoder-33B-V1.1 \\\n    --prompt \"Write a quick sort algorithm in Python.\" \\\n    --max-tokens 500\n```\n\n> **注意**：\n> 1. 首次运行时会自动下载模型权重，请确保磁盘空间充足（33B 模型约需 70GB+ 空间）。\n> 2. 代码许可证遵循 Apache 2.0，但部分旧版模型数据遵循 CC BY-NC 4.0（非商业许可），商用前请务必检查具体模型版本的 License 说明。","某初创公司的后端团队需要在两天内将遗留的单体应用重构为微服务架构，并生成配套的单元测试代码。\n\n### 没有 WizardLM 时\n- 面对复杂的业务逻辑迁移指令，通用大模型往往只能给出泛泛的代码框架，无法处理多层嵌套的条件判断和特定的异常捕获逻辑。\n- 生成的测试用例覆盖率低，经常遗漏边界条件（如空值、并发冲突），导致开发人员必须手动补充大量断言代码。\n- 模型对长上下文的理解能力有限，在重构涉及多个文件交互的功能时，容易产生变量命名不一致或接口定义错误的“幻觉”。\n- 团队不得不花费大量时间反复调整提示词（Prompt）并人工修正代码错误，严重拖慢了原本紧迫的交付进度。\n\n### 使用 WizardLM 后\n- 借助 WizardLM 强大的复杂指令遵循能力（Evol-Instruct），它能精准理解“保留原有事务一致性同时拆分服务”的高难度需求，直接输出逻辑严密的完整代码。\n- 利用 WizardCoder 在代码基准测试中的 SOTA 表现，自动生成的单元测试不仅覆盖了核心路径，还智能包含了各类边缘场景，HumanEval 通过率显著提升。\n- 在处理跨文件重构任务时，WizardLM 能准确维护上下文依赖关系，确保新生成的微服务接口与原有数据库模型完美对接，大幅减少幻觉错误。\n- 开发人员只需进行一次清晰的指令描述，即可获得高质量的可运行代码，将原本需要数小时的人工调试时间缩短至几分钟的代码审查环节。\n\nWizardLM 通过进化指令微调技术，将开发者从繁琐的代码纠错中解放出来，使其能专注于架构设计的核心价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnlpxucan_WizardLM_13f931c2.png","nlpxucan","Can Xu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnlpxucan_fb908f0b.png","Senior Researcher at Microsoft. Creator of Evol-Instruct and WizardLM Family: WizardLM, WizardCoder and WizardMath.\r\nProject: https:\u002F\u002Ftwitter.com\u002FWizardLM_AI","Microsoft","Seattle, U.S.A.",null,"CanXu20","https:\u002F\u002Fgithub.com\u002Fnlpxucan",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,9473,742,"2026-04-09T07:53:16","","未说明（根据模型参数量推断：7B 模型建议显存 16GB+，33B\u002F34B 模型建议显存 24GB-80GB，70B 模型需多卡或高显存 GPU）","未说明",{"notes":98,"python":99,"dependencies":100},"README 中未提供具体的安装依赖列表、GPU 型号要求或操作系统限制。该工具主要提供预训练模型权重（托管于 Hugging Face），实际运行环境需求取决于加载的模型大小（如 7B, 13B, 33B, 70B 等）。用户需自行使用兼容的推理框架（如 transformers, vLLM 等）加载模型。部分模型（如 WizardLM-70B-V1.0）遵循 Llama 2 许可证，其他早期版本可能仅限非商业用途。","3.9+",[],[15],"2026-03-27T02:49:30.150509","2026-04-09T21:34:17.511479",[105,110,115,120,125,130],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},26700,"Hugging Face 上的 WizardMath-70B-V1.0 模型缺少 tokenizer.model 文件，无法进行量化，怎么办？","维护者已收到反馈并完成了修复。WizardMath-7B-V1.0、WizardMath-13B-V1.0 和 WizardMath-70B-V1.0 的 tokenizer.model 文件均已上传至 Hugging Face 仓库，现在可以正常下载和使用。","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F193",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},26697,"如何复现 WizardCoder-Python-34B-V1.0 在 HumanEval 上的高分（73%）？我得到的分数较低（55%）。","请严格遵循官方提供的逐步复现教程进行操作。如果按照教程步骤执行，应该能 100% 获得相同的分数。教程地址：https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder#how-to-reproduce-the-732-pass1-on-humaneval-with-greedy-decoding","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F196",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},26698,"使用 FastChat 推理 WizardCoder 时出现幻觉或泄露提示词模板角色，如何解决？","建议不要使用 FastChat 自带的模板，而是直接使用原始提示词模板（Raw Template）。原始模板格式如下：\n\nBelow is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Response:","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F169",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},26699,"在哪里可以下载用于复现评估的 math_instruction_data.json 数据集？","由于公司政策限制，训练数据目前不对外公开。但是，您可以通过阅读团队发表的论文（https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09583）来详细了解训练数据的构建方法。","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F158",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},26701,"为什么模型在某些任务（如科学事实或代码生成）上表现不佳，甚至产生幻觉？","这是一个研究模型而非面向消费者的最终产品。其知识局限性主要源于其基础模型（Llama）的训练数据以及参数量较小。虽然它在特定复杂任务上展示了训练技术的价值，但在通用常识或特定领域（如精确科学事实）上可能仍会出错。这是当前开源研究模型的普遍现象。","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F5",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},26702,"WizardLM 2 (GPT-4) 相关的发布为何被撤回或延迟？","官方解释是因为团队在发布流程中疏忽了一项必要环节——毒性测试（toxicity testing）。团队正在尽快完成该项测试，并在完成后重新发布模型。","https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fissues\u002F251",[136,141,146,151,156,161],{"id":137,"version":138,"summary_zh":139,"released_at":140},171884,"v1.6","## 🚀\u003Cb>**重大更新：推出基于 Code Llama 训练的 WizardCoder 34B**\u003C\u002Fb>\n\n\u003Cbr>\n\u003Cb>WizardCoder-34B\u003C\u002Fb> 在 HumanEval 测试集上以 \u003Cb>73.2%\u003C\u002Fb> 的 pass@1 率超越了 \u003Cb>GPT-4\u003C\u002Fb>、\u003Cb>ChatGPT-3.5\u003C\u002Fb> 和 \u003Cb>Claude-2\u003C\u002Fb>\n\n- 🖥️演示：http:\u002F\u002F47.103.63.15:50085\u002F\n\n- 🏇模型权重：https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardCoder-Python-34B-V1.0\n\n","2023-08-27T10:47:33",{"id":142,"version":143,"summary_zh":144,"released_at":145},171885,"v1.5","## 🚀\u003Cb>**重大更新：WizardMath 正式亮相，成为 Wizard 家族的第三位成员**\u003C\u002Fb>\r\n\r\nWizardMath 70B 取得以下成绩：\n1. 在 GSM8k 数据集上超越 \u003Cb>ChatGPT-3.5\u003C\u002Fb>、\u003Cb>Claude Instant-1\u003C\u002Fb>、\u003Cb>PaLM-2\u003C\u002Fb> 和 \u003Cb>Chinchilla\u003C\u002Fb>,Pass@1 达到 \u003Cb>81.6%\u003C\u002Fb>\r\n\r\n2. 在 MATH 数据集上超越 \u003Cb>Text-davinci-002\u003C\u002Fb>、\u003Cb>GAL\u003C\u002Fb>、\u003Cb>PaLM\u003C\u002Fb> 和 \u003Cb>GPT-3\u003C\u002Fb>,Pass@1 达到 \u003Cb>22.7%\u003C\u002Fb>\n","2023-08-13T15:24:12",{"id":147,"version":148,"summary_zh":149,"released_at":150},171886,"v1.4","## 🚀\u003Cb>**重大更新：推出基于Llama-2训练的WizardLM-70B-V1.0**\u003C\u002Fb>\r\n\r\n与Llama-2-70b-chat相比，本次更新包括以下改进：\n- [AlpacaEval排行榜](https:\u002F\u002Ftatsu-lab.github.io\u002Falpaca_eval\u002F)：92.66% -> \u003Cb>92.91%\u003C\u002Fb>\n- [MT-Bench排行榜](https:\u002F\u002Fchat.lmsys.org\u002F?leaderboard)：6.86 -> \u003Cb>7.78\u003C\u002Fb>\n- [Gsm8K](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgrade-school-math)：56.8% -> \u003Cb>77.6%\u003C\u002Fb>\n- [HumanEval](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fhuman-eval)：32.3 -> \u003Cb>50.6\u003C\u002Fb>\n","2023-08-09T13:57:59",{"id":152,"version":153,"summary_zh":154,"released_at":155},171887,"v1.3","## 🚀\u003Cb>**重大更新：推出基于 Llama-2 训练的 WizardLM-13B-V1.2**\u003C\u002Fb>\r\n\r\n与 WizardLM-13B-V1.1 相比，本次更新包括以下内容：\n- 上下文窗口：2048 -> \u003Cb>4096\u003C\u002Fb>\n- [AlpacaEval 排行榜](https:\u002F\u002Ftatsu-lab.github.io\u002Falpaca_eval\u002F)：86.32% -> \u003Cb>89.17%\u003C\u002Fb>\n- [MT-Bench 排行榜](https:\u002F\u002Fchat.lmsys.org\u002F?leaderboard)：6.76 -> \u003Cb>7.06\u003C\u002Fb>\n- [WizardLM 评估](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Fblob\u002Fmain\u002FWizardLM\u002Fdata\u002FWizardLM_testset.jsonl)：99.3% -> \u003Cb>101.4%\u003C\u002Fb>","2023-07-25T15:36:16",{"id":157,"version":158,"summary_zh":159,"released_at":160},171888,"v1.2","## 🚀\u003Cb>**重大更新：隆重推出 WizardLM 30B 版本。**\u003C\u002Fb>\n- 在难度均衡的 Evol-Instruct 测试集上，由 GPT-4 评估：**WizardLM-30B** 达到 ChatGPT 的 **97.8%**，**Guanaco-65B** 达到 **96.6%**，而 **WizardLM-13B** 则达到 **89.1%**。\n- 我们对比了 WizardLM-30B 与 ChatGPT 在不同技能上的表现，以帮助大家对 WizardLM 的能力形成合理的预期。","2023-06-06T11:44:31",{"id":162,"version":163,"summary_zh":164,"released_at":165},171889,"v1.1","## 🚀\u003Cb>**重大更新：隆重推出 WizardLM 13B 版本。**\u003C\u002Fb>\n- 在由 GPT-4 评估的难度均衡的 Evol-Instruct 测试集上：**WizardLM-13B** 达到 ChatGPT 的 **89.1%**，**Vicuna-13B** 达到 **86.9%**，而 **WizardLM-7B** 则达到 **78%**。\n- 13B 版本基于源自真实人类对话（**ShareGPT**）的指令数据进行训练，而 7B 版本则基于机器生成的数据（**Alpaca**）训练而成。\n- 我们对比了 WizardLM-13B 与 ChatGPT 在不同技能上的表现，以帮助大家对 WizardLM 的能力形成合理的预期。","2023-05-26T15:53:56"]