[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-deepseek-ai--DeepSeek-Math":3,"tool-deepseek-ai--DeepSeek-Math":65},[4,17,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,2,"2026-04-19T23:31:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},10072,"DeepSeek-V3","deepseek-ai\u002FDeepSeek-V3","DeepSeek-V3 是一款由深度求索推出的开源混合专家（MoE）大语言模型，旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数，但在处理每个 token 时仅激活 370 亿参数，这种设计巧妙解决了大规模模型推理成本高、速度慢的难题，让高性能 AI 更易于部署和应用。\n\n这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发，DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标，前者在提升计算效率的同时避免了性能损耗，后者则显著增强了模型表现并加速了推理过程。此外，模型在 14.8 万亿高质量令牌上完成预训练，且整个训练过程异常稳定，未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性，DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。",102693,5,"2026-04-20T03:58:04",[15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,35,14,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,"2026-04-18T11:00:28",[35,60,61,62,14,63,15,13,64],"数据工具","视频","插件","其他","音频",{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":82,"owner_twitter":81,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":32,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":101,"github_topics":81,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":102,"updated_at":103,"faqs":104,"releases":105},9951,"deepseek-ai\u002FDeepSeek-Math","DeepSeek-Math","DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models","DeepSeek-Math 是一款专注于提升数学推理能力的开源语言模型。它基于 DeepSeek-Coder-v1.5 7B 初始化，并在包含 Common Crawl 中提取的数学相关数据、自然语言及代码数据的 5000 亿令牌上进行了持续预训练。\n\n该工具主要解决了开源模型在复杂数学问题上推理能力不足的痛点。在不依赖外部计算工具或集成投票技巧的情况下，DeepSeek-Math 7B 在高难度的竞赛级 MATH 基准测试中取得了 51.7% 的惊人成绩，其表现已接近 Gemini-Ultra 和 GPT-4 等顶尖闭源模型。除了纯粹的数学解题，它在自然语言理解、逻辑推理及编程任务上也展现了均衡且强大的综合实力。\n\n技术亮点在于其独特的数据构建策略与持续的预训练过程，使其具备了生成完整、独立数学解答的能力，同时支持结合工具使用及形式化定理证明。项目公开了基座模型、指令微调模型及强化学习模型的检查点，并采用宽松的 MIT 代码许可证。\n\nDeepSeek-Math 非常适合人工智能研究人员、算法开发者以及需要处理高难度数理逻辑任务的教育科技团队使用。无论是用于探索大模型在科学领域的推理","DeepSeek-Math 是一款专注于提升数学推理能力的开源语言模型。它基于 DeepSeek-Coder-v1.5 7B 初始化，并在包含 Common Crawl 中提取的数学相关数据、自然语言及代码数据的 5000 亿令牌上进行了持续预训练。\n\n该工具主要解决了开源模型在复杂数学问题上推理能力不足的痛点。在不依赖外部计算工具或集成投票技巧的情况下，DeepSeek-Math 7B 在高难度的竞赛级 MATH 基准测试中取得了 51.7% 的惊人成绩，其表现已接近 Gemini-Ultra 和 GPT-4 等顶尖闭源模型。除了纯粹的数学解题，它在自然语言理解、逻辑推理及编程任务上也展现了均衡且强大的综合实力。\n\n技术亮点在于其独特的数据构建策略与持续的预训练过程，使其具备了生成完整、独立数学解答的能力，同时支持结合工具使用及形式化定理证明。项目公开了基座模型、指令微调模型及强化学习模型的检查点，并采用宽松的 MIT 代码许可证。\n\nDeepSeek-Math 非常适合人工智能研究人员、算法开发者以及需要处理高难度数理逻辑任务的教育科技团队使用。无论是用于探索大模型在科学领域的推理边界，还是作为构建专业数学辅导系统的基座，它都是一个极具价值的开源选择。","\n\u003C!-- markdownlint-disable first-line-h1 -->\n\u003C!-- markdownlint-disable html -->\n\u003C!-- markdownlint-disable no-duplicate-header -->\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"images\u002Flogo.svg\" width=\"60%\" alt=\"DeepSeek LLM\" \u002F>\n\u003C\u002Fdiv>\n\u003Chr>\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"https:\u002F\u002Fwww.deepseek.com\u002F\" target=\"_blank\">\n    \u003Cimg alt=\"Homepage\" src=\"images\u002Fbadge.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fchat.deepseek.com\u002F\" target=\"_blank\">\n    \u003Cimg alt=\"Chat\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤖%20Chat-DeepSeek%20LLM-536af5?color=536af5&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\" target=\"_blank\">\n    \u003Cimg alt=\"Hugging Face\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-DeepSeek%20AI-ffc107?color=ffc107&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Freplicate.com\u002Fcjwbw\u002Fdeepseek-math-7b-base\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_7dacf1cc5d87.png\" alt=\"Replicate\"\u002F>\u003C\u002Fa> \n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FTc7c45Zzu5\" target=\"_blank\">\n    \u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-DeepSeek%20AI-7289da?logo=discord&logoColor=white&color=7289da\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"images\u002Fqr.jpeg\" target=\"_blank\">\n    \u003Cimg alt=\"Wechat\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-DeepSeek%20AI-brightgreen?logo=wechat&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fdeepseek_ai\" target=\"_blank\">\n    \u003Cimg alt=\"Twitter Follow\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-deepseek_ai-white?logo=x&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"LICENSE-CODE\">\n    \u003Cimg alt=\"Code License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode_License-MIT-f5de53?&color=f5de53\">\n  \u003C\u002Fa>\n  \u003Ca href=\"LICENSE-MODEL\">\n    \u003Cimg alt=\"Model License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModel_License-Model_Agreement-f5de53?&color=f5de53\">\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#4-model-downloads\">Model Download\u003C\u002Fa> |\n  \u003Ca href=\"#2-evaluation-results\">Evaluation Results\u003C\u002Fa> |\n  \u003Ca href=\"#5-quick-start\">Quick Start\u003C\u002Fa> |\n  \u003Ca href=\"#6-license\">License\u003C\u002Fa> |\n  \u003Ca href=\"#7-citation\">Citation\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.03300.pdf\">\u003Cb>Paper Link\u003C\u002Fb>👁️\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 1. Introduction\n\nDeepSeekMath is initialized with [DeepSeek-Coder-v1.5 7B](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-coder-7b-base-v1.5) and continues pre-training on math-related tokens sourced from Common Crawl, together with natural language and code data for 500B tokens. DeepSeekMath 7B has achieved an impressive score of **51.7%** on the competition-level MATH benchmark without relying on external toolkits and voting techniques, approaching the performance level of Gemini-Ultra and GPT-4. For research purposes, we release [checkpoints](#4-model-downloads) of base, instruct, and RL models to the public.\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_5f4cc59a9e87.png\" alt=\"table\" width=\"70%\">\n\u003C\u002Fp>\n\n## 2. Evaluation Results\n\n### DeepSeekMath-Base 7B\n\nWe conduct a comprehensive assessment of the mathematical capabilities of DeepSeekMath-Base 7B, focusing on its ability to produce self-contained mathematical solutions without relying on external tools, solve math problems using tools, and conduct formal theorem proving. Beyond mathematics, we also provide a more general profile of the base model, including its performance of natural language understanding, reasoning, and programming skills.\n\n- **Mathematical problem solving with step-by-step reasoning**\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b660a527dea7.png\" alt=\"table\" width=\"70%\">\n\u003C\u002Fp>\n\n- **Mathematical problem solving with tool use**\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b58d86aaa55b.png\" alt=\"table\" width=\"50%\">\n\u003C\u002Fp>\n\n- **Natural Language Understanding, Reasoning, and Code**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_348ca8976a26.png\" alt=\"table\" width=\"50%\">\n\u003C\u002Fp>\n\nThe evaluation results from the tables above can be summarized as follows:\n  - **Superior Mathematical Reasoning:** On the competition-level MATH dataset, DeepSeekMath-Base 7B outperforms existing open-source base models by more than 10% in absolute terms through few-shot chain-of-thought prompting, and also surpasses Minerva 540B.\n  - **Strong Tool Use Ability:** Continuing pre-training with DeepSeekCoder-Base-7B-v1.5 enables DeepSeekMath-Base 7B to more effectively solve and prove mathematical problems by writing programs.\n  - **Comparable Reasoning and Coding Performance:** DeepSeekMath-Base 7B achieves performance in reasoning and coding that is comparable to that of DeepSeekCoder-Base-7B-v1.5.\n\n### DeepSeekMath-Instruct and -RL  7B\n\nDeepSeekMath-Instruct 7B is a mathematically instructed tuning model derived from DeepSeekMath-Base 7B, while DeepSeekMath-RL 7B is trained on the foundation of DeepSeekMath-Instruct 7B, utilizing our proposed Group Relative Policy Optimization (GRPO) algorithm.\n\nWe evaluate mathematical performance both without and with tool use, on 4 quantitative reasoning benchmarks in English and Chinese. As shown in Table, DeepSeekMath-Instruct 7B demonstrates strong performance of step-by-step reasoning, and DeepSeekMath-RL 7B approaches an accuracy of 60% on MATH with tool use, surpassing all existing open-source models.\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b1bf2edc6e84.png\" alt=\"table\" width=\"50%\">\n\u003C\u002Fp>\n\n\n## 3. Data Collection\n\n- Step 1:  Select [OpenWebMath](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.06786.pdf), a collection of high-quality mathematical web texts, as our initial seed corpus for training a FastText model.\n- Step 2:  Use the FastText model to retrieve mathematical web pages from the deduplicated Common Crawl database.\n- Step 3:  Identify potential math-related domains through statistical analysis.\n- Step 4:  Manually annotate URLs within these identified domains that are associated with mathematical content.\n- Step 5:  Add web pages linked to these annotated URLs, but not yet collected, to the seed corpus. Jump to step 1 until four iterations.\n\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b643ff9d6bae.png\" alt=\"table\" width=\"80%\">\n\u003C\u002Fp>\n\nAfter four iterations of data collection, we end up with **35.5M** mathematical web pages, totaling **120B** tokens. \n\n## 4. Model Downloads\n\nWe release the DeepSeekMath 7B, including base, instruct and RL models, to the public. To support a broader and more diverse range of research within both academic and commercial communities. Please **note** that the use of this model is subject to the terms outlined in [License section](#6-license). Commercial usage is permitted under these terms.\n\n### Huggingface\n\n| Model                    | Sequence Length |                           Download                           |\n| :----------------------- | :-------------: | :----------------------------------------------------------: |\n| DeepSeekMath-Base 7B     |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-base) |\n| DeepSeekMath-Instruct 7B |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-instruct) |\n| DeepSeekMath-RL 7B       |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-rl) |\n\n## 5. Quick Start\n\nYou can directly employ [Huggingface's Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) for model inference.\n\n**Text Completion**\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-base\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\ntext = \"The integral of x^2 from 0 to 2 is\"\ninputs = tokenizer(text, return_tensors=\"pt\")\noutputs = model.generate(**inputs.to(model.device), max_new_tokens=100)\n\nresult = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(result)\n```\n\n**Chat Completion**\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-instruct\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\nmessages = [\n    {\"role\": \"user\", \"content\": \"what is the integral of x^2 from 0 to 2?\\nPlease reason step by step, and put your final answer within \\boxed{}.\"}\n]\ninput_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors=\"pt\")\noutputs = model.generate(input_tensor.to(model.device), max_new_tokens=100)\n\nresult = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)\nprint(result)\n```\n\nAvoiding the use of the provided function `apply_chat_template`, you can also interact with our model following the sample template. Note that `messages` should be replaced by your input.\n\n```\nUser: {messages[0]['content']}\n\nAssistant: {messages[1]['content']}\u003C｜end▁of▁sentence｜>User: {messages[2]['content']}\n\nAssistant:\n```\n\n**Note:** By default (`add_special_tokens=True`), our tokenizer automatically adds a `bos_token` (`\u003C｜begin▁of▁sentence｜>`) before the input text. Additionally, since the system prompt is not compatible with this version of our models, we DO NOT RECOMMEND including the system prompt in your input.\n\n❗❗❗ **Please use chain-of-thought prompt to test DeepSeekMath-Instruct and DeepSeekMath-RL:**\n\n- English questions: **{question}\\nPlease reason step by step, and put your final answer within \\\\boxed{}.**\n\n- Chinese questions: **{question}\\n请通过逐步推理来解答问题，并把最终答案放置于\\\\boxed{}中。**\n\n\n## 6. License\nThis code repository is licensed under the MIT License. The use of DeepSeekMath models is subject to the Model License. DeepSeekMath supports commercial use.\n\nSee the [LICENSE-CODE](LICENSE-CODE) and [LICENSE-MODEL](LICENSE-MODEL) for more details.\n\n## 7. Citation\n\n```\n@misc{deepseek-math,\n  author = {Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Mingchuan Zhang, Y.K. Li, Y. Wu, Daya Guo},\n  title = {DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models},\n  journal = {CoRR},\n  volume = {abs\u002F2402.03300},\n  year = {2024},\n  url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.03300},\n}\n```\n\n\n## 8. Contact\n\nIf you have any questions, please raise an issue or contact us at [service@deepseek.com](mailto:service@deepseek.com).\n","\u003C!-- markdownlint-disable first-line-h1 -->\n\u003C!-- markdownlint-disable html -->\n\u003C!-- markdownlint-disable no-duplicate-header -->\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"images\u002Flogo.svg\" width=\"60%\" alt=\"DeepSeek LLM\" \u002F>\n\u003C\u002Fdiv>\n\u003Chr>\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"https:\u002F\u002Fwww.deepseek.com\u002F\" target=\"_blank\">\n    \u003Cimg alt=\"主页\" src=\"images\u002Fbadge.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fchat.deepseek.com\u002F\" target=\"_blank\">\n    \u003Cimg alt=\"聊天\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤖%20Chat-DeepSeek%20LLM-536af5?color=536af5&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\" target=\"_blank\">\n    \u003Cimg alt=\"Hugging Face\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-DeepSeek%20AI-ffc107?color=ffc107&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Freplicate.com\u002Fcjwbw\u002Fdeepseek-math-7b-base\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_7dacf1cc5d87.png\" alt=\"Replicate\"\u002F>\u003C\u002Fa> \n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FTc7c45Zzu5\" target=\"_blank\">\n    \u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-DeepSeek%20AI-7289da?logo=discord&logoColor=white&color=7289da\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"images\u002Fqr.jpeg\" target=\"_blank\">\n    \u003Cimg alt=\"微信\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-DeepSeek%20AI-brightgreen?logo=wechat&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fdeepseek_ai\" target=\"_blank\">\n    \u003Cimg alt=\"Twitter关注\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-deepseek_ai-white?logo=x&logoColor=white\" \u002F>\n  \u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n  \u003Ca href=\"LICENSE-CODE\">\n    \u003Cimg alt=\"代码许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode_License-MIT-f5de53?&color=f5de53\">\n  \u003C\u002Fa>\n  \u003Ca href=\"LICENSE-MODEL\">\n    \u003Cimg alt=\"模型许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModel_License-Model_Agreement-f5de53?&color=f5de53\">\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#4-model-downloads\">模型下载\u003C\u002Fa> |\n  \u003Ca href=\"#2-evaluation-results\">评估结果\u003C\u002Fa> |\n  \u003Ca href=\"#5-quick-start\">快速入门\u003C\u002Fa> |\n  \u003Ca href=\"#6-license\">许可协议\u003C\u002Fa> |\n  \u003Ca href=\"#7-citation\">引用\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.03300.pdf\">\u003Cb>论文链接\u003C\u002Fb>👁️\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 1. 简介\n\nDeepSeekMath以[DeepSeek-Coder-v1.5 7B](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-coder-7b-base-v1.5)为基础进行初始化，并在来自Common Crawl的数学相关数据上继续预训练，同时结合自然语言和代码数据，总计达到5000亿个token。DeepSeekMath 7B在不依赖外部工具包和投票技术的情况下，在竞赛级别的MATH基准测试中取得了令人印象深刻的**51.7%**得分，接近Gemini-Ultra和GPT-4的性能水平。出于研究目的，我们向公众发布了基础模型、指令微调模型和强化学习模型的[检查点](#4-model-downloads)。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_5f4cc59a9e87.png\" alt=\"表格\" width=\"70%\">\n\u003C\u002Fp>\n\n## 2. 评估结果\n\n### DeepSeekMath-Base 7B\n\n我们对DeepSeekMath-Base 7B的数学能力进行了全面评估，重点关注其在不依赖外部工具的情况下生成独立数学解题过程的能力、使用工具解决数学问题的能力以及进行形式化定理证明的能力。此外，我们还提供了该基础模型更为通用的画像，包括其自然语言理解、推理和编程技能的表现。\n\n- **带有逐步推理的数学问题求解**\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b660a527dea7.png\" alt=\"表格\" width=\"70%\">\n\u003C\u002Fp>\n\n- **使用工具的数学问题求解**\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b58d86aaa55b.png\" alt=\"表格\" width=\"50%\">\n\u003C\u002Fp>\n\n- **自然语言理解、推理和代码**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_348ca8976a26.png\" alt=\"表格\" width=\"50%\">\n\u003C\u002Fp>\n\n综合以上表格中的评估结果，可以总结如下：\n  - **卓越的数学推理能力：** 在竞赛级别的MATH数据集上，通过少量样本的思维链提示，DeepSeekMath-Base 7B在绝对值上比现有的开源基础模型高出10%以上，并且超越了Minerva 540B。\n  - **强大的工具使用能力：** 继续以DeepSeekCoder-Base-7B-v1.5为基础进行预训练，使得DeepSeekMath-Base 7B能够更有效地通过编写程序来解决和证明数学问题。\n  - **与推理和编码性能相当：** DeepSeekMath-Base 7B在推理和编码方面的表现与DeepSeekCoder-Base-7B-v1.5相当。\n\n### DeepSeekMath-Instruct 和 -RL 7B\n\nDeepSeekMath-Instruct 7B是从DeepSeekMath-Base 7B衍生出的数学指令微调模型，而DeepSeekMath-RL 7B则是在DeepSeekMath-Instruct 7B的基础上，利用我们提出的分组相对策略优化（GRPO）算法进行训练。\n\n我们在英语和中文的4个定量推理基准上，分别评估了无工具和有工具条件下的数学性能。如表所示，DeepSeekMath-Instruct 7B展现了强大的逐步推理能力，而DeepSeekMath-RL 7B在使用工具的情况下，其在MATH上的准确率接近60%，超越了所有现有的开源模型。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b1bf2edc6e84.png\" alt=\"表格\" width=\"50%\">\n\u003C\u002Fp>\n\n\n## 3. 数据收集\n\n- 第一步：选择[OpenWebMath](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.06786.pdf)，一个高质量的数学网页文本集合，作为我们训练FastText模型的初始种子语料库。\n- 第二步：使用FastText模型从去重后的Common Crawl数据库中检索数学相关的网页。\n- 第三步：通过统计分析识别潜在的数学相关领域。\n- 第四步：手动标注这些已识别领域中与数学内容相关的URL。\n- 第五步：将这些已标注URL所链接但尚未收集到的网页添加到种子语料库中。重复步骤1，直至完成四轮迭代。\n\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_readme_b643ff9d6bae.png\" alt=\"表格\" width=\"80%\">\n\u003C\u002Fp>\n\n经过四轮的数据收集，我们最终获得了**3550万**个数学网页，总计**1200亿**个token。\n\n## 4. 模型下载\n\n我们向公众发布了DeepSeekMath 7B，包括基础模型、指令微调模型和强化学习模型，以支持学术界和商业界更广泛、更多样化的研究。请注意，本模型的使用须遵守[许可协议](#6-license)中的条款。在此条件下，商业用途是被允许的。\n\n### Huggingface\n\n| 模型                    | 序列长度 |                           下载                           |\n| :----------------------- | :-------------: | :----------------------------------------------------------: |\n| DeepSeekMath-Base 7B     |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-base) |\n| DeepSeekMath-Instruct 7B |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-instruct) |\n| DeepSeekMath-RL 7B       |      4096       | 🤗 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-math-7b-rl) |\n\n## 5. 快速入门\n\n您可以直接使用 [Huggingface 的 Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) 进行模型推理。\n\n**文本补全**\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-base\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\ntext = \"The integral of x^2 from 0 to 2 is\"\ninputs = tokenizer(text, return_tensors=\"pt\")\noutputs = model.generate(**inputs.to(model.device), max_new_tokens=100)\n\nresult = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(result)\n```\n\n**聊天补全**\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-instruct\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\nmessages = [\n    {\"role\": \"user\", \"content\": \"what is the integral of x^2 from 0 to 2?\\nPlease reason step by step, and put your final answer within \\boxed{}.\"}\n]\ninput_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors=\"pt\")\noutputs = model.generate(input_tensor.to(model.device), max_new_tokens=100)\n\nresult = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)\nprint(result)\n```\n\n如果您不想使用提供的 `apply_chat_template` 函数，也可以按照示例模板与我们的模型进行交互。请注意，`messages` 需要替换为您自己的输入。\n\n```\nUser: {messages[0]['content']}\n\nAssistant: {messages[1]['content']}\u003C｜end▁of▁sentence｜>User: {messages[2]['content']}\n\nAssistant:\n```\n\n**注意：** 默认情况下（`add_special_tokens=True`），我们的分词器会在输入文本前自动添加一个 `bos_token`（`\u003C｜begin▁of▁sentence｜>`）。此外，由于系统提示与本版本的模型不兼容，我们**不建议**在输入中包含系统提示。\n\n❗❗❗ **请使用链式思维提示来测试 DeepSeekMath-Instruct 和 DeepSeekMath-RL：**\n\n- 英文问题：**{question}\\nPlease reason step by step, and put your final answer within \\\\boxed{}.**\n\n- 中文问题：**{question}\\n请通过逐步推理来解答问题，并把最终答案放置于\\\\boxed{}中。**\n\n\n## 6. 许可证\n此代码仓库采用 MIT 许可证。DeepSeekMath 模型的使用受模型许可证约束。DeepSeekMath 支持商业用途。\n\n更多详情请参阅 [LICENSE-CODE](LICENSE-CODE) 和 [LICENSE-MODEL](LICENSE-MODEL)。\n\n## 7. 引用\n\n```\n@misc{deepseek-math,\n  author = {Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Mingchuan Zhang, Y.K. Li, Y. Wu, Daya Guo},\n  title = {DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models},\n  journal = {CoRR},\n  volume = {abs\u002F2402.03300},\n  year = {2024},\n  url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.03300},\n}\n```\n\n\n## 8. 联系方式\n\n如有任何问题，请提交 issue 或发送邮件至 [service@deepseek.com](mailto:service@deepseek.com)。","# DeepSeek-Math 快速上手指南\n\nDeepSeek-Math 是一款专为数学推理优化的开源大语言模型，基于 DeepSeek-Coder-v1.5 7B 初始化，并在海量数学相关语料上继续预训练而成。它在 MATH 基准测试中表现卓越，支持逐步推理（Chain-of-Thought）及工具调用。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 推荐 NVIDIA GPU，显存至少 16GB (运行 7B 模型 bf16 精度)\n*   **依赖库**:\n    *   `torch` (建议 2.0+)\n    *   `transformers` (建议 4.37+)\n    *   `accelerate`\n\n**安装前置依赖：**\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece\n```\n\n> **提示**：国内开发者若下载 PyTorch 或 HuggingFace 模型较慢，可配置国内镜像源：\n> *   Pip 源：`export PIP_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> *   HF 镜像：`export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com`\n\n## 2. 安装与模型下载\n\nDeepSeek-Math 提供三种版本，请根据需求选择：\n*   `deepseek-math-7b-base`: 基座模型，适合文本补全和二次微调。\n*   `deepseek-math-7b-instruct`: 指令微调模型，适合对话和推理任务（推荐）。\n*   `deepseek-math-7b-rl`: 基于强化学习优化的模型，数学推理能力最强。\n\n使用 `transformers` 库可直接加载模型，首次运行时会自动从 HuggingFace 下载权重。\n\n## 3. 基本使用\n\n### 场景一：文本补全 (Base 模型)\n\n适用于续写数学解题过程或代码。\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-base\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\ntext = \"The integral of x^2 from 0 to 2 is\"\ninputs = tokenizer(text, return_tensors=\"pt\")\noutputs = model.generate(**inputs.to(model.device), max_new_tokens=100)\n\nresult = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(result)\n```\n\n### 场景二：对话与推理 (Instruct\u002FRL 模型)\n\n适用于回答数学问题。**关键技巧**：必须使用逐步推理提示词（Chain-of-Thought），并指定输出格式为 `\\boxed{}`。\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig\n\n# 可替换为 deepseek-ai\u002Fdeepseek-math-7b-rl 以获得更强推理能力\nmodel_name = \"deepseek-ai\u002Fdeepseek-math-7b-instruct\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map=\"auto\")\nmodel.generation_config = GenerationConfig.from_pretrained(model_name)\nmodel.generation_config.pad_token_id = model.generation_config.eos_token_id\n\n# 构造提示词：问题 + 强制逐步推理指令\nquestion = \"what is the integral of x^2 from 0 to 2?\"\nprompt = f\"{question}\\nPlease reason step by step, and put your final answer within \\\\boxed{{}}.\"\n\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\ninput_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors=\"pt\")\noutputs = model.generate(input_tensor.to(model.device), max_new_tokens=512)\n\n# 解码输出，跳过输入部分\nresult = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)\nprint(result)\n```\n\n### 中文使用示例\n\n对于中文问题，请使用以下提示词模板以确保最佳效果：\n\n```python\nquestion = \"计算从 0 到 2 的 x^2 的积分是多少？\"\n# 中文专用提示词\nprompt = f\"{question}\\n请通过逐步推理来解答问题，并把最终答案放置于\\\\boxed{{}}中。\"\n\nmessages = [{\"role\": \"user\", \"content\": prompt}]\n# ... (后续生成代码同上)\n```\n\n> **注意事项**：\n> 1. 本模型不支持 System Prompt，请勿在输入中包含系统指令。\n> 2. 默认情况下分词器会自动添加 `\u003C｜begin▁of▁sentence｜>`，无需手动添加。\n> 3. 务必保留 `\\boxed{}` 格式要求，这是模型输出标准答案的关键触发器。","某高中数学竞赛教练正试图为队员生成一套包含复杂代数与几何证明的模拟试卷，并需要确保每道题的解题步骤逻辑严密且准确无误。\n\n### 没有 DeepSeek-Math 时\n- 通用大模型在处理高难度竞赛题时，常出现“一本正经胡说八道”的现象，推导过程看似流畅但中间步骤存在严重逻辑断层。\n- 面对需要多步推理的几何证明题，模型往往无法独立构建完整的证明链条，频繁依赖外部计算器或代码解释器，导致响应速度慢且易出错。\n- 教练不得不花费大量时间人工复核每一道题的答案和步骤，甚至需要手动重写解题过程，效率极低且容易遗漏细微错误。\n- 生成的解法风格单一，缺乏针对竞赛评分标准的规范性，难以直接作为教学范例使用。\n\n### 使用 DeepSeek-Math 后\n- DeepSeek-Math 凭借在 5000 亿数学相关 token 上的预训练，能在不依赖外部工具的情况下，独立输出逻辑严密的竞赛级解题步骤，准确率逼近 GPT-4。\n- 针对复杂的定理证明和多步计算，它能自主规划推理路径，直接生成自包含的完整解答，大幅减少了对外部插件的依赖和等待时间。\n- 教练只需对生成内容进行快速浏览确认，即可将高质量的题目与解析直接印发给学生，备课时间从数小时缩短至几十分钟。\n- 输出的解题过程符合数学竞赛的规范格式，步骤清晰、符号严谨，可直接作为标准答案供学生模仿学习。\n\nDeepSeek-Math 将原本需要专家级人工校验的数学推理工作自动化，让高质量数学内容的生成变得既高效又可靠。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdeepseek-ai_DeepSeek-Math_5f4cc59a.png","deepseek-ai","DeepSeek","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdeepseek-ai_04503588.png","",null,"service@deepseek.com","https:\u002F\u002Fwww.deepseek.com\u002F","https:\u002F\u002Fgithub.com\u002Fdeepseek-ai",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,3236,574,"2026-04-19T18:42:05","MIT","未说明","需要支持 CUDA 的 GPU（代码示例使用 device_map=\"auto\" 和 torch.bfloat16），具体显存大小取决于模型版本（7B 参数 bfloat16 精度约需 14GB+ 显存），CUDA 版本未说明",{"notes":97,"python":94,"dependencies":98},"1. 代码示例显示模型加载需使用 bfloat16 精度 (torch.bfloat16)，请确保 GPU 支持该数据类型。\n2. 提供 Base、Instruct 和 RL 三种模型变体，上下文长度均为 4096。\n3. 使用 Instruct 和 RL 模型时，强烈建议在提示词中加入逐步推理指令（Chain-of-Thought），并按格式将最终答案放入 \\boxed{} 中。\n4. 当前版本模型不兼容系统提示符（system prompt），建议不要在输入中包含 system prompt。\n5. 默认情况下分词器会自动添加开始标记（bos_token）。",[99,100],"torch","transformers",[15],"2026-03-27T02:49:30.150509","2026-04-20T12:53:05.089680",[],[]]