[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ByteDance-Seed--seed-oss":3,"tool-ByteDance-Seed--seed-oss":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":68,"owner_location":68,"owner_email":78,"owner_twitter":68,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":77,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":98,"github_topics":68,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":135},3298,"ByteDance-Seed\u002Fseed-oss","seed-oss",null,"Seed-OSS 是由字节跳动 Seed 团队开源的一系列大语言模型，旨在为用户提供强大的长上下文处理、逻辑推理及智能体（Agent）任务执行能力。它主要解决了现有模型在复杂推理场景中缺乏灵活性，以及超长文本理解能力不足的问题，让用户能够根据实际需求动态调整“思考预算”，从而在推理长度与效率之间找到最佳平衡点。\n\n这款模型非常适合开发者构建需要深度推理或工具调用的智能应用，同时也为研究人员提供了宝贵的实验素材——团队特别发布了包含和不包含合成指令数据的两个预训练版本，以支持更纯粹的学术研究。对于需要处理海量文档的企业用户，其原生的 512K 上下文窗口也能轻松应对。\n\n技术亮点方面，Seed-OSS 基于高效的因果语言模型架构，采用 GQA 注意力机制与 SwiGLU 激活函数，仅用 12T token 训练便在多个主流基准测试中表现出色。它不仅在国际化的通用任务上表现均衡，更在智能体协作和复杂问题求解上展现了卓越的智能水平。目前发布的 36B 参数版本遵循 Apache 2.0 协议，开放且友好，欢迎社区共同探索与应用。","\u003Cdiv align=\"center\">\n 👋 Hi, everyone!\n    \u003Cbr>\n    We are \u003Cb>ByteDance Seed Team.\u003C\u002Fb>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  You can get to know us better through the following channels👇\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fseed.bytedance.com\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWebsite-%231e37ff?style=for-the-badge&logo=bytedance&logoColor=white\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n![seed logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FByteDance-Seed_seed-oss_readme_6a0d1d7b7f37.png)\n\n\n# Seed-OSS Open-Source Models\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Project Page-yellow\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Tech Report Coming Soon-red\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FByteDance-Seed\u002Fseed-oss-68a609f4201e788db05b5dcd\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Hugging Face-orange\">\u003C\u002Fa>\n  \u003Cbr>\n  \u003Ca href=\".\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache2.0-blue\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## News\n- [2025\u002F08\u002F20]🔥We release `Seed-OSS-36B-Base` (both with and without synthetic data versions) and `Seed-OSS-36B-Instruct`.\n\n## Introduction\nSeed-OSS is a series of open-source large language models developed by ByteDance's Seed Team, designed for powerful long-context, reasoning, agent and general capabilities, and versatile developer-friendly features. Although trained with only 12T tokens, Seed-OSS achieves excellent performance on several popular open benchmarks.\n\nWe release this series of models to the open-source community under the Apache-2.0 license.\n\n> [!NOTE]\n> Seed-OSS is primarily optimized for international (i18n) use cases.\n\n### Key Features\n- **Flexible Control of Thinking Budget**: Allowing users to flexibly adjust the reasoning length as needed. This capability of dynamically controlling the reasoning length enhances inference efficiency in practical application scenarios.\n- **Enhanced Reasoning Capability**: Specifically optimized for reasoning tasks while maintaining balanced and excellent general capabilities.\n- **Agentic Intelligence**: Performs exceptionally well in agentic tasks such as tool-using and issue resolving.\n- **Research-Friendly**: Given that the inclusion of synthetic instruction data in pre-training may affect the post-training research, we released pre-trained models both with and without instruction data, providing the research community with more diverse options.\n- **Native Long Context**: Trained with up-to-512K long context natively.\n\n### Model Summary\n\nSeed-OSS adopts the popular causal language model architecture with RoPE, GQA attention, RMSNorm and SwiGLU activation.\n\n\u003Cdiv align=\"center\">\n\n| | |\n|:---:|:---:|\n| | **Seed-OSS-36B** |\n| **Parameters** | 36B |\n| **Attention** | GQA |\n| **Activation Function** | SwiGLU |\n| **Number of Layers** | 64 |\n| **Number of QKV Heads** | 80 \u002F 8 \u002F 8 |\n| **Head Size** | 128 |\n| **Hidden Size** | 5120 |\n| **Vocabulary Size** | 155K |\n| **Context Length** | 512K |\n| **RoPE Base Frequency** | 1e7 |\n\n\u003C\u002Fdiv>\n\n\n## Evaluation Results\n\n### Seed-OSS-36B-Base\n\nIncorporating synthetic instruction data into pretraining leads to improved performance on most benchmarks. We adopt the version augmented with synthetic instruction data (i.e., *w\u002F syn.*) as `Seed-OSS-36B-Base`. We also release `Seed-OSS-36B-Base-woSyn` trained without such data (i.e., *w\u002Fo syn.*), offering the community a high-performance foundation model unaffected by synthetic instruction data.\n\n\u003Cdiv align=\"center\">\n\u003Ctable>\n\u003Cthead>\n\u003Ctr>\n\u003Cth align=\"center\">Benchmark\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>\u003Ca href=\"https:\u002F\u002Fseed.bytedance.com\u002Fen\u002Fseed1_6\">Seed1.6-Base\u003C\u002Fa>\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-30B-A3B-Base-2507*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen2.5-32B-Base*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Base\u003Cbr>(\u003Ci>w\u002F syn.\u003C\u002Fi>)\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Base-woSyn\u003Cbr>(\u003Ci>w\u002Fo syn.\u003C\u002Fi>)\u003C\u002Fsup>\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>Knowledge\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU-Pro\u003C\u002Ftd>\n\u003Ctd align=\"center\">70\u003C\u002Ftd>\n\u003Ctd align=\"center\">59.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">58.5 (55.1)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>65.1\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">60.4\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU\u003C\u002Ftd>\n\u003Ctd align=\"center\">88.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">82.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">84 (83.3)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>84.9\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">84.8\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TriviaQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">91\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">76\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>82.1\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.9\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GPQA-D\u003C\u002Ftd>\n\u003Ctd align=\"center\">43.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>37\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">29.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">31.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">35.2\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SimpleQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">17.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">7.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">6.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">5.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>7.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>Reasoning\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">BBH\u003C\u002Ftd>\n\u003Ctd align=\"center\">92.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">79.1 (84.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>87.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.2\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AGIEval-en\u003C\u002Ftd>\n\u003Ctd align=\"center\">78\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">65.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>70.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">70.1\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>Math\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GSM8K\u003C\u002Ftd>\n\u003Ctd align=\"center\">93.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">87\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.5 (92.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>90.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.3\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MATH\u003C\u002Ftd>\n\u003Ctd align=\"center\">72.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">61.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">63.5 (57.7)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>81.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">61.3\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>Coding\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MBPP\u003C\u002Ftd>\n\u003Ctd align=\"center\">83.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">78.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">77.8 (84.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>80.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">74.6\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">HumanEval\u003C\u002Ftd>\n\u003Ctd align=\"center\">78\u003C\u002Ftd>\n\u003Ctd align=\"center\">70.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">47.6 (58.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>76.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">75.6\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftbody>\n\u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n\u003Csup>\n- \u003Cb>Bold\u003C\u002Fb> denotes open-source SOTA.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- \"*\" indicates that the results in this column are presented in the format of \"reproduced_results (reported_results_if_any)\".\n\u003C\u002Fsup>\n\n### Seed-OSS-36B-Instruct\n\n\u003Cdiv align=\"center\">\n\u003Ctable>\n\u003Cthead>\n\u003Ctr>\n\u003Cth align=\"center\">Benchmark\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>\u003Ca href=\"https:\u002F\u002Fconsole.volcengine.com\u002Fark\u002Fregion:ark+cn-beijing\u002Fmodel\u002Fdetail?Id=doubao-seed-1-6-thinking\">Seed1.6-Thinking-0715\u003C\u002Fa>\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>OAI-OSS-20B*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-30B-A3B-Thinking-2507*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-32B*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Gemma3-27B\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Instruct\u003C\u002Fsup>\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Knowledge\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU-Pro\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>81.9\u003C\u002Fins> (80.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">67.5\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>82.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.7 (85.3)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>86.9\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>87.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GPQA-D\u003C\u002Ftd>\n\u003Ctd align=\"center\">80.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>72.2\u003C\u002Fb> (71.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>71.4\u003C\u002Fins> (73.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.7 (68.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">42.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>71.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SuperGPQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">63.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">50.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>57.3\u003C\u002Fb> (56.8)\u003C\u002Ftd>\n\u003Ctd align=\"center\">49.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>55.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SimpleQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">23.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">6.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>23.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">8.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>10\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">9.7\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Math\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AIME24\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>92.7\u003C\u002Fb> (92.1)\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">82.7 (81.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>91.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AIME25\u003C\u002Ftd>\n\u003Ctd align=\"center\">86\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>90.3\u003C\u002Fb> (91.7)\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.3 (85)\u003C\u002Ftd>\n\u003Ctd align=\"center\">73.3 (72.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>84.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">BeyondAIME\u003C\u002Ftd>\n\u003Ctd align=\"center\">60\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>69\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">56\u003C\u002Ftd>\n\u003Ctd align=\"center\">29\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>65\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Reasoning\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">ArcAGI V2\u003C\u002Ftd>\n\u003Ctd align=\"center\">1.16\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>1.74\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">0.87\u003C\u002Ftd>\n\u003Ctd align=\"center\">0\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>1.45\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">KORBench\u003C\u002Ftd>\n\u003Ctd align=\"center\">74.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>72.3\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">70.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">65.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>70.6\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">HLE\u003C\u002Ftd>\n\u003Ctd align=\"center\">13.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>12.7\u003C\u002Fb> (10.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">8.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">6.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>10.1\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Coding\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">LiveCodeBench v6\u003Cbr\u002F>\u003Csup>(02\u002F2025-05\u002F2025)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>63.8\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">60.3 (66)\u003C\u002Ftd>\n\u003Ctd align=\"center\">53.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>67.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Instruction Following\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">IFEval\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>92.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">88 (88.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">88.4 (85)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>90.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">85.8\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Agent\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TAU1-Retail\u003C\u002Ftd>\n\u003Ctd align=\"center\">63\u003C\u002Ftd>\n\u003Ctd align=\"center\">(54.8)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>58.7\u003C\u002Fins> (67.8)\u003C\u002Ftd>\n\u003Ctd align=\"center\">40.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>70.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TAU1-Airline\u003C\u002Ftd>\n\u003Ctd align=\"center\">49\u003C\u002Ftd>\n\u003Ctd align=\"center\">(38)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>47\u003C\u002Fb> (48)\u003C\u002Ftd>\n\u003Ctd align=\"center\">38\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>46\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SWE-Bench Verified\u003Cbr\u002F>\u003Csup>(OpenHands)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">41.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>(60.7)\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">31\u003C\u002Ftd>\n\u003Ctd align=\"center\">23.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>56\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SWE-Bench Verified\u003Cbr\u002F>\u003Csup>(AgentLess 4*10)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">48.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">33.5\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>39.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>47\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">Multi-SWE-Bench\u003C\u002Ftd>\n\u003Ctd align=\"center\">17.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>9.5\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">7.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>17\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Multilingualism\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMMLU\u003C\u002Ftd>\n\u003Ctd align=\"center\">84.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">77.4 (75.7)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>79\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>79\u003C\u002Fb> (80.6)\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>78.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Long Context\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">RULER\u003Cbr\u002F>\u003Csup>(128K)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">94.5\u003C\u002Ftd>\n\u003Ctd align=\"center\">78.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>94.5\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">77.5\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>94.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>Safety\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AIR-Bench\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">75.6\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftbody>\n\u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n\u003Csup>\n- \u003Cb>Bold\u003C\u002Fb> denotes open-source SOTA. \u003Cins>Underlined\u003C\u002Fins> indicates the second place in the open-source model.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- \"*\" indicates that the results in this column are presented in the format of \"reproduced_results (reported_results_if_any)\". Some results have been omitted due to the failure of the evaluation run.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- The results of Gemma3-27B are sourced directly from its technical report.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- The results of ArcAGI-V2 were measured on the official evaluation set, which was not involved in the training process.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- Generation configs for Seed-OSS-36B-Instruct: temperature=1.1, top_p=0.95. Specifically, for Taubench, temperature=1, top_p=0.7.\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n\u003C\u002Fsup>\n\n> [!NOTE]\n> We recommend sampling with `temperature=1.1` and `top_p=0.95`.\n\n### Thinking Budget\n\nUsers can flexibly specify the model's thinking budget. The figure below shows the performance curves across different tasks as the thinking budget varies. For simpler tasks (such as IFEval), the model's chain of thought (CoT) is shorter, and the score exhibits fluctuations as the thinking budget increases. For more challenging tasks (such as AIME and LiveCodeBench), the model's CoT is longer, and the score improves with an increase in the thinking budget.\n\n![thinking_budget](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FByteDance-Seed_seed-oss_readme_dd1c2f23a64c.png)\n\nHere is an example with a thinking budget set to 512: during the reasoning process, the model periodically triggers self-reflection to estimate the consumed and remaining budget, and delivers the final response once the budget is exhausted or the reasoning concludes.\n```\n\u003Cseed:think>\nGot it, let's try to solve this problem step by step. The problem says ... ...\n\u003Cseed:cot_budget_reflect>I have used 129 tokens, and there are 383 tokens remaining for use.\u003C\u002Fseed:cot_budget_reflect>\nUsing the power rule, ... ...\n\u003Cseed:cot_budget_reflect>I have used 258 tokens, and there are 254 tokens remaining for use.\u003C\u002Fseed:cot_budget_reflect>\nAlternatively, remember that ... ...\n\u003Cseed:cot_budget_reflect>I have used 393 tokens, and there are 119 tokens remaining for use.\u003C\u002Fseed:cot_budget_reflect>\nBecause if ... ...\n\u003Cseed:cot_budget_reflect>I have exhausted my token budget, and now I will start answering the question.\u003C\u002Fseed:cot_budget_reflect>\n\u003C\u002Fseed:think>\nTo solve the problem, we start by using the properties of logarithms to simplify the given equations: (full answer omitted).\n```\n\nIf no thinking budget is set (default mode), Seed-OSS will initiate thinking with unlimited length. If a thinking budget is specified, users are advised to prioritize values that are integer multiples of 512 (e.g., 512, 1K, 2K, 4K, 8K, or 16K), as the model has been extensively trained on these intervals. Models are instructed to output a direct response when the thinking budget is 0, and we recommend setting any budget below 512 to this value.\n\n## Quick Start\n```shell\npip install transformers>=4.56.1\n```\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\nimport os\nimport re\n\nmodel_name_or_path = \"ByteDance-Seed\u002FSeed-OSS-36B-Instruct\"\n\ntokenizer = AutoTokenizer.from_pretrained(model_name_or_path)\nmodel = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map=\"auto\")  # You may want to use bfloat16 and\u002For move to GPU here\nmessages = [\n    {\"role\": \"user\", \"content\": \"How to make pasta?\"},\n]\ntokenized_chat = tokenizer.apply_chat_template(\n  messages, \n  tokenize=True, \n  add_generation_prompt=True, \n  return_tensors=\"pt\", \n  thinking_budget=512 # control the thinking budget\n)\n\noutputs = model.generate(tokenized_chat.to(model.device), max_new_tokens=2048)\n\noutput_text = tokenizer.decode(outputs[0])\n```\n\n## Inference\n\n### Download Model\n\nDownload Seed-OSS checkpoint to `.\u002FSeed-OSS-36B-Instruct`\n\n### Transformers\nThe `generate.py` script provides a simple interface for model inference with configurable options.\n\n#### Basic Usage\n```shell\ncd inference\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel\n```\n\n#### Key Parameters\n| Parameter | Description |\n|-----------|-------------|\n| `--model_path` | Path to the pretrained model directory (required) |\n| `--prompts` | Input prompts (default: sample cooking\u002Fcode questions) |\n| `--max_new_tokens` | Maximum tokens to generate (default: 4096) |\n| `--attn_implementation` | Attention mechanism: `flash_attention_2` (default) or `eager` |\n| `--load_in_4bit\u002F8bit` | Enable 4-bit\u002F8-bit quantization (reduces memory usage) |\n| `--thinking_budget` | Thinking budget in tokens (default: -1 for unlimited budget) |\n\n#### Quantization Examples\n```shell\n# 8-bit quantization\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --load_in_8bit True\n\n# 4-bit quantization\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --load_in_4bit True\n```\n\n#### Custom Prompts\n```shell\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --prompts \"['What is machine learning?', 'Explain quantum computing']\"\n```\n\n### vLLM\nUse vllm >= 0.10.2 or higher for inference.\n\n- First install vLLM with Seed-OSS support version:\n```shell\npip install vllm>=0.10.2\n```\n\n- Start vLLM API server:\n```shell\npython3 -m vllm.entrypoints.openai.api_server \\\n    --host localhost \\\n    --port 4321 \\\n    --enable-auto-tool-choice \\\n    --tool-call-parser seed_oss \\\n    --trust-remote-code \\\n    --model .\u002FSeed-OSS-36B-Instruct \\\n    --chat-template .\u002FSeed-OSS-36B-Instruct\u002Fchat_template.jinja \\\n    --tensor-parallel-size 8 \\\n    --dtype bfloat16 \\\n    --served-model-name seed_oss\n```\n\n- Test with OpenAI client:\n\nChat\n\n```shell\n# no stream\npython3 inference\u002Fvllm_chat.py --max_new_tokens 4096 --thinking_budget -1\n# stream\npython3 inference\u002Fvllm_chat.py --max_new_tokens 4096 --thinking_budget -1 --stream\n```\n\nTool Call\n```shell\n# no stream\npython3 inference\u002Fvllm_tool_call.py --max_new_tokens 4096 --thinking_budget -1\n# stream\npython3 inference\u002Fvllm_tool_call.py --max_new_tokens 4096 --thinking_budget -1 --stream\n```\n\n\n## Model Card\nSee [MODEL_CARD](.\u002FMODEL_CARD.md).\n\n## License\nThis project is licensed under Apache-2.0. See the [LICENSE](.\u002FLICENSE) flie for details.\n\n## Citation\n\n```bibtex\n@misc{seed2025seed-oss,\n  author={ByteDance Seed Team},\n  title={Seed-OSS Open-Source Models},\n  year={2025},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss}}\n}\n```\n\n## About [ByteDance Seed Team](https:\u002F\u002Fseed.bytedance.com\u002F)\n\nFounded in 2023, ByteDance Seed Team is dedicated to crafting the industry's most advanced AI foundation models. The team aspires to become a world-class research team and make significant contributions to the advancement of science and society.\n","\u003Cdiv align=\"center\">\n 👋 大家好！\n    \u003Cbr>\n    我们是\u003Cb>字节跳动Seed团队。\u003C\u002Fb>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  您可以通过以下渠道进一步了解我们👇\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fseed.bytedance.com\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWebsite-%231e37ff?style=for-the-badge&logo=bytedance&logoColor=white\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n![seed logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FByteDance-Seed_seed-oss_readme_6a0d1d7b7f37.png)\n\n\n# Seed-OSS 开源模型\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Project Page-yellow\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Tech Report Coming Soon-red\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FByteDance-Seed\u002Fseed-oss-68a609f4201e788db05b5dcd\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSeed-Hugging Face-orange\">\u003C\u002Fa>\n  \u003Cbr>\n  \u003Ca href=\".\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache2.0-blue\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 新闻\n- [2025\u002F08\u002F20]🔥我们发布了`Seed-OSS-36B-Base`（含合成数据和不含合成数据两个版本）以及`Seed-OSS-36B-Instruct`。\n\n## 简介\nSeed-OSS是由字节跳动Seed团队开发的一系列开源大型语言模型，旨在提供强大的长上下文处理能力、推理能力、智能体任务执行能力及通用能力，并具备灵活易用的开发者友好特性。尽管仅使用12万亿个token进行训练，Seed-OSS在多个主流开源基准测试中仍取得了优异的表现。\n\n我们以Apache-2.0许可证将这一系列模型开源发布给社区。\n\n> [!NOTE]\n> Seed-OSS主要针对国际化（i18n）应用场景进行了优化。\n\n### 核心特性\n- **灵活的思考预算控制**：允许用户根据需求灵活调整推理长度。这种动态控制推理长度的能力在实际应用中显著提升了推理效率。\n- **增强的推理能力**：专为推理任务优化，同时保持均衡且出色的通用能力。\n- **智能体智能**：在工具使用、问题解决等智能体任务中表现出色。\n- **研究友好**：由于预训练中加入的合成指令数据可能影响后续的微调研究，我们同时发布了包含和不包含指令数据的预训练模型，为研究社区提供更多选择。\n- **原生长上下文支持**：原生支持高达512K的长上下文。\n\n### 模型概览\n\nSeed-OSS采用流行的因果语言模型架构，配备RoPE、GQA注意力机制、RMSNorm归一化层和SwiGLU激活函数。\n\n\u003Cdiv align=\"center\">\n\n| | |\n|:---:|:---:|\n| | **Seed-OSS-36B** |\n| **参数量** | 360亿 |\n| **注意力机制** | GQA |\n| **激活函数** | SwiGLU |\n| **层数** | 64 |\n| **QKV头数** | 80 \u002F 8 \u002F 8 |\n| **头尺寸** | 128 |\n| **隐藏层维度** | 5120 |\n| **词汇表大小** | 15.5万 |\n| **上下文长度** | 512K |\n| **RoPE基础频率** | 1e7 |\n\n\u003C\u002Fdiv>\n\n\n## 评估结果\n\n### Seed-OSS-36B-Base\n\n在预训练中加入合成指令数据能够提升模型在大多数基准上的表现。因此，我们采用了加入合成指令数据的版本（即*w\u002F syn.*）作为`Seed-OSS-36B-Base`。同时，我们也发布了未使用此类数据训练的`Seed-OSS-36B-Base-woSyn`（即*w\u002Fo syn.*），为社区提供一个不受合成指令数据影响的高性能基础模型。\n\n\u003Cdiv align=\"center\">\n\u003Ctable>\n\u003Cthead>\n\u003Ctr>\n\u003Cth align=\"center\">基准\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>\u003Ca href=\"https:\u002F\u002Fseed.bytedance.com\u002Fen\u002Fseed1_6\">Seed1.6-Base\u003C\u002Fa>\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-30B-A3B-Base-2507*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen2.5-32B-Base*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Base\u003Cbr>(\u003Ci>w\u002F syn.\u003C\u002Fi>)\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Base-woSyn\u003Cbr>(\u003Ci>w\u002Fo syn.\u003C\u002Fi>)\u003C\u002Fsup>\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>知识\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU-Pro\u003C\u002Ftd>\n\u003Ctd align=\"center\">70\u003C\u002Ftd>\n\u003Ctd align=\"center\">59.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">58.5 (55.1)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>65.1\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">60.4\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU\u003C\u002Ftd>\n\u003Ctd align=\"center\">88.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">82.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">84 (83.3)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>84.9\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">84.8\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TriviaQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">91\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">76\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>82.1\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.9\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GPQA-D\u003C\u002Ftd>\n\u003Ctd align=\"center\">43.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>37\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">29.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">31.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">35.2\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SimpleQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">17.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">7.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">6.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">5.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>7.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>推理\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">BBH\u003C\u002Ftd>\n\u003Ctd align=\"center\">92.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">79.1 (84.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>87.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.2\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AGIEval-en\u003C\u002Ftd>\n\u003Ctd align=\"center\">78\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">65.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>70.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">70.1\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>数学\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GSM8K\u003C\u002Ftd>\n\u003Ctd align=\"center\">93.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">87\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.5 (92.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>90.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.3\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MATH\u003C\u002Ftd>\n\u003Ctd align=\"center\">72.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">61.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">63.5 (57.7)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>81.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">61.3\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=6>\u003Cstrong>编程\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MBPP\u003C\u002Ftd>\n\u003Ctd align=\"center\">83.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">78.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">77.8 (84.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>80.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">74.6\u003C\u002Ftd>\n\u003C\u002Ftr.\n\u003Ctr>\n\u003Ctd align=\"center\">HumanEval\u003C\u002Ftd>\n\u003Ctd align=\"center\">78\u003C\u002Ftd>\n\u003Ctd align=\"center\">70.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">47.6 (58.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>76.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">75.6\u003C\u002Ftd>\n\u003C\u002Ftr.\n\u003C\u002Ftbody>\n\u003C\u002Ftable>\n\u003C\u002Fdiv.\n\n\u003Csup>\n- \u003Cb>加粗\u003C\u002Fb>表示开源领域的SOTA水平。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- \"*\"表示该列结果以“复现结果（如有报告则为报告结果）”的形式呈现。\n\u003C\u002Fsup>\n\n### Seed-OSS-36B-Instruct\n\n\u003Cdiv align=\"center\">\n\u003Ctable>\n\u003Cthead>\n\u003Ctr>\n\u003Cth align=\"center\">基准测试\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>\u003Ca href=\"https:\u002F\u002Fconsole.volcengine.com\u002Fark\u002Fregion:ark+cn-beijing\u002Fmodel\u002Fdetail?Id=doubao-seed-1-6-thinking\">Seed1.6-Thinking-0715\u003C\u002Fa>\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>OAI-OSS-20B*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-30B-A3B-Thinking-2507*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Qwen3-32B*\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Gemma3-27B\u003C\u002Fsup>\u003C\u002Fth>\n\u003Cth align=\"center\">\u003Csup>Seed-OSS-36B-Instruct\u003C\u002Fsup>\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003C\u002Fthead>\n\u003Ctbody>\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>知识\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU-Pro\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>81.9\u003C\u002Fins> (80.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">67.5\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>82.7\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">MMLU\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.7 (85.3)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>86.9\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.2\u003C\u002Ftd>\n\u003Ctd align=\"center\">76.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>87.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">GPQA-D\u003C\u002Ftd>\n\u003Ctd align=\"center\">80.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>72.2\u003C\u002Fb> (71.5)\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>71.4\u003C\u002Fins> (73.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.7 (68.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">42.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>71.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SuperGPQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">63.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">50.1\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>57.3\u003C\u002Fb> (56.8)\u003C\u002Ftd>\n\u003Ctd align=\"center\">49.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>55.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">SimpleQA\u003C\u002Ftd>\n\u003Ctd align=\"center\">23.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">6.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>23.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">8.6\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>10\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center\">9.7\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>数学\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AIME24\u003C\u002Ftd>\n\u003Ctd align=\"center\">90.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>92.7\u003C\u002Fb> (92.1)\u003C\u002Ftd>\n\u003Ctd align=\"center\">87.7\u003C\u002Ftd>\n\u003Ctd align=\"center\">82.7 (81.4)\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>91.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">AIME25\u003C\u002Ftd>\n\u003Ctd align=\"center\">86\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>90.3\u003C\u002Fb> (91.7)\u003C\u002Ftd>\n\u003Ctd align=\"center\">81.3 (85)\u003C\u002Ftd>\n\u003Ctd align=\"center\">73.3 (72.9)\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>84.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">BeyondAIME\u003C\u002Ftd>\n\u003Ctd align=\"center\">60\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>69\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">56\u003C\u002Ftd>\n\u003Ctd align=\"center\">29\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>65\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>推理\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">ArcAGI V2\u003C\u002Ftd>\n\u003Ctd align=\"center\">1.16\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>1.74\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center\">0.87\u003C\u002Ftd>\n\u003Ctd align=\"center\">0\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>1.45\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">KORBench\u003C\u002Ftd>\n\u003Ctd align=\"center\">74.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>72.3\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center>70.2\u003C\u002Ftd>\n\u003Ctd align=\"center>65.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>70.6\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">HLE\u003C\u002Ftd>\n\u003Ctd align=\"center\">13.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>12.7\u003C\u002Fb> (10.9)\u003C\u002Ftd>\n\u003Ctd align=\"center>8.7\u003C\u002Ftd>\n\u003Ctd align=\"center>6.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>10.1\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>编码\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">LiveCodeBench v6\u003Cbr\u002F>\u003Csup>(02\u002F2025-05\u002F2025)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">66.8\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cins>63.8\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center>60.3 (66)\u003C\u002Ftd>\n\u003Ctd align=\"center>53.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>67.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>指令遵循\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">IFEval\u003C\u002Ftd>\n\u003Ctd align=\"center\">86.3\u003C\u002Ftd>\n\u003Ctd align=\"center\">\u003Cb>92.8\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center>88 (88.9)\u003C\u002Ftd>\n\u003Ctd align=\"center>88.4 (85)\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>90.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center>85.8\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>智能体\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TAU1-Retail\u003C\u002Ftd>\n\u003Ctd align=\"center\">63\u003C\u002Ftd>\n\u003Ctd align=\"center>(54.8)\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>58.7\u003C\u002Fins> (67.8)\u003C\u002Ftd>\n\u003Ctd align=\"center>40.9\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>70.4\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd align=\"center\">TAU1-Airline\u003C\u002Ftd>\n\u003Ctd align=\"center\">49\u003C\u002Ftd>\n\u003Ctd align=\"center>(38)\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>47\u003C\u002Fb> (48)\u003C\u002Ftd>\n\u003Ctd align=\"center>38\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>46\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">SWE-Bench Verified\u003Cbr\u002F>\u003Csup>(OpenHands)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">41.8\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>(60.7)\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center>31\u003C\u002Ftd>\n\u003Ctd align=\"center>23.4\u003C\u002Ftd>\n\u003Ctd align=\"center\">-\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>56\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">SWE-Bench Verified\u003Cbr\u002F>\u003Csup>(AgentLess 4*10)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center\">48.4\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>33.5\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>39.7\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>47\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">Multi-SWE-Bench\u003C\u002Ftd>\n\u003Ctd align=\"center\">17.7\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>9.5\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center>7.7\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>17\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>多语言能力\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">MMMLU\u003C\u002Ftd>\n\u003Ctd align=\"center>84.3\u003C\u002Ftd>\n\u003Ctd align=\"center>77.4 (75.7)\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>79\u003C\u002Fb>\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>79\u003C\u002Fb> (80.6)\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>78.4\u003C\u002Fins>\u003C\u002Ftd>\n\u003C\u002Ftr\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>长上下文\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">RULER\u003Cbr\u002F>\u003Csup>(128K)\u003C\u002Fsup>\u003C\u002Ftd>\n\u003Ctd align=\"center>94.5\u003C\u002Ftd>\n\u003Ctd align=\"center>78.7\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cins>94.5\u003C\u002Fins>\u003C\u002Ftd>\n\u003Ctd align=\"center>77.5\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>\u003Cb>94.6\u003C\u002Fb>\u003C\u002Ftd>\n\u003C\u002Ftr\n\n\u003Ctr>\n\u003Ctd align=\"center\" colspan=7>\u003Cstrong>安全性\u003C\u002Fstrong>\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003Ctr>\n\u003Ctd align=\"center\">AIR-Bench\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>–\u003C\u002Ftd>\n\u003Ctd align=\"center>75.6\u003C\u002Ftd>\n\u003C\u002Ftr\n\u003C\u002Ftbody>\n\u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n\u003Csup>\n- \u003Cb>粗体\u003C\u002Fb>表示开源SOTA模型。\u003Cins>下划线\u003C\u002Fins>表示开源模型中的第二名。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- \"*\"表示该列结果以“复现结果（如有报告结果则为报告结果）”的形式呈现。由于评估运行失败，部分结果已被省略。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- Gemma3-27B的结果直接来源于其技术报告。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- ArcAGI-V2的结果是在官方评估集上测量的，该评估集未参与训练过程。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n- Seed-OSS-36B-Instruct的生成配置：temperature=1.1, top_p=0.95。特别地，对于Taubench，temperature=1, top_p=0.7。\n\u003C\u002Fsup>\u003Cbr\u002F>\u003Csup>\n\u003C\u002Fsup>\n\n> [!NOTE]\n> 我们建议使用`temperature=1.1`和`top_p=0.95`进行采样。\n\n\n\n### 思考预算\n\n用户可以灵活指定模型的思考预算。下图展示了在不同任务中，随着思考预算的变化，模型性能曲线的变化情况。对于较简单的任务（如IFEval），模型的思维链（CoT）较短，分数会随着思考预算的增加而出现波动。而对于更具挑战性的任务（如AIME和LiveCodeBench），模型的思维链较长，分数会随着思考预算的增加而提升。\n\n![thinking_budget](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FByteDance-Seed_seed-oss_readme_dd1c2f23a64c.png)\n\n以下是一个将思考预算设置为512的例子：在推理过程中，模型会定期触发自我反思，以估算已消耗和剩余的预算，并在预算耗尽或推理结束时给出最终答案。\n```\n\u003Cseed:think>\n明白了，让我们一步步来解决这个问题。题目说…………\n\u003Cseed:cot_budget_reflect>我已经使用了129个token，还剩下383个token可用。\u003C\u002Fseed:cot_budget_reflect>\n根据幂法则，…………\n\u003Cseed:cot_budget_reflect>我已经使用了258个token，还剩下254个token可用。\u003C\u002Fseed:cot_budget_reflect>\n或者，记住…………\n\u003Cseed:cot_budget_reflect>我已经使用了393个token，还剩下119个token可用。\u003C\u002Fseed:cot_budget_reflect>\n因为如果…………\n\u003Cseed:cot_budget_reflect>我的token预算已经用完了，现在我将开始回答问题。\u003C\u002Fseed:cot_budget_reflect>\n\u003C\u002Fseed:think>\n要解决这个问题，我们首先利用对数的性质简化给定的方程：（完整答案省略）。\n```\n\n如果没有设置思考预算（默认模式），Seed-OSS将以无限长度开始思考。如果指定了思考预算，建议用户优先选择512的整数倍数值（如512、1K、2K、4K、8K或16K），因为模型已在这些区间上进行了大量训练。当思考预算为0时，模型会被指示直接输出答案，我们建议将任何低于512的预算设置为该值。\n\n## 快速入门\n```shell\npip install transformers>=4.56.1\n```\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\nimport os\nimport re\n\nmodel_name_or_path = \"ByteDance-Seed\u002FSeed-OSS-36B-Instruct\"\n\ntokenizer = AutoTokenizer.from_pretrained(model_name_or_path)\nmodel = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map=\"auto\")  # 您可能希望在此处使用bfloat16并\u002F或迁移到GPU\nmessages = [\n    {\"role\": \"user\", \"content\": \"如何做意大利面？\"},\n]\ntokenized_chat = tokenizer.apply_chat_template(\n  messages, \n  tokenize=True, \n  add_generation_prompt=True, \n  return_tensors=\"pt\", \n  thinking_budget=512 # 控制思考预算\n)\n\noutputs = model.generate(tokenized_chat.to(model.device), max_new_tokens=2048)\n\noutput_text = tokenizer.decode(outputs[0])\n```\n\n## 推理\n\n### 下载模型\n\n将Seed-OSS检查点下载到`.\u002FSeed-OSS-36B-Instruct`\n\n### Transformers\n`generate.py`脚本提供了一个简单的接口，用于进行可配置选项的模型推理。\n\n#### 基本用法\n```shell\ncd inference\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel\n```\n\n#### 关键参数\n| 参数 | 描述 |\n|-----------|-------------|\n| `--model_path` | 预训练模型目录的路径（必需） |\n| `--prompts` | 输入提示（默认：示例烹饪\u002F代码问题） |\n| `--max_new_tokens` | 最大生成token数（默认：4096） |\n| `--attn_implementation` | 注意力机制：`flash_attention_2`（默认）或`eager` |\n| `--load_in_4bit\u002F8bit` | 启用4位\u002F8位量化（减少内存使用） |\n| `--thinking_budget` | 思考预算，单位为token（默认：-1，表示无限制预算） |\n\n#### 量化示例\n```shell\n# 8位量化\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --load_in_8bit True\n\n# 4位量化\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --load_in_4bit True\n```\n\n#### 自定义提示\n```shell\npython3 generate.py --model_path \u002Fpath\u002Fto\u002Fmodel --prompts \"['什么是机器学习？', '解释量子计算']\"\n```\n\n### vLLM\n使用vllm >= 0.10.2或更高版本进行推理。\n\n- 首先安装支持Seed-OSS版本的vLLM：\n```shell\npip install vllm>=0.10.2\n```\n\n- 启动vLLM API服务器：\n```shell\npython3 -m vllm.entrypoints.openai.api_server \\\n    --host localhost \\\n    --port 4321 \\\n    --enable-auto-tool-choice \\\n    --tool-call-parser seed_oss \\\n    --trust-remote-code \\\n    --model .\u002FSeed-OSS-36B-Instruct \\\n    --chat-template .\u002FSeed-OSS-36B-Instruct\u002Fchat_template.jinja \\\n    --tensor-parallel-size 8 \\\n    --dtype bfloat16 \\\n    --served-model-name seed_oss\n```\n\n- 使用OpenAI客户端进行测试：\n\n聊天\n\n```shell\n# 不流式\npython3 inference\u002Fvllm_chat.py --max_new_tokens 4096 --thinking_budget -1\n# 流式\npython3 inference\u002Fvllm_chat.py --max_new_tokens 4096 --thinking_budget -1 --stream\n```\n\n工具调用\n```shell\n# 不流式\npython3 inference\u002Fvllm_tool_call.py --max_new_tokens 4096 --thinking_budget -1\n# 流式\npython3 inference\u002Fvllm_tool_call.py --max_new_tokens 4096 --thinking_budget -1 --stream\n```\n\n\n## 模型卡片\n请参阅[MODEL_CARD](.\u002FMODEL_CARD.md)。\n\n## 许可证\n本项目采用Apache-2.0许可证。详细信息请参阅[LICENSE](.\u002FLICENSE)文件。\n\n## 引用\n\n```bibtex\n@misc{seed2025seed-oss,\n  author={字节跳动Seed团队},\n  title={Seed-OSS开源模型},\n  year={2025},\n  howpublished={\\url{https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss}}\n}\n```\n\n## 关于[字节跳动Seed团队](https:\u002F\u002Fseed.bytedance.com\u002F)\n\n成立于2023年，字节跳动Seed团队致力于打造业界最先进的AI基础模型。团队立志成为世界一流的研究团队，为科学和社会的进步做出重大贡献。","# Seed-OSS 快速上手指南\n\nSeed-OSS 是由字节跳动 Seed 团队开源的一系列大语言模型，具备强大的长上下文（原生支持 512K）、推理能力及智能体（Agent）任务处理能力。本指南将帮助您快速在本地部署并使用 **Seed-OSS-36B** 系列模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS。\n*   **Python 版本**: Python 3.9 或更高版本。\n*   **硬件要求**:\n    *   **推理**: 运行 36B 参数模型建议使用至少 24GB VRAM 的 GPU（如 RTX 3090\u002F4090, A10\u002FA100），或使用量化版本以降低显存需求。若使用 CPU 推理，建议内存大于 64GB。\n    *   **长上下文**: 处理超长上下文（>128K）时，显存消耗会显著增加，建议使用多卡或多节点环境。\n*   **前置依赖**:\n    *   `pip` (包管理工具)\n    *   `git`\n    *   `huggingface-cli` (用于模型下载)\n\n## 安装步骤\n\n### 1. 创建虚拟环境（推荐）\n\n```bash\npython -m venv seed-oss-env\nsource seed-oss-env\u002Fbin\u002Factivate  # Windows 用户使用: seed-oss-env\\Scripts\\activate\n```\n\n### 2. 安装核心依赖\n\n推荐使用国内镜像源加速安装：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\npip install transformers accelerate sentencepiece protobuf -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**: 请根据您的 CUDA 版本调整 `torch` 的安装命令。上述命令适用于 CUDA 12.1。\n\n### 3. 获取模型\n\nSeed-OSS 模型托管在 Hugging Face 上。您可以使用 `huggingface-cli` 下载，或通过代码直接加载。\n\n**方式 A：命令行下载（适合离线部署）**\n\n```bash\n# 设置 HF 镜像加速（可选，国内用户推荐）\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n\n# 下载 Seed-OSS-36B-Instruct 模型\nhuggingface-cli download ByteDance-Seed\u002FSeed-OSS-36B-Instruct --local-dir .\u002Fmodels\u002Fseed-oss-36b-instruct\n```\n\n> **模型版本说明**:\n> *   `Seed-OSS-36B-Base`: 基座模型，适合继续预训练或特定任务微调。包含含合成数据 (`w\u002F syn.`) 和不含合成数据 (`woSyn`) 两个版本。\n> *   `Seed-OSS-36B-Instruct`: 指令微调模型，适合直接对话和任务执行（推荐大多数开发者使用）。\n\n## 基本使用\n\n以下示例展示如何使用 `transformers` 库加载 **Seed-OSS-36B-Instruct** 模型进行简单的推理对话。\n\n### Python 推理示例\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\n\n# 配置模型路径\nmodel_path = \".\u002Fmodels\u002Fseed-oss-36b-instruct\" \n# 如果已配置网络直连，也可直接使用：\"ByteDance-Seed\u002FSeed-OSS-36B-Instruct\"\n\n# 加载分词器\ntokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)\n\n# 加载模型\n# device_map=\"auto\" 会自动将模型分配到可用的 GPU 上\n# torch_dtype=torch.bfloat16 建议使用 bf16 以获得最佳精度和性能平衡\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_path,\n    torch_dtype=torch.bfloat16,\n    device_map=\"auto\",\n    trust_remote_code=True\n)\n\n# 准备输入提示词 (Prompt)\n# Seed-OSS 针对国际场景优化，建议使用英文或高质量翻译后的中文提示词以获得最佳效果\nprompt = \"Explain the concept of quantum entanglement in simple terms.\"\n\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\n# 应用聊天模板\ntext = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)\ninputs = tokenizer.encode(text, return_tensors=\"pt\").to(model.device)\n\n# 生成回复\n# max_new_tokens: 控制最大生成长度\n# do_sample: 开启采样以增加多样性\noutputs = model.generate(\n    inputs,\n    max_new_tokens=512,\n    do_sample=True,\n    temperature=0.7,\n    top_p=0.9\n)\n\n# 解码并输出结果\nresponse = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(response)\n```\n\n### 动态控制思考预算（Thinking Budget）\n\nSeed-OSS 支持灵活控制推理长度。在构建 Prompt 时，您可以通过特定的指令或参数（取决于具体实现的模板）来引导模型进行更长或更短的推理。对于标准的 `generate` 调用，主要通过 `max_new_tokens` 参数限制输出长度，模型内部会根据任务复杂度动态调整推理深度。\n\n### 长上下文测试\n\n要测试其原生的 512K 上下文能力，只需在 `messages` 中输入极长的文本内容。模型架构原生支持，无需额外的滑动窗口配置，但需确保显存充足。\n\n```python\n# 示例：构造一个长文本输入\nlong_context = \"...\" * 100000  # 替换为实际的长文本数据\nmessages = [{\"role\": \"user\", \"content\": f\"Summarize the following text:\\n{long_context}\"}]\n# 后续处理同上...\n```","某跨国金融科技公司的算法团队需要构建一个能自动分析数百页英文财报、识别潜在风险并生成详细审计报告的智能代理系统。\n\n### 没有 seed-oss 时\n- **长文档处理断裂**：面对超过 10 万字的财报原文，现有模型因上下文窗口限制（通常仅 32K-128K），不得不将文档强行切片，导致跨章节的风险关联信息丢失，分析结果支离破碎。\n- **推理深度不可控**：模型在处理复杂财务逻辑时要么“思考”过浅漏掉隐蔽漏洞，要么过度发散浪费算力，开发人员无法根据任务难度动态调整其推理长度。\n- **工具调用笨拙**：在需要调用外部数据库验证数据或执行代码计算比率时，模型经常搞错参数格式或执行顺序，导致自动化流程频繁中断，需人工反复介入修正。\n\n### 使用 seed-oss 后\n- **原生超长上下文贯通**：利用 seed-oss 原生的 512K 上下文能力，团队可直接输入整本财报，模型精准捕捉到相隔百页的“营收增长”与“现金流异常”之间的逻辑矛盾，输出连贯的深度分析。\n- **灵活调控思考预算**：开发人员通过配置参数，让 seed-oss 在简单摘要任务上快速响应，而在复杂欺诈检测场景中自动延长推理链条，显著提升了单位算力的产出效率。\n- **智能体协作流畅**：凭借强大的 Agentic Intelligence，seed-oss 能准确规划“读取数据 - 编写 Python 脚本 - 调用 API 验证 - 生成结论”的执行路径，工具调用成功率大幅提升，实现了真正的全自动审计闭环。\n\nseed-oss 通过原生长窗口与可控推理机制，将原本碎片化、高人工成本的文档分析工作，转化为高效、精准且全自动的智能决策流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FByteDance-Seed_seed-oss_a6cda070.png","ByteDance-Seed","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FByteDance-Seed_8c020fee.png","","seed.feedback@bytedance.com","https:\u002F\u002Fseed.bytedance.com\u002F","https:\u002F\u002Fgithub.com\u002FByteDance-Seed",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",95.6,{"name":87,"color":88,"percentage":89},"Shell","#89e051",4.4,875,48,"2026-03-26T02:41:35","Apache-2.0","未说明",{"notes":96,"python":94,"dependencies":97},"README 主要介绍了模型架构（36B 参数，512K 上下文）、功能特性（思维预算控制、推理增强、智能体能力）及评测结果。文中未提供具体的运行环境配置（如操作系统、GPU 型号、显存需求、Python 版本或依赖库列表）。鉴于模型参数量达 36B 且支持 512K 上下文，实际部署通常需要高性能 GPU（如多卡 A100\u002FH100）及大量显存，建议参考 Hugging Face 页面或技术报告获取具体部署指南。",[],[26,15],"2026-03-27T02:49:30.150509","2026-04-06T08:42:14.546596",[102,107,111,116,121,126,130],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},15143,"运行 vLLM 或 Transformers 加载 Seed-OSS 模型时出现报错（如 KeyError: 'seed_oss' 或导入错误），如何解决？","这是因为旧版本的库不支持 Seed-OSS 架构。请将 `transformers` 和 `vllm` 升级到最新官方版本，目前官方仓库已完全支持该模型。\n\n执行以下命令更新：\n```bash\npip install transformers>=4.56.1 vllm>=0.10.2\n```\n\n如果是在 Google Colab 等环境中使用 `pipeline`，请确保添加 `trust_remote_code=True` 参数：\n```python\nfrom transformers import pipeline\npipe = pipeline(\n    \"text-generation\", \n    model=\"ByteDance-Seed\u002FSeed-OSS-36B-Instruct\",\n    trust_remote_code=True\n)\n```","https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\u002Fissues\u002F4",{"id":108,"question_zh":109,"answer_zh":110,"source_url":106},15144,"在离线内网环境手动安装 vLLM 仍然报错，有什么特殊的安装配置吗？","在内网环境手动下载源码包解压安装时，需要设置特定的环境变量来跳过预编译检查并指定版本。请尝试使用以下命令进行安装：\n\n```bash\nSETUPTOOLS_SCM_PRETEND_VERSION=0.0.1 VLLM_USE_PRECOMPILED=1 pip install -v -e .\n```\n\n此外，如果使用的是非官方分支的源码，可能需要移除 `VLLM_TEST_USE_PRECOMPILED_NIGHTLY_WHEEL` 变量。",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},15145,"如何在 Google Colab 中成功运行 Seed-OSS 模型？","在 Colab 中运行时，除了升级库之外，还需要注意以下几点：\n1. 升级 transformers：`!pip install --upgrade transformers`\n2. 加载模型时必须设置 `trust_remote_code=True`。\n3. 如果遇到网络配置问题导致无法直接加载，可以尝试本地克隆代码库，切换到 `seed-oss` 分支后运行 `pip3 install .` 进行安装。\n\n示例代码：\n```python\nfrom transformers import pipeline\npipe = pipeline(\n    \"text-generation\", \n    model=\"ByteDance-Seed\u002FSeed-OSS-36B-Instruct\",\n    trust_remote_code=True\n)\n```","https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\u002Fissues\u002F7",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},15146,"Seed-OSS-36B-Instruct 模型的训练 lineage（血缘关系）是怎样的？它基于哪个基座模型？","`Seed-OSS-36B-Instruct` 是直接基于 `Seed-OSS-36B-Base` 模型进行指令微调训练得到的。\n\n训练 lineage 为：\n`Seed-OSS-36B-Base` -> `Seed-OSS-36B-Instruct`\n\n如果您考虑合并模型变体，请确认它们是否源自同一个基座训练路径。","https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\u002Fissues\u002F11",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},15147,"启动 vLLM 服务时提示找不到 `chat_template.jinja` 文件，该文件在哪里？","该文件位于 Hugging Face 模型仓库中。您可以直接从以下链接获取：\nhttps:\u002F\u002Fhuggingface.co\u002FByteDance-Seed\u002FSeed-OSS-36B-Instruct\u002Fblob\u002Fmain\u002Fchat_template.jinja\n\n在启动命令中，您可以指定该文件的本地路径，或者确保该文件存在于您指定的相对路径下。","https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\u002Fissues\u002F3",{"id":127,"question_zh":128,"answer_zh":129,"source_url":106},15148,"是否有 Seed-OSS 模型的量化版本（如 GPTQ 或 AWQ）可用？","是的，社区已提供 GPTQ 和 AWQ 量化版本的模型，您可以在 Hugging Face 上找到：\n\n- **AWQ 版本**: https:\u002F\u002Fhuggingface.co\u002FQuantTrio\u002FSeed-OSS-36B-Instruct-AWQ\n- **GPTQ (Int8) 版本**: https:\u002F\u002Fhuggingface.co\u002FQuantTrio\u002FSeed-OSS-36B-Instruct-GPTQ-Int8\n\n这些版本适合显存受限的场景使用。",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},15149,"安装了指定版本的 vLLM 和 transformers 后仍然无法正常运行，可能是什么原因？","如果更新到最新版（transformers>=4.56.1, vllm>=0.10.2）后仍报错，请检查以下几点：\n1. 确认安装的是官方正式发布的版本，而不是开发版（dev）或预发布版（rc），除非官方明确指引使用特定 commit。\n2. 检查环境变量，尝试移除 `VLLM_TEST_USE_PRECOMPILED_NIGHTLY_WHEEL`。\n3. 如果是从源码安装，确保使用了正确的分支（如 `seed-oss`）。\n\n可以通过 `pip3 show transformers` 和 `pip3 show vllm` 查看当前安装的具体版本号进行核对。","https:\u002F\u002Fgithub.com\u002FByteDance-Seed\u002Fseed-oss\u002Fissues\u002F18",[]]