[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zai-org--GLM-5":3,"tool-zai-org--GLM-5":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":76,"stars":80,"forks":81,"last_commit_at":82,"license":83,"difficulty_score":84,"env_os":85,"env_gpu":86,"env_ram":87,"env_deps":88,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":135},4691,"zai-org\u002FGLM-5","GLM-5","GLM-5: From Vibe Coding to Agentic Engineering","GLM-5 是一款面向复杂系统工程与长周期智能体任务的开源大语言模型。它旨在解决现有模型在处理高难度推理、全栈代码生成及需要长期规划的实际业务场景时，能力不足或规划连贯性较差的问题。无论是需要构建复杂软件系统的开发者、探索通用人工智能边界的研究人员，还是寻求自动化解决方案的企业用户，都能从中获益。\n\n作为 GLM-4.5 的进化版，GLM-5 将参数量从 3550 亿扩展至 7440 亿（激活参数 400 亿），并将预训练数据量提升至 28.5 万亿词元。其独特技术亮点在于集成了 DeepSeek 稀疏注意力机制，在保持超长上下文处理能力的同时大幅降低了部署成本；同时，项目配套发布了名为\"slime\"的新型异步强化学习基础设施，显著提升了训练效率，使模型在推理、编程及智能体任务上达到了开源领域的顶尖水平，甚至在部分长周期任务中逼近业界最前沿的闭源模型。GLM-5 支持本地化部署，兼容 vLLM、SGLang 等主流框架，并提供 FP8 量化版本以优化资源占用，是追求高性能与低成本平衡的理想选择。","# GLM-5\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=resources\u002Flogo.svg width=\"15%\"\u002F>\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n    👋 Join our \u003Ca href=\"resources\u002FWECHAT.md\" target=\"_blank\">Wechat\u003C\u002Fa> or \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FzFMhpMRFP\" target=\"_blank\">Discord\u003C\u002Fa> community.\n    \u003Cbr>\n    📖 Check out the GLM-5 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.15763\" target=\"_blank\">Technical report\u003C\u002Fa>.\n    \u003Cbr>\n    📍 Use GLM-5 API services on \u003Ca href=\"https:\u002F\u002Fdocs.z.ai\u002Fguides\u002Fllm\u002Fglm-5\">Z.ai API Platform. \u003C\u002Fa>\n    \u003Cbr>\n    👉 One click to \u003Ca href=\"https:\u002F\u002Fchat.z.ai\">GLM-5\u003C\u002Fa>.\n\u003C\u002Fp>\n\n## Introduction\n\nWe are launching GLM-5, targeting complex systems engineering and long-horizon agentic tasks. Scaling is still one of the most important ways to improve the intelligence efficiency of Artificial General Intelligence (AGI). Compared to GLM-4.5, GLM-5 scales from 355B parameters (32B active) to 744B parameters (40B active), and increases pre-training data from 23T to 28.5T tokens. GLM-5 also integrates DeepSeek Sparse Attention (DSA), largely reducing deployment cost while preserving long-context capacity.\n\nReinforcement learning aims to bridge the gap between competence and excellence in pre-trained models. However, deploying it at scale for LLMs is a challenge due to the RL training inefficiency. To this end, we developed [slime](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fslime), a novel **asynchronous RL infrastructure** that substantially improves training throughput and efficiency, enabling more fine-grained post-training iterations. With advances in both pre-training and post-training, GLM-5 delivers significant improvement compared to GLM-4.7 across a wide range of academic benchmarks and achieves best-in-class performance among all open-source models in the world on reasoning, coding, and agentic tasks,  closing the gap with frontier models.\n\n![bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_c095569ef56e.png)\n\nGLM-5 is purpose-built for complex systems engineering and long-horizon agentic tasks. On our internal evaluation suite CC-Bench-V2, GLM-5 significantly outperforms GLM-4.7 across frontend, backend, and long-horizon tasks, narrowing the gap to Claude Opus 4.5.\n\n![realworld_bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_df4484e0b69b.png)\n\nOn [Vending Bench 2](https:\u002F\u002Fandonlabs.com\u002Fevals\u002Fvending-bench-2), a benchmark that measures long-term operational capability, GLM-5 ranks \\#1 among open-source models. Vending Bench 2 requires the model to run a simulated vending machine business over a one-year horizon; GLM-5 finishes with a final account balance of $4,432, approaching Claude Opus 4.5 and demonstrating strong long-term planning and resource management.\n\n![vending_bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_2b01e0a1f9a3.png)\n\n## Download Model\n\n| Model     | Download Links                                                                                                                  | Model Size | Precision |\n|-----------|---------------------------------------------------------------------------------------------------------------------------------|------------|-----------|\n| GLM-5     | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FZhipuAI\u002FGLM-5)         | 744B-A40B  | BF16      |\n| GLM-5-FP8 | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5-FP8)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FZhipuAI\u002FGLM-5-FP8) | 744B-A40B  | FP8       |\n\n## Serve GLM-5 Locally\n\n### Prepare environment\n\nvLLM, SGLang, and xLLM all support local deployment of GLM-5. A simple deployment guide is provided here.\n\n+ vLLM\n\n    Using Docker (version 0.18.0 or higher):\n\n    ```shell\n    docker pull vllm\u002Fvllm-openai:v0.18.0\n    ```\n\n    then upgrade transformers (version 5.4.0 or higher):\n\n    ```\n    pip install -U transformers\n    ```\n\n+ SGLang\n\n    Using Docker as:\n\n  ```bash\n    docker pull lmsysorg\u002Fsglang:glm5-hopper # For Hopper GPU\n    docker pull lmsysorg\u002Fsglang:glm5-blackwell # For Blackwell GPU\n    ```\n\n### Deploy\n\n+ vLLM\n\n    ```shell\n    vllm serve zai-org\u002FGLM-5-FP8 \\\n         --tensor-parallel-size 8 \\\n         --gpu-memory-utilization 0.85 \\\n         --speculative-config.method mtp \\\n         --speculative-config.num_speculative_tokens 1 \\\n         --tool-call-parser glm47 \\\n         --reasoning-parser glm45 \\\n         --enable-auto-tool-choice \\\n         --served-model-name glm-5-fp8\n    ```\n\n    Check the [recipes](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Frecipes\u002Fblob\u002Fmain\u002FGLM\u002FGLM5.md) for more details.\n\n+ SGLang\n\n    ```shell\n    sglang serve \\\n      --model-path zai-org\u002FGLM-5-FP8 \\\n      --tp-size 8 \\\n      --tool-call-parser glm47  \\\n      --reasoning-parser glm45 \\\n      --speculative-algorithm EAGLE \\\n      --speculative-num-steps 3 \\\n      --speculative-eagle-topk 1 \\\n      --speculative-num-draft-tokens 4 \\\n      --mem-fraction-static 0.85 \\\n      --served-model-name glm-5-fp8\n    ```\n\n    Check the [sglang cookbook](https:\u002F\u002Fcookbook.sglang.io\u002Fautoregressive\u002FGLM\u002FGLM-5) for more details.\n\n+ xLLM and other Ascend NPU\n\n    Please check the deployment guide [here](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fblob\u002Fmain\u002Fexample\u002Fascend.md).\n\n## Citation\n\nIf you find GLM-5 useful in your research, please cite our technical report:\n\n```bibtex\n@misc{glm5team2026glm5vibecodingagentic,\n      title={GLM-5: from Vibe Coding to Agentic Engineering},\n      author={GLM-5-Team and : and Aohan Zeng and Xin Lv and Zhenyu Hou and Zhengxiao Du and Qinkai Zheng and Bin Chen and Da Yin and Chendi Ge and Chenghua Huang and Chengxing Xie and Chenzheng Zhu and Congfeng Yin and Cunxiang Wang and Gengzheng Pan and Hao Zeng and Haoke Zhang and Haoran Wang and Huilong Chen and Jiajie Zhang and Jian Jiao and Jiaqi Guo and Jingsen Wang and Jingzhao Du and Jinzhu Wu and Kedong Wang and Lei Li and Lin Fan and Lucen Zhong and Mingdao Liu and Mingming Zhao and Pengfan Du and Qian Dong and Rui Lu and Shuang-Li and Shulin Cao and Song Liu and Ting Jiang and Xiaodong Chen and Xiaohan Zhang and Xuancheng Huang and Xuezhen Dong and Yabo Xu and Yao Wei and Yifan An and Yilin Niu and Yitong Zhu and Yuanhao Wen and Yukuo Cen and Yushi Bai and Zhongpei Qiao and Zihan Wang and Zikang Wang and Zilin Zhu and Ziqiang Liu and Zixuan Li and Bojie Wang and Bosi Wen and Can Huang and Changpeng Cai and Chao Yu and Chen Li and Chengwei Hu and Chenhui Zhang and Dan Zhang and Daoyan Lin and Dayong Yang and Di Wang and Ding Ai and Erle Zhu and Fangzhou Yi and Feiyu Chen and Guohong Wen and Hailong Sun and Haisha Zhao and Haiyi Hu and Hanchen Zhang and Hanrui Liu and Hanyu Zhang and Hao Peng and Hao Tai and Haobo Zhang and He Liu and Hongwei Wang and Hongxi Yan and Hongyu Ge and Huan Liu and Huanpeng Chu and Jia'ni Zhao and Jiachen Wang and Jiajing Zhao and Jiamin Ren and Jiapeng Wang and Jiaxin Zhang and Jiayi Gui and Jiayue Zhao and Jijie Li and Jing An and Jing Li and Jingwei Yuan and Jinhua Du and Jinxin Liu and Junkai Zhi and Junwen Duan and Kaiyue Zhou and Kangjian Wei and Ke Wang and Keyun Luo and Laiqiang Zhang and Leigang Sha and Liang Xu and Lindong Wu and Lintao Ding and Lu Chen and Minghao Li and Nianyi Lin and Pan Ta and Qiang Zou and Rongjun Song and Ruiqi Yang and Shangqing Tu and Shangtong Yang and Shaoxiang Wu and Shengyan Zhang and Shijie Li and Shuang Li and Shuyi Fan and Wei Qin and Wei Tian and Weining Zhang and Wenbo Yu and Wenjie Liang and Xiang Kuang and Xiangmeng Cheng and Xiangyang Li and Xiaoquan Yan and Xiaowei Hu and Xiaoying Ling and Xing Fan and Xingye Xia and Xinyuan Zhang and Xinze Zhang and Xirui Pan and Xu Zou and Xunkai Zhang and Yadi Liu and Yandong Wu and Yanfu Li and Yidong Wang and Yifan Zhu and Yijun Tan and Yilin Zhou and Yiming Pan and Ying Zhang and Yinpei Su and Yipeng Geng and Yong Yan and Yonglin Tan and Yuean Bi and Yuhan Shen and Yuhao Yang and Yujiang Li and Yunan Liu and Yunqing Wang and Yuntao Li and Yurong Wu and Yutao Zhang and Yuxi Duan and Yuxuan Zhang and Zezhen Liu and Zhengtao Jiang and Zhenhe Yan and Zheyu Zhang and Zhixiang Wei and Zhuo Chen and Zhuoer Feng and Zijun Yao and Ziwei Chai and Ziyuan Wang and Zuzhou Zhang and Bin Xu and Minlie Huang and Hongning Wang and Juanzi Li and Yuxiao Dong and Jie Tang},\n      year={2026},\n      eprint={2602.15763},\n      archivePrefix={arXiv},\n      primaryClass={cs.LG},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.15763},\n}\n```\n","# GLM-5\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=resources\u002Flogo.svg width=\"15%\"\u002F>\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n    👋 加入我们的 \u003Ca href=\"resources\u002FWECHAT.md\" target=\"_blank\">微信\u003C\u002Fa> 或 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FzFMhpMRFP\" target=\"_blank\">Discord\u003C\u002Fa> 社区。\n    \u003Cbr>\n    📖 查看 GLM-5 的 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.15763\" target=\"_blank\">技术报告\u003C\u002Fa>。\n    \u003Cbr>\n    📍 在 \u003Ca href=\"https:\u002F\u002Fdocs.z.ai\u002Fguides\u002Fllm\u002Fglm-5\">Z.ai API 平台\u003C\u002Fa> 上使用 GLM-5 API 服务。\n    \u003Cbr>\n    👉 一键访问 \u003Ca href=\"https:\u002F\u002Fchat.z.ai\">GLM-5\u003C\u002Fa>。\n\u003C\u002Fp>\n\n## 简介\n\n我们推出 GLM-5，旨在应对复杂系统工程和长周期代理任务。规模扩展仍然是提升通用人工智能（AGI）智能效率的最重要途径之一。与 GLM-4.5 相比，GLM-5 的参数量从 355B（32B 活性参数）增加到 744B（40B 活性参数），预训练数据也从 23T 增加至 28.5T 个标记。此外，GLM-5 集成了 DeepSeek 稀疏注意力机制（DSA），在保持长上下文能力的同时大幅降低了部署成本。\n\n强化学习旨在弥合预训练模型的能力与卓越表现之间的差距。然而，由于 RL 训练效率低下，将其大规模应用于大语言模型仍面临挑战。为此，我们开发了 [slime](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fslime)，一种新颖的 **异步 RL 基础设施**，可显著提升训练吞吐量和效率，从而实现更精细的后训练迭代。凭借预训练和后训练两方面的进步，GLM-5 在广泛的学术基准测试中相比 GLM-4.7 取得了显著提升，并在推理、编码和代理任务方面达到了全球开源模型中的顶尖水平，进一步缩小了与前沿模型的差距。\n\n![bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_c095569ef56e.png)\n\nGLM-5 专为复杂系统工程和长周期代理任务而设计。在我们的内部评估套件 CC-Bench-V2 上，GLM-5 在前端、后端以及长周期任务中均显著优于 GLM-4.7，与 Claude Opus 4.5 的差距也进一步缩小。\n\n![realworld_bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_df4484e0b69b.png)\n\n在衡量长期运营能力的 [Vending Bench 2](https:\u002F\u002Fandonlabs.com\u002Fevals\u002Fvending-bench-2) 基准测试中，GLM-5 在开源模型中位居第一。该测试要求模型模拟运行一家自动售货机业务一年；GLM-5 最终账户余额达到 4,432 美元，接近 Claude Opus 4.5 的水平，展现出强大的长期规划和资源管理能力。\n\n![vending_bench](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_readme_2b01e0a1f9a3.png)\n\n## 模型下载\n\n| 模型     | 下载链接                                                                                                                  | 模型大小 | 精度 |\n|-----------|---------------------------------------------------------------------------------------------------------------------------------|------------|-----------|\n| GLM-5     | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FZhipuAI\u002FGLM-5)         | 744B-A40B  | BF16      |\n| GLM-5-FP8 | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5-FP8)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FZhipuAI\u002FGLM-5-FP8) | 744B-A40B  | FP8       |\n\n## 在本地部署 GLM-5\n\n### 准备环境\n\nvLLM、SGLang 和 xLLM 均支持 GLM-5 的本地部署。以下提供一个简单的部署指南。\n\n+ vLLM\n\n    使用 Docker（版本 0.18.0 或更高）：\n\n    ```shell\n    docker pull vllm\u002Fvllm-openai:v0.18.0\n    ```\n\n    然后升级 transformers 库（版本 5.4.0 或更高）：\n\n    ```\n    pip install -U transformers\n    ```\n\n+ SGLang\n\n    使用 Docker：\n\n  ```bash\n    docker pull lmsysorg\u002Fsglang:glm5-hopper # 适用于 Hopper GPU\n    docker pull lmsysorg\u002Fsglang:glm5-blackwell # 适用于 Blackwell GPU\n    ```\n\n### 部署\n\n+ vLLM\n\n    ```shell\n    vllm serve zai-org\u002FGLM-5-FP8 \\\n         --tensor-parallel-size 8 \\\n         --gpu-memory-utilization 0.85 \\\n         --speculative-config.method mtp \\\n         --speculative-config.num_speculative_tokens 1 \\\n         --tool-call-parser glm47 \\\n         --reasoning-parser glm45 \\\n         --enable-auto-tool-choice \\\n         --served-model-name glm-5-fp8\n    ```\n\n    更多详情请参阅 [recipes](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Frecipes\u002Fblob\u002Fmain\u002FGLM\u002FGLM5.md)。\n\n+ SGLang\n\n    ```shell\n    sglang serve \\\n      --model-path zai-org\u002FGLM-5-FP8 \\\n      --tp-size 8 \\\n      --tool-call-parser glm47  \\\n      --reasoning-parser glm45 \\\n      --speculative-algorithm EAGLE \\\n      --speculative-num-steps 3 \\\n      --speculative-eagle-topk 1 \\\n      --speculative-num-draft-tokens 4 \\\n      --mem-fraction-static 0.85 \\\n      --served-model-name glm-5-fp8\n    ```\n\n    更多详情请参阅 [sglang 烹饪书](https:\u002F\u002Fcookbook.sglang.io\u002Fautoregressive\u002FGLM\u002FGLM-5)。\n\n+ xLLM 和其他 Ascend NPU\n\n    请参阅此处的部署指南 [here](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fblob\u002Fmain\u002Fexample\u002Fascend.md).\n\n## 引用\n\n如果您在研究中使用了 GLM-5，请引用我们的技术报告：\n\n```bibtex\n@misc{glm5team2026glm5vibecodingagentic,\n      title={GLM-5：从氛围编码到智能体工程},\n      author={GLM-5团队和：以及曾傲寒、吕欣、侯振宇、杜正啸、郑钦凯、陈斌、殷达、葛晨迪、黄成华、谢承兴、朱晨正、尹聪峰、王存祥、潘耿政、曾浩、张浩科、王浩然、陈辉龙、张佳杰、焦健、郭嘉琪、王京森、杜景钊、吴金柱、王克东、李磊、范林、钟露辰、刘明道、赵明明、杜鹏帆、董倩、陆锐、双莉、曹淑琳、刘松、蒋婷、陈晓东、张晓涵、黄宣诚、董雪珍、徐亚博、魏瑶、安一凡、牛怡琳、朱一彤、文元昊、岑玉阔、白宇诗、乔仲培、王子涵、王梓康、朱子林、刘子强、李子轩、王博杰、温博思、黄灿、蔡昌鹏、于超、李晨、胡承伟、张晨辉、张丹、林道言、杨大勇、王迪、艾丁、朱尔乐、易方舟、陈飞宇、文国洪、孙海龙、赵海莎、胡海怡、张瀚辰、刘汉睿、张涵宇、彭浩、泰浩、张浩波、刘鹤、王洪伟、闫洪喜、葛洪宇、刘欢、楚欢鹏、赵佳妮、王家琛、赵佳静、任佳敏、王佳鹏、张佳鑫、桂佳艺、赵佳悦、李继杰、安晶、李静、袁景威、杜金花、刘金鑫、支俊凯、段俊文、周凯越、魏康健、王可、罗克云、张来强、沙雷刚、许亮、吴林东、丁林涛、陈璐、李明浩、林念义、塔潘、邹强、宋荣军、杨瑞奇、涂尚青、杨尚通、吴绍祥、张圣炎、李世杰、李双、范淑仪、秦伟、田伟、张卫宁、于文博、梁文杰、匡翔、程向梦、李向阳、严小泉、胡晓伟、凌晓英、范兴、夏兴业、张新源、张鑫泽、潘西瑞、邹旭、张勋凯、刘雅迪、吴燕东、李延福、王一东、朱一凡、谭一君、周怡琳、潘一鸣、张颖、苏银佩、耿一鹏、颜永、谭永林、毕月安、沈宇涵、杨宇豪、李宇江、刘宇楠、王云清、李云涛、吴雨蓉、张宇涛、段宇曦、张宇轩、刘泽震、姜正涛、严振河、张哲宇、魏志祥、陈卓、冯卓尔、姚子俊、柴子威、王子源、张祖洲、徐彬、黄敏列、王洪宁、李娟子、董宇霄、唐杰},\n      year={2026},\n      eprint={2602.15763},\n      archivePrefix={arXiv},\n      primaryClass={cs.LG},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.15763},\n}\n```","# GLM-5 快速上手指南\n\nGLM-5 是专为复杂系统工程和长周期智能体任务设计的开源大模型。相比前代，其参数量扩展至 744B（激活 40B），预训练数据达 28.5T tokens，并集成了 DeepSeek 稀疏注意力机制（DSA），在保持长上下文能力的同时显著降低了部署成本。\n\n## 环境准备\n\n### 系统要求\n- **GPU**: 推荐使用 NVIDIA Hopper (H100\u002FH800) 或 Blackwell 架构显卡。\n- **显存**: 运行 FP8 量化版本建议至少 8 张高性能 GPU（总显存需满足模型加载需求）。\n- **Docker**: 已安装 Docker 引擎（用于容器化部署）。\n\n### 前置依赖\n确保本地已安装以下基础软件：\n- Docker (版本不限，需能拉取最新镜像)\n- Python & pip (用于升级特定库)\n\n## 安装步骤\n\nGLM-5 支持通过 **vLLM** 或 **SGLang** 进行本地部署。国内开发者可优先从 **ModelScope (魔搭)** 下载模型以获得更快的下载速度。\n\n### 1. 获取模型\n推荐从 ModelScope 下载（需安装 `modelscope` 库）：\n```bash\npip install modelscope\n# 示例：下载 FP8 量化版本以节省显存\ngit lfs install\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002FZhipuAI\u002FGLM-5-FP8.git\n```\n*注：也可从 Hugging Face 下载：`zai-org\u002FGLM-5-FP8`*\n\n### 2. 部署框架安装\n\n#### 方案 A：使用 vLLM (推荐)\n拉取官方 Docker 镜像并升级 transformers 库：\n```shell\ndocker pull vllm\u002Fvllm-openai:v0.18.0\npip install -U transformers\n```\n\n#### 方案 B：使用 SGLang\n根据 GPU 架构拉取对应的 Docker 镜像：\n```bash\n# 适用于 Hopper 架构 GPU (如 H100)\ndocker pull lmsysorg\u002Fsglang:glm5-hopper \n\n# 适用于 Blackwell 架构 GPU\ndocker pull lmsysorg\u002Fsglang:glm5-blackwell \n```\n\n## 基本使用\n\n以下命令将启动本地 API 服务，默认监听端口可通过 `--served-model-name` 指定模型别名。\n\n### 启动服务 (vLLM)\n使用 FP8 版本启动，开启 8 卡张量并行，并启用针对 GLM 系列优化的工具调用与推理解析器：\n\n```shell\nvllm serve zai-org\u002FGLM-5-FP8 \\\n     --tensor-parallel-size 8 \\\n     --gpu-memory-utilization 0.85 \\\n     --speculative-config.method mtp \\\n     --speculative-config.num_speculative_tokens 1 \\\n     --tool-call-parser glm47 \\\n     --reasoning-parser glm45 \\\n     --enable-auto-tool-choice \\\n     --served-model-name glm-5-fp8\n```\n\n### 启动服务 (SGLang)\n使用 EAGLE 投机采样算法加速推理：\n\n```shell\nsglang serve \\\n  --model-path zai-org\u002FGLM-5-FP8 \\\n  --tp-size 8 \\\n  --tool-call-parser glm47  \\\n  --reasoning-parser glm45 \\\n  --speculative-algorithm EAGLE \\\n  --speculative-num-steps 3 \\\n  --speculative-eagle-topk 1 \\\n  --speculative-num-draft-tokens 4 \\\n  --mem-fraction-static 0.85 \\\n  --served-model-name glm-5-fp8\n```\n\n### 调用示例\n服务启动后，可通过标准的 OpenAI API 格式进行调用。例如使用 `curl` 测试：\n\n```bash\ncurl http:\u002F\u002Flocalhost:8000\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"glm-5-fp8\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"请规划一个为期一年的自动售货机运营策略。\"}]\n  }'\n```\n\n> **提示**：更多高级配置（如 Ascend NPU 部署）请参考官方仓库中的 [Ascend 部署指南](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fblob\u002Fmain\u002Fexample\u002Fascend.md)。","某中型电商团队正试图将遗留的单体架构重构为微服务系统，并需开发一套能自动监控库存、动态调整定价的长期运营代理。\n\n### 没有 GLM-5 时\n- **长程任务易迷失**：在处理跨越数周的模拟运营或复杂重构时，模型往往在中途忘记初始约束，导致逻辑断层或资源分配错误。\n- **代码工程能力弱**：生成的代码片段虽能运行，但缺乏系统级考量，难以直接整合进现有的复杂后端框架，需人工大量修补。\n- **推理成本高企**：为了维持较长的上下文窗口以理解整个项目结构，不得不使用昂贵的闭源模型或牺牲精度进行截断。\n- **迭代效率低下**：缺乏高效的强化学习反馈机制，模型在面对新出现的边缘案例时，无法快速自我修正策略。\n\n### 使用 GLM-5 后\n- **长程规划稳健**：凭借 28.5T 令牌预训练和长上下文能力，GLM-5 能完整记住一年的运营目标，在模拟测试中最终账户余额高达 4,432 美元，展现出卓越的资源管理力。\n- **系统级工程落地**：从“氛围编程”升级为“代理工程”，GLM-5 生成的代码不仅符合语法，更具备架构意识，能直接处理前后端复杂的交互逻辑。\n- **部署成本大幅降低**：集成 DeepSeek 稀疏注意力机制（DSA），在保持超长上下文的同时显著减少了显存占用，使得本地部署 744B 大模型变得经济可行。\n- **智能自我进化**：基于异步强化学习基础设施，GLM-5 能在复杂任务中不断微调策略，准确处理突发流量和库存异常，表现接近顶尖闭源模型。\n\nGLM-5 通过突破长程规划与系统工程的瓶颈，让开源模型首次具备了独立驾驭复杂、长期自动化任务的核心能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzai-org_GLM-5_c095569e.png","zai-org","Z.ai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzai-org_f0d5ae80.png","ChatGLM, GLM-4.5, CogVLM, CodeGeeX, CogView, CogVideoX | CogDL, AMiner | Zhipu.ai (Z.ai)",null,"Zai_org","https:\u002F\u002Fwww.zhipuai.cn\u002Fen","https:\u002F\u002Fgithub.com\u002Fzai-org",2077,184,"2026-04-06T18:20:04","Apache-2.0",5,"Linux","必需。推荐使用 NVIDIA Hopper (H100\u002FH800) 或 Blackwell (B200\u002FGB200) 架构 GPU。部署 744B (40B active) 参数模型需多卡并行（示例命令显示 --tensor-parallel-size 8），显存需求极高，建议使用 FP8 量化版本以降低显存占用。","未说明（取决于具体部署配置，通常需数百 GB 系统内存以支持大规模模型加载）",{"notes":89,"python":90,"dependencies":91},"该模型参数量巨大（总参数 744B，激活参数 40B），本地部署必须使用多卡并行（Tensor Parallelism）。官方提供了针对 vLLM 和 SGLang 的 Docker 镜像，其中 SGLang 镜像区分了 Hopper 和 Blackwell 两种 GPU 架构。强烈建议使用 FP8 量化版本进行推理以降低成本。此外，模型也支持华为 Ascend NPU 部署，需参考专门的指南。","未说明",[92,93,94,95],"vllm>=0.18.0","transformers>=5.4.0","sglang (glm5-hopper\u002Fblackwell)","docker",[13,14,35],[98,99,100,101],"agentic-ai","coding","glm","llm","2026-03-27T02:49:30.150509","2026-04-07T08:18:32.720889",[105,110,115,120,125,130],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},21332,"GLM-5 的 PPL（困惑度）值异常高且生成中文不通顺，是正常现象吗？","这通常是因为未正确使用模板（template）或计算方式有误。用户反馈在使用 generate 函数时中文不通顺，且手动计算 PPL 高达 170 多（对比 DeepSeek R1 的 3 点多）。维护者指出可能存在索引器未使用 is_neox_style rope 的潜在 Bug。建议检查是否应用了正确的聊天模板，并确认代码中是否正确处理了 RoPE 样式。如果问题依旧，可尝试移除量化部分（tx_quant）复现测试。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F32",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},21333,"在 sglang 或 vLLM 环境中遇到 'glm_moe_dsa' KeyError 或 transformers 版本不兼容怎么办？","这是正常的冲突现象。当 vLLM 更新到最新的 transformers 库时可能会提示冲突。解决方法是先安装 vLLM，然后再安装 transformers 库（即：先装 vLLM 后装 transformers），这样可以解决依赖冲突问题。无需等待团队同步，按此顺序安装即可消除错误。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F22",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},21334,"GLM-5-Flash 轻量级模型是否有发布计划？","目前官方没有发布 GLM-5-Flash 相关模型的计划。如果需要更好的代理性能且追求速度，建议尝试使用 GLM-5-Turbo 模型作为替代方案。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F29",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},21335,"论文中提到的 LiveCodeBench-Base 评估具体是指哪个数据范围？","论文中的 \"LiveCodeBench-Base\" 使用的是 2024-08-01 到 2024-11-01 的日期范围。这一划分标准与 DeepSeek-V3 技术报告中使用的分割方式一致。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F26",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},21336,"On-Policy Cross-Stage Distillation 中为什么看起来使用了 Forward KL？","这是一个常见的误解。实际上，虽然公式表面上像 Forward KL，但在实现中负号被吸收进了对数项，本质上是 Reverse KL。具体而言，轨迹是从当前学生模型中按策略采样的，教师模型仅提供这些轨迹上的 token 级对数概率。训练信号等价于使用负的每 token 反向 KL（negative per-token reverse KL），代码实现为计算 student_log_prob - teacher_log_prob 并取其负值作为优势。其目的不是强制覆盖教师分布的所有模式，而是为学生实际访问的状态提供密集的 token 级修正信号。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F34",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},21337,"在华为昇腾（Ascend\u002FNPU）设备上运行 glm-5-w4a8 出现乱码如何解决？","该问题涉及到底层算子适配，建议前往 vLLM-Ascend 仓库提交 Issue。维护者已与华为同事沟通，那边有专人负责跟进此类 NPU 设备上的推理乱码问题。请提供具体的推理速度和环境信息以便排查。","https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-5\u002Fissues\u002F35",[]]