GLM-4.5
GLM-4.5 是智谱 AI 推出的新一代基础大模型,专注于强化智能体(Agentic)、逻辑推理与代码生成三大核心能力。它旨在解决传统模型在处理复杂编程任务、多步骤自主操作及高难度数学推理时表现不稳的难题,让 AI 不仅能“回答问题”,更能像人类专家一样“思考并执行任务”。
这款模型特别适合开发者、技术研究人员以及需要构建自动化工作流的企业用户。对于程序员而言,GLM-4.5 能显著提升多语言代码编写、调试及终端任务的处理效率;对于研究者,其强大的推理底座有助于探索更复杂的智能体应用场景。
其独特的技术亮点在于引入了“交错式思考”(Interleaved Thinking)机制。模型在采取行动或调用工具前会先进行深度思考,并在多轮对话中自动保留之前的思维链条,避免重复推导导致的信息丢失。这种设计使得长程复杂任务的执行更加稳定可控。此外,它还支持按轮次灵活开关思考模式,让用户能在追求高精度推理与控制成本延迟之间找到最佳平衡点,是构建高效智能编码助手和自主代理的理想基石。
使用场景
某全栈开发团队正紧急重构一个遗留的多语言电商后台,需在三天内完成从数据库迁移到前端界面现代化的全流程改造。
没有 GLM-4.5 时
- 代码断层严重:在处理跨语言(如 Python 后端与 Vue 前端)的代理任务时,模型常遗忘之前的逻辑设定,导致生成的代码片段无法衔接,开发者需反复手动修补上下文。
- 推理深度不足:面对复杂的库存算法迁移,模型缺乏“先思考后行动”的机制,直接输出错误代码,导致调试时间远超编写时间。
- 界面粗糙过时:自动生成的管理后台页面布局混乱、样式陈旧,无法达到现代 UI 标准,设计师必须重新手写 CSS 进行美化。
- 长任务失控:在执行涉及多个终端命令的部署脚本时,模型容易在中间步骤迷失方向,无法保持长链路任务的一致性。
使用 GLM-4.5 后
- 思维持久化:利用“保留思维(Preserved Thinking)”特性,GLM-4.5 在多轮对话中自动复用之前的推理结论,确保前后端代码逻辑无缝对齐,无需重复解释架构。
- 交错式推理:通过“交错思考(Interleaved Thinking)”,GLM-4.5 在执行复杂算法迁移前先拆解步骤并自我验证,显著降低了逻辑错误率,一次性通过率大幅提升。
- 现代化 UI 生成:依托增强的"Vibe Coding"能力,GLM-4.5 直接输出布局精准、风格现代的响应式网页和幻灯片,大幅减少了前端微调的工作量。
- 长链路稳定执行:在处理终端部署等长周期任务时,GLM-4.5 能保持跨回合的思维一致性,自主规划并稳定执行多步命令,实现了真正的自动化闭环。
GLM-4.5 通过其独特的思维保持与交错推理机制,将复杂的代理开发任务从“碎片化试错”转变为“连贯性交付”,极大提升了全栈工程的生产效率与代码质量。
运行环境要求
- Linux
- 推理必需 NVIDIA GPU
- 基础运行推荐:GLM-4.5 (FP8) 需 8x H100,GLM-4.5-Air (FP8) 需 2x H100,GLM-4.7-Flash (BF16) 需 1x H100
- 满上下文 (128K/200K) 运行需加倍显卡数量
- 支持 Ascend A3 NPU 和 AMD GPU(需参考特定指南)
- 设备需原生支持 FP8 推理以获得最佳性能
服务器内存必须超过 1TB (1T+) 以确保模型正常加载和运行。

快速开始
GLM-4.7、GLM-4.6 和 GLM-4.5
👋 欢迎加入我们的 微信 或 Discord 社区。
📖 请查看 GLM-4.7 的 技术博客、技术报告(GLM-4.5) 以及 智谱AI技术文档。
📍 您可以在 Z.ai API 平台 上使用 GLM-4.7 API 服务。
👉 一键体验 GLM-4.7。
模型介绍
GLM-4.7
GLM-4.7,您的全新编码伙伴,具备以下特性:
- 核心编码能力:与前代模型 GLM-4.6 相比,GLM-4.7 在多语言代理式编码及终端任务上取得了显著提升,包括在 SWE-bench 上提升至 73.8%(+5.8%),在 SWE-bench 多语言版本上提升至 66.7%(+12.9%),以及在 Terminal Bench 2.0 上提升至 41%(+16.5%)。此外,GLM-4.7 支持“先思考再行动”,在 Claude Code、Kilo Code、Cline 和 Roo Code 等主流代理框架中的复杂任务表现也大幅改善。
- 界面设计能力:GLM-4.7 在提升 UI 质量方面迈出了重要一步。它能够生成更简洁、更现代的网页,并在布局和尺寸控制上更加精准,从而产出更具吸引力的演示文稿。
- 工具使用能力:GLM-4.7 在工具使用方面实现了显著提升,在 τ^2-Bench 等基准测试以及通过 BrowseComp 进行的网页浏览任务中均表现出色。
- 复杂推理能力:GLM-4.7 在数学和推理能力上有了大幅提升,其在 HLE(人类终极考试)基准测试中的得分达到 42.8%,相比 GLM-4.6 提升了 12.4%。
总体而言,用户还会在聊天、创意写作和角色扮演等场景中感受到显著的改进。

交错式思维与保留式思维

GLM-4.7 进一步增强了自 GLM-4.5 引入的 交错式思维 功能,并新增了 保留式思维 和 回合级思维。通过在每次行动之间进行思考,并在多个回合中保持一致性,该模型使复杂任务更加稳定可控:
- 交错式思维:模型会在每次响应和调用工具之前进行思考,从而提升指令遵循能力和生成质量。
- 保留式思维:在编码代理场景中,模型会自动保留多轮对话中的所有思考内容,复用已有的推理过程而非从头开始推导。这减少了信息丢失和不一致性,非常适合长期且复杂的任务。
- 回合级思维:模型支持在单个会话中对每一轮的推理进行控制——对于轻量级请求可关闭思考以降低延迟和成本;而对于复杂任务则开启思考,以提高准确性和稳定性。
更多详情:https://docs.z.ai/guides/capabilities/thinking-mode
我们还推出了轻量级的 30B-A3B 模型 GLM-4.7-Flash,为性能与效率兼备的轻量化部署提供了新选择。
GLM-4.6
与 GLM-4.5 相比,GLM-4.6 带来了多项关键改进:
- 更长的上下文窗口:上下文窗口由 128K 扩展至 200K 个标记,使模型能够处理更复杂的代理式任务。
- 卓越的编码性能:该模型在代码基准测试中取得了更高的分数,并在 Claude Code、Cline、Roo Code 和 Kilo Code 等实际应用中表现出色,尤其在生成视觉效果精美的前端页面方面有显著提升。
- 高级推理能力:GLM-4.6 的推理性能明显增强,并支持推理过程中的工具使用,从而整体能力更强。
- 更强的代理能力:GLM-4.6 在工具使用和基于搜索的代理任务中表现更为出色,能够更高效地融入各类代理框架。
- 优化的写作能力:在风格和可读性上更符合人类偏好,在角色扮演场景中表现也更加自然。
我们在涵盖代理、推理和编码的八项公开基准测试中对 GLM-4.6 进行了评估。结果显示,GLM-4.6 相较于 GLM-4.5 取得了明显进步,并且在与国内及国际领先模型(如 DeepSeek-V3.1-Terminus 和 Claude Sonnet 4)的竞争中也具有优势。
GLM-4.5
GLM-4.5 系列模型是专为智能代理设计的基础模型。GLM-4.5 总参数量为 3550 亿,其中活跃参数量为 320 亿;而 GLM-4.5-Air 则采用了更为紧凑的设计,总参数量为 1060 亿,活跃参数量为 120 亿。GLM-4.5 模型将推理、编码和智能代理能力融为一体,以满足智能代理应用的复杂需求。
GLM-4.5 和 GLM-4.5-Air 均为混合推理模型,提供两种模式:用于复杂推理和工具使用的思考模式,以及用于快速响应的非思考模式。
我们已开源了 GLM-4.5 和 GLM-4.5-Air 的基础模型、混合推理模型以及混合推理模型的 FP8 版本。这些模型采用 MIT 开源许可证发布,可用于商业用途及二次开发。
正如我们在 12 项行业标准基准测试中的全面评估所示,GLM-4.5 以 63.2 分的成绩取得了卓越表现,在所有专有及开源模型中位列第 3。值得注意的是,GLM-4.5-Air 以 59.8 分的成绩同样表现出色,同时保持了更高的效率。
更多评估结果、案例展示和技术细节,请访问我们的 技术报告。
模型下载
| 模型 | 下载链接 | 模型大小 | 精度 |
|---|---|---|---|
| GLM-4.7 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | BF16 |
| GLM-4.7-FP8 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | FP8 |
| GLM-4.7-Flash | 🤗 Hugging Face 🤖 ModelScope |
30B-A3B | BF16 |
| GLM-4.6 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | BF16 |
| GLM-4.6-FP8 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | FP8 |
| GLM-4.5 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | BF16 |
| GLM-4.5-Air | 🤗 Hugging Face 🤖 ModelScope |
106B-A12B | BF16 |
| GLM-4.5-FP8 | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | FP8 |
| GLM-4.5-Air-FP8 | 🤗 Hugging Face 🤖 ModelScope |
106B-A12B | FP8 |
| GLM-4.5-Base | 🤗 Hugging Face 🤖 ModelScope |
355B-A32B | BF16 |
| GLM-4.5-Air-Base | 🤗 Hugging Face 🤖 ModelScope |
106B-A12B | BF16 |
- GLM-4.5、GLM-4.6 和 GLM-4.7 的模型代码、工具解析器和推理解析器可以在 transformers、vLLM 和 SGLang 的实现中找到。
- GLM-4.7-Flash 的模型代码可以在 transformers、vLLM 和 SGLang 的实现中找到。
系统要求
使用 Nvidia GPU 进行推理
我们提供了“全功能”模型推理的最低配置和推荐配置。下表中的数据基于以下条件:
- 所有模型均使用 MTP 层,并指定
--speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4,以确保具有竞争力的推理速度。 - 未使用
cpu-offload参数。 - 推理批次大小不超过
8。 - 均在原生支持 FP8 推理的设备上执行,确保权重和缓存均为 FP8 格式。
- 服务器内存必须超过
1T,以确保模型正常加载和运行。
以下配置下的模型可以正常运行:
| 模型 | 精度 | GPU 类型及数量 |
|---|---|---|
| GLM-4.5 | BF16 | H100 x 16 |
| GLM-4.5 | FP8 | H100 x 8 |
| GLM-4.5-Air | BF16 | H100 x 4 |
| GLM-4.5-Air | FP8 | H100 x 2 |
| GLM-4.7-Flash | BF16 | H100 x 1 |
在下表所示的配置下,模型可以充分利用其 128K 上下文长度:
| 模型 | 精度 | GPU 类型及数量 |
|---|---|---|
| GLM-4.5 | BF16 | H100 x 32 |
| GLM-4.5 | FP8 | H100 x 16 |
| GLM-4.5-Air | BF16 | H100 x 8 |
| GLM-4.5-Air | FP8 | H100 x 4 |
| GLM-4.7-Flash | BF16 | H100 x 2 |
其他设备
- 若要在 Ascend A3 设备上使用 xLLM 进行快速推理,请参阅 Ascend NPU 部署指南。
- 若要在 AMD GPU 上运行推理,请参阅 AMD GPU 部署指南。
微调
使用 Llama Factory 时,代码可在下表所示的配置下运行:
| 模型 | GPU 类型及数量 | 策略 | 每 GPU 的批次大小 |
|---|---|---|---|
| GLM-4.5 | H100 x 16 | Lora | 1 |
| GLM-4.5-Air | H100 x 4 | Lora | 1 |
使用 Swift 时,代码可在下表所示的配置下运行:
| 模型 | GPU 类型及数量 | 策略 | 每 GPU 的批次大小 |
|---|---|---|---|
| GLM-4.5 | H20 (96GiB) x 16 | Lora | 1 |
| GLM-4.5-Air | H20 (96GiB) x 4 | Lora | 1 |
| GLM-4.5 | H20 (96GiB) x 128 | SFT | 1 |
| GLM-4.5-Air | H20 (96GiB) x 32 | SFT | 1 |
| GLM-4.5 | H20 (96GiB) x 128 | RL | 1 |
| GLM-4.5-Air | H20 (96GiB) x 32 | RL | 1 |
快速入门
根据 requirements.txt 中的配置要求安装依赖项(sglang、vllm 等)。
transformers
请参考 inference 文件夹中的 trans_infer_cli.py 代码。
vLLM
vllm serve zai-org/GLM-4.7-FP8 \
--tensor-parallel-size 4 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser glm47 \
--reasoning-parser glm45 \
--enable-auto-tool-choice \
--served-model-name glm-4.7-fp8
SGLang
python3 -m sglang.launch_server \
--model-path zai-org/GLM-4.7-FP8 \
--tp-size 8 \
--tool-call-parser glm47 \
--reasoning-parser glm45 \
--speculative-algorithm EAGLE \
--speculative-num-steps 3 \
--speculative-eagle-topk 1 \
--speculative-num-draft-tokens 4 \
--mem-fraction-static 0.8 \
--served-model-name glm-4.7-fp8 \
--host 0.0.0.0 \
--port 8000
- PD-分解
以下是使用单台多GPU机器实现PD-分解的简单方法,其中P和D分别使用4张GPU来运行GLM-4.5:
python -m sglang.launch_server --model-path zai-org/GLM-4.5-Air --disaggregation-mode prefill --disaggregation-ib-device mlx5_0 --tp-size 4
python -m sglang.launch_server --model-path zai-org/GLM-4.5-Air --disaggregation-mode decode --port 30001 --disaggregation-ib-device mlx5_0 --tp-size 4 --base-gpu-id 4
python -m sglang_router.launch_router --pd-disaggregation --prefill http://127.0.0.1:30000 --decode http://127.0.0.1:30001 --host 0.0.0.0 --port 8000
参数说明
对于GLM-4.7,在
vLLM和SGLang方法中,--tool-call-parser应设置为glm47。对于GLM-4.7的代理任务,请通过添加以下配置开启保留思考模式(仅SGLang支持):
"chat_template_kwargs": { "enable_thinking": true, "clear_thinking": false }使用
vLLM和SGLang时,默认情况下发送请求时会启用思考模式。如果需要关闭思考模式开关,则需添加extra_body={"chat_template_kwargs": {"enable_thinking": False}}参数。两者均支持工具调用。请使用OpenAI风格的工具描述格式进行调用。
具体代码请参考
inference文件夹中的api_request.py。
评估
引用
如果您在研究中发现我们的工作有所帮助,请考虑引用以下论文:
@misc{5team2025glm45agenticreasoningcoding,
title={GLM-4.5:代理、推理与编码(ARC)基础模型},
author={GLM团队及Aohan Zeng、Xin Lv、Qinkai Zheng、Zhenyu Hou、Bin Chen、Chengxing Xie、Cunxiang Wang、Da Yin、Hao Zeng、Jiajie Zhang、Kedong Wang、Lucen Zhong、Mingdao Liu、Rui Lu、Shulin Cao、Xiaohan Zhang、Xuancheng Huang、Yao Wei、Yean Cheng、Yifan An、Yilin Niu、Yuanhao Wen、Yushi Bai、Zhengxiao Du、Zihan Wang、Zilin Zhu、Bohan Zhang、Bosi Wen、Bowen Wu、Bowen Xu、Can Huang、Casey Zhao、Changpeng Cai、Chao Yu、Chen Li、Chendi Ge、Chenghua Huang、Chenhui Zhang、Chenxi Xu、Chenzheng Zhu、Chuang Li、Congfeng Yin、Daoyan Lin、Dayong Yang、Dazhi Jiang、Ding Ai、Erle Zhu、Fei Wang、Gengzheng Pan、Guo Wang、Hailong Sun、Haitao Li、Haiyang Li、Haiyi Hu、Hanyu Zhang、Hao Peng、Hao Tai、Haoke Zhang、Haoran Wang、Haoyu Yang、He Liu、He Zhao、Hongwei Liu、Hongxi Yan、Huan Liu、Huilong Chen、Ji Li、Jiajing Zhao、Jiamin Ren、Jian Jiao、Jiani Zhao、Jianyang Yan、Jiaqi Wang、Jiayi Gui、Jiayue Zhao、Jie Liu、Jijie Li、Jing Li、Jing Lu、Jingsen Wang、Jingwei Yuan、Jingxuan Li、Jingzhao Du、Jinhua Du、Jinxin Liu、Junkai Zhi、Junli Gao、Ke Wang、Lekang Yang、Liang Xu、Lin Fan、Lindong Wu、Lintao Ding、Lu Wang、Man Zhang、Minghao Li、Minghuan Xu、Mingming Zhao、Mingshu Zhai、Pengfan Du、Qian Dong、Shangde Lei、Shangqing Tu、Shangtong Yang、Shaoyou Lu、Shijie Li、Shuang Li、Shuang-Li、Shuxun Yang、Sibo Yi、Tianshu Yu、Wei Tian、Weihan Wang、Wenbo Yu、Weng Lam Tam、Wenjie Liang、Wentao Liu、Xiao Wang、Xiaohan Jia、Xiaotao Gu、Xiaoying Ling、Xin Wang、Xing Fan、Xingru Pan、Xinyuan Zhang、Xinze Zhang、Xiuqing Fu、Xunkai Zhang、Yabo Xu、Yandong Wu、Yida Lu、Yidong Wang、Yilin Zhou、Yiming Pan、Ying Zhang、Yingli Wang、Yingru Li、Yinpei Su、Yipeng Geng、Yitong Zhu、Yongkun Yang、Yuhang Li、Yuhao Wu、Yujiang Li、Yunan Liu、Yunqing Wang、Yuntao Li、Yuxuan Zhang、Zezhen Liu、Zhen Yang、Zhengda Zhou、Zhongpei Qiao、Zhuoer Feng、Zhuorui Liu、Zichen Zhang、Zihan Wang、Zijun Yao、Zikang Wang、Ziqiang Liu、Ziwei Chai、Zixuan Li、Zuodong Zhao、Wenguang Chen、Jidong Zhai、Bin Xu、Minlie Huang、Hongning Wang、Juanzi Li、Yuxiao Dong、Jie Tang},
year={2025},
eprint={2508.06471},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2508.06471},
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。