Qwen3-Coder
Qwen3-Coder 是通义千问团队推出的专为代码生成与智能体任务打造的大语言模型系列。它不仅能编写、调试和解释代码,还能像智能助手一样自主规划并执行复杂的开发流程,例如自动搭建网站、整理桌面文件或开发小游戏。
这款工具主要解决了传统编程模型在长上下文理解和多步骤任务执行上的瓶颈。面对庞大的代码库或需要跨文件协作的场景,Qwen3-Coder 凭借原生的 256K 上下文窗口(可扩展至 100 万 token),能够精准理解整个项目结构;同时支持高达 358 种编程语言,大幅降低了多语言开发的门槛。
它非常适合软件开发者、技术研究人员以及希望利用 AI 辅助编程的极客用户。无论是需要快速原型开发的工程师,还是研究自主编码智能体的学者,都能从中获益。
其独特亮点在于卓越的“效率 - 性能”平衡。特别是 Qwen3-Coder-Next 版本,采用混合注意力机制与稀疏专家模型(MoE)架构,在保持媲美顶级闭源模型(如 Claude Sonnet)性能的同时,显著降低了推理成本。此外,它针对智能体交互进行了专门优化,能无缝对接 Qwen Code、CLINE 等主流开发平台,让自动化编程变得更加流畅高效。
使用场景
某初创团队的后端工程师需要在两天内将一套遗留的 COBOL 金融结算模块迁移至现代 Python 微服务架构,并集成实时风控逻辑。
没有 Qwen3-Coder 时
- 语言壁垒高:团队无人精通 COBOL,人工逐行解读老旧业务逻辑耗时极长,极易误读隐含规则。
- 上下文割裂:项目代码库庞大,传统模型受限于短上下文,无法同时理解多个关联文件,导致重构后的代码逻辑断层。
- 调试周期长:生成的代码缺乏环境交互能力,需人工反复编写测试用例并手动修复报错,开发节奏被严重拖慢。
- 代理能力弱:无法自主调用浏览器查阅最新的风控 API 文档或搜索特定语言的迁移方案,依赖开发者中断编码去查资料。
使用 Qwen3-Coder 后
- 精准跨语言迁移:利用其支持 358 种编程语言的优势,Qwen3-Coder 直接解析 COBOL 源码并生成符合现代规范的 Python 代码,完整保留核心结算算法。
- 全库逻辑掌控:凭借原生 256K 甚至扩展至 1M 的超长上下文,Qwen3-Coder 一次性读取整个仓库,确保新生成的微服务与现有系统无缝衔接。
- 自主闭环开发:基于强化训练的智能体能力,Qwen3-Coder 自动在本地环境运行代码、捕获异常并自我修正,大幅减少人工干预。
- 主动工具调用:遇到未知接口时,Qwen3-Coder 自主调用浏览器搜索最新文档并更新代码,实现从“查资料”到“写代码”的零切换。
Qwen3-Coder 通过超长上下文理解与自主代理执行能力,将原本需要数周的复杂遗留系统重构工作压缩至小时级,显著降低了技术债务清理的成本。
运行环境要求
- 未说明(模型支持 FP8 和 GGUF 量化版本,暗示对显存优化有支持
- 需配合 SGLang 或 vLLM 推理框架使用)
未说明

快速开始
💜 通义千问聊天   |   🤗 Hugging Face   |   🤖 ModelScope   |    📑 博客    |   📖 文档
🌍 Web开发   |   💬 微信   |   🫨 Discord   |    📄 Arxiv   |    👽 Qwen Code
请访问我们的 Hugging Face 或 ModelScope 组织(点击上方链接),搜索以 Qwen3-Coder- 开头的检查点,您将找到所需的一切!尽情享受吧!
目录
Qwen3-Coder-Next:推动小型混合模型在代理式编程中的应用
简介
我们在此宣布推出 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 提供多种规模版本,包括 Qwen3-Coder-480B-A35B-Instruct、Qwen3-Coder-30B-A3B-Instruct 和 Qwen3-Coder-Next,在编码和代理任务方面均表现出色。
Qwen3-Coder-Next 是一款专为编码代理和本地开发设计的开源权重语言模型。它基于 Qwen3-Next-80B-A3B-Base 构建,采用了结合混合注意力机制与 MoE 的创新架构。Qwen3-Coder-Next 在大规模可执行任务合成、环境交互以及强化学习等方面进行了大规模的代理式训练,从而具备强大的编码和代理能力,同时显著降低了推理成本。
关键特性
💻 效率与性能的平衡:在 代理式编程、代理式浏览器使用 等基础编码任务中,其表现可与 Claude Sonnet 相媲美。
🛠 扩展代理式编程能力:支持大多数平台,如 Qwen Code、CLINE、Claude Code,并采用专门设计的函数调用格式;
📚 长上下文处理能力:原生支持 256K 个 token,通过 Yarn 技术可扩展至 1M 个 token,特别优化用于仓库级别的理解。
基本信息
- ✨ 支持长上下文理解和生成,上下文长度可达 256K 个 token;
- ✨ 支持 358 种编程语言;
点击查看所有支持的语言
``` ['ABAP', 'ActionScript', 'Ada', 'Agda', 'Alloy', 'ApacheConf', 'AppleScript', 'Arc', 'Arduino', 'AsciiDoc', 'AspectJ', 'Assembly', 'Augeas', 'AutoHotkey', 'AutoIt', 'Awk', 'Batchfile', 'Befunge', 'Bison', 'BitBake', 'BlitzBasic', 'BlitzMax', 'Bluespec', 'Boo', 'Brainfuck', 'Brightscript', 'Bro', 'C', 'C#', 'C++', 'C2hs Haskell', 'CLIPS', 'CMake', 'COBOL', 'CSS', 'CSV', "Cap'n Proto", 'CartoCSS', 'Ceylon', 'Chapel', 'ChucK', 'Cirru', 'Clarion', 'Clean', 'Click', 'Clojure', 'CoffeeScript', 'ColdFusion', 'ColdFusion CFC', 'Common Lisp', 'Component Pascal', 'Coq', 'Creole', 'Crystal', 'Csound', 'Cucumber', 'Cuda', 'Cycript', 'Cython', 'D', 'DIGITAL Command Language', 'DM', 'DNS Zone', 'Darcs Patch', 'Dart', 'Diff', 'Dockerfile', 'Dogescript', 'Dylan', 'E', 'ECL', 'Eagle', 'Ecere Projects', 'Eiffel', 'Elixir', 'Elm', 'Emacs Lisp', 'EmberScript', 'Erlang', 'F#', 'FLUX', 'FORTRAN', 'Factor', 'Fancy', 'Fantom', 'Forth', 'FreeMarker', 'G-code', 'GAMS', 'GAP', 'GAS', 'GDScript', 'GLSL', 'Genshi', 'Gentoo Ebuild', 'Gentoo Eclass', 'Gettext Catalog', 'Glyph', 'Gnuplot', 'Go', 'Golo', 'Gosu', 'Grace', 'Gradle', 'Grammatical Framework', 'GraphQL', 'Graphviz (DOT)', 'Groff', 'Groovy', 'Groovy Server Pages', 'HCL', 'HLSL', 'HTML', 'HTML+Django', 'HTML+EEX', 'HTML+ERB', 'HTML+PHP', 'HTTP', 'Haml', 'Handlebars', 'Harbour', 'Haskell', 'Haxe', 'Hy', 'IDL', 'IGOR Pro', 'INI', 'IRC log', 'Idris', 'Inform 7', 'Inno Setup', 'Io', 'Ioke', 'Isabelle', 'J', 'JFlex', 'JSON', 'JSON5', 'JSONLD', 'JSONiq', 'JSX', 'Jade', 'Jasmin', 'Java', 'Java Server Pages', 'JavaScript', 'Julia', 'Jupyter Notebook', 'KRL', 'KiCad', 'Kit', 'Kotlin', 'LFE', 'LLVM', 'LOLCODE', 'LSL', 'LabVIEW', 'Lasso', 'Latte', 'Lean', 'Less', 'Lex', 'LilyPond', 'Linker Script', 'Liquid', 'Literate Agda', 'Literate CoffeeScript', 'Literate Haskell', 'LiveScript', 'Logos', 'Logtalk', 'LookML', 'Lua', 'M', 'M4', 'MAXScript', 'MTML', 'MUF', 'Makefile', 'Mako', 'Maple', 'Markdown', 'Mask', 'Mathematica', 'Matlab', 'Max', 'MediaWiki', 'Metal', 'MiniD', 'Mirah', 'Modelica', 'Module Management System', 'Monkey', 'MoonScript', 'Myghty', 'NSIS', 'NetLinx', 'NetLogo', 'Nginx', 'Nimrod', 'Ninja', 'Nit', 'Nix', 'Nu', 'NumPy', 'OCaml', 'ObjDump', 'Objective-C++', 'Objective-J', 'Octave', 'Omgrofl', 'Opa', 'Opal', 'OpenCL', 'OpenEdge ABL', 'OpenSCAD', 'Org', 'Ox', 'Oxygene', 'Oz', 'PAWN', 'PHP', 'POV-Ray SDL', 'Pan', 'Papyrus', 'Parrot', 'Parrot Assembly', 'Parrot Internal Representation', 'Pascal', 'Perl', 'Perl6', 'Pickle', 'PigLatin', 'Pike', 'Pod', 'PogoScript', 'Pony', 'PostScript', 'PowerShell', 'Processing', 'Prolog', 'Propeller Spin', 'Protocol Buffer', 'Public Key', 'Pure Data', 'PureBasic', 'PureScript', 'Python', 'Python traceback', 'QML', 'QMake', 'R', 'RAML', 'RDoc', 'REALbasic', 'RHTML', 'RMarkdown', 'Racket', 'Ragel in Ruby Host', 'Raw token data', 'Rebol', 'Red', 'Redcode', "Ren'Py", 'RenderScript', 'RobotFramework', 'Rouge', 'Ruby', 'Rust', 'SAS', 'SCSS', 'SMT', 'SPARQL', 'SQF', 'SQL', 'STON', 'SVG', 'Sage', 'SaltStack', 'Sass', 'Scala', 'Scaml', 'Scheme', 'Scilab', 'Self', 'Shell', 'ShellSession', 'Shen', 'Slash', 'Slim', 'Smali', 'Smalltalk', 'Smarty', 'Solidity', 'SourcePawn', 'Squirrel', 'Stan', 'Standard ML', 'Stata', 'Stylus', 'SuperCollider', 'Swift', 'SystemVerilog', 'TOML', 'TXL', 'Tcl', 'Tcsh', 'TeX', 'Tea', 'Text', 'Textile', 'Thrift', 'Turing', 'Turtle', 'Twig', 'TypeScript', 'Unified Parallel C', 'Unity3D Asset', 'Uno', 'UnrealScript', 'UrWeb', 'VCL', 'VHDL', 'Vala', 'Verilog', 'VimL', 'Visual Basic', 'Volt', 'Vue', 'Web Ontology Language', 'WebAssembly', 'WebIDL', 'X10', 'XC', 'XML', 'XPages', 'XProc', 'XQuery', 'XS', 'XSLT', 'Xojo', 'Xtend', 'YAML', 'YANG', 'Yacc', 'Zephir', 'Zig', 'Zimpl', 'desktop', 'eC', 'edn', 'fish', 'mupad', 'nesC', 'ooc', 'reStructuredText', 'wisp', 'xBase'] ```- ✨ 保留基础模型在数学和通用能力方面的优势。
[!重要]
Qwen3-Coder 的函数调用依赖于我们在 SGLang 和 vLLM 中的新工具解析器 这里。
我们更新了特殊标记及其对应的标记 ID,以保持与 Qwen3 的一致性。请确保使用新的分词器。
| 模型名称 | 类型 | 长度 | 下载 |
|---|---|---|---|
| Qwen3-Coder-Next | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-Next-Base | 基础 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-480B-A35B-Instruct | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-30B-A3B-Instruct | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-Next-FP8 | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-Next-GGUF | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-480B-A35B-Instruct-FP8 | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
| Qwen3-Coder-30B-A3B-Instruct-FP8 | 指令 | 256k | 🤗 Hugging Face • 🤖 ModelScope |
详细性能和介绍请参阅此 📑 博客。
快速入门
[!重要] Qwen3-Coder 是用于聊天的指令模型;
该模型仅支持非思考模式,其输出中不会生成
<think></think>块。同时,不再需要指定enable_thinking=False。
👉🏻 与 Qwen3-Coder 聊天
您可以使用 transformers 库编写几行代码来与 Qwen3-Coder-Next 进行对话。本质上,我们通过 from_pretrained 方法加载分词器和模型,并利用分词器提供的聊天模板,调用 generate 方法进行对话。以下是与 Qwen3-Coder-Next 对话的示例:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-Coder-Next"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "写一个快速排序算法。"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=65536
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
apply_chat_template() 函数用于将消息转换为模型可以理解的格式。
add_generation_prompt 参数用于在输入中添加生成提示,即 <|im_start|>assistant\n。值得注意的是,我们沿用了之前的实践,为聊天模型应用 ChatML 模板。
max_new_tokens 参数用于设置响应的最大长度。tokenizer.batch_decode() 函数用于解码响应。上述消息只是一个示例,展示了如何格式化您的对话历史和系统提示。
您也可以以相同的方式使用其他尺寸的指令模型。
在中间填充代码:Qwen3-Coder 的 FIM 任务
代码插入任务,也称为“填空挑战”,要求在给定的代码上下文中插入代码片段,以填补空白。为了遵循最佳实践,我们建议按照论文《高效训练语言模型以填补中间》[arxiv] 中概述的格式指南进行操作。
[!重要] 需要注意的是,FIM 在所有版本的 Qwen3-Coder 中都受支持。此处以 Qwen3-Coder-Next 为例。
提示应按以下结构组织:
prompt = '<|num_start|>' + prefix_code + '<|num_end|>' + suffix_code + '
### 示例:声音 ASCII 艺术
<details>
<summary>带有 Cline 的提示</summary>
构建一个带有声音反馈的交互式 ASCII 艺术绘制工具。该应用应:
- 创建一个画布,用户可以通过点击和拖动进行绘画
- 在用户绘画时放置不同的 ASCII 字符或符号
- 每当放置一个字符时,播放对应的音符
- 包含多组图案,每组使用不同的字符和相应的音阶
- 添加一个图案切换按钮,用于在不同的字符/声音主题之间循环切换
- 提供一个清除按钮,用于重置画布
- 支持鼠标和触摸输入,以实现移动设备兼容性
该应用应富有创意且有趣,创造出一种视听体验:字符的排列不仅形成视觉艺术,还能产生音乐模式。确保按顺序播放的音符和谐悦耳。
</details>
<p align="center">
<a href="https://qianwen-res.oss-accelerate-overseas.aliyuncs.com/Qwen3-Coder-Next/cline/sound_art.mp4">
<img src="https://oss.gittoolsai.com/images/QwenLM_Qwen3-Coder_readme_f74c5ef48637.png" width="400" />
</a>
</p>
### 示例:氛围检测
<details>
<summary>带有浏览器使用代理的提示</summary>
测试这个网站的氛围。四处点击,尝试各种操作,报告哪些地方有问题。
</details>
<p align="center">
<a href="https://qianwen-res.oss-accelerate-overseas.aliyuncs.com/Qwen3-Coder-Next/bua/vibe.mp4">
<img src="https://oss.gittoolsai.com/images/QwenLM_Qwen3-Coder_readme_ef5848e91794.png" width="400" />
</a>
</p>
### 示例:跑酷游戏
<details>
<summary>带有 Qwen Chat Web 开发的提示</summary>
使用 HTML5 Canvas 创建一个交互式的实时粒子系统:
核心功能:
- 渲染 800–1200 个具有物理运动效果的动画粒子
- 鼠标光标对附近的粒子施加吸引或排斥力
- 单击可在吸引和排斥模式之间切换
- 粒子响应平滑的加速度和速度计算
技术要求:
- 使用 requestAnimationFrame 以获得最佳性能
- 根据与光标的距离实现力的计算
- 添加视觉反馈:粒子发光、颜色变化和淡出效果
- 包括性能监控(FPS 计数器)
交付内容:
- 单个 HTML 文件,内嵌 CSS 和 JavaScript
- 代码整洁、注释清晰,遵循最佳实践
- 响应式设计,兼容现代浏览器
</details>
<p align="center">
<a href="https://qianwen-res.oss-accelerate-overseas.aliyuncs.com/Qwen3-Coder-Next/WebDev/chico_paredao.mp4">
<img src="https://oss.gittoolsai.com/images/QwenLM_Qwen3-Coder_readme_3c83e1266333.png" width="400" />
</a>
</p>
---
## 星级历史
[](https://star-history.com/#QwenLM/Qwen3-Coder&Date)
---
## 引用
如果您觉得我们的工作有所帮助,请随时引用我们。
```bibtex
@article{Qwen3-Coder-Next,
title={Qwen3-Coder-Next 技术报告},
author={Ruisheng Cao 和 Mouxiang Chen 和 Jiawei Chen 和 Zeyu Cui 和 Yunlong Feng 和 Binyuan Hui 和 Yuheng Jing 和 Kaixin Li 和 Mingze Li 和 Junyang Lin 和 Zeyao Ma 和 Kashun Shum 和 Xuwu Wang 和 Jinxi Wei 和 Jiaxi Yang 和 Jiajun Zhang 和 Lei Zhang 和 Zongmeng Zhang 和 Wenting Zhao 和 Fan Zhou},
journal={arXiv 预印本 arXiv:2603.00729},
year={2026},
}
联系我们
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。