[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-QwenLM--Qwen3-Coder":3,"similar-QwenLM--Qwen3-Coder":84},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":20,"owner_twitter":21,"owner_website":22,"owner_url":23,"languages":24,"stars":62,"forks":63,"last_commit_at":64,"license":19,"difficulty_score":65,"env_os":66,"env_gpu":67,"env_ram":68,"env_deps":69,"category_tags":75,"github_topics":19,"view_count":78,"oss_zip_url":19,"oss_zip_packed_at":19,"status":79,"created_at":80,"updated_at":81,"faqs":82,"releases":83},9743,"QwenLM\u002FQwen3-Coder","Qwen3-Coder","Qwen3-Coder is the code version of Qwen3, the large language model series developed by Qwen team.","Qwen3-Coder 是通义千问团队推出的专为代码生成与智能体任务打造的大语言模型系列。它不仅能编写、调试和解释代码，还能像智能助手一样自主规划并执行复杂的开发流程，例如自动搭建网站、整理桌面文件或开发小游戏。\n\n这款工具主要解决了传统编程模型在长上下文理解和多步骤任务执行上的瓶颈。面对庞大的代码库或需要跨文件协作的场景，Qwen3-Coder 凭借原生的 256K 上下文窗口（可扩展至 100 万 token），能够精准理解整个项目结构；同时支持高达 358 种编程语言，大幅降低了多语言开发的门槛。\n\n它非常适合软件开发者、技术研究人员以及希望利用 AI 辅助编程的极客用户。无论是需要快速原型开发的工程师，还是研究自主编码智能体的学者，都能从中获益。\n\n其独特亮点在于卓越的“效率 - 性能”平衡。特别是 Qwen3-Coder-Next 版本，采用混合注意力机制与稀疏专家模型（MoE）架构，在保持媲美顶级闭源模型（如 Claude Sonnet）性能的同时，显著降低了推理成本。此外，它针对智能体交互进行了专门优化，能无缝对接 Qwen Code、CLINE 等主流开发平台，让自动化","Qwen3-Coder 是通义千问团队推出的专为代码生成与智能体任务打造的大语言模型系列。它不仅能编写、调试和解释代码，还能像智能助手一样自主规划并执行复杂的开发流程，例如自动搭建网站、整理桌面文件或开发小游戏。\n\n这款工具主要解决了传统编程模型在长上下文理解和多步骤任务执行上的瓶颈。面对庞大的代码库或需要跨文件协作的场景，Qwen3-Coder 凭借原生的 256K 上下文窗口（可扩展至 100 万 token），能够精准理解整个项目结构；同时支持高达 358 种编程语言，大幅降低了多语言开发的门槛。\n\n它非常适合软件开发者、技术研究人员以及希望利用 AI 辅助编程的极客用户。无论是需要快速原型开发的工程师，还是研究自主编码智能体的学者，都能从中获益。\n\n其独特亮点在于卓越的“效率 - 性能”平衡。特别是 Qwen3-Coder-Next 版本，采用混合注意力机制与稀疏专家模型（MoE）架构，在保持媲美顶级闭源模型（如 Claude Sonnet）性能的同时，显著降低了推理成本。此外，它针对智能体交互进行了专门优化，能无缝对接 Qwen Code、CLINE 等主流开发平台，让自动化编程变得更加流畅高效。","\u003Ca name=\"readme-top\">\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQwen3-Coder\u002Fqwen3_coder.png\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fswebench_pro.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n        💜 \u003Ca href=\"https:\u002F\u002Fchat.qwen.ai\u002F\">\u003Cb>Qwen Chat\u003C\u002Fb>\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-coder-687fc861e53c939e52d52d10\">Hugging Face\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🤖 \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Forganization\u002Fqwen\">ModelScope\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 📑 \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-coder-next\u002F\">Blog\u003C\u002Fa> &nbsp&nbsp ｜ &nbsp&nbsp📖 \u003Ca href=\"https:\u002F\u002Fqwen.readthedocs.io\u002F\">Documentation\u003C\u002Fa>\n\u003Cbr>\n🌍 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FQwen\u002FQwen3-Coder-WebDev\">WebDev\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp💬 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.png\">WeChat (微信)\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🫨 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FCV4E9rpNSD\"> Discord\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 📄 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Coder\u002Fblob\u002Fmain\u002Fqwen3_coder_next_tech_report.pdf\">Arxiv\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 👽 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002Fqwen-code\">Qwen Code\u003C\u002Fa>\n\u003C\u002Fp>\n\nVisit our Hugging Face or ModelScope organization (click links above), search checkpoints with names starting with `Qwen3-Coder-`, and you will find all you need! Enjoy!\n\n---\n\n## Table of Contents\n  - [Introduction](#introduction)\n    - [Key Features](#key-features)\n  - [Basic Information](#basic-information)\n  - [Quick Start](#quick-start)\n    - [👉🏻 Chat with Qwen3-Coder](#-chat-with-qwen3-coder)\n      - [Fill in the middle with Qwen3-Coder](#fill-in-the-middle-with-qwen3-coder)\n  - [Use Cases](#use-cases)\n    - [Example: Releasing a Website](#example-releasing-a-website)\n    - [Example: Desktop Tidy](#example-desktop-tidy)\n    - [Example: Zombies vs. Plants](#example-zombies-vs-plants)\n    - [Example: Sound ASCII Art](#example-sound-ascii-art)\n    - [Example: Vibe Checking](#example-vibe-checking)\n    - [Example: Parkour Game](#example-parkour-game)\n  - [Star History](#star-history)\n  - [Citation](#citation)\n  - [Contact Us](#contact-us)\n\n---\n\n# Qwen3-Coder-Next: Pushing Small Hybrid Models on Agentic Coding\n\n## Introduction\n\nWe are announcing Qwen3-Coder, our most agentic code model to date. **Qwen3-Coder** is available in multiple sizes, **Qwen3-Coder-480B-A35B-Instruct**, **Qwen3-Coder-30B-A3B-Instruct**, **Qwen3-Coder-Next**, offering exceptional performance in both coding and agentic tasks. \n\n**Qwen3-Coder-Next**, an open-weight language model designed specifically for coding agents and local development. Built on top of **Qwen3-Next-80B-A3B-Base**, which adopts a novel architecture with hybrid attention and MoE, Qwen3-Coder-Next has been agentically trained at scale on large-scale executable task synthesis, environment interaction, and reinforcement learning, obtaining strong coding and agentic capabilities with significantly lower inference costs.\n\n### Key Features\n\n💻 **Efficiency-Performance Tradeoff**: among open models on **Agentic Coding**, **Agentic Browser-Use**, and other foundational coding tasks, achieving results comparable to Claude Sonnet.\n\n🛠 **Scaling Agentic Coding**: supporting most platforms such as **Qwen Code**, **CLINE**, **Claude Code**, featuring a specially designed function call format;\n\n📚 **Long-context Capabilities**: with native support for **256K** tokens, extendable up to **1M** tokens using Yarn, optimized for repository-scale understanding.\n\n---\n\n\n## Basic Information\n\n1. ✨ Supporting long context understanding and generation with the context length of 256K tokens;\n2. ✨ Supporting 358 coding languages;\n\n\u003Cdetails>\n\u003Csummary>Click to view all supported languages\u003C\u002Fsummary>\n```\n['ABAP', 'ActionScript', 'Ada', 'Agda', 'Alloy', 'ApacheConf', 'AppleScript', 'Arc', 'Arduino', 'AsciiDoc', 'AspectJ', 'Assembly', 'Augeas', 'AutoHotkey', 'AutoIt', 'Awk', 'Batchfile', 'Befunge', 'Bison', 'BitBake', 'BlitzBasic', 'BlitzMax', 'Bluespec', 'Boo', 'Brainfuck', 'Brightscript', 'Bro', 'C', 'C#', 'C++', 'C2hs Haskell', 'CLIPS', 'CMake', 'COBOL', 'CSS', 'CSV', \"Cap'n Proto\", 'CartoCSS', 'Ceylon', 'Chapel', 'ChucK', 'Cirru', 'Clarion', 'Clean', 'Click', 'Clojure', 'CoffeeScript', 'ColdFusion', 'ColdFusion CFC', 'Common Lisp', 'Component Pascal', 'Coq', 'Creole', 'Crystal', 'Csound', 'Cucumber', 'Cuda', 'Cycript', 'Cython', 'D', 'DIGITAL Command Language', 'DM', 'DNS Zone', 'Darcs Patch', 'Dart', 'Diff', 'Dockerfile', 'Dogescript', 'Dylan', 'E', 'ECL', 'Eagle', 'Ecere Projects', 'Eiffel', 'Elixir', 'Elm', 'Emacs Lisp', 'EmberScript', 'Erlang', 'F#', 'FLUX', 'FORTRAN', 'Factor', 'Fancy', 'Fantom', 'Forth', 'FreeMarker', 'G-code', 'GAMS', 'GAP', 'GAS', 'GDScript', 'GLSL', 'Genshi', 'Gentoo Ebuild', 'Gentoo Eclass', 'Gettext Catalog', 'Glyph', 'Gnuplot', 'Go', 'Golo', 'Gosu', 'Grace', 'Gradle', 'Grammatical Framework', 'GraphQL', 'Graphviz (DOT)', 'Groff', 'Groovy', 'Groovy Server Pages', 'HCL', 'HLSL', 'HTML', 'HTML+Django', 'HTML+EEX', 'HTML+ERB', 'HTML+PHP', 'HTTP', 'Haml', 'Handlebars', 'Harbour', 'Haskell', 'Haxe', 'Hy', 'IDL', 'IGOR Pro', 'INI', 'IRC log', 'Idris', 'Inform 7', 'Inno Setup', 'Io', 'Ioke', 'Isabelle', 'J', 'JFlex', 'JSON', 'JSON5', 'JSONLD', 'JSONiq', 'JSX', 'Jade', 'Jasmin', 'Java', 'Java Server Pages', 'JavaScript', 'Julia', 'Jupyter Notebook', 'KRL', 'KiCad', 'Kit', 'Kotlin', 'LFE', 'LLVM', 'LOLCODE', 'LSL', 'LabVIEW', 'Lasso', 'Latte', 'Lean', 'Less', 'Lex', 'LilyPond', 'Linker Script', 'Liquid', 'Literate Agda', 'Literate CoffeeScript', 'Literate Haskell', 'LiveScript', 'Logos', 'Logtalk', 'LookML', 'Lua', 'M', 'M4', 'MAXScript', 'MTML', 'MUF', 'Makefile', 'Mako', 'Maple', 'Markdown', 'Mask', 'Mathematica', 'Matlab', 'Max', 'MediaWiki', 'Metal', 'MiniD', 'Mirah', 'Modelica', 'Module Management System', 'Monkey', 'MoonScript', 'Myghty', 'NSIS', 'NetLinx', 'NetLogo', 'Nginx', 'Nimrod', 'Ninja', 'Nit', 'Nix', 'Nu', 'NumPy', 'OCaml', 'ObjDump', 'Objective-C++', 'Objective-J', 'Octave', 'Omgrofl', 'Opa', 'Opal', 'OpenCL', 'OpenEdge ABL', 'OpenSCAD', 'Org', 'Ox', 'Oxygene', 'Oz', 'PAWN', 'PHP', 'POV-Ray SDL', 'Pan', 'Papyrus', 'Parrot', 'Parrot Assembly', 'Parrot Internal Representation', 'Pascal', 'Perl', 'Perl6', 'Pickle', 'PigLatin', 'Pike', 'Pod', 'PogoScript', 'Pony', 'PostScript', 'PowerShell', 'Processing', 'Prolog', 'Propeller Spin', 'Protocol Buffer', 'Public Key', 'Pure Data', 'PureBasic', 'PureScript', 'Python', 'Python traceback', 'QML', 'QMake', 'R', 'RAML', 'RDoc', 'REALbasic', 'RHTML', 'RMarkdown', 'Racket', 'Ragel in Ruby Host', 'Raw token data', 'Rebol', 'Red', 'Redcode', \"Ren'Py\", 'RenderScript', 'RobotFramework', 'Rouge', 'Ruby', 'Rust', 'SAS', 'SCSS', 'SMT', 'SPARQL', 'SQF', 'SQL', 'STON', 'SVG', 'Sage', 'SaltStack', 'Sass', 'Scala', 'Scaml', 'Scheme', 'Scilab', 'Self', 'Shell', 'ShellSession', 'Shen', 'Slash', 'Slim', 'Smali', 'Smalltalk', 'Smarty', 'Solidity', 'SourcePawn', 'Squirrel', 'Stan', 'Standard ML', 'Stata', 'Stylus', 'SuperCollider', 'Swift', 'SystemVerilog', 'TOML', 'TXL', 'Tcl', 'Tcsh', 'TeX', 'Tea', 'Text', 'Textile', 'Thrift', 'Turing', 'Turtle', 'Twig', 'TypeScript', 'Unified Parallel C', 'Unity3D Asset', 'Uno', 'UnrealScript', 'UrWeb', 'VCL', 'VHDL', 'Vala', 'Verilog', 'VimL', 'Visual Basic', 'Volt', 'Vue', 'Web Ontology Language', 'WebAssembly', 'WebIDL', 'X10', 'XC', 'XML', 'XPages', 'XProc', 'XQuery', 'XS', 'XSLT', 'Xojo', 'Xtend', 'YAML', 'YANG', 'Yacc', 'Zephir', 'Zig', 'Zimpl', 'desktop', 'eC', 'edn', 'fish', 'mupad', 'nesC', 'ooc', 'reStructuredText', 'wisp', 'xBase']\n```\n\u003C\u002Fdetails>\n\n3. ✨ Retain strengths in math and general capabilities from base model.\n\n> [!Important]\n> \n> Qwen3-Coder function calling relies on our new tool parser in both **SGLang** and **vLLM** \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next\u002Fblob\u002Fmain\u002F\">here\u003C\u002Fa>.\n>\n> We updated both the special tokens and their corresponding token ids, in order to maintain consistency with Qwen3. Please make sure to use the new tokenizer.\n\n\n| model name                  | type     | length | Download                                                                                                                                                                        |\n|-----------------------------|----------|--------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Qwen3-Coder-Next         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next)                                       |\n| Qwen3-Coder-Next-Base         | base     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-Base) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-Base)     |\n| Qwen3-Coder-480B-A35B-Instruct         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct)                                       |\n| Qwen3-Coder-30B-A3B-Instruct         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct)                                       |\n| Qwen3-Coder-Next-FP8         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-FP8  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-FP8)\n| Qwen3-Coder-Next-GGUF         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-GGUF  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-GGUF)                                       |\n| Qwen3-Coder-480B-A35B-Instruct-FP8         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct-FP8) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct-FP8)                                       |\n| Qwen3-Coder-30B-A3B-Instruct-FP8         | instruct     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct-FP8) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct-FP8)                                       |\n\n\nDetailed performance and introduction are shown in this \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-coder-next\u002F\">📑 blog\u003C\u002Fa>.\n\n---\n\n## Quick Start\n\n> [!Important]\n> **Qwen3-Coder** are instruct models for chatting;\n>\n> This model supports only non-thinking mode and does not generate `\u003Cthink>\u003C\u002Fthink>` blocks in its output. Meanwhile, specifying `enable_thinking=False` is no longer required.\n>\n### 👉🏻 Chat with Qwen3-Coder\nYou can write several lines of code with `transformers` to chat with Qwen3-Coder-Next. Essentially, we build the tokenizer and the model with the `from_pretrained` method, and we use the generate method to perform chatting with the help of the chat template provided by the tokenizer. Below is an example of how to chat with **Qwen3-Coder-Next**:\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nmodel_name = \"Qwen\u002FQwen3-Coder-Next\"\n\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    torch_dtype=\"auto\",\n    device_map=\"auto\"\n)\ntokenizer = AutoTokenizer.from_pretrained(model_name)\n\nprompt = \"write a quick sort algorithm.\"\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\ntext = tokenizer.apply_chat_template(\n    messages,\n    tokenize=False,\n    add_generation_prompt=True\n)\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\ngenerated_ids = model.generate(\n    **model_inputs,\n    max_new_tokens=65536\n)\ngenerated_ids = [\n    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)\n]\n\nresponse = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]\n```\nThe `apply_chat_template()` function is used to convert the messages into a format that the model can understand.\nThe `add_generation_prompt` argument is used to add a generation prompt, which refers to `\u003C|im_start|>assistant\\n` to the input. Notably, we apply the ChatML template for chat models following our previous practice.\nThe `max_new_tokens` argument is used to set the maximum length of the response. The `tokenizer.batch_decode()` function is used to decode the response. In terms of the input, the above messages are an example to show how to format your dialog history and system prompt.\nYou can use the other sizes of instruct models in the same way.\n\n\n#### Fill in the middle with Qwen3-Coder\n\nThe code insertion task, also referred to as the \"fill-in-the-middle\" challenge, requires the insertion of code segments in a manner that bridges the gaps within a given code context. For an approach aligned with best practices, we recommend adhering to the formatting guidelines outlined in the paper \"Efficient Training of Language Models to Fill in the Middle\" [[arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14255)]. \n\n> [!Important]\n> It should be noted that FIM is supported in every version of Qwen3-Coder. Qwen3-Coder-Next is shown here as an example.\n>\n\nThe prompt should be structured as follows:\n```python\nprompt = '\u003C|fim_prefix|>' + prefix_code + '\u003C|fim_suffix|>' + suffix_code + '\u003C|fim_middle|>'\n```\nFollowing the approach mentioned, an example would be structured in this manner:\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\n# load model\ndevice = \"cuda\" # the device to load the model onto\n\nTOKENIZER = AutoTokenizer.from_pretrained(\"Qwen\u002FQwen3-Coder-Next\")\nMODEL = AutoModelForCausalLM.from_pretrained(\"Qwen\u002FQwen3-Coder-Next\", device_map=\"auto\").eval()\n\n\ninput_text = \"\"\"\u003C|fim_prefix|>def quicksort(arr):\n    if len(arr) \u003C= 1:\n        return arr\n    pivot = arr[len(arr) \u002F\u002F 2]\n    \u003C|fim_suffix|>\n    middle = [x for x in arr if x == pivot]\n    right = [x for x in arr if x > pivot]\n    return quicksort(left) + middle + quicksort(right)\u003C|fim_middle|>\"\"\"\n            \nmessages = [\n    {\"role\": \"system\", \"content\": \"You are a code completion assistant.\"},\n    {\"role\": \"user\", \"content\": input_text}\n]\n\n\ntext = tokenizer.apply_chat_template(\n    messages,\n    tokenize=False,\n    add_generation_prompt=True\n)\nmodel_inputs = TOKENIZER([text], return_tensors=\"pt\").to(model.device)\n\n# Use `max_new_tokens` to control the maximum output length.\neos_token_ids = [151659, 151661, 151662, 151663, 151664, 151643, 151645]\ngenerated_ids = MODEL.generate(model_inputs.input_ids, max_new_tokens=512, do_sample=False, eos_token_id=eos_token_ids)[0]\n# The generated_ids include prompt_ids, we only need to decode the tokens after prompt_ids.\noutput_text = TOKENIZER.decode(generated_ids[len(model_inputs.input_ids[0]):], skip_special_tokens=True)\n\nprint(f\"Prompt: {input_text}\\n\\nGenerated text: {output_text}\")\n```\n\n## Use Cases\n\n### Example: Releasing a Website\n\n\u003Cdetails>\n\u003Csummary>Prompt with OpenClaw \u003C\u002Fsummary>\n\n```\nnext week we will release new coder model, can you collect the history of qwen coder and write a web page, the release the website with the nginx, you can seach how to do this in alibaba cloud linux first\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fopenclaw\u002Fclaw_mix.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_0fcf3d49de31.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n\n### Example: Desktop Tidy\n\n\u003Cdetails>\n\u003Csummary>Prompt with Qwen Code \u003C\u002Fsummary>\n\n```\nPlease tidy up my desk.\n```\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fqwencode\u002Fexp-tidy-desktop.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_5d149bb2c5c2.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### Example: Zombies vs. Plants\n\n\u003Cdetails>\n\u003Csummary>Prompt with Claude Code \u003C\u002Fsummary>\n\n```\n帮我实现《僵尸大战植物》网页游戏\n\n【核心机制】\n- 反向塔防：玩家扮演僵尸方，从地图右侧（部署区）召唤僵尸向左进攻\n- 资源循环：初始300脑子点数，僵尸吃掉植物返还100点，形成经济循环\n- 倒计时制：120秒内清除所有植物获胜，超时失败\n\n【地图规格】\n- 5行9列网格，右侧3列为可部署区域（红色高亮标识）\n- 每格100x100像素，草地纹理交替渲染\n- 坐标系：左侧为植物防线，右侧为僵尸出生点\n\n【单位系统】\n僵尸方（右侧购买）：\n- 普通僵尸：50脑，100HP，0.5速，标准单位\n- 路障僵尸：100脑，200HP，0.5速，中期肉盾  \n- 铁桶僵尸：150脑，400HP，0.3速，重型坦克\n- 冲刺僵尸：80脑，80HP，1.2速，快速突进\n\n植物方（左侧随机初始部署12个）：\n- 豌豆射手：100HP，20伤\u002F发，2秒间隔，直线射击\n- 双发射手：120HP，20伤\u002F发，1秒间隔，火力压制\n- 坚果墙：300HP，0伤，纯肉盾阻挡\n- 向日葵：80HP，0伤，经济单位（纯干扰）\n\n【战斗逻辑】\n- 碰撞检测：僵尸到达植物50px内触发啃食状态，停止移动\n- 伤害结算：僵尸30帧\u002F次咬击（0.5秒），植物射出弹道物理\n- 击毁反馈：植物死亡时生成\"+100\"飘字特效与粒子爆炸\n- 路径AI：同格僵尸队列不重叠，植物优先攻击横向最近目标\n\n【交互设计】\n- 右侧卡片式UI：显示僵尸图标、名称、脑子消耗\n- 资源不足时卡片置灰并自动切换可选类型\n- 鼠标悬停部署区显示半透明预览圈\n- 实时血条：实体头顶显示绿\u002F黄\u002F红三色血槽\n\n【胜利条件】\n- 胜利：plants.length === 0 && timeLeft > 0\n- 失败：timeLeft === 0 || (可选)僵尸全灭且脑子为0\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fclaudecode\u002Fcc_zombine_vs_plants.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_98cc80db6da6.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### Example: Sound ASCII Art\n\n\u003Cdetails>\n\u003Csummary>Prompt with Cline \u003C\u002Fsummary>\n\n```\nBuild an interactive ASCII art drawing tool with sound feedback. The application should:\n \n1. Create a canvas where users can draw by clicking and dragging\n2. Place different ASCII characters or symbols when the user draws\n3. Play corresponding musical notes when each character is placed\n4. Include multiple pattern sets with different characters and\ncorresponding note scales\n5. Add a pattern switcher button to cycle through different\ncharacter\u002Fsound themes\n6. Include a clear button to reset the canvas\n7. Support both mouse and touch input for mobile compatibility\n \nThe application should be creative and fun to use, creating an audio-visual experience where patterns of characters create both visual art and musical patterns. Ensure the musical notes are harmonious when played in sequence.\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fcline\u002Fsound_art.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_f74c5ef48637.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### Example: Vibe Checking\n\n\n\u003Cdetails>\n\u003Csummary> Prompt with Browser Use Agent \u003C\u002Fsummary>\n\n```\nVibe test this website. Click around, try things, report what's broken.\n```\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fbua\u002Fvibe.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_ef5848e91794.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### Example: Parkour Game\n\n\n\u003Cdetails>\n\u003Csummary> Prompt with Qwen Chat Web Dev \u003C\u002Fsummary>\n\n```\nCreate an interactive real-time particle system using HTML5 Canvas:\n\nCore Features:\n- Render 800-1200 animated particles with physics-based movement\n- Mouse cursor exerts attractive\u002Frepulsive force on nearby particles\n- Click to toggle between attraction and repulsion modes\n- Particles respond with smooth acceleration and velocity calculations\n\nTechnical Requirements:\n- Use requestAnimationFrame for optimal performance\n- Implement force calculation based on distance from cursor\n- Add visual feedback: particle glow, color variation, and fade effects\n- Include performance monitoring (FPS counter)\n\nDeliverables:\n- Single HTML file with embedded CSS and JavaScript\n- Clean, commented code following best practices\n- Responsive design compatible with modern browsers\n```\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002FWebDev\u002Fchico_paredao.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_3c83e1266333.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n\n---\n\n## Star History\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_ddff9dead24e.png)](https:\u002F\u002Fstar-history.com\u002F#QwenLM\u002FQwen3-Coder&Date)\n\n---\n\n## Citation\n\nIf you find our work helpful, feel free to give us a cite.\n\n```bibtex\n@article{Qwen3-Coder-Next,\n    title={Qwen3-Coder-Next Technical Report},\n    author={Ruisheng Cao and Mouxiang Chen and Jiawei Chen and Zeyu Cui and Yunlong Feng and Binyuan Hui and Yuheng Jing and Kaixin Li and Mingze Li and Junyang Lin and Zeyao Ma and Kashun Shum and Xuwu Wang and Jinxi Wei and Jiaxi Yang and Jiajun Zhang and Lei Zhang and Zongmeng Zhang and Wenting Zhao and Fan Zhou},\n    journal={arXiv preprint arXiv:2603.00729},\n    year={2026},\n}\n```\n\n---\n\n## Contact Us\nIf you are interested to leave a message to either our research team or product team, join our [Discord](https:\u002F\u002Fdiscord.gg\u002Fz3GAxXZ9Ce) or [WeChat groups](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.png)!\n\n\u003Cp align=\"right\" style=\"font-size: 14px; color: #555; margin-top: 20px;\">\n    \u003Ca href=\"#readme-top\" style=\"text-decoration: none; color: #007bff; font-weight: bold;\">\n        ↑ Back to Top ↑\n    \u003C\u002Fa>\n\u003C\u002Fp>\n","\u003Ca name=\"readme-top\">\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQwen3-Coder\u002Fqwen3_coder.png\" width=\"400\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fswebench_pro.png\" width=\"800\"\u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n        💜 \u003Ca href=\"https:\u002F\u002Fchat.qwen.ai\u002F\">\u003Cb>通义千问聊天\u003C\u002Fb>\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-coder-687fc861e53c939e52d52d10\">Hugging Face\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🤖 \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Forganization\u002Fqwen\">ModelScope\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 📑 \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-coder-next\u002F\">博客\u003C\u002Fa> &nbsp&nbsp ｜ &nbsp&nbsp📖 \u003Ca href=\"https:\u002F\u002Fqwen.readthedocs.io\u002F\">文档\u003C\u002Fa>\n\u003Cbr>\n🌍 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FQwen\u002FQwen3-Coder-WebDev\">Web开发\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp💬 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.png\">微信\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp🫨 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FCV4E9rpNSD\"> Discord\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 📄 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Coder\u002Fblob\u002Fmain\u002Fqwen3_coder_next_tech_report.pdf\">Arxiv\u003C\u002Fa>&nbsp&nbsp | &nbsp&nbsp 👽 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002Fqwen-code\">Qwen Code\u003C\u002Fa>\n\u003C\u002Fp>\n\n请访问我们的 Hugging Face 或 ModelScope 组织（点击上方链接），搜索以 `Qwen3-Coder-` 开头的检查点，您将找到所需的一切！尽情享受吧！\n\n---\n\n## 目录\n  - [简介](#introduction)\n    - [关键特性](#key-features)\n  - [基本信息](#basic-information)\n  - [快速入门](#quick-start)\n    - [👉🏻 与 Qwen3-Coder 聊天](#-chat-with-qwen3-coder)\n      - [用 Qwen3-Coder 填充中间部分](#fill-in-the-middle-with-qwen3-coder)\n  - [用例](#use-cases)\n    - [示例：发布一个网站](#example-releasing-a-website)\n    - [示例：整理桌面](#example-desktop-tidy)\n    - [示例：僵尸大战植物](#example-zombies-vs-plants)\n    - [示例：声音 ASCII 艺术](#example-sound-ascii-art)\n    - [示例：氛围检测](#example-vibe-checking)\n    - [示例：跑酷游戏](#example-parkour-game)\n  - [星标历史](#star-history)\n  - [引用](#citation)\n  - [联系我们](#contact-us)\n\n---\n\n# Qwen3-Coder-Next：推动小型混合模型在代理式编程中的应用\n\n## 简介\n\n我们在此宣布推出 Qwen3-Coder，这是我们迄今为止最具代理能力的代码模型。**Qwen3-Coder** 提供多种规模版本，包括 **Qwen3-Coder-480B-A35B-Instruct**、**Qwen3-Coder-30B-A3B-Instruct** 和 **Qwen3-Coder-Next**，在编码和代理任务方面均表现出色。\n\n**Qwen3-Coder-Next** 是一款专为编码代理和本地开发设计的开源权重语言模型。它基于 **Qwen3-Next-80B-A3B-Base** 构建，采用了结合混合注意力机制与 MoE 的创新架构。Qwen3-Coder-Next 在大规模可执行任务合成、环境交互以及强化学习等方面进行了大规模的代理式训练，从而具备强大的编码和代理能力，同时显著降低了推理成本。\n\n### 关键特性\n\n💻 **效率与性能的平衡**：在 **代理式编程**、**代理式浏览器使用** 等基础编码任务中，其表现可与 Claude Sonnet 相媲美。\n\n🛠 **扩展代理式编程能力**：支持大多数平台，如 **Qwen Code**、**CLINE**、**Claude Code**，并采用专门设计的函数调用格式；\n\n📚 **长上下文处理能力**：原生支持 **256K** 个 token，通过 Yarn 技术可扩展至 **1M** 个 token，特别优化用于仓库级别的理解。\n\n---\n\n\n## 基本信息\n\n1. ✨ 支持长上下文理解和生成，上下文长度可达 256K 个 token；\n2. ✨ 支持 358 种编程语言；\n\n\u003Cdetails>\n\u003Csummary>点击查看所有支持的语言\u003C\u002Fsummary>\n```\n['ABAP', 'ActionScript', 'Ada', 'Agda', 'Alloy', 'ApacheConf', 'AppleScript', 'Arc', 'Arduino', 'AsciiDoc', 'AspectJ', 'Assembly', 'Augeas', 'AutoHotkey', 'AutoIt', 'Awk', 'Batchfile', 'Befunge', 'Bison', 'BitBake', 'BlitzBasic', 'BlitzMax', 'Bluespec', 'Boo', 'Brainfuck', 'Brightscript', 'Bro', 'C', 'C#', 'C++', 'C2hs Haskell', 'CLIPS', 'CMake', 'COBOL', 'CSS', 'CSV', \"Cap'n Proto\", 'CartoCSS', 'Ceylon', 'Chapel', 'ChucK', 'Cirru', 'Clarion', 'Clean', 'Click', 'Clojure', 'CoffeeScript', 'ColdFusion', 'ColdFusion CFC', 'Common Lisp', 'Component Pascal', 'Coq', 'Creole', 'Crystal', 'Csound', 'Cucumber', 'Cuda', 'Cycript', 'Cython', 'D', 'DIGITAL Command Language', 'DM', 'DNS Zone', 'Darcs Patch', 'Dart', 'Diff', 'Dockerfile', 'Dogescript', 'Dylan', 'E', 'ECL', 'Eagle', 'Ecere Projects', 'Eiffel', 'Elixir', 'Elm', 'Emacs Lisp', 'EmberScript', 'Erlang', 'F#', 'FLUX', 'FORTRAN', 'Factor', 'Fancy', 'Fantom', 'Forth', 'FreeMarker', 'G-code', 'GAMS', 'GAP', 'GAS', 'GDScript', 'GLSL', 'Genshi', 'Gentoo Ebuild', 'Gentoo Eclass', 'Gettext Catalog', 'Glyph', 'Gnuplot', 'Go', 'Golo', 'Gosu', 'Grace', 'Gradle', 'Grammatical Framework', 'GraphQL', 'Graphviz (DOT)', 'Groff', 'Groovy', 'Groovy Server Pages', 'HCL', 'HLSL', 'HTML', 'HTML+Django', 'HTML+EEX', 'HTML+ERB', 'HTML+PHP', 'HTTP', 'Haml', 'Handlebars', 'Harbour', 'Haskell', 'Haxe', 'Hy', 'IDL', 'IGOR Pro', 'INI', 'IRC log', 'Idris', 'Inform 7', 'Inno Setup', 'Io', 'Ioke', 'Isabelle', 'J', 'JFlex', 'JSON', 'JSON5', 'JSONLD', 'JSONiq', 'JSX', 'Jade', 'Jasmin', 'Java', 'Java Server Pages', 'JavaScript', 'Julia', 'Jupyter Notebook', 'KRL', 'KiCad', 'Kit', 'Kotlin', 'LFE', 'LLVM', 'LOLCODE', 'LSL', 'LabVIEW', 'Lasso', 'Latte', 'Lean', 'Less', 'Lex', 'LilyPond', 'Linker Script', 'Liquid', 'Literate Agda', 'Literate CoffeeScript', 'Literate Haskell', 'LiveScript', 'Logos', 'Logtalk', 'LookML', 'Lua', 'M', 'M4', 'MAXScript', 'MTML', 'MUF', 'Makefile', 'Mako', 'Maple', 'Markdown', 'Mask', 'Mathematica', 'Matlab', 'Max', 'MediaWiki', 'Metal', 'MiniD', 'Mirah', 'Modelica', 'Module Management System', 'Monkey', 'MoonScript', 'Myghty', 'NSIS', 'NetLinx', 'NetLogo', 'Nginx', 'Nimrod', 'Ninja', 'Nit', 'Nix', 'Nu', 'NumPy', 'OCaml', 'ObjDump', 'Objective-C++', 'Objective-J', 'Octave', 'Omgrofl', 'Opa', 'Opal', 'OpenCL', 'OpenEdge ABL', 'OpenSCAD', 'Org', 'Ox', 'Oxygene', 'Oz', 'PAWN', 'PHP', 'POV-Ray SDL', 'Pan', 'Papyrus', 'Parrot', 'Parrot Assembly', 'Parrot Internal Representation', 'Pascal', 'Perl', 'Perl6', 'Pickle', 'PigLatin', 'Pike', 'Pod', 'PogoScript', 'Pony', 'PostScript', 'PowerShell', 'Processing', 'Prolog', 'Propeller Spin', 'Protocol Buffer', 'Public Key', 'Pure Data', 'PureBasic', 'PureScript', 'Python', 'Python traceback', 'QML', 'QMake', 'R', 'RAML', 'RDoc', 'REALbasic', 'RHTML', 'RMarkdown', 'Racket', 'Ragel in Ruby Host', 'Raw token data', 'Rebol', 'Red', 'Redcode', \"Ren'Py\", 'RenderScript', 'RobotFramework', 'Rouge', 'Ruby', 'Rust', 'SAS', 'SCSS', 'SMT', 'SPARQL', 'SQF', 'SQL', 'STON', 'SVG', 'Sage', 'SaltStack', 'Sass', 'Scala', 'Scaml', 'Scheme', 'Scilab', 'Self', 'Shell', 'ShellSession', 'Shen', 'Slash', 'Slim', 'Smali', 'Smalltalk', 'Smarty', 'Solidity', 'SourcePawn', 'Squirrel', 'Stan', 'Standard ML', 'Stata', 'Stylus', 'SuperCollider', 'Swift', 'SystemVerilog', 'TOML', 'TXL', 'Tcl', 'Tcsh', 'TeX', 'Tea', 'Text', 'Textile', 'Thrift', 'Turing', 'Turtle', 'Twig', 'TypeScript', 'Unified Parallel C', 'Unity3D Asset', 'Uno', 'UnrealScript', 'UrWeb', 'VCL', 'VHDL', 'Vala', 'Verilog', 'VimL', 'Visual Basic', 'Volt', 'Vue', 'Web Ontology Language', 'WebAssembly', 'WebIDL', 'X10', 'XC', 'XML', 'XPages', 'XProc', 'XQuery', 'XS', 'XSLT', 'Xojo', 'Xtend', 'YAML', 'YANG', 'Yacc', 'Zephir', 'Zig', 'Zimpl', 'desktop', 'eC', 'edn', 'fish', 'mupad', 'nesC', 'ooc', 'reStructuredText', 'wisp', 'xBase']\n```\n\u003C\u002Fdetails>\n\n3. ✨ 保留基础模型在数学和通用能力方面的优势。\n\n> [!重要]\n> \n> Qwen3-Coder 的函数调用依赖于我们在 **SGLang** 和 **vLLM** 中的新工具解析器 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next\u002Fblob\u002Fmain\u002F\">这里\u003C\u002Fa>。\n>\n> 我们更新了特殊标记及其对应的标记 ID，以保持与 Qwen3 的一致性。请确保使用新的分词器。\n\n\n| 模型名称                  | 类型     | 长度 | 下载                                                                                                                                                                        |\n|-----------------------------|----------|--------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Qwen3-Coder-Next         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next)                                       |\n| Qwen3-Coder-Next-Base         | 基础     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-Base) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-Base)     |\n| Qwen3-Coder-480B-A35B-Instruct         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct)                                       |\n| Qwen3-Coder-30B-A3B-Instruct         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct)                                       |\n| Qwen3-Coder-Next-FP8         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-FP8  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-FP8)\n| Qwen3-Coder-Next-GGUF         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next-GGUF  ) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-Next-GGUF)                                       |\n| Qwen3-Coder-480B-A35B-Instruct-FP8         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct-FP8) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-480B-A35B-Instruct-FP8)                                       |\n| Qwen3-Coder-30B-A3B-Instruct-FP8         | 指令     | 256k    | 🤗 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct-FP8) • 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct-FP8)                                       |\n\n\n详细性能和介绍请参阅此 \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-coder-next\u002F\">📑 博客\u003C\u002Fa>。\n\n---\n\n## 快速入门\n\n> [!重要]\n> **Qwen3-Coder** 是用于聊天的指令模型；\n>\n> 该模型仅支持非思考模式，其输出中不会生成 `\u003Cthink>\u003C\u002Fthink>` 块。同时，不再需要指定 `enable_thinking=False`。\n>\n### 👉🏻 与 Qwen3-Coder 聊天\n您可以使用 `transformers` 库编写几行代码来与 Qwen3-Coder-Next 进行对话。本质上，我们通过 `from_pretrained` 方法加载分词器和模型，并利用分词器提供的聊天模板，调用 `generate` 方法进行对话。以下是与 **Qwen3-Coder-Next** 对话的示例：\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\nmodel_name = \"Qwen\u002FQwen3-Coder-Next\"\n\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    torch_dtype=\"auto\",\n    device_map=\"auto\"\n)\ntokenizer = AutoTokenizer.from_pretrained(model_name)\n\nprompt = \"写一个快速排序算法。\"\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\ntext = tokenizer.apply_chat_template(\n    messages,\n    tokenize=False,\n    add_generation_prompt=True\n)\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\ngenerated_ids = model.generate(\n    **model_inputs,\n    max_new_tokens=65536\n)\ngenerated_ids = [\n    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)\n]\n\nresponse = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]\n```\n`apply_chat_template()` 函数用于将消息转换为模型可以理解的格式。\n`add_generation_prompt` 参数用于在输入中添加生成提示，即 `\u003C|im_start|>assistant\\n`。值得注意的是，我们沿用了之前的实践，为聊天模型应用 ChatML 模板。\n`max_new_tokens` 参数用于设置响应的最大长度。`tokenizer.batch_decode()` 函数用于解码响应。上述消息只是一个示例，展示了如何格式化您的对话历史和系统提示。\n您也可以以相同的方式使用其他尺寸的指令模型。\n\n\n#### 在中间填充代码：Qwen3-Coder 的 FIM 任务\n\n代码插入任务，也称为“填空挑战”，要求在给定的代码上下文中插入代码片段，以填补空白。为了遵循最佳实践，我们建议按照论文《高效训练语言模型以填补中间》[[arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.14255)] 中概述的格式指南进行操作。\n\n> [!重要]\n> 需要注意的是，FIM 在所有版本的 Qwen3-Coder 中都受支持。此处以 Qwen3-Coder-Next 为例。\n>\n\n提示应按以下结构组织：\n```python\nprompt = '\u003C|num_start|>' + prefix_code + '\u003C|num_end|>' + suffix_code + '\n\n### 示例：声音 ASCII 艺术\n\n\u003Cdetails>\n\u003Csummary>带有 Cline 的提示\u003C\u002Fsummary>\n\n```\n构建一个带有声音反馈的交互式 ASCII 艺术绘制工具。该应用应：\n \n1. 创建一个画布，用户可以通过点击和拖动进行绘画\n2. 在用户绘画时放置不同的 ASCII 字符或符号\n3. 每当放置一个字符时，播放对应的音符\n4. 包含多组图案，每组使用不同的字符和相应的音阶\n5. 添加一个图案切换按钮，用于在不同的字符\u002F声音主题之间循环切换\n6. 提供一个清除按钮，用于重置画布\n7. 支持鼠标和触摸输入，以实现移动设备兼容性\n \n该应用应富有创意且有趣，创造出一种视听体验：字符的排列不仅形成视觉艺术，还能产生音乐模式。确保按顺序播放的音符和谐悦耳。\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fcline\u002Fsound_art.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_f74c5ef48637.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### 示例：氛围检测\n\n\n\u003Cdetails>\n\u003Csummary>带有浏览器使用代理的提示\u003C\u002Fsummary>\n\n```\n测试这个网站的氛围。四处点击，尝试各种操作，报告哪些地方有问题。\n```\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002Fbua\u002Fvibe.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_ef5848e91794.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n### 示例：跑酷游戏\n\n\n\u003Cdetails>\n\u003Csummary>带有 Qwen Chat Web 开发的提示\u003C\u002Fsummary>\n\n```\n使用 HTML5 Canvas 创建一个交互式的实时粒子系统：\n\n核心功能：\n- 渲染 800–1200 个具有物理运动效果的动画粒子\n- 鼠标光标对附近的粒子施加吸引或排斥力\n- 单击可在吸引和排斥模式之间切换\n- 粒子响应平滑的加速度和速度计算\n\n技术要求：\n- 使用 requestAnimationFrame 以获得最佳性能\n- 根据与光标的距离实现力的计算\n- 添加视觉反馈：粒子发光、颜色变化和淡出效果\n- 包括性能监控（FPS 计数器）\n\n交付内容：\n- 单个 HTML 文件，内嵌 CSS 和 JavaScript\n- 代码整洁、注释清晰，遵循最佳实践\n- 响应式设计，兼容现代浏览器\n```\n\u003C\u002Fdetails>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fqianwen-res.oss-accelerate-overseas.aliyuncs.com\u002FQwen3-Coder-Next\u002FWebDev\u002Fchico_paredao.mp4\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_3c83e1266333.png\" width=\"400\" \u002F>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n\n---\n\n## 星级历史\n[![星级历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_readme_ddff9dead24e.png)](https:\u002F\u002Fstar-history.com\u002F#QwenLM\u002FQwen3-Coder&Date)\n\n---\n\n## 引用\n\n如果您觉得我们的工作有所帮助，请随时引用我们。\n\n```bibtex\n@article{Qwen3-Coder-Next,\n    title={Qwen3-Coder-Next 技术报告},\n    author={Ruisheng Cao 和 Mouxiang Chen 和 Jiawei Chen 和 Zeyu Cui 和 Yunlong Feng 和 Binyuan Hui 和 Yuheng Jing 和 Kaixin Li 和 Mingze Li 和 Junyang Lin 和 Zeyao Ma 和 Kashun Shum 和 Xuwu Wang 和 Jinxi Wei 和 Jiaxi Yang 和 Jiajun Zhang 和 Lei Zhang 和 Zongmeng Zhang 和 Wenting Zhao 和 Fan Zhou},\n    journal={arXiv 预印本 arXiv:2603.00729},\n    year={2026},\n}\n```\n\n---\n\n## 联系我们\n如果您想给我们的研究团队或产品团队留言，请加入我们的 [Discord](https:\u002F\u002Fdiscord.gg\u002Fz3GAxXZ9Ce) 或 [微信小组](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.png)！\n\n\u003Cp align=\"right\" style=\"font-size: 14px; color: #555; margin-top: 20px;\">\n    \u003Ca href=\"#readme-top\" style=\"text-decoration: none; color: #007bff; font-weight: bold;\">\n        ↑ 回到顶部 ↑\n    \u003C\u002Fa>\n\u003C\u002Fp>","# Qwen3-Coder 快速上手指南\n\nQwen3-Coder 是通义千问团队推出的最新代码专用模型系列，专为智能体编程（Agentic Coding）和本地开发设计。其中 **Qwen3-Coder-Next** 基于混合注意力机制和 MoE 架构，支持 256K 原生上下文（可扩展至 1M），在保持强大数学与通用能力的同时，显著降低了推理成本。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS, Windows (WSL 推荐)\n- **Python**: >= 3.9\n- **GPU**: 推荐使用 NVIDIA GPU (显存需求视模型版本而定，FP8\u002FGGUF 版本可降低显存占用)\n- **CUDA**: 建议安装与 PyTorch 版本匹配的 CUDA 驱动\n\n### 前置依赖\n确保已安装以下核心库：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\npip install transformers>=4.40.0 accelerate\n```\n\n> **注意**：Qwen3-Coder 的功能调用依赖于 **SGLang** 或 **vLLM** 中的新工具解析器。若需生产级部署或高性能推理，请额外安装对应后端。\n\n## 安装步骤\n\n### 方式一：通过 Hugging Face (国际通用)\n```bash\npip install huggingface_hub\nhuggingface-cli login\n```\n\n### 方式二：通过 ModelScope (国内推荐，加速下载)\n对于中国开发者，推荐使用阿里云 ModelScope 平台获取模型，下载速度更快且无需特殊网络环境。\n\n1. 安装 ModelScope 库：\n```bash\npip install modelscope\n```\n\n2. 登录（可选，部分大模型可能需要）：\n```bash\nmodelscope login\n```\n\n3. 验证模型可用性（以 Qwen3-Coder-Next 为例）：\n```python\nfrom modelscope import snapshot_download\nmodel_dir = snapshot_download('Qwen\u002FQwen3-Coder-Next')\nprint(f\"Model downloaded to: {model_dir}\")\n```\n\n## 基本使用\n\n以下示例展示如何使用 `transformers` 库与 **Qwen3-Coder-Next** 进行对话。该模型为 Instruct 版本，仅支持非思考模式（non-thinking mode），无需设置 `enable_thinking=False`，也不会输出 `\u003Cthink>` 标签。\n\n### 代码生成示例\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\n# 指定模型名称，国内用户可替换为本地下载路径 model_dir\nmodel_name = \"Qwen\u002FQwen3-Coder-Next\"\n\n# 加载模型和分词器\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    torch_dtype=\"auto\",\n    device_map=\"auto\"\n)\ntokenizer = AutoTokenizer.from_pretrained(model_name)\n\n# 构建提示词\nprompt = \"write a quick sort algorithm.\"\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\n# 应用聊天模板\ntext = tokenizer.apply_chat_template(\n    messages,\n    tokenize=False,\n    add_generation_prompt=True\n)\n\n# 编码输入\nmodel_inputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\n# 生成回答\ngenerated_ids = model.generate(\n    **model_inputs,\n    max_new_tokens=65536\n)\n\n# 解码输出\ngenerated_ids = [\n    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)\n]\nresponse = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]\n\nprint(response)\n```\n\n### 关键特性说明\n- **长上下文支持**：原生支持 256K tokens，适合处理整个代码仓库或超长文档。\n- **多语言覆盖**：支持包括 Python, Java, C++, JavaScript, Go, Rust 等在内的 358 种编程语言。\n- **功能调用**：模型内置专门设计的函数调用格式，完美适配 Qwen Code、CLINE 等智能体框架。\n\n> **提示**：如需更低显存占用，可尝试下载 `Qwen3-Coder-Next-FP8` 或 `Qwen3-Coder-Next-GGUF` 版本。","某初创团队的后端工程师需要在两天内将一套遗留的 COBOL 金融结算模块迁移至现代 Python 微服务架构，并集成实时风控逻辑。\n\n### 没有 Qwen3-Coder 时\n- **语言壁垒高**：团队无人精通 COBOL，人工逐行解读老旧业务逻辑耗时极长，极易误读隐含规则。\n- **上下文割裂**：项目代码库庞大，传统模型受限于短上下文，无法同时理解多个关联文件，导致重构后的代码逻辑断层。\n- **调试周期长**：生成的代码缺乏环境交互能力，需人工反复编写测试用例并手动修复报错，开发节奏被严重拖慢。\n- **代理能力弱**：无法自主调用浏览器查阅最新的风控 API 文档或搜索特定语言的迁移方案，依赖开发者中断编码去查资料。\n\n### 使用 Qwen3-Coder 后\n- **精准跨语言迁移**：利用其支持 358 种编程语言的优势，Qwen3-Coder 直接解析 COBOL 源码并生成符合现代规范的 Python 代码，完整保留核心结算算法。\n- **全库逻辑掌控**：凭借原生 256K 甚至扩展至 1M 的超长上下文，Qwen3-Coder 一次性读取整个仓库，确保新生成的微服务与现有系统无缝衔接。\n- **自主闭环开发**：基于强化训练的智能体能力，Qwen3-Coder 自动在本地环境运行代码、捕获异常并自我修正，大幅减少人工干预。\n- **主动工具调用**：遇到未知接口时，Qwen3-Coder 自主调用浏览器搜索最新文档并更新代码，实现从“查资料”到“写代码”的零切换。\n\nQwen3-Coder 通过超长上下文理解与自主代理执行能力，将原本需要数周的复杂遗留系统重构工作压缩至小时级，显著降低了技术债务清理的成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FQwenLM_Qwen3-Coder_7787bcce.png","QwenLM","Qwen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FQwenLM_4756c6c9.png","Alibaba Cloud's general-purpose AI models",null,"qianwen_opensource@alibabacloud.com","Alibaba_Qwen","https:\u002F\u002Fqwen.ai\u002F","https:\u002F\u002Fgithub.com\u002FQwenLM",[25,29,33,37,41,45,49,52,55,59],{"name":26,"color":27,"percentage":28},"Python","#3572A5",85.3,{"name":30,"color":31,"percentage":32},"Go","#00ADD8",12.2,{"name":34,"color":35,"percentage":36},"Shell","#89e051",1.8,{"name":38,"color":39,"percentage":40},"Tree-sitter Query","#8ea64c",0.3,{"name":42,"color":43,"percentage":44},"JavaScript","#f1e05a",0.2,{"name":46,"color":47,"percentage":48},"Makefile","#427819",0.1,{"name":50,"color":51,"percentage":48},"HTML","#e34c26",{"name":53,"color":54,"percentage":48},"Dockerfile","#384d54",{"name":56,"color":57,"percentage":58},"SCSS","#c6538c",0,{"name":60,"color":61,"percentage":58},"Ruby","#701516",16396,1180,"2026-04-19T08:29:45",3,"","未说明（模型支持 FP8 和 GGUF 量化版本，暗示对显存优化有支持；需配合 SGLang 或 vLLM 推理框架使用）","未说明",{"notes":70,"python":68,"dependencies":71},"1. 该模型依赖新的工具解析器，必须使用 SGLang 或 vLLM 进行函数调用。2. 使用了更新的特殊 token 及其 ID，务必使用新版 tokenizer 以保持与 Qwen3 的一致性。3. 原生支持 256K 上下文长度，可通过 Yarn 扩展至 1M。4. 仅提供非思考模式（non-thinking mode），不会生成 \u003Cthink> 标签，无需设置 enable_thinking=False。5. 提供多种量化版本（FP8, GGUF）以降低推理成本。",[72,73,74],"transformers","SGLang","vLLM",[76,77],"语言模型","Agent",2,"ready","2026-03-27T02:49:30.150509","2026-04-20T04:05:10.537373",[],[],[85,96,104,112,122,130],{"id":86,"name":87,"github_repo":88,"description_zh":89,"stars":90,"difficulty_score":65,"last_commit_at":91,"category_tags":92,"status":79},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[77,93,94,95],"开发框架","图像","数据工具",{"id":97,"name":98,"github_repo":99,"description_zh":100,"stars":101,"difficulty_score":65,"last_commit_at":102,"category_tags":103,"status":79},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[93,94,77],{"id":105,"name":106,"github_repo":107,"description_zh":108,"stars":109,"difficulty_score":78,"last_commit_at":110,"category_tags":111,"status":79},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,"2026-04-19T11:32:54",[93,77,76],{"id":113,"name":114,"github_repo":115,"description_zh":116,"stars":117,"difficulty_score":118,"last_commit_at":119,"category_tags":120,"status":79},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[77,121],"插件",{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":78,"last_commit_at":128,"category_tags":129,"status":79},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[93,94,77],{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":78,"last_commit_at":136,"category_tags":137,"status":79},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[121,77,94,93]]