[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-continuedev--what-llm-to-use":3,"tool-continuedev--what-llm-to-use":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161692,"2026-04-20T11:33:57",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":73,"owner_website":78,"owner_url":79,"languages":77,"stars":80,"forks":81,"last_commit_at":82,"license":83,"difficulty_score":59,"env_os":84,"env_gpu":85,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":91,"view_count":24,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":95,"updated_at":96,"faqs":97,"releases":98},10185,"continuedev\u002Fwhat-llm-to-use","what-llm-to-use","👀 What LLM to use?","what-llm-to-use 是一份由 Continue 社区维护的开源指南，旨在帮助开发者在快速迭代的 DevAI 领域中，轻松理清“该选择哪个大语言模型（LLM）”这一难题。面对市面上层出不穷的模型，许多人在构建软件时往往难以抉择。这份资源通过清晰的决策逻辑，引导用户根据自身需求在开源与商业模型之间做出明智判断：是追求数据隐私、低成本和本地部署的灵活性，还是倾向于性能顶尖、设置便捷的商业服务？\n\n该指南特别聚焦于编码场景，详细梳理了如 Code Llama、WizardCoder 等主流开源模型的特点、参数量及适用场景，并提供了从本地运行到团队部署的实用建议。它不仅列出了模型清单，更解释了不同选择背后的权衡因素，例如内存限制、网络连接需求以及成本考量。\n\n无论是正在寻找合适辅助编程工具的软件开发人员，还是希望为团队搭建私有化代码模型的技术负责人，都能从中获得极具价值的参考。what-llm-to-use 以社区驱动的方式持续更新，确保内容紧跟技术前沿，是开发者探索 AI 编程助手时不可或缺的实用手册。","# What LLM to use? A perspective from the DevAI space\n\nWith how fast things are moving in the DevAI space, a shorthand for the community of developers building software with the help of large language models (LLMs), it can be challenging to figure out which model to use.\n\nWe started this repository based on our experiences as part of the [Continue community](https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fcontinue). Feel free to suggest improvements and help us keep it up-to-date by opening a pull request!\n\n## What LLMs are there?\n\nThere are A LOT of LLMs. We’ve decided to focus on the ones that we see folks using now:\n\n![LLMs graphic](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontinuedev_what-llm-to-use_readme_8ce7404603e2.png)\n\nYou can find a CSV that includes all of these models and information about them [here](.\u002FLLMs.csv).\n\n## What LLMs are being used while coding?\n\n### How do folks decide?\n\nThe first choice you typically make is whether you are going to use an **open-source** or a **commercial** model:\n\n- You usually select an **open-source** LLM when you want to keep your code within your environment, have enough available memory, want to keep your costs low, or want to be able to manage and optimize everything end-to-end.\n- You usually select a **commercial** LLM when you want the best model, prefer an easy and reliable setup, don’t have a lot of available memory, don’t mind your code leaving your environment, or are not deterred by cost concerns.\n\nIf you decide to use an **open-source** LLM, your next decision is whether to set up the model on your local machine or on a hosted model provider:\n\n- You usually opt to use an open-source LLM on your _local machine_ when you have enough available memory, want free usage, or want to be able to use the model without needing an Internet connection.\n- You usually opt to use an open-source LLM on a _hosted provider_ when you want the best open-source model, don’t have a lot of available memory on your local machine, or want the model to serve multiple people.\n\nWe maintain a guide on how to deploy an open-source code LLM for your team [here](https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fdeploy-os-code-llm).\n\nIf you decide to use a **commercial** LLM, you'll typically obtain API keys and play with multiple of them for comparison. Both the quality of the suggestions and the cost to use can be important criteria.\n\n### Open Source\n\nThis is a list of the **open-source** LLMs that developers are using while coding, roughly ordered from most popular to least popular, as of October 2023.\n\n#### 1. Code Llama\n\n[Code Llama](https:\u002F\u002Fabout.fb.com\u002Fnews\u002F2023\u002F08\u002Fcode-llama-ai-for-coding\u002F) is an LLM trained by Meta for generating and discussing code. It is built on top of Llama 2. Even though it is below WizardCoder and Phind-CodeLlama on the [Big Code Models Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fbigcode\u002Fbigcode-models-leaderboard), it is the base model for both of them. It also comes in a variety of sizes: 7B, 13B, and 34B, which makes it popular to use on local machines as well as with hosted providers. At this point, it is the most well-known open-source base model for coding and is leading the open-source effort to create coding capable LLMs.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n\n    Creator: Meta\n    Date released: August 24th, 2023\n    License: Llama 2 Community\n    Base model: Llama 2\n    Parameters: 7B, 13B, 34B\n\n\u003C\u002Fdetails>\n\n#### 2. WizardCoder\n\n[WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder) is an LLM built on top of Code Llama by the WizardLM team. The [Evol-Instruct method](https:\u002F\u002Fx.com\u002FWizardLM_AI\u002Fstatus\u002F1705551243421090207?s=20) is adapted for coding tasks to create a training dataset, which is used to fine-tune Code Llama. It comes in the same sizes as Code Llama: 7B, 13B, and 34B. As a result, it is the most popular open-source instruction-tuned LLM so far.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: WizardLM\n    Date released: August 26th, 2023\n    License: Llama 2 Community\n    Base model: Code Llama\n    Parameters: 7B, 13B, 34B\n    \n\u003C\u002Fdetails>\n\n#### 3. Phind-CodeLlama\n\n[Phind-CodeLlama](https:\u002F\u002Fwww.phind.com\u002Fblog\u002Fcode-llama-beats-gpt4) is an LLM built on top of Code Llama by Phind. A proprietary dataset of ~80k high-quality programming problems and solutions was used to fine-tune Code Llama. That fine-tuned model was then further fine-tuned on 1.5B additional tokens. It currently leads on the [Big Code Models Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fbigcode\u002Fbigcode-models-leaderboard). However, it is only available as a 34B parameter model, so it requires more available memory to be used.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: Phind\n    Date released: August 28th, 2023\n    License: Llama 2 Community\n    Base model: Code Llama\n    Parameters: 34B\n\n\u003C\u002Fdetails>\n\n#### 4. Mistral\n\n[Mistral](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fannouncing-mistral-7b) is a 7B parameter LLM trained by Mistal AI. It is the most recently released model on this list, having dropped at the end of September. Mistal AI says that it “approaches CodeLlama 7B performance on code, while remaining good at English tasks”. Despite only being available in the one small size, people are quite excited about it in the first couple weeks after release. The first fine-tuned LLMs that use it as their base are now beginning to emerge, and we are likely to see more going forward.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: Mistral AI\n    Date released: September 27th, 2023\n    License: Apache 2.0\n    Base model: Mistral\n    Parameters: 7B\n    \n\u003C\u002Fdetails>\n\n#### 5. StarCoder\n\n[StarCoder](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fstarcoder) is a 15B parameter LLM trained by BigCode, which was ahead of its time when it was released in May. It was trained on 80+ programming languages from The Stack (v1.2) with opt-out requests excluded. It is not an instruction model and commands like \"Write a function that computes the square root\" do not work well. However, by using the [Tech Assistant prompt](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fbigcode\u002Fta-prompt) you can make it more helpful.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: BigCode\n    Date released: May 4th, 2023\n    License: OpenRAIL-M\n    Base model: StarCoder\n    Parameters: 15B\n    \n\u003C\u002Fdetails>\n\n#### 6. DeepSeek Coder\n\n[DeepSeek Coder](deepseekcoder.github.io) is an LLM trained by DeepSeek AI on 2 trillion tokens. With a dataset made up of over more than 80 programming languages, it's the newest model on this list and has been reported to score quite high on various coding-related benchmarks.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: DeepSeek AI\n    Date released: November 3rd, 2023\n    License: DeepSeek License Agreement\n    Base model: DeepSeek Coder\n    Parameters: 1.3B, 6.7B, 33B\n    \n\u003C\u002Fdetails>\n\n#### 7. Llama2\n\n[Llama 2](https:\u002F\u002Fai.meta.com\u002Fllama\u002F#inside-the-model) is an LLM trained by Meta on 2 trillion tokens. It is the most popular open source LLM overall, so some developers use it, despite it not being as good as many of the models above at making code edits. It is also important because Code Llama, the most popular LLM for coding, is built on top of it, which in turn is the foundation for WizardCoder and Phind-CodeLlama.\n\n\u003Cdetails>\n    \u003Csummary>Details\u003C\u002Fsummary>\n    \n    Creator: Meta\n    Date released: July 18th, 2023\n    License: Llama 2 Community\n    Base model: Llama 2\n    Parameters: 7B, 13B, 70B\n    \n\u003C\u002Fdetails>\n\n### Commercial\n\nThis is a list of the **commercial** LLMs that developers are using while coding, roughly ordered from most popular to least popular, as of October 2023.\n\n#### 1. GPT-4\n\n[GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4) from OpenAI is generally considered to be the best LLM to use while coding. It is quite helpful when generating and discussing code. However, it requires you to send your code to OpenAI via their API and can be quite expensive. Nevertheless, it is the most popular LLM for coding overall and the majority of developers use it while coding at this point. All OpenAI API users who made a successful payment of $1 or more before July 6, 2023 were given access to GPT-4, and they plan to open up access to all developers soon.\n\n#### 2. GPT-4 Turbo\n\n[GPT-4 Turbo](https:\u002F\u002Fopenai.com\u002Fblog\u002Fnew-models-and-developer-products-announced-at-devday) from OpenAI is cheaper and faster than GPT-4. It has knowledge cutoff of April 2023 and has a 128k context window. It is currently in preview, as of November 2023, but anyone with an OpenAI API account and existing GPT-4 access can use it.\n\n#### 3. GPT-3.5 Turbo\n\n[GPT-3.5 Turbo](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fmodels\u002Fgpt-3-5) from OpenAI is cheaper and faster than GPT-4; however, its suggestions are not nearly as helpful. It also requires you to send your code to OpenAI via their API. It is the second most popular LLM for coding overall so far. All developers can use it now after signing up for an OpenAI account.\n\n#### 4. Claude 2\n\n[Claude 2](https:\u002F\u002Fwww.anthropic.com\u002Findex\u002Fclaude-2) is an LLM trained by Anthropic, which has greatly improved coding skills compared to the first version of Claude. It especially excels, relative to other LLMs, when you provide a lot of context. It requires you to send your code to Anthropic via their API. You must apply to get access to Claude 2 at this point.\n\n#### 5. PaLM 2\n\n[PaLM 2](https:\u002F\u002Fai.google\u002Fdiscover\u002Fpalm2) is an LLM trained by Google. To try it out, you must send your code to Google via the PaLM API after obtaining an API key via MakerSuite, both of which are currently in public preview.\n\n## Contributing\n\nIf you see a model missing or want to share an opinion, we welcome you to open a PR or an issue! We hope to maintain a community-driven and up-to-date index of the most helpful language models for coding.\n\n*If you liked this blog post and want to read more about DevAI–the community of folks building software with the help of LLMs–in the future, join our monthly newsletter [here](https:\u002F\u002Fcontinue.dev#newsletter).*\n","# 应该使用哪款大语言模型？来自 DevAI 领域的视角\n\n在 DevAI 领域——即借助大型语言模型（LLMs）进行软件开发的开发者社区——发展速度如此之快，要决定选用哪款模型往往颇具挑战性。\n\n我们基于自身作为 [Continue 社区](https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fcontinue) 一员的经验创建了这个仓库。欢迎提出改进建议，并通过提交 Pull Request 帮助我们保持其最新状态！\n\n## 现有哪些大语言模型？\n\n大语言模型的数量非常多。我们决定聚焦于目前大家普遍使用的那些：\n\n![LLMs 图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontinuedev_what-llm-to-use_readme_8ce7404603e2.png)\n\n您可以在 [这里](.\u002FLLMs.csv) 找到包含所有这些模型及其相关信息的 CSV 文件。\n\n## 编码时都在使用哪些大语言模型？\n\n### 开发者们是如何做出选择的呢？\n\n首先需要决定的是：是使用 **开源** 模型，还是 **商业** 模型：\n\n- 当您希望将代码完全保留在本地环境、拥有充足的可用内存、希望控制成本或希望能够端到端地自主管理和优化时，通常会选择 **开源** 大语言模型。\n- 而当您追求最佳性能、偏好简单可靠的部署方式、本地内存不足、不介意代码流出本地环境，或者对成本问题并不敏感时，则更倾向于选择 **商业** 大语言模型。\n\n如果您决定使用 **开源** 模型，接下来就需要判断是在本地机器上部署，还是选择托管服务提供商：\n\n- 如果您有足够的可用内存、希望免费使用，或者希望在无需互联网连接的情况下也能运行模型，那么通常会选择在 _本地机器_ 上部署开源模型。\n- 若您期望获得最优的开源模型、本地内存有限，或是希望让模型同时服务于多人，则更倾向于选择在 _托管服务商_ 上部署开源模型。\n\n我们维护了一份面向团队的开源代码 LLM 部署指南，详情请见 [这里](https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fdeploy-os-code-llm)。\n\n如果您选择使用 **商业** 模型，通常会获取相应的 API 密钥，并尝试对比多个不同的模型。建议的质量以及使用成本，都是重要的考量因素。\n\n### 开源\n\n以下是截至2023年10月，开发者在编码时使用的**开源**大语言模型列表，大致按受欢迎程度从高到低排序。\n\n#### 1. Code Llama\n\n[Code Llama](https:\u002F\u002Fabout.fb.com\u002Fnews\u002F2023\u002F08\u002Fcode-llama-ai-for-coding\u002F) 是由 Meta 训练的用于生成和讨论代码的大语言模型。它基于 Llama 2 构建。尽管在 [Big Code Models Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fbigcode\u002Fbigcode-models-leaderboard) 上排名低于 WizardCoder 和 Phind-CodeLlama，但它却是这两者的基础模型。Code Llama 提供 7B、13B 和 34B 三种不同规模的版本，因此无论是在本地设备上还是通过托管服务提供商使用，都十分流行。目前，它是最知名的开源编码基础模型，引领着开源社区构建具备编码能力的大语言模型的努力。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n\n    创建者：Meta\n    发布日期：2023年8月24日\n    许可证：Llama 2 Community\n    基础模型：Llama 2\n    参数量：7B、13B、34B\n\n\u003C\u002Fdetails>\n\n#### 2. WizardCoder\n\n[WizardCoder](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM\u002Ftree\u002Fmain\u002FWizardCoder) 是由 WizardLM 团队基于 Code Llama 构建的大语言模型。该团队采用了 [Evol-Instruct 方法](https:\u002F\u002Fx.com\u002FWizardLM_AI\u002Fstatus\u002F1705551243421090207?s=20)，专门针对编码任务调整后生成训练数据集，并用其对 Code Llama 进行微调。WizardCoder 同样提供 7B、13B 和 34B 三种规模的版本。因此，它是迄今为止最受欢迎的开源指令微调大语言模型。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：WizardLM\n    发布日期：2023年8月26日\n    许可证：Llama 2 Community\n    基础模型：Code Llama\n    参数量：7B、13B、34B\n    \n\u003C\u002Fdetails>\n\n#### 3. Phind-CodeLlama\n\n[Phind-CodeLlama](https:\u002F\u002Fwww.phind.com\u002Fblog\u002Fcode-llama-beats-gpt4) 是由 Phind 公司基于 Code Llama 构建的大语言模型。该公司使用了一个包含约 8 万个高质量编程问题及解答的专有数据集对 Code Llama 进行了微调，随后又在此基础上继续进行了 15 亿个额外 token 的微调。目前，该模型在 [Big Code Models Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fbigcode\u002Fbigcode-models-leaderboard) 上位居榜首。不过，它仅提供 34B 参数规模的版本，因此需要更多的内存资源才能运行。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：Phind\n    发布日期：2023年8月28日\n    许可证：Llama 2 Community\n    基础模型：Code Llama\n    参数量：34B\n\n\u003C\u002Fdetails>\n\n#### 4. Mistral\n\n[Mistral](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fannouncing-mistral-7b) 是由 Mistal AI 训练的 7B 参数大语言模型。它是本列表中最新发布的模型，于九月底正式推出。Mistal AI 表示，该模型“在代码相关任务上的表现接近 CodeLlama 7B，同时在英语任务上也表现出色”。尽管目前只提供这一种小规模版本，但在发布后的前几周内，它已经引起了广泛的关注。现在，以 Mistral 为基础的首批微调模型也开始出现，未来预计还会有更多相关应用问世。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：Mistral AI\n    发布日期：2023年9月27日\n    许可证：Apache 2.0\n    基础模型：Mistral\n    参数量：7B\n    \n\u003C\u002Fdetails>\n\n#### 5. StarCoder\n\n[StarCoder](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fstarcoder) 是由 BigCode 团队训练的 15B 参数大语言模型，于五月发布时可谓领先于时代。它基于 The Stack (v1.2) 数据集中超过 80 种编程语言进行训练，且排除了选择退出请求的数据。需要注意的是，StarCoder 并非指令型模型，因此像“编写一个计算平方根的函数”这样的指令效果并不理想。不过，通过使用 [Tech Assistant prompt](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fbigcode\u002Fta-prompt)，可以显著提升其实用性。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：BigCode\n    发布日期：2023年5月4日\n    许可证：OpenRAIL-M\n    基础模型：StarCoder\n    参数量：15B\n    \n\u003C\u002Fdetails>\n\n#### 6. DeepSeek Coder\n\n[DeepSeek Coder](deepseekcoder.github.io) 是由 DeepSeek AI 在 2 万亿个 token 上训练的大语言模型。该模型的数据集涵盖了超过 80 种编程语言，是本列表中最新的模型之一，并据报道在多项与编码相关的基准测试中取得了非常优异的成绩。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：DeepSeek AI\n    发布日期：2023年11月3日\n    许可证：DeepSeek License Agreement\n    基础模型：DeepSeek Coder\n    参数量：1.3B、6.7B、33B\n    \n\u003C\u002Fdetails>\n\n#### 7. Llama2\n\n[Llama 2](https:\u002F\u002Fai.meta.com\u002Fllama\u002F#inside-the-model) 是由 Meta 在 2 万亿个 token 上训练的大语言模型。它是目前最受欢迎的开源大语言模型，因此即便在代码编辑方面不如上述许多模型，仍有不少开发者在使用它。更重要的是，作为最流行的编码专用大语言模型——Code Llama——正是基于 Llama 2 构建的，而 Llama 2 又进一步成为了 WizardCoder 和 Phind-CodeLlama 的基础。\n\n\u003Cdetails>\n    \u003Csummary>详情\u003C\u002Fsummary>\n    \n    创建者：Meta\n    发布日期：2023年7月18日\n    许可证：Llama 2 Community\n    基础模型：Llama 2\n    参数量：7B、13B、70B\n    \n\u003C\u002Fdetails>\n\n### 商业用途\n\n以下是截至2023年10月，开发者在编码时使用的**商业**大语言模型列表，按受欢迎程度从高到低排序。\n\n#### 1. GPT-4\n\n来自OpenAI的[GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4)通常被认为是编码时最佳的大语言模型。它在代码生成和讨论方面非常有帮助。不过，使用时需要通过OpenAI的API将代码发送到其服务器，且费用较高。尽管如此，它仍然是目前最流行的编码用大语言模型，大多数开发者都在使用它。所有在2023年7月6日之前成功支付过1美元或以上的OpenAI API用户都已获得GPT-4的访问权限，而OpenAI计划很快向所有开发者开放访问。\n\n#### 2. GPT-4 Turbo\n\n同样来自OpenAI的[GPT-4 Turbo](https:\u002F\u002Fopenai.com\u002Fblog\u002Fnew-models-and-developer-products-announced-at-devday)比GPT-4更便宜、更快。它的知识截止日期为2023年4月，上下文窗口大小为128K tokens。截至2023年11月，该模型仍处于预览阶段，但任何拥有OpenAI API账户并已具备GPT-4访问权限的用户都可以使用它。\n\n#### 3. GPT-3.5 Turbo\n\n来自OpenAI的[GPT-3.5 Turbo](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fmodels\u002Fgpt-3-5)比GPT-4更便宜、更快；然而，它的建议远不如GPT-4有用。同样，使用时也需要通过OpenAI的API将代码发送过去。截至目前，它是第二受欢迎的编码用大语言模型。所有开发者只需注册一个OpenAI账户即可使用。\n\n#### 4. Claude 2\n\n[Claude 2](https:\u002F\u002Fwww.anthropic.com\u002Findex\u002Fclaude-2)是由Anthropic训练的大语言模型，相比Claude的第一版，其编码能力有了显著提升。尤其是在提供大量上下文信息时，Claude 2的表现优于其他大语言模型。使用时需通过Anthropic的API将代码发送过去。目前，申请Claude 2的访问权限是必需的。\n\n#### 5. PaLM 2\n\n[PaLM 2](https:\u002F\u002Fai.google\u002Fdiscover\u002Fpalm2)是由Google训练的大语言模型。要试用它，您需要先通过MakerSuite获取API密钥，然后利用PaLM API将代码发送给Google，而这两者目前均处于公开预览阶段。\n\n## 贡献\n\n如果您发现有遗漏的模型，或者希望分享您的看法，欢迎提交PR或创建议题！我们致力于维护一个由社区驱动、内容最新的编码辅助大语言模型索引。\n\n*如果您喜欢这篇博客文章，并希望在未来阅读更多关于DevAI——一个借助大语言模型构建软件的开发者社区——的相关内容，请在此处订阅我们的月度通讯：[here](https:\u002F\u002Fcontinue.dev#newsletter)*","# what-llm-to-use 快速上手指南\n\n`what-llm-to-use` 并非一个需要安装的可执行软件或库，而是一个由 Continue 社区维护的**开源知识库与选型指南**。它旨在帮助开发者在众多的开源和商业大语言模型（LLM）中，根据实际需求（如本地部署、成本、性能）做出最佳选择。\n\n本指南将指导你如何获取该资源，并基于其内容快速开始使用适合的 coding LLM。\n\n## 环境准备\n\n由于本项目主要为文档和数据集，无需特定的系统依赖或运行时环境。你只需要：\n\n*   **操作系统**：Windows, macOS, 或 Linux 均可。\n*   **基础工具**：\n    *   Git（用于克隆仓库）\n    *   现代浏览器（用于查看在线文档）\n    *   CSV 阅读器或 Excel（用于分析模型数据表）\n*   **硬件建议**（若计划运行开源模型）：\n    *   **本地运行**：建议拥有 NVIDIA GPU（显存至少 8GB 以上以运行 7B 模型，34B 模型需更高配置）或 Apple Silicon (M1\u002FM2\u002FM3) 芯片。\n    *   **云端\u002F托管**：若无本地高性能显卡，可准备云服务器账号或使用托管服务商。\n\n## 安装步骤（获取资源）\n\n你可以通过克隆 GitHub 仓库来获取最新的模型列表和详细对比数据。\n\n1.  打开终端（Terminal 或 CMD）。\n2.  执行以下命令克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fwhat-llm-to-use.git\n```\n\n3.  进入项目目录：\n\n```bash\ncd what-llm-to-use\n```\n\n4.  （可选）查看核心数据文件 `LLMs.csv`，其中包含了所有模型的详细参数对比：\n\n```bash\n# Linux\u002FmacOS 预览\nhead LLMs.csv\n\n# Windows PowerShell 预览\nGet-Content LLMs.csv -Head 10\n```\n\n> **提示**：你也可以直接在 GitHub 网页版浏览 [LLMs.csv](https:\u002F\u002Fgithub.com\u002Fcontinuedev\u002Fwhat-llm-to-use\u002Fblob\u002Fmain\u002FLLMs.csv) 文件或阅读 `README.md` 获取可视化图表。\n\n## 基本使用\n\n使用该项目的核心在于**根据指南进行决策**并**集成到开发工作流**中。以下是基于该指南的最简使用路径：\n\n### 第一步：选择模型策略\n\n根据指南中的决策树，确定你的需求：\n\n*   **场景 A：注重隐私、低成本、可离线**\n    *   **选择**：开源模型 (Open Source)\n    *   **推荐**：\n        *   低配机器：`Code Llama 7B` 或 `Mistral 7B`\n        *   高配机器\u002F追求性能：`Phind-CodeLlama 34B` 或 `WizardCoder 34B`\n    *   **部署方式**：本地运行 (Local) 或 私有化托管。\n\n*   **场景 B：追求最强代码能力、便捷性**\n    *   **选择**：商业模型 (Commercial)\n    *   **推荐**：`GPT-4` \u002F `GPT-4 Turbo` (综合最佳)，`Claude 2` (长上下文优势)。\n    *   **部署方式**：申请 API Key。\n\n### 第二步：获取并运行模型\n\n#### 方案 1：使用商业模型 (以 GPT-4 为例)\n1.  访问 OpenAI 平台注册并获取 `API Key`。\n2.  在你的 IDE 插件（如 Continue, Cursor, VS Code Copilot）配置文件中填入 Key：\n    ```json\n    {\n      \"model\": \"gpt-4\",\n      \"apiKey\": \"sk-...\"\n    }\n    ```\n\n#### 方案 2：本地运行开源模型 (以 Code Llama 为例)\n推荐使用 `Ollama` 或 `LM Studio` 等工具快速启动。\n\n**使用 Ollama (命令行方式):**\n1.  安装 Ollama (访问 ollama.com 下载)。\n2.  在终端运行以下命令拉取并启动模型：\n    ```bash\n    ollama run codellama:7b\n    ```\n    *(注：如需 34B 版本，可运行 `ollama run codellama:34b`，请确保显存充足)*\n\n**使用 Python 调用 (示例):**\n一旦模型通过本地服务器（如 Ollama 默认在 `localhost:11434`）运行，即可通过代码调用：\n\n```python\nimport requests\nimport json\n\nurl = \"http:\u002F\u002Flocalhost:11434\u002Fapi\u002Fgenerate\"\npayload = {\n    \"model\": \"codellama:7b\",\n    \"prompt\": \"Write a python function to calculate fibonacci.\",\n    \"stream\": False\n}\n\nresponse = requests.post(url, data=json.dumps(payload))\nprint(response.json()['response'])\n```\n\n### 第三步：持续更新\n由于 AI 领域发展迅速，建议定期更新本地仓库以获取最新模型评测：\n\n```bash\ngit pull origin main\n```\n\n通过查阅更新后的 `README.md` 和 `LLMs.csv`，你可以及时发现如 `DeepSeek Coder` 等新涌现的高性能模型并调整你的技术栈。","某初创团队的后端工程师需要在本地 IDE 中集成代码辅助功能，但面对数十个快速迭代的开源与商业大模型，难以确定最适合当前硬件配置和预算的方案。\n\n### 没有 what-llm-to-use 时\n- 工程师在 Hugging Face 和社区论坛中盲目搜索，花费数天对比 Code Llama、WizardCoder 等模型的参数差异，效率极低。\n- 因不清楚本地显存限制，错误下载了 34B 参数模型导致运行崩溃，或选择了过小的 7B 模型致使代码生成质量不达标。\n- 缺乏对“本地部署”与“托管服务”适用场景的清晰认知，误将敏感代码发送至公共 API，引发数据合规风险。\n- 团队内部对选型标准不统一，有人追求最新模型，有人侧重成本，导致技术栈碎片化，维护成本激增。\n\n### 使用 what-llm-to-use 后\n- 直接查阅工具整理的实时清单，快速锁定基于 Llama 2 架构且经过指令微调的 WizardCoder 作为首选目标。\n- 依据工具提供的决策逻辑，结合本地显存大小，精准选择 13B 版本在本地运行，既保证了生成质量又避免了内存溢出。\n- 参考工具中关于开源与商业模型的对比指南，明确将核心业务代码保留在本地环境，仅对非敏感任务调用商业 API。\n- 团队依托该工具建立的统一选型框架，迅速达成共识，确定了从开发到部署的标准化大模型应用路径。\n\nwhat-llm-to-use 通过提供结构化的决策视角，帮助开发者在纷繁复杂的模型生态中快速找到性能、成本与安全性的最佳平衡点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontinuedev_what-llm-to-use_8ce74046.png","continuedev","Continue","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcontinuedev_a6a7fc6a.png","Quality control for your software factory",null,"https:\u002F\u002Fcontinue.dev","https:\u002F\u002Fgithub.com\u002Fcontinuedev",654,38,"2026-04-08T15:53:39","Apache-2.0","","未说明（取决于具体选择的开源模型大小，如 7B\u002F13B\u002F34B 等对显存有不同要求）","未说明（文中提到选择本地运行开源模型时需要“足够的可用内存”，但未给出具体数值）",{"notes":88,"python":84,"dependencies":89},"该仓库并非一个可直接运行的软件工具，而是一份关于编码用大语言模型（LLM）的选型指南和列表。它不包含具体的安装脚本、依赖库或系统环境要求。用户需根据指南中提到的模型（如 Code Llama, WizardCoder 等），自行参考各模型原始仓库的部署文档来配置相应的操作系统、GPU、内存及 Python 环境。",[],[14,15,13,36],[92,93,94],"ai","dev","llm","2026-03-27T02:49:30.150509","2026-04-20T20:34:55.445633",[],[]]