[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ggml-org--llama.vscode":3,"tool-ggml-org--llama.vscode":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":152},9273,"ggml-org\u002Fllama.vscode","llama.vscode","VS Code extension for LLM-assisted code\u002Ftext completion","llama.vscode 是一款专为 VS Code 设计的开源扩展，旨在将强大的大语言模型（LLM）能力引入本地开发环境。它不仅能提供实时的代码与文本自动补全建议，还支持与 AI 进行对话聊天以及执行复杂的“代理式”编程任务，帮助开发者更高效地编写和调试代码。\n\n这款工具核心解决了开发者对数据隐私的关注以及对云端 API 依赖的问题。通过直接在本地运行模型，用户无需联网即可享受智能辅助，既保障了代码安全，又避免了网络延迟。无论是需要快速补全代码片段的初级程序员，还是希望定制私有化 AI 工作流的高级工程师，都能从中受益。\n\nllama.vscode 的技术亮点在于其卓越的硬件适应性。依托 llama.cpp 的强大后端，它采用了智能上下文复用技术，即使在显存有限的低端设备上，也能流畅处理超大上下文窗口。此外，它支持直接从 Huggingface 搜索下载模型，允许用户灵活配置包含补全、聊天、嵌入及工具调用的完整模型环境，并兼容 MCP 工具生态，为本地 AI 开发提供了极高的自由度和扩展性。","# llama.vscode\n\nLocal LLM-assisted text completion, chat with AI and agentic coding extension for VS Code\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_0bf63825b538.png)\n\n---\n\n![llama vscode-swift0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_4527746123b1.png)\n\n## Features\n\n- Auto-suggest on input\n- Accept a suggestion with `Tab`\n- Accept the first line of a suggestion with `Shift + Tab`\n- Accept the next word with `Ctrl\u002FCmd + Right`\n- Toggle the suggestion manually by pressing `Ctrl + L`\n- Control max text generation time\n- Configure scope of context around the cursor\n- Ring context with chunks from open and edited files and yanked text\n- [Supports very large contexts even on low-end hardware via smart context reuse](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fpull\u002F9787)\n- Display performance stats\n- Llama Agent for agentic coding\n- Add\u002Fremove\u002Fexport\u002Fimport for models - completion, chat, embeddings and tools\n- Model selection - for completion, chat, embeddings and tools\n- Env (group of models) concept introduced. Selecting\u002FDeselecting env selects\u002Fdeselects all the models in it\n- Add\u002Fremove\u002Fexport\u002Fimport for env\n- Predefined models (including OpenAI gpt-oss 20B added as a local one) \n- Predefined envs for different use cases - only completion, chat + completion, chat + agent, loccal full package (with gpt-oss 20B), etc.\n- MCP tools selection for the agent (from VS Code installed MCP Servers)\n- Search and download models from Huggingface directly from llama-vscode\n\n## Installation\n\n### VS Code extension setup\n\nInstall the [llama-vscode](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=ggml-org.llama-vscode) extension from the VS Code extension marketplace:\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_e28f7b2d3831.png)\n\nNote: also available at [Open VSX](https:\u002F\u002Fopen-vsx.org\u002Fextension\u002Fggml-org\u002Fllama-vscode)\n\n### `llama.cpp` setup\n\nShow llama-vscode menu by clicking on llama-vscode in the status bar or Ctrl+Shift+M and select \"Install\u002FUpgrade llama.cpp\". This will install llama.cpp automatically for Mac and Windows. For Linux get the [latest binaries](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Freleases) and add the bin folder to the path.\n\nOnce you have llama.cpp installed, you can select env for your needs from llama-vscode menu \"Select\u002Fstart env...\"\n\nBelow are some details how to install llama.cpp manually (if you prefer it).\n\n#### Mac OS\n\n```bash\nbrew install llama.cpp\n```\n\n#### Windows\n\n```bash\nwinget install llama.cpp\n```\n\n#### Any other OS\n\nEither use the [latest binaries](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Freleases) or [build llama.cpp from source](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fblob\u002Fmaster\u002Fdocs\u002Fbuild.md). For more information how to run the `llama.cpp` server, please refer to the [Wiki](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fwiki).\n\n### llama.cpp settings\n\nHere are recommended settings, depending on the amount of VRAM that you have:\n\n- More than 64GB VRAM:\n\n  ```bash\n  llama-server --fim-qwen-30b-default\n  ```\n\n- More than 16GB VRAM:\n\n  ```bash\n  llama-server --fim-qwen-7b-default\n  ```\n\n- Less than 16GB VRAM:\n\n  ```bash\n  llama-server --fim-qwen-3b-default\n  ```\n\n- Less than 8GB VRAM:\n\n  ```bash\n  llama-server --fim-qwen-1.5b-default\n  ```\n\n\u003Cdetails>\n  \u003Csummary>CPU-only configs\u003C\u002Fsummary>\n\nThese are `llama-server` settings for CPU-only hardware. Note that the quality will be significantly lower:\n\n```bash\nllama-server \\\n    -hf ggml-org\u002FQwen2.5-Coder-1.5B-Q8_0-GGUF \\\n    --port 8012 -ub 512 -b 512 --ctx-size 0 --cache-reuse 256\n```\n\n```bash\nllama-server \\\n    -hf ggml-org\u002FQwen2.5-Coder-0.5B-Q8_0-GGUF \\\n    --port 8012 -ub 1024 -b 1024 --ctx-size 0 --cache-reuse 256\n```\n\u003C\u002Fdetails>\n\nYou can use any other FIM-compatible model that your system can handle. By default, the models downloaded with the `-hf` flag are stored in:\n\n- Mac OS: `~\u002FLibrary\u002FCaches\u002Fllama.cpp\u002F`\n- Linux: `~\u002F.cache\u002Fllama.cpp`\n- Windows: `LOCALAPPDATA`\n\n### Recommended LLMs\n\nThe plugin requires FIM-compatible models: [HF collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fggml-org\u002Fllamavim-6720fece33898ac10544ecf9)\n\n## Llama Agent\n\nThe extension includes Llama Agent\n\n### Features\n- Llama Agent UI in Explorer view\n- Works with local models - gpt-oss 20B is the best choice for now\n- Could work with external models (for example from OpenRouter)\n- MCP Support - could use the tools from the MCP Servers, which are installed and started in VS Code\n- 9 internal tools available for use\n- custom_tool - returns the content of a file or a web page\n- custom_eval_tool - write your own tool in javascript (function with input and return value string)\n- Attach the selection to the context\n- Configure maximum loops for Llama Agent\n\n### Usage\n1. Open Llama Agent with Ctrl+Shift+A or from llama-vscode menu \"Show Llama Agent\"\n2. Select Env with an agent if you haven't done it before. \n3. Write a query and attach files with the @ button if needed\n\nMore details(https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fwiki) \n\n## Examples\n\nSpeculative FIMs running locally on a M2 Studio:\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcab99b93-4712-40b4-9c8d-cf86e98d4482\n\n## Implementation details\n\nThe extension aims to be very simple and lightweight and at the same time to provide high-quality and performant local FIM completions, even on consumer-grade hardware.\n\n- The initial implementation was done by Ivaylo Gardev [@igardev](https:\u002F\u002Fgithub.com\u002Figardev) using the [llama.vim](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vim) plugin as a reference\n- Techincal description: https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fpull\u002F9787\n\n## Other IDEs\n\n- Vim\u002FNeovim: https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vim\n","# llama.vscode\n\n本地LLM辅助文本补全、与AI聊天以及面向VS Code的代理式编程扩展\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_0bf63825b538.png)\n\n---\n\n![llama vscode-swift0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_4527746123b1.png)\n\n## 功能特性\n\n- 输入时自动提示\n- 使用 `Tab` 键接受建议\n- 使用 `Shift + Tab` 键接受建议的第一行\n- 使用 `Ctrl\u002FCmd + 右箭头` 键接受下一个单词\n- 按 `Ctrl + L` 手动切换提示\n- 控制最大文本生成时间\n- 配置光标周围上下文的范围\n- 将打开和编辑过的文件以及剪贴板内容以块的形式纳入上下文\n- [通过智能上下文复用，即使在低端硬件上也能支持超大上下文](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fpull\u002F9787)\n- 显示性能统计信息\n- 用于代理式编程的Llama Agent\n- 添加\u002F删除\u002F导出\u002F导入模型——包括补全、聊天、嵌入和工具模型\n- 模型选择——适用于补全、聊天、嵌入和工具\n- 引入了环境（模型组）的概念。选择或取消选择某个环境会同时选择或取消选择其中的所有模型。\n- 添加\u002F删除\u002F导出\u002F导入环境\n- 预定义模型（包括作为本地模型添加的OpenAI gpt-oss 20B）\n- 针对不同使用场景的预定义环境——仅补全、聊天+补全、聊天+代理、本地完整包（含gpt-oss 20B）等\n- 为代理选择MCP工具（来自VS Code中已安装的MCP服务器）\n- 直接从llama-vscode中搜索并下载Huggingface上的模型\n\n## 安装\n\n### VS Code扩展设置\n\n从VS Code扩展市场安装[llama-vscode](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=ggml-org.llama-vscode)扩展：\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_readme_e28f7b2d3831.png)\n\n注意：也可在[Open VSX](https:\u002F\u002Fopen-vsx.org\u002Fextension\u002Fggml-org\u002Fllama-vscode)上找到。\n\n### `llama.cpp` 设置\n\n点击状态栏中的llama-vscode图标或按 `Ctrl+Shift+M` 打开llama-vscode菜单，然后选择“安装\u002F升级llama.cpp”。这将自动为Mac和Windows安装llama.cpp。对于Linux系统，请获取[最新二进制文件](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Freleases)，并将bin目录添加到PATH中。\n\n一旦安装好llama.cpp，您就可以从llama-vscode菜单的“选择\u002F启动环境…”中根据需求选择合适的环境。\n\n以下是手动安装llama.cpp的一些详细步骤（如果您更倾向于这种方式）。\n\n#### Mac OS\n\n```bash\nbrew install llama.cpp\n```\n\n#### Windows\n\n```bash\nwinget install llama.cpp\n```\n\n#### 其他操作系统\n\n您可以使用[最新二进制文件](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Freleases)，也可以[从源代码构建llama.cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fblob\u002Fmaster\u002Fdocs\u002Fbuild.md)。有关如何运行`llama.cpp`服务器的更多信息，请参阅[Wiki](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fwiki)。\n\n### llama.cpp 设置\n\n以下是根据您的显存容量推荐的设置：\n\n- 显存大于64GB：\n\n  ```bash\n  llama-server --fim-qwen-30b-default\n  ```\n\n- 显存大于16GB：\n\n  ```bash\n  llama-server --fim-qwen-7b-default\n  ```\n\n- 显存小于16GB：\n\n  ```bash\n  llama-server --fim-qwen-3b-default\n  ```\n\n- 显存小于8GB：\n\n  ```bash\n  llama-server --fim-qwen-1.5b-default\n  ```\n\n\u003Cdetails>\n  \u003Csummary>仅CPU配置\u003C\u002Fsummary>\n\n这些是仅使用CPU硬件时的`llama-server`设置。请注意，效果会显著降低：\n\n```bash\nllama-server \\\n    -hf ggml-org\u002FQwen2.5-Coder-1.5B-Q8_0-GGUF \\\n    --port 8012 -ub 512 -b 512 --ctx-size 0 --cache-reuse 256\n```\n\n```bash\nllama-server \\\n    -hf ggml-org\u002FQwen2.5-Coder-0.5B-Q8_0-GGUF \\\n    --port 8012 -ub 1024 -b 1024 --ctx-size 0 --cache-reuse 256\n```\n\u003C\u002Fdetails>\n\n您可以使用任何其他FIM兼容且您的系统能够运行的模型。默认情况下，使用 `-hf` 标志下载的模型会存储在以下路径：\n\n- Mac OS: `~\u002FLibrary\u002FCaches\u002Fllama.cpp\u002F`\n- Linux: `~\u002F.cache\u002Fllama.cpp`\n- Windows: `LOCALAPPDATA`\n\n### 推荐的LLM模型\n\n该插件需要FIM兼容的模型：[HF集合](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fggml-org\u002Fllamavim-6720fece33898ac10544ecf9)\n\n## Llama Agent\n\n该扩展包含Llama Agent。\n\n### 功能特性\n- 在资源管理器视图中显示Llama Agent界面\n- 支持本地模型——目前最佳选择是gpt-oss 20B\n- 也可与外部模型配合使用（例如来自OpenRouter）\n- 支持MCP——可以使用安装并运行在VS Code中的MCP服务器提供的工具\n- 提供9种内置工具可供使用\n- custom_tool——返回文件或网页的内容\n- custom_eval_tool——用JavaScript编写您自己的工具（接受输入并返回字符串的函数）\n- 可将选区附加到上下文中\n- 可配置Llama Agent的最大循环次数\n\n### 使用方法\n1. 使用 `Ctrl+Shift+A` 或从llama-vscode菜单中的“显示Llama Agent”选项打开Llama Agent。\n2. 如果您尚未选择环境，请选择一个包含代理的环境。\n3. 输入查询，并在需要时使用 @ 按钮附加文件。\n\n更多详情(https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fwiki)\n\n## 示例\n\n在M2 Studio上本地运行的推测性FIMs：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcab99b93-4712-40b4-9c8d-cf86e98d4482\n\n## 实现细节\n\n该扩展旨在保持极简轻量，同时提供高质量且高效的本地FIM补全功能，即便是在消费级硬件上也能实现。\n\n- 最初的实现由Ivaylo Gardev [@igardev](https:\u002F\u002Fgithub.com\u002Figardev)完成，参考了[llama.vim](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vim)插件。\n- 技术说明：https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Fpull\u002F9787\n\n## 其他IDE\n\n- Vim\u002FNeovim：https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vim","# llama.vscode 快速上手指南\n\nllama.vscode 是一款专为 VS Code 设计的本地大语言模型（LLM）辅助插件，支持代码自动补全、AI 对话以及智能体（Agent）编程。它基于 `llama.cpp`，能在消费级硬件上高效运行。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：macOS, Windows, Linux\n- **硬件建议**：\n  - **显存 > 64GB**：可运行大型模型（如 Qwen-30B）\n  - **显存 > 16GB**：推荐中型模型（如 Qwen-7B）\n  - **显存 \u003C 16GB**：推荐小型模型（如 Qwen-3B 或 1.5B）\n  - **仅 CPU**：可运行量化小模型（如 Qwen-1.5B-Q8_0），但生成速度较慢\n- **软件依赖**：Visual Studio Code\n\n### 前置依赖\n插件核心依赖 `llama.cpp` 服务端。安装插件后通常可自动配置，也可手动安装。\n\n## 安装步骤\n\n### 1. 安装 VS Code 插件\n在 VS Code 扩展商店中搜索并安装 **llama-vscode**，或使用命令面板安装：\n```bash\n# 在 VS Code 命令面板 (Ctrl+Shift+P) 中输入：\nExtensions: Install Extensions\n# 搜索 \"llama-vscode\" (发布者：ggml-org) 并点击安装\n```\n*注：也可通过 [Open VSX](https:\u002F\u002Fopen-vsx.org\u002Fextension\u002Fggml-org\u002Fllama-vscode) 安装。*\n\n### 2. 配置 llama.cpp 后端\n安装插件后，点击 VS Code 底部状态栏的 `llama-vscode` 图标（或使用快捷键 `Ctrl+Shift+M`），选择 **\"Install\u002FUpgrade llama.cpp\"**。\n- **macOS \u002F Windows**：插件将自动下载并安装对应版本的 `llama.cpp`。\n- **Linux**：需手动下载 [最新二进制文件](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp\u002Freleases) 并将 `bin` 目录添加到系统 PATH，或使用包管理器安装。\n\n**手动安装命令参考：**\n```bash\n# macOS\nbrew install llama.cpp\n\n# Windows (需安装 winget)\nwinget install llama.cpp\n```\n\n### 3. 启动环境与选择模型\n1. 再次点击状态栏图标或按 `Ctrl+Shift+M`。\n2. 选择 **\"Select\u002Fstart env...\"**。\n3. 根据你的硬件配置选择合适的预设环境（Env）：\n   - **高性能显卡**：选择包含 `gpt-oss 20B` 或 `Qwen-7B` 的环境。\n   - **低配设备\u002F仅 CPU**：选择 `Qwen-1.5B` 或 `Qwen-0.5B` 相关环境。\n   \n*提示：插件支持直接从 Hugging Face 搜索和下载模型，首次选择环境时会自动拉取所需模型。*\n\n### 4. 推荐服务端参数（可选高级配置）\n若需手动启动 `llama-server`，请根据显存大小使用以下推荐参数：\n\n```bash\n# 显存 > 64GB\nllama-server --fim-qwen-30b-default\n\n# 显存 > 16GB\nllama-server --fim-qwen-7b-default\n\n# 显存 \u003C 16GB\nllama-server --fim-qwen-3b-default\n\n# 显存 \u003C 8GB\nllama-server --fim-qwen-1.5b-default\n```\n\n## 基本使用\n\n### 代码自动补全 (FIM)\n插件默认开启自动建议功能，无需额外配置即可在编码时获得提示。\n\n- **触发建议**：输入代码时自动弹出。\n- **接受整段建议**：按 `Tab` 键。\n- **接受首行建议**：按 `Shift + Tab` 键。\n- **逐词接受**：按 `Ctrl\u002FCmd + Right` (向右箭头)。\n- **手动切换建议**：按 `Ctrl + L`。\n\n### AI 对话与智能体 (Llama Agent)\n利用内置的 Llama Agent 进行复杂任务处理或文件分析。\n\n1. **打开界面**：按 `Ctrl+Shift+A` 或通过菜单选择 **\"Show Llama Agent\"**。\n2. **选择环境**：确保已选择包含 Agent 功能的 Env（推荐使用 `gpt-oss 20B`）。\n3. **发起请求**：\n   - 在输入框编写自然语言指令。\n   - 如需引用当前选中的代码或文件，点击输入框旁的 `@` 按钮附加上下文。\n   - 支持调用 MCP 工具（需在 VS Code 中安装并启动相应的 MCP Server）。\n\n### 管理模型与环境\n- **切换模型**：通过 `Ctrl+Shift+M` 菜单快速切换不同用途的模型（补全、对话、嵌入等）。\n- **导入\u002F导出**：支持自定义模型的添加、移除及环境配置的导入导出。","一位后端开发者正在低配置笔记本电脑上重构遗留的 Python 数据清洗脚本，需要在不联网的环境下快速理解复杂逻辑并补充缺失的异常处理代码。\n\n### 没有 llama.vscode 时\n- 由于显存不足且无法连接云端 API，开发者只能手动查阅文档或复制粘贴代码片段，效率极低。\n- 每次编写新的错误捕获逻辑时，必须中断思路去搜索标准写法，导致编码流频繁被打断。\n- 面对大段遗留代码，缺乏本地化的上下文感知能力，难以快速生成符合当前项目风格的补全建议。\n- 担心代码隐私泄露，不敢将敏感的业务逻辑复制到公共的在线 AI 编程助手之中。\n\n### 使用 llama.vscode 后\n- 利用智能上下文复用技术，即使在低显存硬件上也能流畅运行本地大模型，实现毫秒级代码自动补全。\n- 通过 `Tab` 键一键接受整行或整段建议，`Ctrl+L` 手动触发灵感，让开发者在无需切换窗口的情况下保持心流状态。\n- 基于当前打开文件和剪贴板内容构建“环形上下文”，生成的异常处理代码完美契合现有项目的命名规范与逻辑结构。\n- 所有推理过程均在本地完成，彻底消除了将核心业务代码上传至云端的隐私顾虑，确保数据安全可控。\n\nllama.vscode 让受限硬件也能拥有私有化、高响应且安全的智能编程体验，真正实现了离线环境下的敏捷开发。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_llama.vscode_0bf63825.png","ggml-org","ggml","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fggml-org_31b76164.jpg","AI inference at the edge",null,"ggml_org","https:\u002F\u002Fggml.ai","https:\u002F\u002Fgithub.com\u002Fggml-org",[82,86,90,94],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",96.8,{"name":87,"color":88,"percentage":89},"CSS","#663399",2.8,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",0.2,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",0.1,1266,114,"2026-04-18T11:44:07","MIT","Linux, macOS, Windows","非必需（支持纯 CPU 运行，但质量较低）。推荐根据显存大小选择模型：64GB+ VRAM (Qwen 30B), 16GB+ VRAM (Qwen 7B), 8GB-16GB VRAM (Qwen 3B), \u003C8GB VRAM (Qwen 1.5B)。未指定具体显卡型号或 CUDA 版本，依赖 llama.cpp 后端自动适配。","未说明（取决于所选模型大小，纯 CPU 模式下建议系统内存充足以加载模型）",{"notes":106,"python":107,"dependencies":108},"该工具是 VS Code 扩展，核心依赖 llama.cpp 推理引擎。Mac 和 Windows 可通过菜单自动安装 llama.cpp，Linux 需手动下载二进制文件或源码编译。支持直接从 Huggingface 搜索下载模型。纯 CPU 运行时性能和质量会显著下降。模型文件默认缓存于系统特定目录（Mac: ~\u002FLibrary\u002FCaches\u002Fllama.cpp\u002F, Linux: ~\u002F.cache\u002Fllama.cpp, Windows: LOCALAPPDATA）。","未说明",[109,110],"llama.cpp","VS Code Extension",[14,35,45],[113,114,115,116,117,118],"copilot","developer-tool","extension","llama","llm","vscode","2026-03-27T02:49:30.150509","2026-04-19T06:02:49.220395",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},41627,"自动代码补全功能很少触发或完全不工作，必须手动快捷键才能看到建议，如何解决？","这通常是因为设置被意外禁用或残留配置导致。请检查 VS Code 的设置（Ctrl+,），搜索 llama.vscode 相关选项，确保自动补全已启用。如果重装插件无效，可能需要彻底清理配置：卸载 VS Code，删除本地用户目录中的相关配置文件夹（注意部分设置可能存储在注册表中未随卸载清除），然后重新安装 VS Code 和插件以恢复默认设置。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F8",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},41628,"Qwen 3 模型能否用于 FIM（填充式补全）？为什么运行时只思考不输出建议？","目前标准的 Qwen 3 模型可能不完全支持 FIM 模式，导致长时间思考后无输出。建议等待官方发布专门的 `Qwen3-Coder` 版本。如果急需使用，可以尝试查找社区已适配 FIM 的特定版本（如参考提交 f610bd28e7ad61d0892e3a00b322e16463322bed）。注意，大参数版本（如 35B+）对本地硬件要求极高，普通笔记本可能无法运行，建议关注后续发布的小参数版本（如 3B）。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F55",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},41629,"更新到 v0.0.10 后启动报错 \"failed to apply lora adapter 'undefined'\" 怎么办？","这是因为新版本引入了 `Lora_completion` 设置，但旧配置缺失导致值为 'undefined'。解决方法是：更新插件后务必完全重启 VS Code（不仅仅是重载窗口），以便插件正确初始化新的 `Lora_chat` 和 `Lora_completion` 设置项。如果问题依旧，尝试在设置中显式清空或配置 LoRA 相关选项，避免传递空值给 llama.cpp 启动命令。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F60",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},41630,"代码建议的行缩进错误（例如使用了 Tab 而不是空格，或缩进层级不对），如何修复？","该问题通常发生在模型基于上下文建议使用 Tab 缩进，而编辑器配置为空格（或反之）时。维护者已在后续版本中修复了处理 Tab 缩进的逻辑。如果遇到此问题，请确保升级到最新版本的 llama.vscode 插件。此外，检查您的 VS Code 设置中关于 Tab 的行为（插入空格还是 Tab 字符），保持与项目规范一致可减少此类冲突。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F72",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},41631,"如何针对特定编程语言禁用代码建议功能？","插件已支持按语言禁用建议的功能。您可以在插件的设置界面中找到语言特定的开关（toggles），直接勾选或取消勾选即可控制某种语言（如 Python, C++ 等）是否启用自动补全。这是利用 VS Code 内置的语言检测能力 (`vscode.window.activeTextEditor?.document.languageId`) 实现的，无需额外依赖。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F5",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},41632,"每次打开 VS Code 都会弹出“安装推荐扩展”（如 Makefile, C\u002FC++）的提示，非常烦人，如何关闭？","这是 VS Code 根据当前项目文件或已安装扩展自动推荐的机制。虽然 Issue 中未给出最终代码级解决方案，但通常可以通过以下方式缓解：在弹出的推荐框中选择“不再显示此推荐”；或者在 VS Code 设置中搜索 `extensions.ignoreRecommendations` 并添加相关扩展 ID 到忽略列表；也可以检查 `.vscode\u002Fextensions.json` 文件中是否有强制推荐的配置并将其移除。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.vscode\u002Fissues\u002F86",[153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248],{"id":154,"version":155,"summary_zh":156,"released_at":157},333648,"v0.0.45","- 可配置的内联补全请求防抖功能——通过设置 debounce_ms。llama-vscode 会在每次按键后等待 debounce_ms 毫秒，再向 LLM 发送内联代码补全请求。如果在此期间又有新的按键输入，则会取消上一次的请求。该功能在低配硬件上尤为有用，可避免每按一次键就触发代码补全。\r\n\r\n- “扩展已更新”的通知现在仅在版本变更时显示，不再像之前那样每次设置变更都会弹出。","2026-03-04T18:30:17",{"id":159,"version":160,"summary_zh":161,"released_at":162},333649,"v0.0.44","- 实现了子代理\n- 新增代理单元测试编写工具\n- 新增工具 create_agent\n- 新增代理“代理创建者”\n\n- 如果项目根目录下存在 SOUL.md 和 USER.md，则将其添加到上下文中","2026-03-02T22:09:53",{"id":164,"version":165,"summary_zh":166,"released_at":167},333650,"v0.0.43","- 对 FIM 请求使用固定的槽位 ID。（以提升性能）\n- 如果未设置 agent_rules，并且项目根目录下不存在 llama-vscode-rules.md 文件，则会加载项目根目录下的 AGENTS.md 文件作为上下文。\n- 修复了拼写错误。","2026-02-18T16:22:49",{"id":169,"version":170,"summary_zh":171,"released_at":172},333651,"v0.0.42","- 为模型添加健康检查（仅适用于 llama.cpp 服务器）\n- 在环境视图中可见\n新增设置：\n- Health_check_interval_s：健康检查的间隔时间，单位为秒\n- Health_check_compl_enabled：启用或禁用完成模型的健康检查\n- Health_check_chat_enabled：启用或禁用聊天模型的健康检查\n- Health_check_embs_enabled：启用或禁用嵌入模型的健康检查\n- Health_check_tools_enabled：启用或禁用工具模型的健康检查","2026-01-18T20:34:39",{"id":174,"version":175,"summary_zh":176,"released_at":177},333652,"v0.0.41","- 修复在 max_parallel_completions = 1 时的代码补全 bug（之前只会建议一个字符）","2026-01-07T17:03:49",{"id":179,"version":180,"summary_zh":181,"released_at":182},333653,"v0.0.40","- 并行生成多个补全结果\n- 通过设置 `max_parallel_completions` 可以指定并行生成的补全数量（默认为 3）\n- 快捷键：Alt+] —— 切换到下一个补全，Alt+[ —— 切换到上一个补全\n- 需要 llama.cpp 版本在 2025 年 12 月 6 日之后（commit c42712b），但向后兼容：对于旧版本，仍会只生成一个补全。","2026-01-05T14:07:29",{"id":184,"version":185,"summary_zh":186,"released_at":187},333654,"v0.0.39","- 现在，LLM 可以解析 Skills（https:\u002F\u002Fagentskills.io\u002Fhome），并将解析结果添加到提示中。  \n- `skills_folder` 设置用于指定技能描述文件的存放路径。如果该设置为空，则默认使用 `\u003Cproject_folder>\u002Fskills` 文件夹。  \n- 目前，Anthropic 的模型对技能的支持最为出色。不过，我认为开源模型也会逐渐赶上。","2025-12-31T15:47:27",{"id":189,"version":190,"summary_zh":191,"released_at":192},333655,"v0.0.38","- 新增 update_todo_list 工具 - 现在智能体可以通过待办事项来规划并跟踪用户请求的执行过程。","2025-12-30T17:52:54",{"id":194,"version":195,"summary_zh":196,"released_at":197},333656,"v0.0.37","- 代理上下文中的图像选择\n- 新增通义千问3 VL Instruct 作为预定义的 OpenRouter 模型","2025-11-18T15:53:14",{"id":199,"version":200,"summary_zh":201,"released_at":202},333657,"v0.0.36","- 修复：在启动时正确加载上次使用的环境的功能\r\n- 现在可以为代理添加默认模型\r\n- 减小软件包体积","2025-11-04T09:05:04",{"id":204,"version":205,"summary_zh":206,"released_at":207},333658,"v0.0.35","- Edit multiple files with AI (start from llama-vscode menu)\r\n- Fix path on file indexing on save and delete\r\n- Show error in agent view UI in case of error on editing file","2025-10-27T00:59:04",{"id":209,"version":210,"summary_zh":211,"released_at":212},333659,"v0.0.34","- Edit Agent view added\r\n- Add model from OpenAI compatible provider","2025-10-14T12:12:16",{"id":214,"version":215,"summary_zh":216,"released_at":217},333660,"v0.0.33","- Fix the embeddings ranking - the wrong query was used\r\n- Removed the free DeepSeek model from open router as not working now\r\n- Setting endpoint_tools is now enought to start agent\r\n- Agent View is now not hidden if the tools model is deselected\r\n- Refactoring","2025-10-08T14:49:44",{"id":219,"version":220,"summary_zh":221,"released_at":222},333661,"v0.0.32","- Refactor menu.ts model - extract services\r\n- agent \"Ask\" added for questions about the project without changing the files\r\n- predefiled free models from OpenRouter added (and xAi removed as not free anymore)\r\n- Some bugs fixed","2025-10-05T13:14:15",{"id":224,"version":225,"summary_zh":226,"released_at":227},333662,"v0.0.31","- Fix bug for adding files by the agent\r\n- Extract agent service from menu\r\n- Adding agent from menu is now possible (not very user friendly, but working)","2025-10-02T22:04:09",{"id":229,"version":230,"summary_zh":231,"released_at":232},333663,"v0.0.30","- launch commands fixed (some chars were escaped)\r\n- Agent chat is visualized on opening chat","2025-10-02T11:27:27",{"id":234,"version":235,"summary_zh":236,"released_at":237},333664,"v0.0.29","- Bug with editing files by agent fixed\r\n- Menu.ts refactored","2025-10-01T07:16:29",{"id":239,"version":240,"summary_zh":241,"released_at":242},333665,"v0.0.28","- File menu.ts refactored\r\n- Predefined lists added for completion models, chat models, embeddings models, tools models and for envs\r\n- Bugfixes\r\n- If chat model is not selected, but a tools model is selected, it is used for generating commit messages, editing code with AI and in search_source tool","2025-09-30T16:45:21",{"id":244,"version":245,"summary_zh":246,"released_at":247},333666,"v0.0.27","- Chat with AI with project context removed (agent does it better)\r\n- Chat with AI about llama-vscode is now with agent, not using webui\r\n- Agent - new buttons \"Tools Model\" and \"Agent\" -  possibility to view the selected model and agent and to change them.\r\n- xAI Grog4 free (from OpenRouter) added to the initial models","2025-09-21T13:04:10",{"id":249,"version":250,"summary_zh":251,"released_at":252},333667,"v0.0.26","- Added rules - setting agent_rules or llama-vscode-rules.md\r\n- Added agent commands - setting agent_commands\u002Fllama-vscode menu \"agent commands...\". (shortcut for often used prompts, in agent - press \"\u002F\" and select agent command).\r\n- Generate commit message now checks if there is a running chat model (or endpoint_chat) ","2025-09-18T11:02:07"]