[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SilasMarvin--lsp-ai":3,"tool-SilasMarvin--lsp-ai":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":103,"view_count":32,"oss_zip_url":116,"oss_zip_packed_at":116,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":154},5945,"SilasMarvin\u002Flsp-ai","lsp-ai","LSP-AI is an open-source language server that serves as a backend for AI-powered functionality, designed to assist and empower software engineers, not replace them.","lsp-ai 是一款开源的语言服务器，旨在为各类代码编辑器提供统一的 AI 功能后端。它的核心理念是“赋能而非替代”，通过深度集成开发者熟悉的工具链，帮助软件工程师更高效地工作，而不是试图取代他们。\n\n长期以来，开源社区缺乏能与 Cursor 等商业 AI 编辑器抗衡的通用解决方案，且不同编辑器的 AI 插件开发往往重复造轮子。lsp-ai 巧妙地解决了这一痛点：它将复杂的 AI 实现细节抽象为单一后端，任何支持语言服务器协议（LSP）的编辑器（如 VS Code、NeoVim、Emacs、Helix 等）只需接入即可立即拥有强大的 AI 能力，无需单独开发插件。\n\n该工具主要面向软件开发者，特别是那些希望在自己偏爱的编辑器中体验智能辅助的极客与专业人士。其技术亮点包括支持在编辑器内直接与本地或云端大模型对话、自定义代码重构动作，以及提供可媲美 GitHub Copilot 的代码自动补全功能。值得一提的是，lsp-ai 对推理速度进行了优化，推荐搭配小型本地模型或 Groq 等服务以实现极速响应。目前项目功能已趋于成熟，是构建个性化 AI 编程环境的理想基石。","\u003Cdiv align=\"center\">\n   \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7849b743-a3d5-4fde-8ac7-960205c1b019\">\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7903b3c2-a5ac-47e0-ae23-bd6a47b864ee\">\n  \u003Cimg alt=\"Logo\" src=\"\" width=\"650em\">\n   \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n   \u003Cp align=\"center\">\u003Cb>Empowering not replacing programmers.\u003C\u002Fb>\u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n| \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\">\u003Cb>Documentation\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fsilasmarvin.dev\">\u003Cb>Blog\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FvKxfuAxA6Z\">\u003Cb>Discord\u003C\u002Fb>\u003C\u002Fa> |\n\u003C\u002Fp>\n\n---\n\nLSP-AI is an open source [language server](https:\u002F\u002Fmicrosoft.github.io\u002Flanguage-server-protocol\u002F) that serves as a backend for AI-powered functionality in your favorite code editors. It offers features like in-editor chatting with LLMs and code completions. Because it is a language server, it works with any editor that has LSP support.\n\n**The goal of LSP-AI is to assist and empower software engineers by integrating with the tools they already know and love, not replace software engineers.**\n\nA short list of a few of the editors it works with:\n- VS Code\n- NeoVim\n- Emacs\n- Helix\n- Sublime\n\nIt works with many many many more editors.\n\n**NOTE: This project is currently used daily by many users and has reached a stage where it has all the features I want for it. Development is not necessarily done, but no new features are currently being developed for it.**\n\n# Features\n\n## In-Editor Chatting\n\nChat directly in your codebase with your favorite local or hosted models.\n\n![in-editor-chatting](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSilasMarvin_lsp-ai_readme_a5ac6136df04.png)\n\n*Chatting with Claude Sonnet in Helix*\n\n## Custom Actions\n\nCreate custom actions to do code refactoring, code completions and more!\n\n![custom-actions](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSilasMarvin_lsp-ai_readme_2c45f26971a8.png)\n\n*Using Claude Sonnet to perform refactoring with chain of thought prompting in Helix*\n\n## Code Completions\n\nLSP-AI can work as an alternative to Github Copilot.\n\nhttps:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fassets\u002F19626586\u002F59430558-da23-4991-939d-57495061c21b\n\n*On the left: VS Code using Mistral Codestral. On the right: Helix using stabilityai\u002Fstable-code-3b*\n\n**Note that speed for completions is entirely dependent on the backend being used. For the fastest completions we recommend using either a small local model or Groq.**\n\n# Documentation\n\nSee the wiki for instructions on:\n- [Getting Started](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki)\n- [Installation](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FInstallation)\n- [Configuration](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FConfiguration)\n- [In-Editor Chatting](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FIn%E2%80%90Editor-Chatting)\n- [Plugins](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FPlugins)\n- [Server Capabilities](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FServer-Capabilities-and-Functions)\n- [and more](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki)\n\n# The Case for LSP-AI\n\n**tl;dr LSP-AI abstracts complex implementation details from editor specific plugin authors, centralizing open-source development work into one shareable backend.**\n\nEditor integrated AI-powered assistants are here to stay. They are not perfect, but are only improving and [early research is already showing the benefits](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.15331). While several companies have released advanced AI-powered editors like [Cursor](https:\u002F\u002Fcursor.sh\u002F), the open-source community lacks a direct competitor.\n\nLSP-AI aims to fill this gap by providing a language server that integrates AI-powered functionality into the editors we know and love. Here’s why we believe LSP-AI is necessary and beneficial:\n\n1. **Unified AI Features**:\n    - By centralizing AI features into a single backend, LSP-AI allows supported editors to benefit from these advancements without redundant development efforts.\n\n2. **Simplified Plugin Development**:\n    - LSP-AI abstracts away the complexities of setting up LLM backends, building complex prompts and soon much more. Plugin developers can focus on enhancing the specific editor they are working on, rather than dealing with backend intricacies.\n\n3. **Enhanced Collaboration**:\n    - Offering a shared backend creates a collaborative platform where open-source developers can come together to add new functionalities. This unified effort fosters innovation and reduces duplicated work.\n\n4. **Broad Compatibility**:\n    - LSP-AI supports any editor that adheres to the Language Server Protocol (LSP), ensuring that a wide range of editors can leverage the AI capabilities provided by LSP-AI.\n\n5. **Flexible LLM Backend Support**:\n    - Currently, LSP-AI supports llama.cpp, Ollama, OpenAI-compatible APIs, Anthropic-compatible APIs, Gemini-compatible APIs and Mistral AI FIM-compatible APIs, giving developers the flexibility to choose their preferred backend. This list will soon grow.\n\n6. **Future-Ready**:\n    - LSP-AI is committed to staying updated with the latest advancements in LLM-driven software development.\n\n# Roadmap\n\nThere is so much to do for this project and incredible new research and tools coming out everyday. Below is a list of some ideas for what we want to add next, but we welcome any contributions and discussion around prioritizing new features.\n\n- Implement semantic search-powered context building (This could be incredibly cool and powerful). Planning to use [Tree-sitter](https:\u002F\u002Ftree-sitter.github.io\u002Ftree-sitter\u002F) to chunk code correctly.\n- Support for additional backends\n- Exploration of agent-based systems\n","\u003Cdiv align=\"center\">\n   \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7849b743-a3d5-4fde-8ac7-960205c1b019\">\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7903b3c2-a5ac-47e0-ae23-bd6a47b864ee\">\n  \u003Cimg alt=\"Logo\" src=\"\" width=\"650em\">\n   \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n   \u003Cp align=\"center\">\u003Cb>赋能而非取代程序员。\u003C\u002Fb>\u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n| \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\">\u003Cb>文档\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fsilasmarvin.dev\">\u003Cb>博客\u003C\u002Fb>\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FvKxfuAxA6Z\">\u003Cb>Discord\u003C\u002Fb>\u003C\u002Fa> |\n\u003C\u002Fp>\n\n---\n\nLSP-AI 是一个开源的 [语言服务器](https:\u002F\u002Fmicrosoft.github.io\u002Flanguage-server-protocol\u002F)，作为您喜爱的代码编辑器中 AI 驱动功能的后端。它提供诸如在编辑器内与大型语言模型聊天以及代码补全等功能。由于它是语言服务器，因此可以与任何支持 LSP 的编辑器配合使用。\n\n**LSP-AI 的目标是通过与软件工程师已经熟悉并喜爱的工具集成来协助和赋能他们，而不是取代软件工程师。**\n\n它支持的编辑器列表如下：\n- VS Code\n- NeoVim\n- Emacs\n- Helix\n- Sublime\n\n此外，它还支持更多、更多的编辑器。\n\n**注意：该项目目前已被许多用户日常使用，并且已达到我期望的所有功能阶段。虽然开发并未完全停止，但目前不再为其开发新功能。**\n\n# 功能\n\n## 编辑器内聊天\n\n直接在您的代码库中与您喜爱的本地或托管模型进行聊天。\n\n![in-editor-chatting](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSilasMarvin_lsp-ai_readme_a5ac6136df04.png)\n\n*在 Helix 中与 Claude Sonnet 聊天*\n\n## 自定义操作\n\n创建自定义操作来进行代码重构、代码补全等！\n\n![custom-actions](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSilasMarvin_lsp-ai_readme_2c45f26971a8.png)\n\n*在 Helix 中使用 Claude Sonnet 通过思维链提示进行代码重构*\n\n## 代码补全\n\nLSP-AI 可以作为 GitHub Copilot 的替代方案。\n\nhttps:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fassets\u002F19626586\u002F59430558-da23-4991-939d-57495061c21b\n\n*左侧：VS Code 使用 Mistral Codestral。右侧：Helix 使用 stabilityai\u002Fstable-code-3b*\n\n**请注意，补全速度完全取决于所使用的后端。为了获得最快的补全效果，我们建议使用小型本地模型或 Groq。**\n\n# 文档\n\n请参阅维基页面，了解以下内容的说明：\n- [入门](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki)\n- [安装](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FInstallation)\n- [配置](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FConfiguration)\n- [编辑器内聊天](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FIn%E2%80%90Editor-Chatting)\n- [插件](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FPlugins)\n- [服务器能力](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FServer-Capabilities-and-Functions)\n- [等等](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki)\n\n# LSP-AI 的必要性\n\n**简而言之：LSP-AI 将复杂的实现细节从特定于编辑器的插件作者那里抽象出来，将开源开发工作集中到一个可共享的后端中。**\n\n集成 AI 功能的编辑器已经成为趋势。它们并不完美，但正在不断改进，而且[早期研究已经显示出其益处](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.15331)。尽管多家公司已经推出了像 [Cursor](https:\u002F\u002Fcursor.sh\u002F) 这样的先进 AI 驱动编辑器，但开源社区仍然缺乏直接的竞争对手。\n\nLSP-AI 致力于填补这一空白，通过提供一个能够将 AI 驱动功能集成到我们熟悉的编辑器中的语言服务器。以下是我们认为 LSP-AI 必要且有益的原因：\n\n1. **统一的 AI 功能**：\n    - 通过将 AI 功能集中到一个后端，LSP-AI 使受支持的编辑器无需重复开发即可受益于这些进步。\n\n2. **简化插件开发**：\n    - LSP-AI 抽象了设置 LLM 后端、构建复杂提示等复杂流程，未来还将涵盖更多内容。插件开发者可以专注于提升他们正在开发的特定编辑器的功能，而不必处理后端的复杂性。\n\n3. **增强协作**：\n    - 提供共享后端创造了一个协作平台，开源开发者可以聚集在一起添加新功能。这种统一的努力促进了创新，减少了重复劳动。\n\n4. **广泛的兼容性**：\n    - LSP-AI 支持任何遵循语言服务器协议 (LSP) 的编辑器，确保各种编辑器都能利用 LSP-AI 提供的 AI 功能。\n\n5. **灵活的 LLM 后端支持**：\n    - 目前，LSP-AI 支持 llama.cpp、Ollama、OpenAI 兼容 API、Anthropic 兼容 API、Gemini 兼容 API 以及 Mistral AI FIM 兼容 API，为开发者提供了选择首选后端的灵活性。此列表还将继续扩展。\n\n6. **面向未来**：\n    - LSP-AI 致力于紧跟 LLM 驱动软件开发领域的最新进展。\n\n# 路线图\n\n这个项目还有很多工作要做，每天都有令人惊叹的新研究和工具问世。以下是我们在接下来想要添加的一些想法，但我们欢迎任何贡献以及关于优先级排序的讨论。\n\n- 实现基于语义搜索的上下文构建（这可能会非常酷且强大）。计划使用 [Tree-sitter](https:\u002F\u002Ftree-sitter.github.io\u002Ftree-sitter\u002F) 来正确地对代码进行分块。\n- 支持更多后端\n- 探索基于代理的系统","# LSP-AI 快速上手指南\n\nLSP-AI 是一个开源的语言服务器（Language Server），旨在为你熟悉的代码编辑器提供 AI 驱动的功能（如代码补全、内联聊天、自定义重构动作等）。它支持任何遵循 LSP 协议的编辑器（如 VS Code, NeoVim, Emacs, Helix, Sublime 等）。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows。\n*   **前置依赖**：\n    *   **Rust 工具链**：用于从源码编译安装（推荐方式）。\n        *   安装命令：`curl --proto '=https' --tlsv1.2 -sSf https:\u002F\u002Fsh.rustup.rs | sh`\n        *   国内加速（可选）：若下载缓慢，可配置 `RUSTUP_DIST_SERVER=https:\u002F\u002Fmirrors.ustc.edu.cn\u002Frust-static` 和 `RUSTUP_UPDATE_ROOT=https:\u002F\u002Fmirrors.ustc.edu.cn\u002Frust-static`。\n    *   **AI 模型后端**：LSP-AI 本身不包含模型，你需要运行一个后端服务。推荐方案：\n        *   **Ollama** (最简便)：支持本地运行多种开源模型。\n            *   安装：`curl -fsSL https:\u002F\u002Follama.com\u002Finstall.sh | sh`\n            *   国内镜像：可使用 `export OLLAMA_HOST=https:\u002F\u002Follama.fly.dev` (需自行寻找可用节点) 或直接访问官网下载。\n        *   或者 **llama.cpp**、**OpenAI API**、**Anthropic API** 等。\n\n## 安装步骤\n\n### 1. 安装 LSP-AI 服务端\n\n使用 Cargo 进行安装（确保已安装 Rust）：\n\n```bash\ncargo install lsp-ai\n```\n\n> **注意**：编译过程可能需要几分钟。如果网络受阻，请确保配置了 Rust 的国内镜像源。\n\n### 2. 配置编辑器\n\n由于 LSP-AI 是一个语言服务器，你需要在你使用的编辑器中配置 LSP 客户端以连接它。以下是常见编辑器的简要配置思路：\n\n*   **VS Code**:\n    1.  安装 \"LSP-AI\" 扩展（如果有官方发布）或使用通用的 \"LSP Client\" 扩展。\n    2.  在设置中指定服务器命令为 `lsp-ai`。\n*   **NeoVim (使用 nvim-lspconfig)**:\n    在你的 `init.lua` 中添加：\n    ```lua\n    require('lspconfig').lsp_ai.setup({\n      cmd = { \"lsp-ai\" },\n      -- 其他配置...\n    })\n    ```\n*   **Helix**:\n    在 `~\u002F.config\u002Fhelix\u002Flanguages.toml` 中添加：\n    ```toml\n    [language-server.lsp-ai]\n    command = \"lsp-ai\"\n    ```\n    然后在对应语言的配置中引用该 server。\n\n*(具体编辑器详细配置请参考官方 Wiki)*\n\n### 3. 配置模型后端\n\n创建或编辑 LSP-AI 的配置文件（通常位于 `~\u002F.config\u002Flsp-ai\u002Fconfig.toml` 或由编辑器启动参数指定），定义你要使用的模型。\n\n**示例配置 (使用 Ollama 运行本地模型):**\n\n```toml\n[[models]]\nname = \"local-codellama\"\nprovider = \"ollama\"\nmodel = \"codellama:7b\" # 确保已通过 'ollama pull codellama:7b' 下载\napi_url = \"http:\u002F\u002Flocalhost:11434\"\n\n[[models]]\nname = \"hosted-gpt4\"\nprovider = \"openai_compatible\"\nmodel = \"gpt-4\"\napi_key = \"YOUR_API_KEY\"\napi_url = \"https:\u002F\u002Fapi.openai.com\u002Fv1\"\n```\n\n## 基本使用\n\n配置完成后，重启编辑器即可体验 AI 功能。\n\n### 1. 代码补全 (Code Completions)\n像使用 GitHub Copilot 一样，在编写代码时暂停片刻，LSP-AI 会根据上下文自动显示灰色建议代码。按 `Tab` 键（或编辑器设定的接受键）即可采纳。\n*   *提示*：补全速度取决于你选择的后端。对于极速体验，推荐使用小型本地模型或 Groq 后端。\n\n### 2. 编辑器内聊天 (In-Editor Chatting)\n大多数编辑器允许通过快捷键触发 LSP 命令来打开聊天窗口。\n*   **操作**：选中一段代码，触发 \"Chat\" 命令（具体快捷键视编辑器配置而定，如在 Helix 中可能是空格键菜单选择）。\n*   **示例**：选中函数，输入“解释这段代码”或“优化这个函数”，AI 将直接在编辑器侧边栏或浮动窗口中回复。\n\n### 3. 自定义动作 (Custom Actions)\n你可以定义特定的 Prompt 模板来执行重构任务。\n*   **场景**：选中代码块，执行名为 \"Refactor with Chain of Thought\" 的动作。\n*   **效果**：AI 将按照预设的思维链提示词对代码进行重构并输出结果。\n\n---\n*现在，你可以在不离开熟悉编辑器的情况下，享受强大的 AI 编程辅助了。*","资深后端工程师李明正在使用 NeoVim 维护一个遗留的 Python 微服务项目，他需要在不切换编辑器的前提下，利用本地大模型快速理解复杂逻辑并重构代码。\n\n### 没有 lsp-ai 时\n- **工作流频繁中断**：遇到不懂的代码段时，必须复制粘贴到外部网页聊天窗口，打断心流且存在代码泄露风险。\n- **编辑器功能割裂**：NeoVim 缺乏原生的智能补全和重构助手，无法像 Cursor 那样直接在行内获得 AI 建议。\n- **定制化成本极高**：若想为特定项目定制“链式思维”重构指令，需要自行编写复杂的插件脚本，维护难度大。\n- **模型切换繁琐**：尝试不同大小的模型（如从云端大模型切换到本地小模型）需要重新配置多个独立工具，效率低下。\n\n### 使用 lsp-ai 后\n- **沉浸式交互体验**：直接在 NeoVim 内部调用本地部署的 Llama 3 模型进行对话，上下文自动包含当前文件内容，无需复制粘贴。\n- **无缝集成智能补全**：lsp-ai 作为语言服务器后端，提供了媲美 Copilot 的行内代码补全，且完全由本地模型驱动，响应迅速。\n- **灵活定义自定义动作**：通过简单的配置文件，李明创建了专属的“安全重构”指令，让 AI 按照预设的思维链步骤自动优化旧代码。\n- **统一后端管理**：无论切换何种模型或编辑器功能，只需调整 lsp-ai 的配置即可，将复杂的 AI 集成工作收敛到一个共享后端。\n\nlsp-ai 通过将强大的 AI 能力标准化为语言服务器协议，让开发者能在自己熟悉的编辑器中享受顶级的智能辅助，真正实现了赋能而非替代。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSilasMarvin_lsp-ai_6c755e43.png","SilasMarvin","Silas Marvin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSilasMarvin_cbd77d94.jpg","Writing software for fun and a better future","Rippling","San Francisco, California","silas.marvin@dmarvin.net","silasmarvin2","https:\u002F\u002Fsilasmarvin.dev","https:\u002F\u002Fgithub.com\u002FSilasMarvin",[83,87],{"name":84,"color":85,"percentage":86},"Rust","#dea584",97.6,{"name":88,"color":89,"percentage":90},"TypeScript","#3178c6",2.4,3158,116,"2026-04-07T23:33:31","MIT","","未说明（取决于所选后端，若使用本地小模型或 Groq 可无需高性能 GPU）","未说明",{"notes":99,"python":97,"dependencies":100},"该工具是一个语言服务器（LSP），本身不直接依赖特定硬件，而是通过配置连接不同的 AI 后端（如 llama.cpp, Ollama, OpenAI, Anthropic, Gemini, Mistral 等）。硬件需求完全取决于用户选择的后端服务和本地运行的模型大小。支持 VS Code, NeoVim, Emacs, Helix, Sublime 等任何支持 LSP 的编辑器。项目目前功能已趋于稳定，暂无新功能开发计划。",[],[15,14,52,102,35,13],"视频",[104,105,106,107,108,109,110,111,112,113,114,115],"ai","auto-completion","developer-tools","ide","language-client","llama","llamacpp","llm","lsp","self-hosted","mistral","openai",null,"2026-03-27T02:49:30.150509","2026-04-10T02:45:01.785007",[120,125,130,134,139,144,149],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},26969,"安装后运行 lsp-ai 命令控制台挂起或立即退出，如何正确启动？","lsp-ai 是一个语言服务器协议（LSP）后端，设计为被编辑器（如 Helix, Neovim, VS Code 等）调用，而不是直接在终端交互式运行。直接运行命令导致挂起是因为它在等待编辑器的 LSP 请求。请查阅 Wiki 中关于配置特定编辑器的文档，在编辑器配置文件中指定 lsp-ai 作为语言服务器，而不是手动在终端启动它。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F13",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},26970,"使用 Anthropic API 时遇到 'tool_calls: Extra inputs are not permitted' 错误怎么办？","这是一个配置兼容性问题。维护者已更新文档以解决此问题。请确保查看最新的官方配置文档（Wiki），移除或调整配置中关于 `tool_calls` 的相关设置，因为某些模型或 API 版本不支持该参数。如果问题依旧，尝试使用文档中提供的最新示例配置。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F4",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},26971,"使用 Anthropic API 时生成的代码被截断（只有约 64 个 token），如何解决？","这是因为默认的最大生成 token 数限制为 64。请在配置文件中将参数名从 `max_new_tokens` 改为 `max_tokens`，并设置一个更大的值（例如 2000）。\n\n配置示例：\n\"parameters\": {\n  \"max_tokens\": 2000,\n  ...\n}\n\n注意：旧文档中可能错误地使用了 `max_new_tokens`，请使用 `max_tokens`。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},26972,"在 Linux (Nvidia GPU) 上编译安装失败，报错 'failed to compile lsp-ai' 怎么办？","这通常是 CUDA 编译环境问题，而非 lsp-ai 本身的代码错误。lsp-ai 依赖 `llama-cpp-rs` crate 处理 GPU 加速。建议：\n1. 确保已正确安装 CUDA Toolkit 和对应的 C++ 编译器。\n2. 尝试将详细的编译错误日志输出到文件（使用 `&> log.txt`）并发送到 pastebin。\n3. 如果问题与 CUDA 相关，可能需要向 `llama-cpp-rs` 仓库提交 Issue，因为 lsp-ai 不直接处理底层 CUDA 编译。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F38",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},26973,"在 Helix 编辑器中配置后出现 'Parse(Error...)' 或 'SendError' 导致崩溃，如何调试？","遇到此类解析错误或崩溃时，请开启详细日志进行调试：\n1. 设置环境变量：`export LSP_AI_LOG=DEBUG`\n2. 清除旧日志：`rm ~\u002F.cache\u002Fhelix\u002Fhelix.log`\n3. 重新启动 Helix 并复现问题。\n4. 检查生成的 `~\u002F.cache\u002Fhelix\u002Fhelix.log` 文件，查看具体的错误堆栈。\n很多时候，更新项目版本或微调配置文件（确保模型名称和类型匹配）也能解决奇怪的解析错误。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F56",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},26974,"源代码中包含 Unicode 字符（如希腊字母 μ）时 lsp-ai 发生 Panic 崩溃，有修复吗？","这是一个已知的字节索引计算错误，已在后续版本中修复。该问题发生在处理非 ASCII 字符（如 Unicode 符号）时，导致程序试图在字符中间切割字符串而 Panic。\n解决方案：请将 lsp-ai 升级到最新版本（包含提交 e3b7aa8 或更高版本），该版本已修复了 Unicode 字符边界处理的问题。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F50",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},26975,"如何在 Kate 编辑器中使用 lsp-ai？","目前社区用户反馈在 Kate 编辑器中的支持尚不完善。虽然有用户尝试配置并看到了菜单，但点击后可能无响应。由于缺乏官方明确的 Kate 集成指南且存在已知交互问题，建议暂时优先使用文档中明确支持的编辑器（如 Helix, Neovim, VS Code），或关注项目后续更新以获取对 Kate 的正式支持。","https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fissues\u002F72",[155,159,163,168,173,178,183,188,193,198,203,208],{"id":156,"version":157,"summary_zh":116,"released_at":158},180105,"v0.7.1","2024-09-24T14:49:55",{"id":160,"version":161,"summary_zh":116,"released_at":162},180106,"v0.7.0","2024-09-20T15:32:50",{"id":164,"version":165,"summary_zh":166,"released_at":167},180107,"v0.6.2","# 变更内容\r\n\r\n一些小的 bug 修复以及将 `pub` 改为 `pub(crate)` 的改动。","2024-08-27T15:58:49",{"id":169,"version":170,"summary_zh":171,"released_at":172},180108,"v0.6.1","## 变更内容\n* 由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F63 中修复了 VSCode 中的 stdio 错误\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.6.0...v0.6.1","2024-08-21T15:41:04",{"id":174,"version":175,"summary_zh":176,"released_at":177},180109,"v0.6.0","## 变更内容\n* 自定义操作、服务器关闭修复以及由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F61 中完成的诸多小改进\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.5.1...v0.6.0","2024-08-21T02:56:35",{"id":179,"version":180,"summary_zh":181,"released_at":182},180110,"v0.5.1","## 变更内容\n* 由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F59 中修复了聊天时出现的 EOF 错误\n\n此版本修复了在聊天时返回助手回复时，因写入超出文件末尾而产生的警告。","2024-08-11T21:21:24",{"id":184,"version":185,"summary_zh":186,"released_at":187},180111,"v0.5.0","## 变更内容\n* 添加自定义日志文件，并由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F58 中改进了日志记录功能。\n\n您可以在 [Wiki 的调试章节](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FDebugging) 中找到有关使用新日志文件的信息。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.4.1...v0.5.0","2024-08-11T21:00:11",{"id":189,"version":190,"summary_zh":191,"released_at":192},180112,"v0.4.1","## 变更内容\n* 杂项：@eltociear 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F51 中更新了 config.rs 文件\n* 修复 Unicode 错误：@SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F54 中完成\n\n## 新贡献者\n* @eltociear 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F51 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.4.0...v0.4.1","2024-08-08T15:38:42",{"id":194,"version":195,"summary_zh":196,"released_at":197},180113,"v0.4.0","## 变更内容\n* Gemini 由 @asukaminato0721 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F30 中实现\n* 引入 RAG 功能，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F31 中实现\n* 添加发布 CI 流水线，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F35 中实现\n* 增加本地向量存储记忆后端选项，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F39 中实现\n* 在编辑器内添加聊天功能，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F45 中实现\n\n## 新贡献者\n* @asukaminato0721 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F30 中完成了首次贡献\n* @McPatate 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F35 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.3.0...v0.4.0","2024-08-06T03:46:05",{"id":199,"version":200,"summary_zh":201,"released_at":202},180114,"v0.3.0","## 变更内容\n* @luixiao0 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F15 中添加了对 Ollama 远程 API 端点的支持\n* @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F23 中添加了初始的后处理逻辑，用于移除重复的起始和结束字符\n\n## 新贡献者\n* @luixiao0 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F15 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.2.0...v0.3.0","2024-06-15T06:46:04",{"id":204,"version":205,"summary_zh":206,"released_at":207},180115,"v0.2.0","## 变更内容\n* 修复了 Anthropic API，通过 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F7 中创建 OpenAIChatMessage 实现。\n* 添加了用于 llama_cpp 模型的 `file_path` 配置选项，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F10 中实现。\n* 添加了 Ollama 作为后端，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F11 中实现。\n* 升级了 crate 版本至 0.2.0，由 @SilasMarvin 在 https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fpull\u002F12 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fcompare\u002Fv0.1.0...v0.2.0","2024-06-09T16:40:30",{"id":209,"version":210,"summary_zh":211,"released_at":212},180116,"v0.1.0","LSP-AI 的首个发布版本。\n\n可用的内存后端：\n- 文件存储\n\n可用的模型后端：\n- llama.cpp\n- 兼容 OpenAI API\n- 兼容 Anthropic API\n- 兼容 Mistral FIM\n\n请参阅维基的[安装页面](https:\u002F\u002Fgithub.com\u002FSilasMarvin\u002Flsp-ai\u002Fwiki\u002FInstallation)，以获取 LSP-AI 的安装指南。","2024-06-07T14:02:57"]