[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huggingface--llm-ls":3,"tool-huggingface--llm-ls":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":76,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":98,"github_topics":99,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":109,"updated_at":110,"faqs":111,"releases":142},2562,"huggingface\u002Fllm-ls","llm-ls","LSP server leveraging LLMs for code completion (and more?)","llm-ls 是一个基于大语言模型（LLM）构建的语言服务器协议（LSP）后端，旨在为各类编辑器插件提供统一的智能代码补全支持。它主要解决了开发者在集成 AI 编程助手时面临的重复造轮子问题：通过将与大模型交互的复杂逻辑（如提示词构建、上下文管理、多后端适配等）封装在服务器端，让 IDE 插件只需保持轻量即可享受强大的智能补全能力。\n\n这款工具非常适合希望在自己的编辑器中引入或定制 AI 代码补全功能的开发者和技术研究人员。目前，它已完美支持 Neovim、VS Code 和 IntelliJ 等主流编辑器的专属插件。\n\nllm-ls 的技术亮点在于其智能化的上下文处理机制。它能利用抽象语法树（AST）分析代码结构，精准判断应生成单行还是多行补全；同时自动计算令牌数量，确保输入内容严格控制在模型的上下文窗口内。此外，它具备极高的兼容性，支持 Hugging Face Inference API、Ollama、text-generation-inference 以及任何兼容 OpenAI 格式的接口，让用户可以灵活选择本地部署或云端服务。需要注意的是，该项目目前仍处于积极开发阶段，部分功","llm-ls 是一个基于大语言模型（LLM）构建的语言服务器协议（LSP）后端，旨在为各类编辑器插件提供统一的智能代码补全支持。它主要解决了开发者在集成 AI 编程助手时面临的重复造轮子问题：通过将与大模型交互的复杂逻辑（如提示词构建、上下文管理、多后端适配等）封装在服务器端，让 IDE 插件只需保持轻量即可享受强大的智能补全能力。\n\n这款工具非常适合希望在自己的编辑器中引入或定制 AI 代码补全功能的开发者和技术研究人员。目前，它已完美支持 Neovim、VS Code 和 IntelliJ 等主流编辑器的专属插件。\n\nllm-ls 的技术亮点在于其智能化的上下文处理机制。它能利用抽象语法树（AST）分析代码结构，精准判断应生成单行还是多行补全；同时自动计算令牌数量，确保输入内容严格控制在模型的上下文窗口内。此外，它具备极高的兼容性，支持 Hugging Face Inference API、Ollama、text-generation-inference 以及任何兼容 OpenAI 格式的接口，让用户可以灵活选择本地部署或云端服务。需要注意的是，该项目目前仍处于积极开发阶段，部分功能可能尚不完善，但已展现出成为通用 AI 编程基础设施的巨大潜力。","# llm-ls\n\n> [!IMPORTANT]\n> This is currently a work in progress, expect things to be broken!\n\n**llm-ls** is a LSP server leveraging LLMs to make your development experience smoother and more efficient.\n\nThe goal of llm-ls is to provide a common platform for IDE extensions to be build on. llm-ls takes care of the heavy lifting with regards to interacting with LLMs so that extension code can be as lightweight as possible.\n\n## Features\n\n### Prompt\n\nUses the current file as context to generate the prompt. Can use \"fill in the middle\" or not depending on your needs.\n\nIt also makes sure that you are within the context window of the model by tokenizing the prompt.\n\n### Telemetry\n\nGathers information about requests and completions that can enable retraining.\n\nNote that **llm-ls** does not export any data anywhere (other than setting a user agent when querying the model API), everything is stored in a log file (`~\u002F.cache\u002Fllm_ls\u002Fllm-ls.log`) if you set the log level to `info`.\n\n### Completion\n\n**llm-ls** parses the AST of the code to determine if completions should be multi line, single line or empty (no completion).\n\n### Multiple backends\n\n**llm-ls** is compatible with Hugging Face's [Inference API](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fapi-inference\u002Fen\u002Findex), Hugging Face's [text-generation-inference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference), [ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama) and OpenAI compatible APIs, like the [python llama.cpp server bindings](https:\u002F\u002Fgithub.com\u002Fabetlen\u002Fllama-cpp-python?tab=readme-ov-file#openai-compatible-web-server).\n\n## Compatible extensions\n\n- [x] [llm.nvim](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm.nvim)\n- [x] [llm-vscode](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-vscode)\n- [x] [llm-intellij](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-intellij)\n- [ ] [jupytercoder](https:\u002F\u002Fgithub.com\u002Fbigcode-project\u002Fjupytercoder)\n\n## Roadmap\n\n- support getting context from multiple files in the workspace\n- add `suffix_percent` setting that determines the ratio of # of tokens for the prefix vs the suffix in the prompt\n- add context window fill percent or change context_window to `max_tokens`\n- filter bad suggestions (repetitive, same as below, etc)\n- oltp traces ?\n","# llm-ls\n\n> [!IMPORTANT]\n> 目前仍在开发中，可能会存在各种问题！\n\n**llm-ls** 是一个基于大语言模型的 LSP 服务器，旨在让您的开发体验更加流畅高效。\n\nllm-ls 的目标是为 IDE 扩展提供一个通用的平台。它负责处理与大语言模型交互的繁重工作，从而使扩展代码尽可能轻量。\n\n## 功能\n\n### 提示词生成\n\n以当前文件作为上下文来生成提示词。您可以根据需求选择是否使用“中间填充”方式。\n\n此外，llm-ls 还会通过分词确保提示词在模型的上下文窗口限制内。\n\n### 遥测数据\n\n收集关于请求和补全的信息，这些数据可用于模型的再训练。\n\n请注意，**llm-ls** 不会将任何数据导出到外部（除了在查询模型 API 时设置 User-Agent 头之外），所有数据都会存储在一个日志文件中（`~\u002F.cache\u002Fllm_ls\u002Fllm-ls.log`），前提是您将日志级别设置为 `info`。\n\n### 代码补全\n\nllm-ls 会解析代码的抽象语法树（AST），以确定补全应该是多行、单行，还是空（即无需补全）。\n\n### 多后端支持\n\nllm-ls 兼容 Hugging Face 的 [Inference API](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Fapi-inference\u002Fen\u002Findex)、[text-generation-inference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference)、[ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama) 以及 OpenAI 兼容的 API，例如 [python llama.cpp 服务器绑定](https:\u002F\u002Fgithub.com\u002Fabetlen\u002Fllama-cpp-python?tab=readme-ov-file#openai-compatible-web-server)。\n\n## 兼容扩展\n\n- [x] [llm.nvim](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm.nvim)\n- [x] [llm-vscode](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-vscode)\n- [x] [llm-intellij](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-intellij)\n- [ ] [jupytercoder](https:\u002F\u002Fgithub.com\u002Fbigcode-project\u002Fjupytercoder)\n\n## 路线图\n\n- 支持从工作区中的多个文件获取上下文\n- 添加 `suffix_percent` 设置，用于决定提示词中前缀和后缀的 token 比例\n- 增加上下文窗口填充百分比，或将 `context_window` 参数改为 `max_tokens`\n- 过滤不良建议（重复、与下方内容相同等）\n- OLTP 跟踪？","# llm-ls 快速上手指南\n\n**llm-ls** 是一个基于大语言模型（LLM）的语言服务器协议（LSP）后端，旨在为 IDE 插件提供统一的智能代码补全能力。它负责处理与 LLM 交互的复杂逻辑（如上下文管理、AST 解析），让前端插件保持轻量。\n\n> **注意**：该项目目前处于开发阶段（Work in Progress），部分功能可能不稳定。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux, macOS, Windows\n- **运行时**：需安装 Rust 工具链（用于从源码构建）或下载预编译二进制文件。\n- **网络**：需能访问配置的 LLM 后端服务（本地或云端）。\n\n### 前置依赖\n1. **Rust 环境**（如需自行编译）：\n   ```bash\n   curl --proto '=https' --tlsv1.2 -sSf https:\u002F\u002Fsh.rustup.rs | sh\n   ```\n2. **LLM 后端服务**（任选其一）：\n   - **Ollama** (推荐本地使用): `curl -fsSL https:\u002F\u002Follama.com\u002Finstall.sh | sh`\n   - **Hugging Face TGI**: 需部署 Docker 容器\n   - **OpenAI 兼容接口**: 如 llama-cpp-python 启动的服务\n   - **Hugging Face Inference API**: 需准备 API Key\n\n## 安装步骤\n\n### 方式一：使用 Cargo 安装（推荐）\n如果你已配置好 Rust 环境，可直接通过 Cargo 安装：\n\n```bash\ncargo install llm-ls\n```\n\n*国内加速提示*：若下载 crates.io 依赖缓慢，可配置国内镜像源：\n```bash\nmkdir -p ~\u002F.cargo\necho '[source.crates-io]' > ~\u002F.cargo\u002Fconfig.toml\necho 'replace-with = \"tuna\"' >> ~\u002F.cargo\u002Fconfig.toml\necho '[source.tuna]' >> ~\u002F.cargo\u002Fconfig.toml\necho 'registry = \"https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fgit\u002Fcrates.io-index.git\"' >> ~\u002F.cargo\u002Fconfig.toml\n```\n\n### 方式二：下载预编译二进制\n访问项目的 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Freleases) 下载对应系统的二进制文件，解压后将 `llm-ls` 可执行文件添加到系统 `PATH` 环境变量中。\n\n## 基本使用\n\n`llm-ls` 本身作为后台服务运行，通常由支持它的 IDE 插件（如 **llm-vscode**, **llm.nvim**, **llm-intellij**）自动调用。以下是手动启动并配置的基本流程。\n\n### 1. 启动后端服务\n确保你的 LLM 服务正在运行。例如，使用 Ollama 启动一个模型：\n```bash\nollama run starcoder2:3b\n```\n\n### 2. 配置并运行 llm-ls\n创建一个配置文件（通常为 `config.toml` 或通过环境变量传递），指定后端地址和模型参数。以下是一个简单的启动示例（以连接本地 Ollama 为例）：\n\n```bash\nllm-ls \\\n  --backend ollama \\\n  --model starcoder2:3b \\\n  --endpoint http:\u002F\u002Flocalhost:11434\n```\n\n常用参数说明：\n- `--backend`: 后端类型 (`ollama`, `huggingface`, `text-generation-inference`, `openai`)\n- `--model`: 使用的模型名称\n- `--endpoint`: LLM 服务的 API 地址\n- `--log-level`: 日志级别 (设为 `info` 可将日志记录到 `~\u002F.cache\u002Fllm_ls\u002Fllm-ls.log`)\n\n### 3. 在 IDE 中启用\n安装对应的编辑器插件（以 VS Code 为例）：\n1. 在 VS Code 扩展商店搜索并安装 **llm-vscode**。\n2. 打开设置，将 LSP Server 路径指向你安装的 `llm-ls` 二进制文件路径。\n3. 配置模型参数（通常插件会自动检测运行的 llm-ls 服务，或在插件设置中填入上述启动参数）。\n\n配置完成后，在代码编辑器中输入代码，即可体验到基于 AST 分析和上下文感知的智能代码补全。","一位后端工程师正在使用 Neovim 重构一个遗留的 Python 微服务项目，需要在缺乏完整类型提示的复杂逻辑中快速补全代码。\n\n### 没有 llm-ls 时\n- 开发者必须手动切换窗口查阅文档或搜索类似代码片段，打断心流，导致编码效率低下。\n- 传统静态分析插件无法理解业务上下文，只能提供基于语法的简单补全，经常生成重复或不符合逻辑的代码行。\n- 尝试接入本地大模型时，需为每个编辑器单独编写复杂的 API 交互脚本，维护成本高且容易出错。\n- 缺乏对代码抽象语法树（AST）的深度解析，插件无法智能判断当前是需要单行补全还是多行函数实现。\n- 无法有效收集补全反馈数据，难以针对特定项目风格优化模型表现，导致建议质量长期停滞不前。\n\n### 使用 llm-ls 后\n- llm-ls 自动将当前文件作为上下文构建提示词，利用“中间填充”技术精准预测后续逻辑，让开发者无需离开编辑器即可获取高质量代码。\n- 通过解析代码 AST，llm-ls 能智能识别上下文意图，准确输出单行或多行代码块，避免了无效或重复的建议。\n- 作为统一的 LSP 服务器，llm-ls 屏蔽了与 Ollama、Hugging Face 等不同后端的交互细节，让轻量级编辑器插件即插即用。\n- 内置的令牌计数机制确保提示词始终控制在模型上下文窗口内，防止因超长输入导致的请求失败或截断。\n- 本地日志遥测功能默默记录请求与补全数据，为后续微调模型以适应项目特有编码风格提供了可靠的数据基础。\n\nllm-ls 通过将大模型能力标准化为 LSP 服务，彻底消除了 IDE 与 AI 后端之间的集成摩擦，让智能代码补全变得像原生功能一样流畅自然。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_llm-ls_4220b585.png","huggingface","Hugging Face","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuggingface_90da21a4.png","The AI community building the future.",null,"https:\u002F\u002Fhuggingface.co\u002F","https:\u002F\u002Fgithub.com\u002Fhuggingface",[84],{"name":85,"color":86,"percentage":87},"Rust","#dea584",100,864,69,"2026-03-29T12:12:38","Apache-2.0","","未说明（支持多种后端，若使用本地模型如 ollama 或 llama.cpp，则取决于所选具体模型的硬件需求；若使用 Hugging Face Inference API 或 OpenAI 兼容 API，则无需本地 GPU）","未说明",{"notes":96,"python":94,"dependencies":97},"该工具是一个 LSP 服务器，本身不绑定特定硬件，而是作为连接 IDE 与各种 LLM 后端（如 Hugging Face Inference API、text-generation-inference、ollama、OpenAI 兼容接口）的中间层。实际运行环境需求完全取决于用户选择的具体后端服务。日志文件默认存储在 ~\u002F.cache\u002Fllm_ls\u002Fllm-ls.log。目前项目处于开发阶段，功能可能不稳定。",[],[13,26,15,14,52],[100,101,76,102,103,104,105,106,107,108],"ai","code-generation","ide","llamacpp","llm","lsp","lsp-server","openai","self-hosted","2026-03-27T02:49:30.150509","2026-04-06T08:18:31.489139",[112,117,122,127,132,137],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},11846,"如何减少 llm-ls 过多的日志输出？","虽然可以在设置中配置 \"llm.lsp.logLevel\": \"warn\"，但更直接的方法是在 VS Code 的输出通道（Output Channel）界面中，手动将日志级别设置为\"Warning\"。此外，维护者正在准备修复程序，以便更好地通过扩展控制输出通道的日志。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F35",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},11847,"llm-ls 项目的主要用途是什么？","llm-ls 是一个复杂的提示词构建器（sophisticated prompt builder），它支持语言服务器协议（Language Server Protocol, LSP）。它可以被视为编程插件与 LLM 端点之间的接口或抽象层，用于处理代码补全等任务。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F32",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},11848,"使用非官方 TGI 服务器时，生成的文本中包含特殊令牌（如 \u003Cfim-middle>）该如何处理？","如果使用的不是 Hugging Face 官方的 text-generation-inference 服务器，扩展可能不会自动清理这些令牌。通常需要在服务器端进行响应清洗（scrub the response on the server side），或者确认扩展是否配置了自动移除特定令牌的功能。如果遇到此类问题，建议检查服务器端的实现或参考相关 TGI 议题。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F29",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},11849,"为什么 FIM（中间填充）功能在使用 Ollama 后端时没有按预期工作？","当 FIM 功能未按预期工作时（例如返回模型分析而非代码），请检查配置中的 fim 部分是否正确设置了 prefix、middle 和 suffix 标记。同时注意，某些模型在长时间加载后可能会停止响应，这可能是 llama-server 或 Ollama 的已知问题，尝试重启服务或更换模型版本可能有所帮助。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F111",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},11850,"llm-ls 项目的未来开发计划是怎样的？","根据社区讨论，该项目曾活跃于上半年，但近期活动有所减缓。对于未来的开发计划、对新模型的支持以及 Bug 修复的响应速度，建议直接关注维护者的最新回复或参与社区讨论以获取最新动态。如果有合作意向，可以直接联系维护者探讨共同发展的可能性。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F110",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},11851,"如何在架构上优化适配器列表的管理？","有建议提出将适配器列表重构为枚举（enum）类型，以提高代码的类型安全性和可维护性。这属于代码内部结构的优化建议，具体实施需参考源代码中的 adaptors.rs 文件并进行相应的重构。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fissues\u002F69",[143,148,153,158,163,167,171,175,180,185,190,195,200,205],{"id":144,"version":145,"summary_zh":146,"released_at":147},62293,"0.5.3","## 变更内容\n* 重构：@McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F82 中清理了未使用的代码\n* 修复：将 `AcceptCompletionParams` 改为 `RejectCompletionParams`，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F83 中完成\n* 修复：修复无名文件导致的崩溃问题，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F84 中完成\n* 测试：修复无效反序列化问题，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F85 中完成\n* 功能：支持多种编码格式，由 @jeremyelalouf 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F88 中实现\n\n## 新贡献者\n* @jeremyelalouf 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F88 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fcompare\u002F0.5.2...0.5.3","2024-05-24T14:37:57",{"id":149,"version":150,"summary_zh":151,"released_at":152},62294,"0.5.2","## 变更内容\n* 修复：为提升用户体验，始终将 `return_full_text` 设置为 `false`，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F78 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fcompare\u002F0.5.1...0.5.2","2024-02-13T10:13:50",{"id":154,"version":155,"summary_zh":156,"released_at":157},62295,"0.5.1","## 变更内容\n* 修复：当 `backend: huggingface` 时，反序列化 `url` 的空值并使用默认值，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F75 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fcompare\u002F0.5.0...0.5.1","2024-02-12T19:17:56",{"id":159,"version":160,"summary_zh":161,"released_at":162},62296,"0.5.0","## 变更内容\n* 功能：`testbed`，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F39 中实现\n* 修复（CI）：过时的 lance 版本，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F43 中修复\n* 功能性改进！：将 API 命名改为驼峰式，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F46 中实现\n* 功能性改进！：使 completions 的命名变为驼峰式，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F48 中实现\n* 功能：在整体级别实现并行化，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F44 中实现\n* 新增对 Kotlin 语言的支持，由 @johan12345 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F52 中添加\n* 禁用 ropey 的 `unicode_lines` 功能，由 @rojas-diego 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F50 中完成\n* 功能：为多种后端（ollama、tgi、api-inference）添加适配器，由 @noahbald 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F40 中实现\n* 修复 TGI 生成参数，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F65 中完成\n* 在提示词中考虑 FIM 标记，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F62 中实现\n* 修复提示词生成中的下标错位问题，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F64 中修复\n* 忽略使用 `\"output\"` 方案的文档，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F59 中实现\n* 修复从文档末尾移除内容时的下标错位问题，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F61 中修复\n* 修复文件结束符的处理问题，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F60 中完成\n* 仅在使用 HF 端点时才对速率限制发出警告，由 @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F58 中实现\n* 重构：将 `adaptor` 重命名为 `backend`，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F70 中完成\n* 重构：改进错误处理机制，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F71 中完成\n* 功能：添加套接字连接功能，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F72 中实现\n* 修复：helix 编辑器构建崩溃问题，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F73 中修复\n* 功能：更新后端及模型参数，由 @McPatate 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F74 中实现\n\n## 新贡献者\n* @johan12345 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F52 中完成了首次贡献\n* @rojas-diego 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F50 中完成了首次贡献\n* @noahbald 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F40 中完成了首次贡献\n* @HennerM 在 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F65 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fcompare\u002F0.4.0...0.5.0","2024-02-12T15:08:33",{"id":164,"version":165,"summary_zh":80,"released_at":166},62297,"0.4.0","2023-10-18T09:55:00",{"id":168,"version":169,"summary_zh":80,"released_at":170},62298,"0.3.0","2023-10-11T19:23:15",{"id":172,"version":173,"summary_zh":80,"released_at":174},62299,"0.2.2","2023-10-10T12:52:39",{"id":176,"version":177,"summary_zh":178,"released_at":179},62300,"0.2.1","- 修复：在配置错误时不要使用分词器 (#22)","2023-09-25T13:20:40",{"id":181,"version":182,"summary_zh":183,"released_at":184},62301,"0.2.0","* 功能：改进分词器配置（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F21）","2023-09-21T16:07:07",{"id":186,"version":187,"summary_zh":188,"released_at":189},62302,"0.1.1","* 功能：添加用户代理（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F20）","2023-09-21T12:44:52",{"id":191,"version":192,"summary_zh":193,"released_at":194},62303,"0.1.0","* 功能：添加用于清除的标记（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F19）","2023-09-20T17:34:44",{"id":196,"version":197,"summary_zh":198,"released_at":199},62304,"0.0.3","* 修复：限制列位置，以防止切片范围越界（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F13）\n* 重构：更改默认日志级别（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F14）\n* 新功能：添加对 `tls_skip_verify_insecure` 的支持（https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fllm-ls\u002Fpull\u002F15）","2023-09-15T16:36:41",{"id":201,"version":202,"summary_zh":203,"released_at":204},62305,"0.0.2","* 修复：解决停止标记问题 (#9)\n* 修复：支持原始 TGI 调用 (#10)\n* 性能优化：将 `Tokenizer` 放入 `Arc` 中，以避免复制 (#11)","2023-09-10T11:27:28",{"id":206,"version":207,"summary_zh":208,"released_at":209},62306,"0.0.1","First release of llm-ls.\r\n\r\n* Supports code completion via `llm-ls\u002FgetCompletions`.\r\n\r\n* Tokenizes the prompt to check if it fits in the context window.\r\n\r\n* Synchronizes its state with `textDocument\u002Fdid{Open|Change}`","2023-09-05T11:43:36"]