[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lmstudio-ai--lmstudio-js":3,"tool-lmstudio-ai--lmstudio-js":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":32,"env_os":101,"env_gpu":101,"env_ram":101,"env_deps":102,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":146},9663,"lmstudio-ai\u002Flmstudio-js","lmstudio-js","LM Studio TypeScript SDK","lmstudio-js 是 LM Studio 官方推出的 TypeScript 开发工具包，旨在让开发者轻松地在本地环境中调用和运行大型语言模型（LLM）。它解决了传统云端 API 方案在隐私保护、网络依赖及成本控制上的痛点，同时弥补了通用 SDK（如 OpenAI SDK）在本地模型管理方面的功能缺失。\n\n通过 lmstudio-js，用户不仅可以实现聊天对话和文本续写，还能定义工具函数将模型转化为完全本地运行的自主智能体。其独特亮点在于提供了精细的模型生命周期管理能力，支持动态加载与卸载模型、配置上下文长度及 GPU 卸载策略，甚至包含推测解码等高级特性。此外，它还支持生成文本嵌入向量，并兼容浏览器与 Node.js 环境。\n\n这款工具专为熟悉 JavaScript 或 TypeScript 的软件开发者和研究人员设计，特别适合希望构建隐私安全、低延迟且无需联网的 AI 应用的技术人员。相比自动生成的通用客户端，lmstudio-js 从底层专为 TS\u002FJS 生态打造，代码结构清晰、易于上手，是连接本地算力与创新应用的理想桥梁。","\u003Cp align=\"center\">\n  \n  \u003Cpicture> \n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio.js\u002Fassets\u002F3611042\u002Fdd0b2298-beec-4dfe-9019-7d4dc5427e40\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmstudio-ai_lmstudio-js_readme_1978280b0663.png\">\n    \u003Cimg alt=\"lmstudio javascript library logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmstudio-ai_lmstudio-js_readme_1978280b0663.png\" width=\"290\" height=\"86\" style=\"max-width: 100%;\">\n  \u003C\u002Fpicture>\n  \n\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ccode>Use local LLMs in TypeScript\u003C\u002Fcode>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ci>LM Studio Client SDK\u003C\u002Fi>\u003C\u002Fp>\n\n`lmstudio-js` is LM Studio's official JavaScript client SDK, written in TypeScript. It allows you to\n\n- Use LLMs to [respond in chats](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fchat-completion) or predict [text completions](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fcompletion)\n- Define functions as tools, and turn LLMs into [autonomous agents](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fagent\u002Fact) that run completely locally\n- [Load](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fmanage-models\u002Floading), [configure](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fparameters), and [unload](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fmanage-models\u002Floading) models from memory\n- Supports both browser and any Node-compatible environments\n- Generate embeddings for text, and more!\n\n> Using python? See [lmstudio-python](https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-python)\n\n## Installation\n\n```bash\nnpm install @lmstudio\u002Fsdk --save\n```\n\n## Quick Example\n\n```ts\nimport { LMStudioClient } from \"@lmstudio\u002Fsdk\";\nconst client = new LMStudioClient();\n\nconst model = await client.llm.model(\"llama-3.2-1b-instruct\");\nconst result = await model.respond(\"What is the meaning of life?\");\n\nconsole.info(result.content);\n```\n\nFor more examples and documentation, visit [lmstudio-js docs](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript).\n\n## Why use `lmstudio-js` over `openai` sdk?\n\nOpen AI's SDK is designed to use with Open AI's proprietary models. As such, it is missing many features that are essential for using LLMs in a local environment, such as:\n\n- Managing loading and unloading models from memory\n- Configuring load parameters (context length, gpu offload settings, etc.)\n- Speculative decoding\n- Getting information (such as context length, model size, etc.) about a model\n- ... and more\n\nIn addition, while `openai` sdk is automatically generated, `lmstudio-js` is designed from ground-up to be clean and easy to use for TypeScript\u002FJavaScript developers.\n\n## Contributing\n\nYou can build the project locally by following these steps:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js.git --recursive\ncd lmstudio-js\nnpm install\nnpm run build\n```\n\nSee [CONTRIBUTING.md](CONTRIBUTING.md) for more information.\n\n## Community\n\n\u003Cp>Discuss all things lmstudio-js in \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FaPQfnNkxGC\">#dev-chat\u003C\u002Fa> in LM Studio's Community Discord server.\u003C\u002Fp>\n\u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FaPQfnNkxGC\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1110598183144399058?logo=discord&style=flat&logoColor=white\">\u003C\u002Fa>\n","\u003Cp align=\"center\">\n  \n  \u003Cpicture> \n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio.js\u002Fassets\u002F3611042\u002Fdd0b2298-beec-4dfe-9019-7d4dc5427e40\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmstudio-ai_lmstudio-js_readme_1978280b0663.png\">\n    \u003Cimg alt=\"lmstudio javascript library logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmstudio-ai_lmstudio-js_readme_1978280b0663.png\" width=\"290\" height=\"86\" style=\"max-width: 100%;\">\n  \u003C\u002Fpicture>\n  \n\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ccode>在 TypeScript 中使用本地 LLM\u003C\u002Fcode>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ci>LM Studio 客户端 SDK\u003C\u002Fi>\u003C\u002Fp>\n\n`lmstudio-js` 是 LM Studio 官方的 JavaScript 客户端 SDK，采用 TypeScript 编写。它允许您\n\n- 使用 LLM 进行 [聊天回复](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fchat-completion) 或预测 [文本补全](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fcompletion)\n- 将函数定义为工具，将 LLM 转变为完全在本地运行的 [自主代理](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fagent\u002Fact)\n- 从内存中 [加载](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fmanage-models\u002Floading)、[配置](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fllm-prediction\u002Fparameters) 和 [卸载](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fmanage-models\u002Floading) 模型\n- 支持浏览器以及任何兼容 Node 的环境\n- 为文本生成嵌入向量，等等！\n\n> 如果您使用的是 Python？请参阅 [lmstudio-python](https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-python)\n\n## 安装\n\n```bash\nnpm install @lmstudio\u002Fsdk --save\n```\n\n## 快速示例\n\n```ts\nimport { LMStudioClient } from \"@lmstudio\u002Fsdk\";\nconst client = new LMStudioClient();\n\nconst model = await client.llm.model(\"llama-3.2-1b-instruct\");\nconst result = await model.respond(\"生命的意义是什么？\");\n\nconsole.info(result.content);\n```\n\n更多示例和文档，请访问 [lmstudio-js 文档](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript)。\n\n## 为什么选择 `lmstudio-js` 而不是 `openai` SDK？\n\nOpenAI 的 SDK 是专为 OpenAI 的专有模型设计的。因此，它缺少许多在本地环境中使用 LLM 所必需的功能，例如：\n\n- 管理模型在内存中的加载和卸载\n- 配置加载参数（上下文长度、GPU 分离设置等）\n- 推测解码\n- 获取关于模型的信息（如上下文长度、模型大小等）\n- ……以及其他更多功能\n\n此外，虽然 `openai` SDK 是自动生成的，但 `lmstudio-js` 却是从零开始设计的，旨在为 TypeScript\u002FJavaScript 开发人员提供简洁易用的接口。\n\n## 贡献\n\n您可以按照以下步骤在本地构建该项目：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js.git --recursive\ncd lmstudio-js\nnpm install\nnpm run build\n```\n\n更多信息请参阅 [CONTRIBUTING.md](CONTRIBUTING.md)。\n\n## 社区\n\n\u003Cp>在 LM Studio 社区 Discord 服务器的 \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FaPQfnNkxGC\">#dev-chat\u003C\u002Fa> 中讨论所有关于 lmstudio-js 的话题。\u003C\u002Fp>\n\u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FaPQfnNkxGC\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1110598183144399058?logo=discord&style=flat&logoColor=white\">\u003C\u002Fa>","# lmstudio-js 快速上手指南\n\n`lmstudio-js` 是 LM Studio 官方推出的 JavaScript\u002FTypeScript 客户端 SDK，专为在本地环境中运行大语言模型（LLM）而设计。它支持浏览器和 Node.js 环境，让开发者能够轻松构建基于本地模型的聊天应用、自主智能体及文本嵌入服务。\n\n## 环境准备\n\n在开始之前，请确保满足以下条件：\n\n*   **运行环境**：\n    *   **Node.js**：建议使用 LTS 版本（v18+）。\n    *   **或 浏览器**：支持现代主流浏览器。\n*   **前置依赖**：\n    *   必须已在本地安装并运行 **LM Studio** 桌面应用程序。\n    *   确保 LM Studio 的本地服务器已启动（默认端口通常为 1234），且已下载至少一个模型文件。\n*   **开发工具**：\n    *   推荐使用支持 TypeScript 的编辑器（如 VS Code）。\n\n## 安装步骤\n\n通过 npm 安装官方 SDK 包：\n\n```bash\nnpm install @lmstudio\u002Fsdk --save\n```\n\n> **提示**：如果在国内网络环境下安装较慢，可配置淘宝镜像源加速：\n> ```bash\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> npm install @lmstudio\u002Fsdk --save\n> ```\n\n## 基本使用\n\n以下是一个最简单的示例，展示如何连接本地模型并进行对话：\n\n```ts\nimport { LMStudioClient } from \"@lmstudio\u002Fsdk\";\n\n\u002F\u002F 初始化客户端（默认连接本地 LM Studio 服务）\nconst client = new LMStudioClient();\n\n\u002F\u002F 加载指定模型（请确保该模型已在 LM Studio 中下载）\nconst model = await client.llm.model(\"llama-3.2-1b-instruct\");\n\n\u002F\u002F 发送消息并获取回复\nconst result = await model.respond(\"What is the meaning of life?\");\n\n\u002F\u002F 输出结果\nconsole.info(result.content);\n```\n\n**使用说明：**\n1. 将代码中的 `\"llama-3.2-1b-instruct\"` 替换为你本地实际下载的模型标识符。\n2. 运行脚本前，请确保 LM Studio 应用处于开启状态。\n3. 该库不仅支持聊天补全，还支持函数调用（Tools）、模型加载\u002F卸载管理及文本嵌入生成等高级功能。\n\n更多详细文档和进阶示例，请访问 [lmstudio-js 官方文档](https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript)。","一位全栈开发者正在构建一个完全本地运行的智能客服原型，需要在不依赖云端 API 的前提下，让 Node.js 后端动态调用本地大模型处理用户咨询。\n\n### 没有 lmstudio-js 时\n- 开发者被迫使用通用的 OpenAI SDK 进行“曲线救国”，无法直接控制本地模型的加载与卸载，导致显存长期被占用，影响其他任务运行。\n- 缺乏对上下文长度、GPU 卸载比例等关键推理参数的配置能力，模型在低显存设备上频繁崩溃或响应极慢。\n- 无法通过代码获取模型元数据（如当前上下文窗口大小），难以根据硬件状况动态调整业务逻辑。\n- 实现自主 Agent 功能极其困难，因为通用 SDK 不支持将本地函数定义为工具供模型调用，必须自行编写复杂的底层通信代码。\n- 调试过程痛苦，一旦模型加载失败或参数错误，只能查看 LM Studio 图形界面日志，无法在 TypeScript 代码中捕获具体异常。\n\n### 使用 lmstudio-js 后\n- 通过 `client.llm.load()` 和 `unload()` 方法，代码可精准控制模型生命周期，用完即释放显存，实现多模型轮转调度。\n- 直接在初始化时传入 `contextLength` 或 `gpuOffload` 等参数，轻松适配不同配置的本地机器，推理稳定性大幅提升。\n- 调用 `model.getInfo()` 即可实时获取模型状态与规格，业务代码能据此动态优化提示词策略或拒绝超限请求。\n- 利用内置的 Agent 框架，几行代码即可定义本地工具函数，让大模型自主规划并执行查询数据库、调用内部 API 等复杂任务。\n- 完整的 TypeScript 类型支持与原生错误抛出机制，让开发者能在 IDE 中获得智能提示，并在 try-catch 块中精确处理各类运行时错误。\n\nlmstudio-js 将原本繁琐的本地大模型运维工作转化为简洁的类型安全代码，让开发者真正专注于业务逻辑而非底层基础设施。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmstudio-ai_lmstudio-js_1978280b.png","lmstudio-ai","LM Studio","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flmstudio-ai_31f237b3.png","Discover, download, and run local LLMs",null,"lmstudio","https:\u002F\u002Flmstudio.ai","https:\u002F\u002Fgithub.com\u002Flmstudio-ai",[81,85,89,93],{"name":82,"color":83,"percentage":84},"TypeScript","#3178c6",98.3,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",0.9,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.6,{"name":94,"color":95,"percentage":96},"PowerShell","#012456",0.3,1598,249,"2026-04-19T02:36:14","MIT","未说明",{"notes":103,"python":104,"dependencies":105},"该工具是 LM Studio 的 JavaScript\u002FTypeScript 客户端 SDK，本身不直接运行模型，而是连接到本地运行的 LM Studio 应用程序。因此，具体的操作系统、GPU、内存及模型依赖需求取决于所连接的 LM Studio 桌面端环境及其加载的模型。支持浏览器和任何 Node.js 兼容环境。","不适用",[106],"@lmstudio\u002Fsdk",[14,35],[109,77,110,111,112],"llm","nodejs","typescript","lm-studio","2026-03-27T02:49:30.150509","2026-04-20T04:04:30.145054",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},43408,"遇到 'creationParameter.modelKey: Required' 或 'loadConfigStack: Required' Zod 错误怎么办？","这通常是由于 LM Studio 客户端与 SDK 版本不兼容导致的通信协议问题。请确保同时升级 LM Studio 桌面应用和 lmstudio-js SDK 到最新稳定版本（例如 SDK 1.0.0 配合 LM Studio 0.3.11+）。如果问题依旧，尝试重启服务或检查是否混用了旧版配置参数。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F224",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},43409,"lmstudio.js 是否支持在 Deno 环境中运行？","早期版本存在兼容性问题，但在 Deno 2.0 发布后，由于其增强了 Node.js 兼容性，lmstudio.js 现已可以在 Deno 中正常运行。如果您仍在使用旧版 Deno，建议升级到 Deno 2.0 或更高版本。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F61",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},43410,"如何在 SDK 响应中分离模型的推理内容（reasoning content）？","该功能已在最新版本中实现。在流式传输时，可以通过片段（fragment）的 `reasoningType` 属性来区分推理内容和常规内容。请确保您的 SDK 已更新至包含此修复的版本（参考 PR #274），此前推理内容可能会被自动剥离。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F269",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},43411,"使用 LangChain 连接 LM Studio 时，Llama 3.1 模型无法生成 ToolCall 怎么办？","Tool Calling（工具调用）功能已在 LM Studio 1.0.0 版本中正式落地。请确保您已更新到支持该功能的 LM Studio 版本，并参考官方文档中的 Agent 部分进行配置：https:\u002F\u002Flmstudio.ai\u002Fdocs\u002Ftypescript\u002Fagent\u002Fact。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F75",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},43412,"某些应用因模型名称格式不符而拒绝连接 LM Studio 的 OpenAI 兼容接口，如何解决？","如果在聊天或服务页面只加载了一个模型，LM Studio 的 OpenAI 兼容服务器不会严格检查模型名称，此时传入任意字符串作为模型名均可解析到该唯一加载的模型。若需更灵活的别名控制，建议通过多模型游乐场（multimodel playground）或 CLI 加载模型，这些方式允许指定标识符（别名）。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F11",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},43413,"调用 `client.llm.load()` 或 `getModelInfo` 时出现 Zod 验证错误如何处理？","此类错误通常由 SDK 与 LM Studio 服务端版本不匹配引起。请首先检查并升级 LM Studio 桌面端到最新版本（如 0.2.27 或更高），同时确保使用的 lmstudio-js SDK 也是对应的最新版。版本不一致会导致序列化结构变更从而引发验证失败。","https:\u002F\u002Fgithub.com\u002Flmstudio-ai\u002Flmstudio-js\u002Fissues\u002F45",[]]