[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-vllora--vllora":3,"similar-vllora--vllora":200},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":6,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":18,"owner_twitter":17,"owner_website":19,"owner_url":20,"languages":21,"stars":30,"forks":31,"last_commit_at":32,"license":33,"difficulty_score":34,"env_os":35,"env_gpu":36,"env_ram":36,"env_deps":37,"category_tags":42,"github_topics":46,"view_count":34,"oss_zip_url":17,"oss_zip_packed_at":17,"status":65,"created_at":66,"updated_at":67,"faqs":68,"releases":99},9150,"vllora\u002Fvllora","vllora","Debug your AI agents","vLLora 是一款专为 AI 智能体（AI Agents）打造的轻量级实时调试工具。在开发复杂的智能体应用时，开发者往往难以直观地追踪模型调用、工具交互及内部工作流，导致排查错误和优化性能变得困难。vLLora 正是为了解决这一痛点而生，它能帮助开发者即时追踪、分析并优化智能体的每一次运行细节。\n\n该工具主要面向 AI 应用开发者、研究人员以及使用 LangChain、Google ADK 或 OpenAI 等主流框架的工程团队。其核心亮点在于“无感接入”与“实时可观测性”：vLLora 兼容 OpenAI 标准的聊天补全 API，用户只需将请求指向 vLLora 服务，即可自动收集所有交互的追踪数据，无需大幅修改现有代码。启动后，它提供本地 Web 界面，让用户能像查看日志一样实时监控智能体的决策过程。此外，vLLora 还全面支持模型上下文协议（MCP），可轻松连接外部工具服务器。基于 Rust 构建的 vLLora 不仅运行高效，更让调试 AI 智能体变得像传统软件开发一样透明、可控。","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"assets\u002Fimages\u002Flogos\u002Flogo_dark.svg\" width=\"200px\" alt=\"vLLora Logo\">\n\n#### Lightweight, Real-time Debugging for AI Agents\n\nDebug your Agents in Real Time. Trace, analyze, and optimize instantly. Seamless with LangChain, Google ADK, OpenAI, and all major frameworks.\n\n**[Documentation](https:\u002F\u002Fvllora.dev\u002Fdocs)** | **[Issues](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues)** \n\n\n\u003C\u002Fdiv>\n\n\n## Quick Start\n\nFirst, install [Homebrew](https:\u002F\u002Fbrew.sh) if you haven't already, then:\n\n```bash\nbrew tap vllora\u002Fvllora\nbrew install vllora\n```\n\n\n### Start the vLLora:\n\n```bash\nvllora\n```\n\n> The server will start on `http:\u002F\u002Flocalhost:9090` and the UI will be available at `http:\u002F\u002Flocalhost:9091`. \n\nvLLora uses OpenAI-compatible chat completions API, so when your AI agents make calls through vLLora, it automatically collects traces and debugging information for every \ninteraction.\n\n\u003Cdiv align=\"center\">\n\n![vLLora Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_a336574ae780.gif)\n\n\n\u003C\u002Fdiv>\n\n### Test Send your First Request\n\n1. **Configure API Keys**: Visit `http:\u002F\u002Flocalhost:9091` to configure your AI provider API keys through the UI\n2. **Make a request** to see debugging in action:\n\n```bash\ncurl http:\u002F\u002Flocalhost:9090\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-4o-mini\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"What is the capital of France?\"}]\n  }'\n```\n\n### Rust streaming example (OpenAI-compatible)\n\nIn `llm\u002Fexamples\u002Fopenai_stream_basic\u002Fsrc\u002Fmain.rs` you can find a minimal Rust example that:\n\n- **Builds an OpenAI-style request** using `CreateChatCompletionRequestArgs` with:\n  - `model(\"gpt-4.1-mini\")`\n  - a **system message**: `\"You are a helpful assistant.\"`\n  - a **user message**: `\"Stream numbers 1 to 20 in separate lines.\"`\n- **Constructs a `VlloraLLMClient`** and configures credentials via:\n\n```bash\nexport VLLORA_OPENAI_API_KEY=\"your-openai-compatible-key\"\n```\n\nInside the example, the client is created roughly as:\n\n```rust\nlet client = VlloraLLMClient::new()\n    .with_credentials(Credentials::ApiKey(ApiKeyCredentials {\n        api_key: std::env::var(\"VLLORA_OPENAI_API_KEY\")\n            .expect(\"VLLORA_OPENAI_API_KEY must be set\")\n    }));\n```\n\nThen it **streams the completion** using the original OpenAI-style request:\n\n```rust\nlet mut stream = client\n    .completions()\n    .create_stream(openai_req)\n    .await?;\n\nwhile let Some(chunk) = stream.next().await {\n    let chunk = chunk?;\n    for choice in chunk.choices {\n        if let Some(delta) = choice.delta.content {\n            print!(\"{delta}\");\n        }\n    }\n}\n```\n\nThis will print the streamed response chunks (in this example, numbers 1 to 20) to stdout as they arrive.\n\n## Features\n\n**Real-time Tracing** - Monitor AI agent interactions as they happen with live observability of calls, tool interactions, and agent workflow. See exactly what your agents are doing in real-time.\n\n![Real-time Tracing](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_b714ab8333c9.png)\n\n**MCP Support** - Full support for Model Context Protocol (MCP) servers, enabling seamless integration with external tools by connecting with MCP Servers through HTTP and SSE\n\n![MCP Configuration](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_0d7455a03fe1.png)\n\n## Development\n\nTo get started with development:\n\n1. **Clone the repository**:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora.git\ncd vLLora\ncargo build --release\n```\n\nThe binary will be available at `target\u002Frelease\u002Fvlora`.\n\n2. **Run tests**:\n```bash\ncargo test\n```\n\n## Contributing\n\nWe welcome contributions! Please check out our [Contributing Guide](CONTRIBUTING.md) for guidelines on:\n\n- How to submit issues\n- How to submit pull requests\n- Code style conventions\n- Development workflow\n- Testing requirements\n\nHave a bug report or feature request? Check out our [Issues](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues) to see what's being worked on or to report a new issue.\n\n## Roadmap\n\nCheck out our [Roadmap](https:\u002F\u002Fvllora.dev\u002Fdocs\u002Froadmap) to see what's coming next!\n\n## License\n\nvLLora is [fair-code](https:\u002F\u002Ffaircode.io\u002F) distributed under the [Elastic License 2.0 (ELv2)](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fblob\u002Fmain\u002FLICENSE.md).\n\nThe inner package `llm` is distributed under the [Apache License 2.0](llm\u002FLICENSE-APACHE).\n\nvLLora includes [Distri](https:\u002F\u002Fdistri.dev\u002F) as an optional component for AI agent functionality. Distri is distributed under the [Elastic License 2.0 (ELv2)](https:\u002F\u002Fgithub.com\u002Fdistrihub\u002Fdistri\u002Fblob\u002Fmain\u002FLICENSE) and is downloaded separately at runtime. Distri is a separate project maintained by [DistriHub](https:\u002F\u002Fgithub.com\u002Fdistrihub).\n\n- **Source Available**: Always visible vLLora source code\n- **Self-Hostable**: Deploy vLLora anywhere you need\n- **Extensible**: Add your own providers, tools, MCP servers, and custom functionality\n\nFor Enterprise License, contact us at [hello@vllora.dev](mailto:hello@vllora.dev).\n\nAdditional information about the license model can be found in the docs.\n","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"assets\u002Fimages\u002Flogos\u002Flogo_dark.svg\" width=\"200px\" alt=\"vLLora Logo\">\n\n#### 轻量级、实时的 AI 代理调试工具\n\n实时调试您的代理。即时追踪、分析和优化。与 LangChain、Google ADK、OpenAI 及所有主流框架无缝集成。\n\n**[文档](https:\u002F\u002Fvllora.dev\u002Fdocs)** | **[问题](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues)** \n\n\n\u003C\u002Fdiv>\n\n\n## 快速入门\n\n首先，如果您尚未安装，请先安装 [Homebrew](https:\u002F\u002Fbrew.sh)，然后执行以下命令：\n\n```bash\nbrew tap vllora\u002Fvllora\nbrew install vllora\n```\n\n\n### 启动 vLLora：\n\n```bash\nvllora\n```\n\n> 服务器将在 `http:\u002F\u002Flocalhost:9090` 启动，UI 界面则可在 `http:\u002F\u002Flocalhost:9091` 访问。 \n\nvLLora 使用与 OpenAI 兼容的聊天完成 API，因此当您的 AI 代理通过 vLLora 发起调用时，它会自动收集每次交互的追踪信息和调试数据。\n\n\u003Cdiv align=\"center\">\n\n![vLLora 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_a336574ae780.gif)\n\n\n\u003C\u002Fdiv>\n\n### 测试：发送您的第一个请求\n\n1. **配置 API 密钥**：访问 `http:\u002F\u002Flocalhost:9091`，通过 UI 配置您的 AI 提供商 API 密钥。\n2. **发起请求**，查看调试效果：\n\n```bash\ncurl http:\u002F\u002Flocalhost:9090\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-4o-mini\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"法国的首都是哪里？\"}]\n  }'\n```\n\n### Rust 流式示例（与 OpenAI 兼容）\n\n在 `llm\u002Fexamples\u002Fopenai_stream_basic\u002Fsrc\u002Fmain.rs` 中，您可以找到一个极简的 Rust 示例，该示例：\n\n- 使用 `CreateChatCompletionRequestArgs` 构建一个 OpenAI 风格的请求，其中：\n  - `model(\"gpt-4.1-mini\")`\n  - 一条 **系统消息**：“您是一位乐于助人的助手。”\n  - 一条 **用户消息**：“请将数字 1 到 20 分别以单独的一行输出。”\n- **构建 `VlloraLLMClient`** 并通过以下方式配置凭据：\n\n```bash\nexport VLLORA_OPENAI_API_KEY=\"your-openai-compatible-key\"\n```\n\n在示例中，客户端大致按如下方式创建：\n\n```rust\nlet client = VlloraLLMClient::new()\n    .with_credentials(Credentials::ApiKey(ApiKeyCredentials {\n        api_key: std::env::var(\"VLLORA_OPENAI_API_KEY\")\n            .expect(\"必须设置 VLLORA_OPENAI_API_KEY\")\n    }));\n```\n\n随后，它使用原始的 OpenAI 风格请求进行流式处理：\n\n```rust\nlet mut stream = client\n    .completions()\n    .create_stream(openai_req)\n    .await?;\n\nwhile let Some(chunk) = stream.next().await {\n    let chunk = chunk?;\n    for choice in chunk.choices {\n        if let Some(delta) = choice.delta.content {\n            print!(\"{delta}\");\n        }\n    }\n}\n```\n\n这将逐段打印流式响应内容（本例中为数字 1 至 20）到标准输出。\n\n## 功能特性\n\n**实时追踪** - 实时监控 AI 代理的交互过程，包括调用、工具交互及代理工作流的可观测性。让您精确了解代理在实时中的操作。\n\n![实时追踪](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_b714ab8333c9.png)\n\n**MCP 支持** - 完全支持模型上下文协议（MCP）服务器，可通过 HTTP 和 SSE 连接 MCP 服务器，实现与外部工具的无缝集成。\n\n![MCP 配置](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_readme_0d7455a03fe1.png)\n\n## 开发\n\n开始开发的步骤如下：\n\n1. **克隆仓库**：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora.git\ncd vLLora\ncargo build --release\n```\n\n编译后的二进制文件将位于 `target\u002Frelease\u002Fvlora`。\n\n2. **运行测试**：\n```bash\ncargo test\n```\n\n## 贡献\n\n我们欢迎各位贡献！请查阅我们的 [贡献指南](CONTRIBUTING.md)，了解以下内容：\n\n- 如何提交问题\n- 如何提交拉取请求\n- 代码风格规范\n- 开发流程\n- 测试要求\n\n您有 bug 报告或功能需求吗？请查看我们的 [问题列表](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues)，了解当前正在进行的工作或提交新问题。\n\n## 路线图\n\n请查看我们的 [路线图](https:\u002F\u002Fvllora.dev\u002Fdocs\u002Froadmap)，了解接下来的计划！\n\n## 许可证\n\nvLLora 是基于 [fair-code](https:\u002F\u002Ffaircode.io\u002F) 的项目，采用 [Elastic License 2.0 (ELv2)](https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fblob\u002Fmain\u002FLICENSE.md) 协议进行分发。\n\n内部包 `llm` 则采用 [Apache License 2.0](llm\u002FLICENSE-APACHE) 协议分发。\n\nvLLora 包含 [Distri](https:\u002F\u002Fdistri.dev\u002F) 作为可选组件，用于 AI 代理功能。Distri 基于 [Elastic License 2.0 (ELv2)](https:\u002F\u002Fgithub.com\u002Fdistrihub\u002Fdistri\u002Fblob\u002Fmain\u002FLICENSE) 协议分发，并在运行时单独下载。Distri 是由 [DistriHub](https:\u002F\u002Fgithub.com\u002Fdistrihub) 维护的一个独立项目。\n\n- **源码开放**：vLLora 源代码始终公开可见。\n- **可自托管**：您可以在任何需要的地方部署 vLLora。\n- **可扩展**：添加您自己的提供商、工具、MCP 服务器以及自定义功能。\n\n如需企业许可证，请联系我们的邮箱：[hello@vllora.dev](mailto:hello@vllora.dev)。\n\n有关许可模式的更多信息，请参阅文档。","# vLLora 快速上手指南\n\nvLLora 是一款轻量级、实时的 AI Agent 调试工具。它支持 LangChain、Google ADK、OpenAI 等主流框架，能够自动收集交互轨迹（Traces）并实时分析，帮助开发者即时优化 Agent 工作流。\n\n## 环境准备\n\n*   **操作系统**：macOS 或 Linux（推荐通过 Homebrew 安装）。\n*   **前置依赖**：\n    *   [Homebrew](https:\u002F\u002Fbrew.sh)：包管理工具（macOS\u002FLinux）。\n    *   若未安装 Homebrew，请先运行官方安装脚本。\n*   **网络要求**：需确保能访问 `localhost:9090` 和 `localhost:9091` 端口。\n\n> **注意**：目前官方主要提供 Homebrew 安装方式。国内用户若遇到 Homebrew 下载缓慢问题，可配置国内镜像源（如中科大或清华源）加速 brew 本身的操作，但 `vllora` tap 源仍需从 GitHub 拉取。\n\n## 安装步骤\n\n1.  **添加 vLLora 源并安装**：\n    在终端中依次执行以下命令：\n\n    ```bash\n    brew tap vllora\u002Fvllora\n    brew install vllora\n    ```\n\n2.  **验证安装**：\n    安装完成后，输入 `vllora --version`（或直接运行启动命令）确认工具可用。\n\n## 基本使用\n\n### 1. 启动服务\n\n在终端运行以下命令启动 vLLora：\n\n```bash\nvllora\n```\n\n启动成功后，你将看到如下服务地址：\n*   **API 服务端点**：`http:\u002F\u002Flocalhost:9090`（用于接收 AI 请求）\n*   **可视化调试界面**：`http:\u002F\u002Flocalhost:9091`（用于查看轨迹和配置）\n\n### 2. 配置 API Key\n\n1.  打开浏览器访问 `http:\u002F\u002Flocalhost:9091`。\n2.  在 UI 界面中配置你的 AI 提供商 API Key（如 OpenAI Key），以便 vLLora 代理转发请求。\n\n### 3. 发送测试请求\n\nvLLora 兼容 OpenAI 的 Chat Completions API。你可以直接将原本发往 OpenAI 的请求地址改为 `http:\u002F\u002Flocalhost:9090\u002Fv1\u002Fchat\u002Fcompletions` 即可自动开启调试追踪。\n\n使用 `curl` 发送第一条测试消息：\n\n```bash\ncurl http:\u002F\u002Flocalhost:9090\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-4o-mini\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"What is the capital of France?\"}]\n  }'\n```\n\n发送后，返回浏览器刷新 `http:\u002F\u002Flocalhost:9091` 页面，即可看到该次交互的完整实时轨迹（Traces）、耗时及内容详情。\n\n### 4. 进阶：Rust 流式调用示例\n\n如果你使用 Rust 开发，vLLora 提供了兼容 OpenAI 风格的流式客户端。\n\n**前置设置：**\n导出环境变量配置密钥：\n```bash\nexport VLLORA_OPENAI_API_KEY=\"your-openai-compatible-key\"\n```\n\n**代码示例：**\n构建请求并流式输出结果：\n\n```rust\nlet client = VlloraLLMClient::new()\n    .with_credentials(Credentials::ApiKey(ApiKeyCredentials {\n        api_key: std::env::var(\"VLLORA_OPENAI_API_KEY\")\n            .expect(\"VLLORA_OPENAI_API_KEY must be set\")\n    }));\n\nlet mut stream = client\n    .completions()\n    .create_stream(openai_req)\n    .await?;\n\nwhile let Some(chunk) = stream.next().await {\n    let chunk = chunk?;\n    for choice in chunk.choices {\n        if let Some(delta) = choice.delta.content {\n            print!(\"{delta}\");\n        }\n    }\n}\n```\n\n运行上述代码后，终端将逐字打印流式响应内容，同时 vLLora 后台会自动记录完整的调试信息。","某电商公司的后端团队正在开发一个基于 LangChain 的智能客服 Agent，该 Agent 需要实时调用库存查询工具和订单数据库来回答用户问题。\n\n### 没有 vllora 时\n- **黑盒调试困难**：当 Agent 回答错误时，开发者无法直观看到模型内部思考过程及工具调用的具体参数，只能依靠分散的日志文件拼凑线索。\n- **延迟定位低效**：遇到响应卡顿或流式输出中断，团队难以判断是网络延迟、模型生成慢还是外部工具接口超时，排查耗时极长。\n- **上下文丢失严重**：在多轮对话中，一旦逻辑链路断裂，很难回溯是哪一步的上下文传递出现了偏差，导致修复代码如同“盲人摸象”。\n- **MCP 集成盲区**：在接入外部 Model Context Protocol (MCP) 服务器时，缺乏实时监控手段，无法确认工具连接状态和数据交换细节。\n\n### 使用 vllora 后\n- **全链路实时透视**：通过 vllora 的本地 UI，开发者能实时看到每一条消息的完整轨迹，包括模型输入、思维链推导及最终的工具调用参数，一目了然。\n- **性能瓶颈秒级定位**：利用实时追踪功能，团队可清晰识别出是 LLM 生成阶段还是外部 API 调用阶段导致了延迟，迅速优化对应环节。\n- **交互流程可视化**：多轮对话的上下文流转以图形化方式呈现，任何逻辑断层都能被即时捕捉并回溯，大幅降低复现和修复 Bug 的难度。\n- **无缝监控 MCP 连接**：vllora 原生支持 MCP 协议，让开发者能直接在界面中监控与外部工具的 HTTP\u002FSSE 连接状态，确保数据交互准确无误。\n\nvllora 将原本晦涩难懂的 AI Agent 运行过程转化为透明、实时的可视化数据流，让调试效率从“小时级”提升至“分钟级”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvllora_vllora_a336574a.gif","vLLora","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvllora_dfc13321.png","Debug your AI Agents",null,"hello@vllora.dev","https:\u002F\u002Fvllora.dev\u002F","https:\u002F\u002Fgithub.com\u002Fvllora",[22,26],{"name":23,"color":24,"percentage":25},"Rust","#dea584",99.9,{"name":27,"color":28,"percentage":29},"Shell","#89e051",0.1,792,47,"2026-04-18T00:41:29","NOASSERTION",2,"macOS, Linux","未说明",{"notes":38,"python":36,"dependencies":39},"该工具主要通过 Homebrew 安装（明确支持 macOS），也可通过源码编译运行（需 Rust 环境）。它是一个用于 AI Agent 的实时调试和追踪服务器，本身不运行大模型，而是作为代理转发 OpenAI 兼容的请求，因此对 GPU 无直接硬性要求。运行时会自动下载可选组件 Distri。提供 Web UI (端口 9091) 和 API 服务 (端口 9090)。",[40,41],"Homebrew","Rust (Cargo)",[43,44,45],"Agent","开发框架","语言模型",[47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64],"agents","anthropic","claude","deepseek","gemini","langchain","llm","model-context-protocol","openai","rust-lang","tracing","vercelaisdk","ai-gateway","llm-gateway","azure","router","ai-agents","google-adk","ready","2026-03-27T02:49:30.150509","2026-04-19T03:05:10.336724",[69,74,79,84,89,94],{"id":70,"question_zh":71,"answer_zh":72,"source_url":73},41071,"使用 cargo install 安装 vllora 时遇到 `tracing::Value`  trait 未实现的编译错误怎么办？","这是由于需要启用特定的 Rust 配置标志。请尝试使用以下命令进行安装：\nRUSTFLAGS=\"--cfg tracing_unstable --cfg aws_sdk_unstable\" cargo install vllora\n这能解决 opentelemetry-otlp 依赖相关的编译问题。","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F254",{"id":75,"question_zh":76,"answer_zh":77,"source_url":78},41072,"启动时遇到 \"No available port found for service OTEL\" 错误，但端口实际上未被占用，如何解决？","这通常不是端口冲突，而是 IPv6 兼容性问题。如果您的系统禁用了 IPv6，但 vllora 默认尝试绑定到 IPv6 地址 ([::])，会导致此错误。\n解决方案是确保您的环境支持 IPv6，或者等待\u002F应用修复该绑定逻辑的更新。错误信息具有误导性，实际上是因为操作系统拒绝了 IPv6 绑定请求（错误 97），导致程序误报端口不可用。","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F256",{"id":80,"question_zh":81,"answer_zh":82,"source_url":83},41073,"作为一个开源项目，为什么需要使用 LangDB Key？我可以使用自己的 LLM API Key 吗？","您可以直接使用自己的 API Key。LangDB 只是该项目支持的众多提供商之一，并且被设为默认选项。\n- 如果您直接使用其他提供商，可以使用 README 中展示的所有可配置选项。\n- 如果您使用 LangDB，则可以额外获得企业级功能，如评估（evaluations）、追踪（tracing）等。\n- 对于有严格数据和网络 concerns 的用户，还提供自托管企业版选项。","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F76",{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},41074,"如何部署 Snowflake MCP Server？","目前项目中已经部署了一个类似的 Snowflake MCP Server，您可以直接查看和使用现有的实例，无需重复部署。\n现有服务器地址：https:\u002F\u002Fapp.langdb.ai\u002Fmcp-servers\u002Fsnowflake-mcp-2c772ad5-8c66-4299-b429-d8667b67fa56","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F115",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},41075,"如何改进 BedrockError 的错误处理以便于调试？","维护者已确认该建议合理。可以通过在 `core\u002Fsrc\u002Fmodel\u002Ferror.rs` 文件中为 `BedrockError` 枚举添加更具体的错误变体（如 `TimeoutError`, `AuthenticationError` 等）来实现。这将帮助开发者更明确地区分超时、认证失败或验证错误等不同类型的问题。欢迎提交 PR 贡献此改进。","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F47",{"id":95,"question_zh":96,"answer_zh":97,"source_url":98},41076,"vllora 的 README 文档是否有改进计划以提升新用户体验？","是的，社区已意识到 README 虽然内容丰富但过长，导航性和结构有待优化。改进方向包括：更清晰地分离快速开始、演示和用法示例部分；标准化代码块和标题；为初学者提供简短摘要而非仅展示复杂的 Rust 流式示例；以及更好地关联功能描述与视觉图表。","https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fissues\u002F232",[100,105,110,115,120,125,130,135,140,145,150,155,160,165,170,175,180,185,190,195],{"id":101,"version":102,"summary_zh":103,"released_at":104},324644,"v0.1.23","## 变更内容\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F242 中将 diesel_migrations 从 2.3.0 升级至 2.3.1\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F243 中将 libsqlite3-sys 从 0.27.0 升级至 0.35.0\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F251 中将 tokio 从 1.48.0 升级至 1.49.0\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F252 中将 aws-sdk-bedrock 从 1.127.0 升级至 1.128.0\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.22...v0.1.23","2026-01-30T13:00:54",{"id":106,"version":107,"summary_zh":108,"released_at":109},324645,"v0.1.22","## 变更内容\n* 杂项（依赖）：由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F244 中将 minijinja 从 2.12.0 升级至 2.14.0\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.21...v0.1.22","2026-01-15T13:58:15",{"id":111,"version":112,"summary_zh":113,"released_at":114},324646,"v0.1.21","## 变更内容\n* 繁琐任务：@karolisg 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F233 中更新了 openai-async 依赖\n* 繁琐任务（依赖）：@dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F234 中将 axum 从 0.8.6 升级到 0.8.8\n* 繁琐任务（依赖）：@dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F237 中将 uuid 从 1.18.1 升级到 1.19.0\n* 新特性：@duonganhthu43 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F238 中添加了 distri 调试代理\n* 繁琐任务（依赖）：@dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F236 中将 open 从 5.3.2 升级到 5.3.3\n* 新特性：@karolisg 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F241 中支持在遥测中使用指标\n* 繁琐任务：@duonganhthu43 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F247 中增强了 lucy 功能\n* 繁琐任务：@MrunmayS 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F246 中修订了代理分析工作流，以提高清晰度和调试便利性…\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.20...v0.1.21","2026-01-09T14:32:18",{"id":116,"version":117,"summary_zh":118,"released_at":119},324647,"v0.1.20","## 变更内容\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F221 中将 aws-smithy-runtime-api 从 1.9.2 升级至 1.9.3\n* feat: 支持自定义提供者、模型和端点，由 @karolisg 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F224 中实现\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F226 中将 serde_tuple 从 1.1.2 升级至 1.1.3\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F228 中将 bytes 从 1.10.1 升级至 1.11.0\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F229 中将 diesel 从 2.3.4 升级至 2.3.5\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F227 中将 serde_with 从 3.15.1 升级至 3.16.1\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.19...v0.1.20","2025-12-23T18:04:59",{"id":121,"version":122,"summary_zh":123,"released_at":124},324648,"v0.1.19","## 变更内容\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F199 中将 actix-web 从 4.11.0 升级至 4.12.0\n* Feat\u002Fimprove mcp：由 @karolisg 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F222 中实现\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F181 中将 tonic 从 0.13.1 升级至 0.14.2\n* chore(deps): 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F220 中将 opentelemetry-semantic-conventions 从 0.30.0 升级至 0.31.0\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.18...v0.1.19","2025-12-19T09:18:23",{"id":126,"version":127,"summary_zh":128,"released_at":129},324649,"v0.1.18","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.17...v0.1.18","2025-12-15T08:03:00",{"id":131,"version":132,"summary_zh":133,"released_at":134},324650,"v0.1.17","## 变更内容\n* 功能：由 @karolisg 在 https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F215 中集成响应 API\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.16...v0.1.17","2025-12-12T12:11:46",{"id":136,"version":137,"summary_zh":138,"released_at":139},324651,"v0.1.16","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.15...v0.1.16","2025-12-11T12:00:46",{"id":141,"version":142,"summary_zh":143,"released_at":144},324652,"v0.1.16-prerelease-4","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.16-prerelease-3...v0.1.16-prerelease-4","2025-12-11T11:28:15",{"id":146,"version":147,"summary_zh":148,"released_at":149},324653,"v0.1.16-prerelease-3","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.16-prerelease-1...v0.1.16-prerelease-3","2025-12-11T05:46:19",{"id":151,"version":152,"summary_zh":153,"released_at":154},324654,"v0.1.16-prerelease-1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.15...v0.1.16-prerelease-1","2025-12-11T04:47:14",{"id":156,"version":157,"summary_zh":158,"released_at":159},324655,"v0.1.15","## What's Changed\n* chore(deps): bump aws-credential-types from 1.2.8 to 1.2.10 by @dependabot[bot] in https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F188\n* chore: update ui ref for debug ability by @duonganhthu43 in https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F209\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.14...v0.1.15","2025-12-10T13:21:51",{"id":161,"version":162,"summary_zh":163,"released_at":164},324656,"v0.1.14","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.13...v0.1.14","2025-12-04T09:30:34",{"id":166,"version":167,"summary_zh":168,"released_at":169},324657,"v0.1.14-prerelease-5","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.14-prerelease-4...v0.1.14-prerelease-5","2025-12-04T07:43:24",{"id":171,"version":172,"summary_zh":173,"released_at":174},324658,"v0.1.14-prerelease-4","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.14-prerelease-3...v0.1.14-prerelease-4","2025-12-04T05:34:05",{"id":176,"version":177,"summary_zh":178,"released_at":179},324659,"v0.1.14-prerelease-3","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.14-prerelease-2...v0.1.14-prerelease-3","2025-12-04T05:22:50",{"id":181,"version":182,"summary_zh":183,"released_at":184},324660,"v0.1.14-prerelease-2","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.14-prerelease-1...v0.1.14-prerelease-2","2025-12-04T04:23:51",{"id":186,"version":187,"summary_zh":188,"released_at":189},324661,"v0.1.14-prerelease-1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.13...v0.1.14-prerelease-1","2025-12-03T13:33:26",{"id":191,"version":192,"summary_zh":193,"released_at":194},324662,"v0.1.13","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.12...v0.1.13","2025-12-02T13:19:58",{"id":196,"version":197,"summary_zh":198,"released_at":199},324663,"v0.1.12","## What's Changed\n* Feat: Refactor stream implementation for llm providers by @karolisg in https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F186\n* chore(deps): bump rmcp from 0.8.3 to 0.9.0 by @dependabot[bot] in https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F183\n* chore(deps): bump diesel from 2.3.2 to 2.3.3 by @dependabot[bot] in https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fpull\u002F182\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fvllora\u002Fvllora\u002Fcompare\u002Fv0.1.11...v0.1.12","2025-12-02T12:19:50",[201,212,220,228,238,246],{"id":202,"name":203,"github_repo":204,"description_zh":205,"stars":206,"difficulty_score":207,"last_commit_at":208,"category_tags":209,"status":65},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[43,44,210,211],"图像","数据工具",{"id":213,"name":214,"github_repo":215,"description_zh":216,"stars":217,"difficulty_score":207,"last_commit_at":218,"category_tags":219,"status":65},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[44,210,43],{"id":221,"name":222,"github_repo":223,"description_zh":224,"stars":225,"difficulty_score":34,"last_commit_at":226,"category_tags":227,"status":65},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,"2026-04-18T11:30:52",[44,43,45],{"id":229,"name":230,"github_repo":231,"description_zh":232,"stars":233,"difficulty_score":234,"last_commit_at":235,"category_tags":236,"status":65},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[43,237],"插件",{"id":239,"name":240,"github_repo":241,"description_zh":242,"stars":243,"difficulty_score":34,"last_commit_at":244,"category_tags":245,"status":65},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[44,210,43],{"id":247,"name":248,"github_repo":249,"description_zh":250,"stars":251,"difficulty_score":34,"last_commit_at":252,"category_tags":253,"status":65},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[237,43,210,44]]