[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-theopenco--llmgateway":3,"tool-theopenco--llmgateway":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":10,"env_os":105,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":117,"github_topics":118,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":138,"updated_at":139,"faqs":140,"releases":171},7586,"theopenco\u002Fllmgateway","llmgateway","Route, manage, and analyze your LLM requests across multiple providers with a unified API interface.","llmgateway 是一款专为大语言模型（LLM）设计的开源 API 网关，旨在帮助开发者统一管理和优化跨多个提供商的 AI 请求。在同时使用 OpenAI、Anthropic、Google Vertex AI 等不同模型服务时，用户往往面临接口标准不一、密钥管理分散以及成本难以追踪的痛点。llmgateway 通过提供统一的 API 接口（兼容 OpenAI 格式），让用户无需修改现有代码即可无缝切换或路由请求至不同后端，从而极大降低了集成复杂度。\n\n该工具的核心价值在于其强大的可观测性与管控能力。它不仅集中管理所有提供商的 API 密钥，还能实时追踪每次请求的 Token 消耗、响应时间及对应成本，生成详细的分析报表，帮助用户对比不同模型的性能与性价比，进而做出更优的技术选型。此外，llmgateway 支持灵活的部署方式，既提供开箱即用的托管服务，也允许用户通过 Docker 自行部署以完全掌控数据隐私。\n\nllmgateway 特别适合需要集成多种 AI 模型的后端开发者、AI 应用架构师以及关注成本控制的技术团队。其基于 AGPLv3 协议开源，并采用现代化的技术栈（如 H","llmgateway 是一款专为大语言模型（LLM）设计的开源 API 网关，旨在帮助开发者统一管理和优化跨多个提供商的 AI 请求。在同时使用 OpenAI、Anthropic、Google Vertex AI 等不同模型服务时，用户往往面临接口标准不一、密钥管理分散以及成本难以追踪的痛点。llmgateway 通过提供统一的 API 接口（兼容 OpenAI 格式），让用户无需修改现有代码即可无缝切换或路由请求至不同后端，从而极大降低了集成复杂度。\n\n该工具的核心价值在于其强大的可观测性与管控能力。它不仅集中管理所有提供商的 API 密钥，还能实时追踪每次请求的 Token 消耗、响应时间及对应成本，生成详细的分析报表，帮助用户对比不同模型的性能与性价比，进而做出更优的技术选型。此外，llmgateway 支持灵活的部署方式，既提供开箱即用的托管服务，也允许用户通过 Docker 自行部署以完全掌控数据隐私。\n\nllmgateway 特别适合需要集成多种 AI 模型的后端开发者、AI 应用架构师以及关注成本控制的技术团队。其基于 AGPLv3 协议开源，并采用现代化的技术栈（如 Hono 后端与 Next.js 前端），为构建稳定、高效且可监控的 AI 应用基础设施提供了坚实支持。","# LLM Gateway\n\nLLM Gateway is an open-source API gateway for Large Language Models (LLMs). It acts as a middleware between your applications and various LLM providers, allowing you to:\n\n- Route requests to multiple LLM providers (OpenAI, Anthropic, Google Vertex AI, and others)\n- Manage API keys for different providers in one place\n- Track token usage and costs across all your LLM interactions\n- Analyze performance metrics to optimize your LLM usage\n\n## Features\n\n- **Unified API Interface**: Compatible with the OpenAI API format for seamless migration\n- **Usage Analytics**: Track requests, tokens used, response times, and costs\n- **Multi-provider Support**: Connect to various LLM providers through a single gateway\n- **Performance Monitoring**: Compare different models' performance and cost-effectiveness\n\n## Getting Started\n\nYou can use LLM Gateway in two ways:\n\n- **Hosted Version**: For immediate use without setup, visit [llmgateway.io](https:\u002F\u002Fllmgateway.io) to create an account and get an API key.\n- **Self-Hosted**: Deploy LLM Gateway on your own infrastructure for complete control over your data and configuration.\n\n### Self-Hosted With Docker\n\nUse Docker-managed volumes for the unified image. Do not bind-mount a host directory directly to `\u002Fvar\u002Flib\u002Fpostgresql\u002Fdata`, because PostgreSQL initialization inside the container needs to set permissions on that directory and that can fail depending on the host filesystem and ownership.\n\n```bash\nexport LLM_GATEWAY_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\nexport GATEWAY_API_KEY_HASH_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\n.\u002Fscripts\u002Frun-unified-container.sh\n```\n\nIf you prefer a one-off `docker run`, use named volumes instead of `~\u002Fsome-host-dir`:\n\n```bash\ndocker volume create llmgateway_postgres\ndocker volume create llmgateway_redis\n\ndocker run -d \\\n  --name llmgateway \\\n  --restart unless-stopped \\\n  -p 3002:3002 \\\n  -p 3003:3003 \\\n  -p 3005:3005 \\\n  -p 3006:3006 \\\n  -p 4001:4001 \\\n  -p 4002:4002 \\\n  -v llmgateway_postgres:\u002Fvar\u002Flib\u002Fpostgresql\u002Fdata \\\n  -v llmgateway_redis:\u002Fvar\u002Flib\u002Fredis \\\n  -e AUTH_SECRET=\"$LLM_GATEWAY_SECRET\" \\\n  -e GATEWAY_API_KEY_HASH_SECRET=\"$GATEWAY_API_KEY_HASH_SECRET\" \\\n  ghcr.io\u002Ftheopenco\u002Fllmgateway-unified:latest\n```\n\n### Using LLM Gateway API\n\n```bash\ncurl -X POST https:\u002F\u002Fapi.llmgateway.io\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Authorization: Bearer $LLM_GATEWAY_API_KEY\" \\\n  -d '{\n  \"model\": \"gpt-4o\",\n  \"messages\": [\n    {\"role\": \"user\", \"content\": \"Hello, how are you?\"}\n  ]\n}'\n```\n\n## Development Setup\n\n1. Install dependencies and set up the development environment:\n\n   ```bash\n   pnpm i && pnpm run setup\n   ```\n\n   This will install all dependencies, start Docker services, sync the database schema, and seed initial data.\n\n   **Note for WSL2 users**: Ensure Docker Desktop is running with WSL integration enabled.\n\n2. Start development servers:\n\n   ```bash\n   pnpm dev\n   ```\n\n3. Build for production:\n   ```bash\n   pnpm build\n   ```\n\n## Folder Structure\n\n- `apps\u002Fui`: Next.js dashboard frontend\n- `apps\u002Fplayground`: Next.js LLM playground\n- `apps\u002Fcode`: Next.js Dev Plans + coding tools landing & dashboard\n- `apps\u002Fapi`: Hono backend\n- `apps\u002Fgateway`: API gateway for routing LLM requests\n- `apps\u002Fdocs`: Documentation site\n- `apps\u002Fadmin`: Internal admin dashboard\n- `packages\u002Fdb`: Drizzle ORM schema and migrations\n- `packages\u002Fmodels`: Model and provider definitions\n- `packages\u002Fshared`: Shared types and utilities\n\n## License\n\nLLMGateway is available under a dual license:\n\n- **Open Source**: Core functionality is licensed under AGPLv3 - see the [LICENSE](LICENSE) file for details.\n- **Enterprise**: Commercial features in the `ee\u002F` directory require an Enterprise license - see [ee\u002FLICENSE](ee\u002FLICENSE) for details.\n\n### Enterprise features include:\n\n- Advanced billing and subscription management\n- Extended data retention (unlimited vs 30 days)\n- Custom provider key configurations\n- Team and organization management\n- Priority support\n- And more to be defined\n\nFor enterprise licensing, please contact us at contact@llmgateway.io\n","# LLM 网关\n\nLLM 网关是一个面向大型语言模型（LLMs）的开源 API 网关。它充当您的应用程序与各类 LLM 提供商之间的中间件，使您能够：\n\n- 将请求路由到多个 LLM 提供商（OpenAI、Anthropic、Google Vertex AI 等）\n- 在一处集中管理不同提供商的 API 密钥\n- 跟踪所有 LLM 交互中的 token 使用量和费用\n- 分析性能指标以优化 LLM 的使用\n\n## 功能特性\n\n- **统一的 API 接口**：兼容 OpenAI API 格式，实现无缝迁移\n- **使用情况分析**：跟踪请求数量、token 使用量、响应时间和费用\n- **多提供商支持**：通过单一网关连接到不同的 LLM 提供商\n- **性能监控**：比较不同模型的性能和成本效益\n\n## 快速入门\n\n您可以采用两种方式使用 LLM 网关：\n\n- **托管版本**：无需任何设置即可立即使用，请访问 [llmgateway.io](https:\u002F\u002Fllmgateway.io) 创建账户并获取 API 密钥。\n- **自托管**：将 LLM 网关部署在您自己的基础设施上，以完全掌控数据和配置。\n\n### 使用 Docker 自托管\n\n对于统一镜像，请使用 Docker 管理的数据卷。请勿直接将主机目录挂载到 `\u002Fvar\u002Flib\u002Fpostgresql\u002Fdata`，因为容器内的 PostgreSQL 初始化需要对该目录设置权限，而这一过程可能会因主机文件系统及其所有权问题而失败。\n\n```bash\nexport LLM_GATEWAY_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\nexport GATEWAY_API_KEY_HASH_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\n.\u002Fscripts\u002Frun-unified-container.sh\n```\n\n如果您更倾向于一次性运行 `docker run` 命令，可以使用命名卷代替 `~\u002Fsome-host-dir`：\n\n```bash\ndocker volume create llmgateway_postgres\ndocker volume create llmgateway_redis\n\ndocker run -d \\\n  --name llmgateway \\\n  --restart unless-stopped \\\n  -p 3002:3002 \\\n  -p 3003:3003 \\\n  -p 3005:3005 \\\n  -p 3006:3006 \\\n  -p 4001:4001 \\\n  -p 4002:4002 \\\n  -v llmgateway_postgres:\u002Fvar\u002Flib\u002Fpostgresql\u002Fdata \\\n  -v llmgateway_redis:\u002Fvar\u002Flib\u002Fredis \\\n  -e AUTH_SECRET=\"$LLM_GATEWAY_SECRET\" \\\n  -e GATEWAY_API_KEY_HASH_SECRET=\"$GATEWAY_API_KEY_HASH_SECRET\" \\\n  ghcr.io\u002Ftheopenco\u002Fllmgateway-unified:latest\n```\n\n### 使用 LLM 网关 API\n\n```bash\ncurl -X POST https:\u002F\u002Fapi.llmgateway.io\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Authorization: Bearer $LLM_GATEWAY_API_KEY\" \\\n  -d '{\n  \"model\": \"gpt-4o\",\n  \"messages\": [\n    {\"role\": \"user\", \"content\": \"你好，最近怎么样？\"}\n  ]\n}'\n```\n\n## 开发环境搭建\n\n1. 安装依赖并设置开发环境：\n\n   ```bash\n   pnpm i && pnpm run setup\n   ```\n\n   此命令将安装所有依赖项、启动 Docker 服务、同步数据库模式并填充初始数据。\n\n   **WSL2 用户请注意**：确保 Docker Desktop 已启用 WSL 集成并正在运行。\n\n2. 启动开发服务器：\n\n   ```bash\n   pnpm dev\n   ```\n\n3. 构建生产环境：\n   ```bash\n   pnpm build\n   ```\n\n## 目录结构\n\n- `apps\u002Fui`：Next.js 控制面板前端\n- `apps\u002Fplayground`：Next.js LLM 实验平台\n- `apps\u002Fcode`：Next.js 开发计划及编码工具着陆页与控制面板\n- `apps\u002Fapi`：Hono 后端\n- `apps\u002Fgateway`：用于路由 LLM 请求的 API 网关\n- `apps\u002Fdocs`：文档站点\n- `apps\u002Fadmin`：内部管理控制面板\n- `packages\u002Fdb`：Drizzle ORM 模式与迁移脚本\n- `packages\u002Fmodels`：模型与提供商定义\n- `packages\u002Fshared`：共享类型与工具\n\n## 许可证\n\nLLMGateway 采用双重许可证：\n\n- **开源**：核心功能基于 AGPLv3 许可证授权——详情请参阅 [LICENSE](LICENSE) 文件。\n- **企业版**：位于 `ee\u002F` 目录下的商业功能需要企业许可证——详情请参阅 [ee\u002FLICENSE](ee\u002FLICENSE) 文件。\n\n### 企业版功能包括：\n\n- 高级计费与订阅管理\n- 扩展的数据保留期限（无限制 vs 30 天）\n- 自定义提供商密钥配置\n- 团队与组织管理\n- 优先支持\n- 以及其他待定功能\n\n如需企业版许可，请联系 contact@llmgateway.io。","# LLM Gateway 快速上手指南\n\nLLM Gateway 是一个开源的大语言模型（LLM）API 网关。它作为应用程序与各类 LLM 提供商（如 OpenAI、Anthropic、Google Vertex AI 等）之间的中间件，提供统一接口、密钥管理、用量追踪及性能分析功能。\n\n## 环境准备\n\n在自行部署前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux、macOS 或 Windows (需安装 WSL2)\n*   **核心依赖**：\n    *   **Docker** & **Docker Compose**：用于容器化部署。\n    *   **OpenSSL**：用于生成安全密钥（大多数 Linux\u002FmacOS 系统默认自带）。\n*   **网络要求**：确保服务器可以访问外部 LLM 提供商的 API 端点。\n*   **WSL2 用户注意**：如果您在 Windows 上使用 WSL2，请确保 Docker Desktop 已运行并启用了 WSL 集成。\n\n> **提示**：原文未提供特定的中国镜像源。如遇 Docker 拉取缓慢，建议配置国内通用的 Docker 镜像加速器（如阿里云、腾讯云等）后再执行安装命令。\n\n## 安装步骤（自托管模式）\n\n推荐使用 Docker 进行一键部署。为避免权限问题，请务必使用**命名卷（Named Volumes）**而非直接绑定主机目录。\n\n### 1. 生成安全密钥\n在终端中执行以下命令，生成必要的加密密钥：\n\n```bash\nexport LLM_GATEWAY_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\nexport GATEWAY_API_KEY_HASH_SECRET=\"$(openssl rand -base64 32 | tr -d '\\n')\"\n```\n\n### 2. 创建数据卷并启动容器\n执行以下命令创建持久化存储卷并启动服务：\n\n```bash\ndocker volume create llmgateway_postgres\ndocker volume create llmgateway_redis\n\ndocker run -d \\\n  --name llmgateway \\\n  --restart unless-stopped \\\n  -p 3002:3002 \\\n  -p 3003:3003 \\\n  -p 3005:3005 \\\n  -p 3006:3006 \\\n  -p 4001:4001 \\\n  -p 4002:4002 \\\n  -v llmgateway_postgres:\u002Fvar\u002Flib\u002Fpostgresql\u002Fdata \\\n  -v llmgateway_redis:\u002Fvar\u002Flib\u002Fredis \\\n  -e AUTH_SECRET=\"$LLM_GATEWAY_SECRET\" \\\n  -e GATEWAY_API_KEY_HASH_SECRET=\"$GATEWAY_API_KEY_HASH_SECRET\" \\\n  ghcr.io\u002Ftheopenco\u002Fllmgateway-unified:latest\n```\n\n启动完成后，网关将在本地多个端口运行（如 `3002` 等），具体端口用途请参考官方文档或仪表盘。\n\n## 基本使用\n\nLLM Gateway 兼容 OpenAI API 格式，您可以无缝迁移现有的代码。只需将请求地址指向您的网关地址，并使用网关生成的 API Key。\n\n### 调用示例\n\n以下是一个使用 `curl` 调用网关的最简示例：\n\n```bash\ncurl -X POST https:\u002F\u002Fapi.llmgateway.io\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Authorization: Bearer $LLM_GATEWAY_API_KEY\" \\\n  -d '{\n  \"model\": \"gpt-4o\",\n  \"messages\": [\n    {\"role\": \"user\", \"content\": \"Hello, how are you?\"}\n  ]\n}'\n```\n\n**使用说明：**\n1. 将 `$LLM_GATEWAY_API_KEY` 替换为您在网关后台配置的实际 API Key。\n2. 如果是自托管版本，请将 URL `https:\u002F\u002Fapi.llmgateway.io` 替换为您的服务器地址（例如 `http:\u002F\u002Flocalhost:3002`）。\n3. `model` 字段填写您在网关中配置的路由模型名称。\n\n---\n*注：如需立即体验而无需部署，可访问 [llmgateway.io](https:\u002F\u002Fllmgateway.io) 使用托管版本。开发者若需二次开发，可克隆源码后运行 `pnpm i && pnpm run setup` 初始化环境。*","某初创团队正在开发一款智能客服系统，需要同时调用 OpenAI、Anthropic 和 Google 等多家大模型服务以平衡成本与效果。\n\n### 没有 llmgateway 时\n- **代码耦合严重**：开发人员必须在代码中硬编码不同厂商的 API 格式和鉴权逻辑，切换模型时需大幅重构代码。\n- **密钥管理混乱**：多个环境的 API Key 分散在各个配置文件甚至代码仓库中，存在泄露风险且难以统一轮换。\n- **成本黑盒状态**：无法实时统计各模型的 Token 消耗和具体花费，月底账单出炉时才发现预算严重超支。\n- **故障排查困难**：当某个供应商响应变慢或报错时，缺乏统一的日志和性能监控，难以快速定位是网络问题还是模型本身的问题。\n\n### 使用 llmgateway 后\n- **接口统一标准化**：所有请求只需对接 llmgateway 提供的兼容 OpenAI 格式的统一接口，后端业务代码无需关心底层供应商变更。\n- **集中安全管控**：在 llmgateway 控制台集中配置和加密存储所有供应商的 API Key，应用端仅需维护一个网关密钥，极大提升安全性。\n- **精细化成本洞察**：通过内置的分析仪表盘，团队能实时查看每个项目、每个模型的 Token 用量与费用，迅速将高成本请求路由至更具性价比的模型。\n- **全链路性能监控**：llmgateway 自动记录每次请求的延迟、成功率等指标，帮助团队量化对比不同模型的表现，为动态路由策略提供数据支撑。\n\nllmgateway 通过屏蔽底层多供应商的复杂性，让团队能以最低的开发和维护成本，构建出既稳定又具成本优势的大模型应用架构。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftheopenco_llmgateway_ea250682.png","theopenco","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftheopenco_146ed688.png",null,"https:\u002F\u002Fgithub.com\u002Ftheopenco",[78,82,86,90,94,98],{"name":79,"color":80,"percentage":81},"TypeScript","#3178c6",94.6,{"name":83,"color":84,"percentage":85},"MDX","#fcb32c",3.8,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.9,{"name":91,"color":92,"percentage":93},"CSS","#663399",0.3,{"name":95,"color":96,"percentage":97},"Dockerfile","#384d54",0.2,{"name":99,"color":100,"percentage":97},"JavaScript","#f1e05a",1091,116,"2026-04-14T16:57:22","NOASSERTION","Linux, macOS, Windows","未说明",{"notes":108,"python":106,"dependencies":109},"该工具主要通过 Docker 容器化部署，自托管时需使用命名卷（named volumes）挂载 PostgreSQL 和 Redis 数据目录，避免直接绑定主机目录导致权限问题。开发环境需安装 pnpm 并启用 Docker Desktop（WSL2 用户需开启 WSL 集成）。核心功能基于 AGPLv3 开源，企业级功能需单独授权。",[110,111,112,113,114,115,116],"Docker","pnpm","PostgreSQL","Redis","Next.js","Hono","Drizzle ORM",[14,13,52,15,35],[119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137],"ai","llm","llms","typescript","ai-gateway","analytics","anthropic","api-key-management","claude","codex","enterprise","guardrails","inference","llm-gateway","llm-proxy","observability","openai","opencode","rate-limiting","2026-03-27T02:49:30.150509","2026-04-15T07:11:43.182953",[141,146,151,156,161,166],{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},33998,"如何配置 Azure OpenAI 支持？","LLMGateway 支持 Azure OpenAI。您可以参考官方集成文档：https:\u002F\u002Fdocs.llmgateway.io\u002Fintegrations\u002Fazure。需要注意的是，Azure Foundry 和传统 Azure OpenAI 的 API 端点可能略有不同，但 LLMGateway 均能保证 OpenAI 兼容性。部分模型可能仅能部署在 Azure Foundry 或传统服务中，请根据您的模型部署情况选择对应的端点。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F617",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},33999,"使用 Docker 统一镜像部署时，首次创建账户后登录失败并重定向回登录页怎么办？","这通常是因为环境变量配置缺失。请检查您的 `.env` 文件或 Docker Compose 配置，确保设置了 `COOKIE_DOMAIN` 变量。该变量需要设置为您的纯域名（如果您在前端子域名上托管，则设置为 `.` + 您的域名）。例如：`COOKIE_DOMAIN=example.com` 或 `COOKIE_DOMAIN=.example.com`。更新配置后重启容器即可解决。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F755",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},34000,"Docker 统一镜像启动时报错 'initdb: error: could not change permissions of directory' 导致数据库初始化失败，如何解决？","此错误通常由本地挂载文件夹权限问题或旧数据冲突引起。请尝试以下步骤：\n1. 删除本地的 `~\u002Fllmgateway_data` 文件夹（注意：这将清除现有数据）。\n2. 确保拉取最新的统一镜像：`docker pull ghcr.io\u002Ftheopenco\u002Fllmgateway-unified:latest`。\n3. 重新启动 Docker 容器。\n如果问题依旧，建议改用 Docker Volume 而非本地文件夹映射来存储数据，以避免权限问题。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F970",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},34001,"首次创建 API Key 时弹窗立即关闭，导致无法复制 Token，如何处理？","这是一个已知的前端交互问题，特别是在没有任何 API Key 的情况下首次创建时发生。虽然维护者已标记修复，但如果您在最新版本中仍遇到此问题，可以尝试刷新页面后再次尝试创建，或者查看浏览器控制台是否有相关报错。该问题通常在创建第二个 Key 时不会出现。建议关注项目后续更新以获取永久修复。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F868",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},34002,"活动日志页面选择 'llmgateway model' 时无法正确过滤所有模型名称怎么办？","当上游提供商的模型 ID（modelName）与 LLMGateway 根模型 ID 不一致时（例如 Groq 内部使用 `openai\u002Fgpt-oss-120b` 而外部显示为 `gpt-oss-120b`），过滤器可能失效。如果您发现日志过滤不准确，请确认您使用的模型提供商是否对模型名称进行了重命名或添加了前缀。维护者已在后续版本中针对此类情况进行了修复，请确保您的部署是最新版本。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F495",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},34003,"如何在 UI 仪表板中记住上次使用的项目？","该功能已通过安全 HTTP-only Cookie 实现。系统现在会自动在服务器端记录您最后访问的项目，并在下次登录时默认加载该项目。出于隐私和安全考虑，当您点击注销时，系统会自动清除这些记录项目的 Cookie，确保下次登录时不会保留旧的偏好设置。无需用户手动配置，功能默认开启。","https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fissues\u002F762",[172,177,182,187],{"id":173,"version":174,"summary_zh":175,"released_at":176},263883,"v1.3.0","## 变更内容\n\n\n🤝 团队管理：在一个地方邀请团队成员、管理权限并进行协作\n\n📊 管理仪表板：新增指标和洞察，以便更好地了解使用情况\n\n🎯 路由优化：根据实时 uptime 和延迟，实现更智能的提供商路由\n\n💰 推荐系统：可获得推荐用户消费金额的 1%\n\n完整更新日志请见：https:\u002F\u002Fllmgateway.io\u002Fblog\u002Fq4-2025-roundup\n\n\u003Cdetails>\n\u003Csummary>完整的提交历史\u003C\u002Fsummary>\n\n\n* feat(db): 为 logs 表按 projectId 和 createdAt 添加索引，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F905 中完成\n* feat(models): 添加 discount 字段，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F894 中完成\n* refactor(worker): 统一使用常规数据库客户端，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F906 中完成\n* feat(db): 添加索引，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F907 中完成\n* feat(worker): 添加 shutdown 逻辑，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F908 中完成\n* fix(gateway): 改进 IAM 规则失败时的错误信息，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F909 中完成\n* feat(models): 限制缓存控制块，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F910 中完成\n* feat(ui): 添加 testimonials 版块并集成 react-tweet 组件，由 @smakosh 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F911 中完成\n* chore(models): 停用 Claude 3.5，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F912 中完成\n* fix(cost-estimation): 修复输出 token 数为零的问题，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F913 中完成\n* feat(anthropic): 实现用于流式响应的 SSE 处理器，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F922 中完成\n* chore(deps): 将 drizzle-zod 从 0.7.1 升级至 0.8.3，由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F918 中完成\n* chore(deps): 将 lucide-react 从 0.488.0 升级至 0.544.0，由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F920 中完成\n* feat(models): 添加对 Gemini 2.5 Flash Lite 的支持，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F923 中完成\n* feat(models): 添加 GPT-5 系列、Gemini 和 Deepseek 模型，并提供 Routeway 折扣，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F925 中完成\n* feat(models): 添加 minimal reasoning effort，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F929 中完成\n* fix(model-pricing): 解析 discount 变量，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F930 中完成\n* refactor(activity-log): 使用数据库聚合，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F924 中完成\n* fix(models): 重构 GPT-5 的 temperature 处理，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F933 中完成\n* feat(LogCard): 添加 token 计时指标，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F934 中完成\n* feat(model-providers): 添加折扣显示，由 @steebchen 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F936 中完成\n* feat(logs): 添加模型筛选功能，由 @steebchen 在 https:\u002F","2025-12-18T17:43:45",{"id":178,"version":179,"summary_zh":180,"released_at":181},263884,"v1.2.0","## 变更内容\n\n这次改动太多，列不完。\n\n最值得关注的：\n- 通过我们全新的 Anthropic API 集成，Claude Code 享五折优惠 —— https:\u002F\u002Fllmgateway.io\u002Fchangelog\u002Fclaude-code-50-percent-off\n- 首个图像生成模型 —— https:\u002F\u002Fllmgateway.io\u002Fchangelog\u002Fgemini-2-5-flash-image-preview\n- 扩展了供应商与模型的支持范围\n- @steebchen 和 @smakosh 带来了大量修复和小幅改进\n\n## 新贡献者\n* @thebeyondr 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F884 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fcompare\u002Fv1.1.0...v1.2.0","2025-09-21T20:45:03",{"id":183,"version":184,"summary_zh":185,"released_at":186},263885,"v1.1.0","## 变更内容\n\n太多了，无法一一列举。不过最值得注意的是：\n\n- 现已支持图像生成 https:\u002F\u002Fllmgateway.io\u002Fchangelog\u002Fgemini-2-5-flash-image-preview\n- API 密钥使用情况跟踪及每密钥限额 https:\u002F\u002Fllmgateway.io\u002Fchangelog\u002Fapi-key-usage-limits\n- 新增模型页面，并在我们的云版本中提供免费模型 https:\u002F\u002Fllmgateway.io\u002Fchangelog\u002Fmodels-page-cloudrift-free-llama\n- 新增服务提供商，并支持大量新模型\n\n## 新贡献者\n* @trishalim 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F459 中完成了首次贡献\n* @Rahulstark2 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F470 中完成了首次贡献\n* @kukac7 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F553 中完成了首次贡献\n* @mowdl 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F564 中完成了首次贡献\n* @dban0001 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F573 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fcompare\u002Fv1.0.0...v1.1.0","2025-08-26T22:15:03",{"id":188,"version":189,"summary_zh":190,"released_at":191},263886,"v1.0.0","# v1.0.0\n\n通过统一的 API 接口，在多个提供商之间路由、管理和分析您的 LLM 请求。\n\n在此版本中，我们已在 ProductHunt 上线：https:\u002F\u002Fwww.producthunt.com\u002Fproducts\u002Fllm-gateway\n\n您可以在 https:\u002F\u002Fllmgateway.io\u002F 尝试我们的云服务版本，或通过 https:\u002F\u002Fdocs.llmgateway.io\u002Fself-host 自行部署。\n\n## 变更内容\n太多了，难以一一列举！\n\n## 新贡献者\n* @smakosh 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F1 中完成了首次贡献。\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F13 中完成了首次贡献。\n* @devin-ai-integration 在 https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fpull\u002F79 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Ftheopenco\u002Fllmgateway\u002Fcommits\u002Fv1.0.0","2025-07-03T01:45:52"]