[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Helicone--helicone":3,"tool-Helicone--helicone":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":124,"env_deps":125,"category_tags":137,"github_topics":138,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":158,"updated_at":159,"faqs":160,"releases":191},3280,"Helicone\u002Fhelicone","helicone","🧊 Open source LLM observability platform. One line of code to monitor, evaluate, and experiment. YC W23 🍓","Helicone 是一款专为 AI 工程师打造的开源大语言模型（LLM）可观测性平台与智能网关。它旨在解决开发者在构建 AI 应用时面临的监控难、成本高、调试复杂以及多模型管理混乱等痛点。通过仅需修改一行代码，用户即可轻松接入 OpenAI、Anthropic、Gemini 等主流模型，实时追踪请求的成本、延迟和质量指标，并深入查看智能体（Agent）的执行轨迹与会话详情，从而快速定位问题。\n\n除了基础的监控功能，Helicone 还具备独特的智能路由与自动故障转移机制，允许用户通过单一 API 密钥访问超过 100 种 AI 模型，当主模型不可用时自动切换备用方案，显著提升系统稳定性。其内置的提示词（Prompt）版本管理功能，让团队能基于生产数据迭代优化提示词而无需频繁修改代码。此外，平台还支持与微调合作伙伴集成，并提供符合企业级安全标准（SOC 2、GDPR）的数据保护。无论是独立开发者、初创团队还是大型企业，只要涉及 LLM 应用的开发与运维，都能利用 Helicone 高效地监控、评估和优化自己的 AI 系统。该平台提供慷慨的免费额度，无需信用卡即可立即体验。","\u003Cdiv align=\"center\">\n\n| 🔍 Observability | 🕸️ Agent Tracing | 🚂 LLM Routing |\n| :--------------: | :--------------: | :------------------: |\n|  💰 Cost & Latency Tracking  |   📚 Datasets & Fine-tuning    |    🎛️ Automatic Fallbacks   |\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\" style=\"margin: 0; padding: 0;\">\n  \u003Cimg alt=\"helicone logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_01426677f5a0.png\" style=\"display: block; margin: 0; padding: 0;\">\n\u003C\u002Fp>\n\u003C\u002Fbr>\n\n\u003Cp align=\"center\">\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fgraphs\u002Fcontributors'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fhelicone\u002Fhelicone?style=flat-square' alt='Contributors' \u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fstargazers'>\u003Cimg alt=\"GitHub stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fpulse'>\u003Cimg alt=\"GitHub commit activity\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fissues?q=is%3Aissue+is%3Aclosed'>\u003Cimg alt=\"GitHub closed issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fwww.ycombinator.com\u002Fcompanies\u002Fhelicone'>\u003Cimg alt=\"Y Combinator\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FY%20Combinator-Helicone-orange?style=flat-square\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.helicone.ai\u002F\">Docs\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fwww.helicone.ai\u002Fchangelog\">Changelog\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fissues\">Bug reports\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fhelicone.ai\u002Fdemo\">See Helicone in Action! (Free)\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Helicone is an AI Gateway & LLM Observability Platform for AI Engineers\n\n- 🌐 **AI Gateway**: Access 100+ AI models with 1 API key through the OpenAI API with intelligent routing and automatic fallbacks. [Get started in 2 minutes.](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview)\n- 🔌 **Quick integration**: One-line of code to log all your requests from [OpenAI](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=openai), [Anthropic](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=anthropic), [LangChain](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Flangchain), [Gemini](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=gemini%2Cgoogle-ai-studio), [Vercel AI SDK](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Fvercel-ai-sdk), and [more](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview).\n- 📊 **Observe**: Inspect and debug traces & [sessions](https:\u002F\u002Fdocs.helicone.ai\u002Ffeatures\u002Fsessions) for agents, chatbots, document processing pipelines, and more\n- 📈 **Analyze**: Track metrics like [cost](https:\u002F\u002Fdocs.helicone.ai\u002Ffaq\u002Fhow-we-calculate-cost#developer), latency, quality, and more. Export to [PostHog](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fposthog) in one-line for custom dashboards\n- 🎮 **Playground**: Rapidly test and iterate on prompts, sessions and traces in our UI.\n- 🧠 **Prompt Management**: [Version prompts](https:\u002F\u002Fdocs.helicone.ai\u002Ffeatures\u002Fprompts) using production data. Deploy prompts through the AI Gateway without code changes. Your prompts remain under your control, always accessible.\n- 🎛️ **Fine-tune**: Fine-tune with one of our fine-tuning partners: [OpenPipe](https:\u002F\u002Fopenpipe.ai\u002F) or [Autonomi](https:\u002F\u002Fwww.autonomi.ai\u002F) (more coming soon)\n- 🛡️ **Enterprise Ready**: SOC 2 and GDPR compliant\n\n> 🎁 Generous monthly [free tier](https:\u002F\u002Fwww.helicone.ai\u002Fpricing) (10k requests\u002Fmonth) - No credit card required!\n>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_d2f2f158b62e.png\" alt=\"Open Sourced LLM Observability & AI Gateway Platform\" width=\"600\">\n\n## Quick Start ⚡️\n\n1. Get your API key by signing up [here](https:\u002F\u002Fhelicone.ai\u002Fsignup) and add credits at [helicone.ai\u002Fcredits](https:\u002F\u002Fus.helicone.ai\u002Fcredits)\n\n2. Update the `baseURL` in your code and add your API key.\n\n   ```typescript\n   import OpenAI from \"openai\";\n\n   const client = new OpenAI({\n     baseURL: \"https:\u002F\u002Fai-gateway.helicone.ai\",\n     apiKey: process.env.HELICONE_API_KEY,\n   });\n\n   const response = await client.chat.completions.create({\n     model: \"gpt-4o-mini\",  \u002F\u002F claude-sonnet-4, gemini-2.0-flash or any model from https:\u002F\u002Fwww.helicone.ai\u002Fmodels\n     messages: [{ role: \"user\", content: \"Hello!\" }]\n   });\n   ```\n\n3. 🎉 You're all set! View your logs at [Helicone](https:\u002F\u002Fus.helicone.ai\u002Fdashboard) and access 100+ models through one API.\n\n### Self-Hosting Open Source LLM Observability\n\n#### Docker\n\nHelicone is simple to self-host and update. To get started locally, just use our [docker-compose](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fself-deploy-docker) file.\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone.git\ncd docker\ncp .env.example .env\n\n# Start the services\n.\u002Fhelicone-compose.sh helicone up\n```\n\n#### Helm\n\nFor Enterprise workloads, we also have a production-ready Helm chart available. To access, contact us at enterprise@helicone.ai.\n\n#### Manual (Not Recommended)\n\nManual deployment is not recommended. Please use Docker or Helm. If you must, follow the instructions [here](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fself-deploy).\n\n#### Architecture\n\nHelicone is comprised of five services:\n\n- **Web**: Frontend Platform (NextJS)\n- **Worker**: Proxy Logging (Cloudflare Workers)\n- **Jawn**: Dedicated Server for serving collecting logs (Express + Tsoa)\n- **Supabase**: Application Database and Auth\n- **ClickHouse**: Analytics Database\n- **Minio**: Object Storage for logs.\n\n## Integrations 🔌\n\n### Inference Providers\n\n| Integration                                                                            | Supports                                                                                                                                     | Description                                           |\n| -------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------- |\n| AI Gateway                                | [JS\u002FTS, Python, cURL](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview)                                                                                                                          | Unified API for 100+ providers with intelligent routing, automatic fallbacks, and unified observability\n| Async Logging (OpenLLMetry)                                                            | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fopenllmetry), [Python](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@helicone\u002Fhelicone) | Asynchronous logging for multiple LLM platforms       |\n| OpenAI                                                                                 | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=openai)              | Inference provider                                                     |\n| Azure OpenAI                                                                           | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=azure)                | Inference provider                                                     |\n| Anthropic                                                                              | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?search=anthropic)        | Inference provider                                                     |\n| Ollama                                                                                 | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Follama\u002Fjavascript)                                                                             | Run and use large language models locally             |\n| AWS Bedrock                                                                            | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=azure%2Cbedrock)                                                                            | Inference provider                                                     |\n| Gemini API                                                                             | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=google-ai-studio)                                                                         | Inference provider                                                     |\n| Gemini Vertex AI                                                                       | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=vertex)                                                                      | Gemini models on Google Cloud's Vertex AI             |\n| Vercel AI                                                                              | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Fvercel-ai-sdk)                                                                           | AI SDK for building AI-powered applications           |\n| Anyscale | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=anyscale)                                                                                                                                | Inference provider                                                     |\n| TogetherAI | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=together)     | Inference provider                                                                                                                                | -                                                     |\n| Hyperbolic | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=hyperbolic)   | Inference provider                                                                                                                                | High-performance AI inference platform                |\n| Groq                                                                                   | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=groq)                  | High-performance models                               |\n| DeepInfra     | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=deepinfra)                                                                                                                                | Serverless AI inference for various models            |       |\n| Fireworks AI  | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=fireworks)                                                                                                                                | Fast inference API for open-source LLMs               |\n\n### Frameworks\n\n| Framework                                                             | Supports                                                            | Description                                                                             |\n| --------------------------------------------------------------------- | ------------------------------------------------------------------- | --------------------------------------------------------------------------------------- |\n| LangChain   | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=langchain)                                                       | Use AI Gateway with LangChain for unified provider access                               |\n| LlamaIndex | [Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=llamaindex)                                                              | Framework for building LLM-powered data applications                                    |\n| LangGraph   | [Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=langgraph)                                                              | Build stateful, multi-actor applications with LLMs                                       |\n| Vercel AI SDK | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=vercel-ai-sdk)                                                               | AI SDK for building AI-powered applications                                              |\n| Semantic Kernel | [C#, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=semantic-kernel)                                                          | Microsoft's AI orchestration framework                                                  |\n| CrewAI         | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Fopenai\u002Fcrewai)                                                                   | Framework for orchestrating role-playing AI agents                                      |                                                           |\n| ModelFusion                            | [JS\u002FTS](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fmodelfusion\u002Fblob\u002Fmain\u002Fdocs\u002Fintegration\u002Fobservability\u002Fhelicone.md) | Abstraction layer for integrating AI models into JavaScript and TypeScript applications |\n| PostHog | [JS\u002FTS, Python, cURL](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fposthog) | Product analytics platform. Build custom dashboards.    |\n| RAGAS                     | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fragas) | Evaluation framework for retrieval-augmented generation |\n| Open WebUI           | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fopen-webui) | Web interface for interacting with local LLMs           |\n| MetaGPT                | [YAML](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fmeta-gpt) | Multi-agent framework                                   |\n| Open Devin           | [Docker](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fopen-devin) | AI software engineer                                    |\n| Mem0 EmbedChain      | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fembedchain) | Framework for building RAG applications                 |\n| Dify                      | [No code required](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fdify) | LLMOps platform for AI-native application development   |\n\n> This list may be out of date. Don't see your provider or framework? Check out the latest integrations in our [docs](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Foverview). If not found there, request a new integration by contacting help@helicone.ai.\n\n## Contributing\n\nWe ❤️ our contributors! We warmly welcome contributions for documentation, integrations, costs, and feature requests.\n\nIf you have an idea for how Helicone can be better, create a [GitHub issue](https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues).\n\n## License\n\nHelicone is licensed under the [Apache v2.0 License](LICENSE).\n\n## Additional Resources\n\n- **LLM Cost API**: We have the largest open-source API pricing database with 300+ models and providers such as OpenAI, Anthropic and more. [Start querying here.](https:\u002F\u002Fwww.helicone.ai\u002Fllm-cost)\n\n- **Data Management**: Manage and export your Helicone data with our [API](https:\u002F\u002Fdocs.helicone.ai\u002Frest\u002Fuser\u002Fpost-v1userquery) or access it with our [MCP server](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Ftools\u002Fmcp).\n\n  - Guides: [ETL](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fetl), [Request Exporting](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fgetting-user-requests)\n\n- **Data Ownership**: Learn about [Data Ownership and Autonomy](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fdata-autonomy)\n\nFor more information, visit our [documentation](https:\u002F\u002Fdocs.helicone.ai\u002F).\n\n# Contributors\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_1b7b125d324a.png\" \u002F>\n\u003C\u002Fa>\n","\u003Cdiv align=\"center\">\n\n| 🔍 可观测性 | 🕸️ 代理追踪 | 🚂 LLM 路由 |\n| :--------------: | :--------------: | :------------------: |\n|  💰 成本与延迟跟踪  |   📚 数据集与微调    |    🎛️ 自动回退   |\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\" style=\"margin: 0; padding: 0;\">\n  \u003Cimg alt=\"helicone logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_01426677f5a0.png\" style=\"display: block; margin: 0; padding: 0;\">\n\u003C\u002Fp>\n\u003C\u002Fbr>\n\n\u003Cp align=\"center\">\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fgraphs\u002Fcontributors'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fhelicone\u002Fhelicone?style=flat-square' alt='Contributors' \u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fstargazers'>\u003Cimg alt=\"GitHub stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fpulse'>\u003Cimg alt=\"GitHub commit activity\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fissues?q=is%3Aissue+is%3Aclosed'>\u003Cimg alt=\"GitHub closed issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002Fhelicone\u002Fhelicone?style=flat-square\"\u002F>\u003C\u002Fa>\n  \u003Ca href='https:\u002F\u002Fwww.ycombinator.com\u002Fcompanies\u002Fhelicone'>\u003Cimg alt=\"Y Combinator\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FY%20Combinator-Helicone-orange?style=flat-square\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.helicone.ai\u002F\">文档\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fwww.helicone.ai\u002Fchangelog\">更新日志\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fhelicone\u002Fhelicone\u002Fissues\">Bug 报告\u003C\u002Fa> • \u003Ca href=\"https:\u002F\u002Fhelicone.ai\u002Fdemo\">观看 Helicone 实际运行！（免费）\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Helicone 是面向 AI 工程师的 AI 网关及 LLM 可观测性平台\n\n- 🌐 **AI 网关**: 通过 OpenAI API，使用一个 API 密钥即可访问 100 多种 AI 模型，并提供智能路由和自动回退功能。[2 分钟即可开始使用。](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview)\n- 🔌 **快速集成**: 仅需一行代码，即可记录来自 [OpenAI](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=openai)、[Anthropic](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=anthropic)、[LangChain](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Flangchain)、[Gemini](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=gemini%2Cgoogle-ai-studio)、[Vercel AI SDK](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Fvercel-ai-sdk) 等的全部请求，以及更多模型。[查看完整列表](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview)。\n- 📊 **可观测性**: 检查并调试代理、聊天机器人、文档处理流水线等的追踪记录和 [会话](https:\u002F\u002Fdocs.helicone.ai\u002Ffeatures\u002Fsessions)。\n- 📈 **分析**: 跟踪成本、延迟、质量等指标，并可通过一行代码导出至 [PostHog](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fposthog)，以创建自定义仪表盘。\n- 🎮 **游乐场**: 在我们的 UI 中快速测试和迭代提示词、会话和追踪记录。\n- 🧠 **提示词管理**: 使用生产数据对提示词进行 [版本控制](https:\u002F\u002Fdocs.helicone.ai\u002Ffeatures\u002Fprompts)。无需更改代码，即可通过 AI 网关部署提示词。您的提示词始终处于您的控制之下，随时可访问。\n- 🎛️ **微调**: 可与我们的微调合作伙伴之一合作：[OpenPipe](https:\u002F\u002Fopenpipe.ai\u002F) 或 [Autonomi](https:\u002F\u002Fwww.autonomi.ai\u002F)（更多合作伙伴即将推出）。\n- 🛡️ **企业级支持**: 符合 SOC 2 和 GDPR 标准。\n\n> 🎁 每月提供慷慨的 [免费套餐](https:\u002F\u002Fwww.helicone.ai\u002Fpricing)（每月 1 万次请求）——无需信用卡！\n>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_d2f2f158b62e.png\" alt=\"开源 LLM 可观测性与 AI 网关平台\" width=\"600\">\n\n## 快速入门 ⚡️\n\n1. 请在此处注册以获取您的 API 密钥 [这里](https:\u002F\u002Fhelicone.ai\u002Fsignup)，并在 [helicone.ai\u002Fcredits](https:\u002F\u002Fus.helicone.ai\u002Fcredits) 充值。\n\n2. 更新您代码中的 `baseURL` 并添加您的 API 密钥。\n\n   ```typescript\n   import OpenAI from \"openai\";\n\n   const client = new OpenAI({\n     baseURL: \"https:\u002F\u002Fai-gateway.helicone.ai\",\n     apiKey: process.env.HELICONE_API_KEY,\n   });\n\n   const response = await client.chat.completions.create({\n     model: \"gpt-4o-mini\",  \u002F\u002F claude-sonnet-4, gemini-2.0-flash 或其他任何来自 https:\u002F\u002Fwww.helicone.ai\u002Fmodels 的模型\n     messages: [{ role: \"user\", content: \"Hello!\" }]\n   });\n   ```\n\n3. 🎉 完成！您现在可以在 [Helicone](https:\u002F\u002Fus.helicone.ai\u002Fdashboard) 查看日志，并通过一个 API 访问 100 多种模型。\n\n### 开源 LLM 可观测性的自托管\n\n#### Docker\n\nHelicone 非常易于自托管和更新。要在本地开始使用，只需使用我们的 [docker-compose](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fself-deploy-docker) 文件。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone.git\ncd docker\ncp .env.example .env\n\n# 启动服务\n.\u002Fhelicone-compose.sh helicone up\n```\n\n#### Helm\n\n对于企业级工作负载，我们还提供适用于生产的 Helm 图表。如需访问，请联系 enterprise@helicone.ai。\n\n#### 手动部署（不推荐）\n\n不建议手动部署。请使用 Docker 或 Helm。如果您必须手动部署，请按照 [此处](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fself-deploy) 的说明操作。\n\n#### 架构\n\nHelicone 由五个服务组成：\n\n- **Web**: 前端平台（NextJS）\n- **Worker**: 代理日志记录（Cloudflare Workers）\n- **Jawn**: 专用服务器，用于收集和存储日志（Express + Tsoa）\n- **Supabase**: 应用程序数据库和身份验证系统\n- **ClickHouse**: 分析数据库\n- **Minio**: 用于存储日志的对象存储。\n\n## 集成 🔌\n\n### 推理提供商\n\n| 集成                                                                            | 支持                                                                                                                                     | 描述                                           |\n| -------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------- |\n| AI 网关                                | [JS\u002FTS、Python、cURL](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Foverview)                                                                                                                          | 面向 100 多家提供商的统一 API，具备智能路由、自动回退和统一可观测性功能 |\n| 异步日志记录（OpenLLMetry）                                                            | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fopenllmetry)、[Python](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@helicone\u002Fhelicone) | 针对多个 LLM 平台的异步日志记录       |\n| OpenAI                                                                                 | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=openai)              | 推理提供商                                                     |\n| Azure OpenAI                                                                           | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=azure)                | 推理提供商                                                     |\n| Anthropic                                                                              | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?search=anthropic)        | 推理提供商                                                     |\n| Ollama                                                                                 | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Follama\u002Fjavascript)                                                                             | 在本地运行和使用大型语言模型             |\n| AWS Bedrock                                                                            | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=azure%2Cbedrock)                                                                            | 推理提供商                                                     |\n| Gemini API                                                                             | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=google-ai-studio)                                                                         | 推理提供商                                                     |\n| Gemini Vertex AI                                                                       | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=vertex)                                                                      | Google Cloud 的 Vertex AI 上的 Gemini 模型             |\n| Vercel AI                                                                              | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Fvercel-ai-sdk)                                                                           | 用于构建 AI 驱动应用的 AI SDK           |\n| Anyscale | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=anyscale)                                                                                                                                | 推理提供商                                                     |\n| TogetherAI | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=together)     | 推理提供商                                                                                                                                | -                                                     |\n| Hyperbolic | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=hyperbolic)   | 推理提供商                                                                                                                                | 高性能 AI 推理平台                |\n| Groq                                                                                   | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=groq)                  | 高性能模型                               |\n| DeepInfra     | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=deepinfra)                                                                                                                                | 面向各类模型的无服务器 AI 推理            |       |\n| Fireworks AI  | [JS\u002FTS、Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=fireworks)                                                                                                                                | 面向开源 LLM 的快速推理 API               |\n\n### 框架\n\n| 框架                                                             | 支持                                                             | 描述                                                                             |\n| ----------------------------------------------------------------- | ---------------------------------------------------------------- | -------------------------------------------------------------------------------- |\n| LangChain   | [JS\u002FTS, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=langchain)                                                       | 使用 AI Gateway 与 LangChain 实现统一的提供商接入                               |\n| LlamaIndex | [Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=llamaindex)                                                              | 用于构建由大语言模型驱动的数据应用的框架                                    |\n| LangGraph   | [Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=langgraph)                                                              | 使用大语言模型构建有状态、多主体的应用                                       |\n| Vercel AI SDK | [JS\u002FTS](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=vercel-ai-sdk)                                                               | 用于构建人工智能驱动应用的 AI SDK                                              |\n| Semantic Kernel | [C#, Python](https:\u002F\u002Fwww.helicone.ai\u002Fmodels?providers=semantic-kernel)                                                          | 微软的人工智能编排框架                                                  |\n| CrewAI         | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Fopenai\u002Fcrewai)                                                                   | 用于编排角色扮演型 AI 代理的框架                                      |                                                           |\n| ModelFusion                            | [JS\u002FTS](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fmodelfusion\u002Fblob\u002Fmain\u002Fdocs\u002Fintegration\u002Fobservability\u002Fhelicone.md) | 用于将 AI 模型集成到 JavaScript 和 TypeScript 应用程序中的抽象层 |\n| PostHog | [JS\u002FTS, Python, cURL](https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fintegration-method\u002Fposthog) | 产品分析平台。构建自定义仪表板。    |\n| RAGAS                     | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fragas) | 针对检索增强生成的评估框架 |\n| Open WebUI           | [JS\u002FTS](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fopen-webui) | 用于与本地大语言模型交互的 Web 界面           |\n| MetaGPT                | [YAML](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fmeta-gpt) | 多智能体框架                                   |\n| Open Devin           | [Docker](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fopen-devin) | AI 软件工程师                                    |\n| Mem0 EmbedChain      | [Python](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fembedchain) | 用于构建 RAG 应用的框架                 |\n| Dify                      | [无需代码](https:\u002F\u002Fdocs.helicone.ai\u002Fother-integrations\u002Fdify) | 面向原生 AI 应用开发的 LLMOps 平台   |\n\n> 此列表可能已过时。未找到您的提供商或框架？请查看我们文档中的最新集成：[docs](https:\u002F\u002Fdocs.helicone.ai\u002Fgateway\u002Fintegrations\u002Foverview)。如果仍未找到，请通过 help@helicone.ai 联系我们，申请新集成。\n\n## 贡献\n\n我们非常感谢我们的贡献者！我们热烈欢迎关于文档、集成、成本和功能请求方面的贡献。\n\n如果您有关于如何让 Helicone 更好的想法，请创建一个 [GitHub 问题](https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues)。\n\n## 许可证\n\nHelicone 根据 [Apache v2.0 许可证](LICENSE) 授权。\n\n## 其他资源\n\n- **LLM 成本 API**：我们拥有最大的开源 API 定价数据库，包含 300 多种模型和提供商，如 OpenAI、Anthropic 等。[从这里开始查询。](https:\u002F\u002Fwww.helicone.ai\u002Fllm-cost)\n\n- **数据管理**：使用我们的 [API](https:\u002F\u002Fdocs.helicone.ai\u002Frest\u002Fuser\u002Fpost-v1userquery) 管理并导出您的 Helicone 数据，或通过我们的 [MCP 服务器](https:\u002F\u002Fdocs.helicone.ai\u002Fintegrations\u002Ftools\u002Fmcp) 访问。\n\n  - 指南：[ETL](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fetl)、[请求导出](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fgetting-user-requests)\n\n- **数据所有权**：了解 [数据所有权与自主权](https:\u002F\u002Fdocs.helicone.ai\u002Fuse-cases\u002Fdata-autonomy)\n\n欲了解更多信息，请访问我们的 [文档](https:\u002F\u002Fdocs.helicone.ai\u002F)。\n\n# 贡献者\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_readme_1b7b125d324a.png\" \u002F>\n\u003C\u002Fa>","# Helicone 快速上手指南\n\nHelicone 是一个面向 AI 工程师的开源 AI 网关与大语言模型（LLM）可观测性平台。它支持通过统一的 API 访问 100+ 种 AI 模型，提供智能路由、自动故障转移、成本追踪、延迟监控及 Prompt 管理等功能。\n\n## 环境准备\n\n在开始之前，请确保满足以下条件：\n\n*   **账号注册**：访问 [Helicone 官网](https:\u002F\u002Fhelicone.ai\u002Fsignup) 注册账号并获取 `HELICONE_API_KEY`。\n*   **开发环境**：\n    *   Node.js (推荐 v18+) 或 Python 3.8+\n    *   已安装项目依赖包（如 `openai` SDK）\n*   **网络环境**：确保能够访问 `https:\u002F\u002Fai-gateway.helicone.ai`。\n    *   *注：目前官方未提供专属中国镜像源，如遇连接超时，建议配置全局代理或使用国内稳定的网络环境。*\n\n## 安装步骤\n\nHelicone 主要作为云服务使用，无需复杂安装。若需**本地自托管**（Self-Hosting），请使用 Docker。\n\n### 方式一：直接使用云服务（推荐）\n无需安装服务器，只需在代码中配置即可。\n\n### 方式二：Docker 自托管\n适用于需要数据私有化部署的场景。\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone.git\ncd helicone\u002Fdocker\n\n# 2. 复制环境变量配置文件\ncp .env.example .env\n\n# 3. 启动服务\n.\u002Fhelicone-compose.sh helicone up\n```\n\n> **注意**：手动部署不推荐使用，生产环境建议使用 Docker 或联系企业版获取 Helm Chart。\n\n## 基本使用\n\n以下以 TypeScript\u002FJavaScript 为例，展示如何通过修改 `baseURL` 将 OpenAI 请求接入 Helicone。其他语言（Python 等）逻辑相同。\n\n### 1. 配置客户端\n将 OpenAI 客户端的 `baseURL` 指向 Helicone 网关，并使用你的 Helicone API Key。\n\n```typescript\nimport OpenAI from \"openai\";\n\nconst client = new OpenAI({\n  baseURL: \"https:\u002F\u002Fai-gateway.helicone.ai\",\n  apiKey: process.env.HELICONE_API_KEY, \u002F\u002F 替换为你的 Helicone API Key\n});\n\nconst response = await client.chat.completions.create({\n  model: \"gpt-4o-mini\",  \u002F\u002F 支持 claude-sonnet-4, gemini-2.0-flash 等 100+ 模型\n  messages: [{ role: \"user\", content: \"Hello!\" }]\n});\n\nconsole.log(response.choices[0].message.content);\n```\n\n### 2. 查看监控\n代码运行后，所有请求日志、成本、延迟及追踪信息将自动上报。\n*   登录 [Helicone Dashboard](https:\u002F\u002Fus.helicone.ai\u002Fdashboard) 即可查看实时数据。\n*   免费套餐每月包含 10,000 次请求额度，无需绑定信用卡。\n\n### 3. 进阶功能\n*   **多模型路由**：在 Dashboard 中配置规则，自动在不同模型间切换或降级。\n*   **Prompt 管理**：在 UI 中版本化管理 Prompt，无需修改代码即可更新线上提示词。\n*   **框架集成**：原生支持 LangChain, LlamaIndex, Vercel AI SDK 等主流框架，仅需一行代码即可开启异步日志记录。","某初创团队正在开发一款基于多模型路由的智能客服系统，需要同时调用 OpenAI、Anthropic 等多个厂商的 LLM 来处理用户咨询，并严格控制成本与响应速度。\n\n### 没有 helicone 时\n- **监控盲区**：无法统一查看不同模型供应商的请求日志，排查报错时需分别登录各厂商后台，效率极低。\n- **成本失控**：缺乏实时的 Token 消耗与费用统计，常在月底收到高额账单时才发觉异常流量，难以定位高耗资源的具体会话。\n- **稳定性差**：当主用模型接口超时或宕机时，代码中硬编码的逻辑无法自动切换到备用模型，导致用户请求直接失败。\n- **迭代困难**：优化提示词（Prompt）必须修改代码并重新部署，无法利用生产环境的真实数据快速测试新版本效果。\n\n### 使用 helicone 后\n- **全景可观测**：通过一行代码集成，统一仪表盘清晰展示所有模型的请求链路、延迟分布及 Agent 执行轨迹，调试时间缩短 80%。\n- **精细化成本管理**：实时追踪每个会话、每个用户的 Token 用量与预估费用，支持设置阈值报警，立即发现并阻断异常消耗。\n- **智能容错路由**：配置自动降级策略，当首选模型响应超时，helicone 网关自动将请求无缝转发至备用模型，保障服务零中断。\n- **无代码提示词实验**：直接在网页端基于生产数据版本化管理和 A\u002FB 测试提示词，新策略生效无需重启服务，大幅加速产品迭代。\n\nhelicone 让团队从繁琐的基础设施监控中解放出来，以最低成本实现了企业级的 LLM 稳定性与可观测性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHelicone_helicone_d2f2f158.png","Helicone","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHelicone_16cf7dc0.png","The complete, open-source LLMOps platform",null,"engineering@helicone.ai","helicone_ai","https:\u002F\u002Fwww.helicone.ai\u002F","https:\u002F\u002Fgithub.com\u002FHelicone",[84,88,92,96,100,104,107,110,114],{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",91.3,{"name":89,"color":90,"percentage":91},"MDX","#fcb32c",7.1,{"name":93,"color":94,"percentage":95},"Python","#3572A5",0.7,{"name":97,"color":98,"percentage":99},"PLpgSQL","#336790",0.3,{"name":101,"color":102,"percentage":103},"Shell","#89e051",0.2,{"name":105,"color":106,"percentage":103},"JavaScript","#f1e05a",{"name":108,"color":109,"percentage":103},"HCL","#844FBA",{"name":111,"color":112,"percentage":113},"CSS","#663399",0.1,{"name":115,"color":116,"percentage":117},"Dockerfile","#384d54",0,5447,504,"2026-04-04T01:23:46","Apache-2.0",4,"Linux, macOS, Windows","未说明",{"notes":126,"python":124,"dependencies":127},"该工具主要推荐通过 Docker 或 Helm 进行自托管部署，而非直接在操作系统上安装 Python 环境。架构包含 Web (NextJS)、Worker (Cloudflare Workers)、Jawn (Express)、Supabase (数据库\u002F认证)、ClickHouse (分析数据库) 和 Minio (对象存储) 五个服务。手动部署不推荐。企业级工作负载可使用 Helm Chart。",[128,129,130,131,132,133,134,135,136],"Docker","Docker Compose","Supabase","ClickHouse","Minio","NextJS","Cloudflare Workers","Express","Tsoa",[13,26,15,54],[139,140,141,142,143,144,145,146,147,148,149,150,151,152,153,154,155,156,157],"large-language-models","prompt-engineering","agent-monitoring","analytics","evaluation","gpt","langchain","llama-index","llm","llm-cost","llm-evaluation","llm-observability","llmops","monitoring","open-source","openai","playground","prompt-management","ycombinator","2026-03-27T02:49:30.150509","2026-04-06T06:46:24.793645",[161,166,171,176,181,186],{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},15064,"自托管 Helicone 时遇到 clickhouse-migration-runner 语法错误且无法访问本地 URL，如何解决？","该问题通常由过时的文档或配置引起。请确保使用最新的 Docker 自托管指南。运行以下命令启动服务：\n`.\u002Fhelicone_compose up helicone`\n详细文档请参考：https:\u002F\u002Fdocs.helicone.ai\u002Fgetting-started\u002Fself-host\u002Fdocker\n如果更新后仍有问题，请检查是否有新出现的解析错误。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F2965",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},15065,"运行 docker compose 时出现大量关于 MINIO 和 NEXT_PUBLIC_BASE_PATH 变量未设置的警告，如何修复？","这是一个已知问题，可以通过修改配置文件快速修复。\n1. 更新 `.\u002Fdocker\u002Fdocker-compose.yml` 文件中的 `jawn` 服务部分：\n   ```yaml\n   jawn:\n     container_name: helicone-jawn\n     build:\n       context: .. # 修改此处\n       dockerfile: valhalla\u002Fdockerfile # 修改此处\n   ```\n2. 更新 `.\u002Fvalhalla\u002Fdockerfile` 文件，确保 COPY 指令路径正确：\n   ```dockerfile\n   COPY .\u002Fvalhalla\u002Fjawn\u002Fpackage.json .\u002Fvalhalla\u002Fjawn\u002Fyarn.lock .\u002F\n   WORKDIR \u002Fusr\u002Fsrc\u002Fapp\u002Fshared\n   COPY .\u002Fshared .\n   WORKDIR \u002Fusr\u002Fsrc\u002Fapp\u002Fvalhalla\u002Fjawn\n   COPY .\u002Fvalhalla\u002Fjawn .\n   ```\n此外，官方 PR #3195 也旨在修复此类问题。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F2284",{"id":172,"question_zh":173,"answer_zh":174,"source_url":175},15066,"代码库中硬编码了 localhost 和 helicone.ai，如何在自托管时自定义站点 URL？","目前代码中存在硬编码引用，理想情况下应通过环境变量替换。用户可以尝试在运行 Docker 时传递环境变量来覆盖默认值，例如：\n`docker run -e SITE_URL=http:\u002F\u002Fhelicone.homelab.lan ...`\n这允许您在本地网络或其他非 localhost 环境中部署 Helicone。如果构建本地镜像超时或失败，建议等待官方发布新的预构建 Docker 镜像。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F4252",{"id":177,"question_zh":178,"answer_zh":179,"source_url":180},15067,"通过 Helicone 代理使用 OpenAI images.edit API 上传图片时，toFile 转换失败报错\"Invalid image file\"，怎么办？","这是 Helicone 代理在处理文件类对象（file-like object）时的解析问题。当请求经过代理时，`toFile`  helper 生成的对象无法被正确解析，导致 400 错误。该问题已被确认为 Bug 并进行了修复尝试。如果您遇到此问题，建议检查是否已升级到包含该修复的最新版本，或者暂时绕过代理直接调用 OpenAI API 以验证是否为代理层的问题。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F3680",{"id":182,"question_zh":183,"answer_zh":184,"source_url":185},15068,"在查看请求列表表格时模型字段显示为\"unsupported\"，但点击单个请求查看时显示正常，这是什么原因？","这是一个前端显示 Bug，导致模型名称在表格视图中未能正确渲染。维护者已通过 PR 修复了该显示逻辑。如果您仍看到此问题，请尝试刷新页面或清除浏览器缓存。该修复已合并到主分支，更新部署后即可解决。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F2784",{"id":187,"question_zh":188,"answer_zh":189,"source_url":190},15069,"界面上的图标（如视图、多选等）鼠标悬停时没有提示文字，难以理解其功能，有解决办法吗？","这是一个用户体验问题，已在后续更新中修复。维护者为这些图标添加了工具提示（tooltip），现在将鼠标悬停在图标上时会显示相应的功能说明文字。请确保您使用的是最新版本的 Helicone，以获得改进后的界面体验。","https:\u002F\u002Fgithub.com\u002FHelicone\u002Fhelicone\u002Fissues\u002F2788",[192,196,200,204],{"id":193,"version":194,"summary_zh":78,"released_at":195},81890,"v2025.08.21-1","2025-08-21T18:47:38",{"id":197,"version":198,"summary_zh":78,"released_at":199},81891,"v2025.08.21","2025-08-21T17:50:18",{"id":201,"version":202,"summary_zh":78,"released_at":203},81892,"v2025.08.20","2025-08-20T17:34:50",{"id":205,"version":206,"summary_zh":78,"released_at":207},81893,"v1.0.0","2025-08-19T04:51:42"]