[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Scale3-Labs--langtrace":3,"tool-Scale3-Labs--langtrace":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":32,"env_os":104,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":117,"github_topics":119,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":166},7072,"Scale3-Labs\u002Flangtrace","langtrace","Langtrace 🔍 is an open-source,  Open Telemetry based end-to-end observability tool for LLM applications, providing real-time tracing, evaluations and metrics for popular LLMs, LLM frameworks, vectorDBs and more.. Integrate using Typescript, Python. 🚀💻📊","Langtrace 是一款专为大语言模型（LLM）应用打造的开源可观测性工具。在开发基于 AI 的应用时，开发者往往难以看清模型调用、向量数据库操作及框架内部的具体运行状况，导致调试困难、性能瓶颈难寻以及成本不可控。Langtrace 正是为了解决这些痛点而生，它能帮助团队实时捕获、追踪并分析应用中的每一次交互细节。\n\n这款工具非常适合正在构建或维护 LLM 应用的软件工程师、AI 研究人员及技术团队使用。无论是使用 Python 还是 TypeScript\u002FJavaScript 进行开发，用户只需集成对应的 SDK，即可轻松将 Langtrace 接入现有项目。其核心亮点在于严格遵循 Open Telemetry (OTEL) 标准，确保了数据的通用性与规范性。通过 Langtrace，用户可以直观地监控 API 调用延迟、分析 Token 消耗成本、排查工作流错误，并获得详细的可视化数据报表。此外，它还支持私有化部署，让对数据隐私有严格要求的团队也能安心使用。如果你希望让黑盒般的 AI 应用变得透明可控，Langtrace 是一个值得尝试的专业助手。","\u003Cdiv align=\"center\">\n  \u003Ch1>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_354a8979db93.png\" alt=\"Langtrace\" width=\"400\"\u002F>\n    \u003Cbr\u002F>\n    \u003Ca href=\"https:\u002F\u002Fwww.langtrace.ai\">Langtrace\u003C\u002Fa>\n  \u003C\u002Fh1>\n  \u003Ch3>Open Source Observability for LLM Applications\u003C\u002Fh3>\n\n  [![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-AGPL--3.0-blue?style=flat-square)](LICENSE)\n  [![Development Status](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FStatus-Active-success?style=flat-square)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace)\n  [![Pull Requests](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr\u002FScale3-Labs\u002Flangtrace?style=flat-square)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpulls)\n  [![NPM SDK](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F%40langtrase%2Ftypescript-sdk?style=flat-square&logo=npm&label=typescript-sdk&color=green)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-typescript-sdk)\n  [![NPM Downloads](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fdm\u002F%40langtrase%2Ftypescript-sdk?style=flat-square&logo=npm)](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@langtrase\u002Ftypescript-sdk)\n  [![PyPI SDK](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Flangtrace-python-sdk?style=flat-square&logo=python&label=python-sdk&color=green)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-python-sdk)\n  [![PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_19fde74dc665.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Flangtrace-python-sdk)\n  [![Total PyPI Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b9ee5cb9c86f.png)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b9ee5cb9c86f.png)\n  [![Deploy](https:\u002F\u002Frailway.app\u002Fbutton.svg)](https:\u002F\u002Frailway.app\u002Ftemplate\u002F8dNq1c?referralCode=MA2S9H)\n  [![Deploy to Northflank](https:\u002F\u002Fassets.northflank.com\u002Fdeploy_to_northflank_smm_36700fb050.svg)](https:\u002F\u002Fnorthflank.com\u002Fstacks\u002Fdeploy-langtrace)\n\u003C\u002Fdiv>\n\n---\n\n## 📚 Table of Contents\n- [✨ Features](#-features)\n- [🚀 Quick Start](#-quick-start)\n- [🔗 Integrations](#-supported-integrations)\n- [🌐 Getting Started](#-getting-started)\n- [🏠 Self Hosting](#-langtrace-self-hosted)\n- [📐 Architecture](#-langtrace-system-architecture)\n- [🤝 Contributing](#-contributions)\n- [🔒 Security](#-security)\n- [❓ FAQ](#-frequently-asked-questions)\n- [👥 Contributors](#-contributors)\n- [📜 License](#-license)\n\nLangtrace is an open source observability software which lets you capture, debug and analyze traces and metrics from all your applications that leverages LLM APIs, Vector Databases and LLM based Frameworks.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_175722602f77.png)\n\n## ✨ Features\n\n- 📊 **Open Telemetry Support**: Built on OTEL standards for comprehensive tracing\n- 🔄 **Real-time Monitoring**: Track LLM API calls, vector operations, and framework usage\n- 🎯 **Performance Insights**: Analyze latency, costs, and usage patterns\n- 🔍 **Debug Tools**: Trace and debug your LLM application workflows\n- 📈 **Analytics**: Get detailed metrics and visualizations\n- 🏠 **Self-hosting Option**: Deploy on your own infrastructure\n\n## 🚀 Quick Start\n\n```bash\n# For TypeScript\u002FJavaScript\nnpm i @langtrase\u002Ftypescript-sdk\n\n# For Python\npip install langtrace-python-sdk\n```\n\nInitialize in your code:\n```typescript\n\u002F\u002F TypeScript\nimport * as Langtrace from '@langtrase\u002Ftypescript-sdk'\nLangtrace.init({ api_key: '\u003Cyour_api_key>' }) \u002F\u002F Get your API key at langtrace.ai\n```\n```python\n# Python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init(api_key='\u003Cyour_api_key>') # Get your API key at langtrace.ai\n```\n\nFor detailed setup instructions, see [Getting Started](#-getting-started).\n\n## 📊 Open Telemetry Support\n\nThe traces generated by Langtrace adhere to [Open Telemetry Standards(OTEL)](https:\u002F\u002Fopentelemetry.io\u002Fdocs\u002Fconcepts\u002Fsignals\u002Ftraces\u002F). We are developing [semantic conventions](https:\u002F\u002Fopentelemetry.io\u002Fdocs\u002Fconcepts\u002Fsemantic-conventions\u002F) for the traces generated by this project. You can checkout the current definitions in [this repository](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-trace-attributes\u002Ftree\u002Fmain\u002Fschemas). Note: This is an ongoing development and we encourage you to get involved and welcome your feedback.\n\n---\n\n## 📦 SDK Repositories\n\n- [Langtrace Typescript SDK](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-typescript-sdk)\n- [Langtrace Python SDK](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-python-sdk)\n- [Semantic Span Attributes](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-trace-attributes)\n\n---\n\n## 🚀 Getting Started\n\n### Langtrace Cloud ☁️\n\nTo use the managed SaaS version of Langtrace, follow the steps below:\n\n1. Sign up by going to [this link](https:\u002F\u002Flangtrace.ai).\n2. Create a new Project after signing up. Projects are containers for storing traces and metrics generated by your application. If you have only one application, creating 1 project will do.\n3. Generate an API key by going inside the project.\n4. In your application, install the Langtrace SDK and initialize it with the API key you generated in the step 3.\n5. The code for installing and setting up the SDK is shown below:\n\n###  If your application is built using typescript\u002Fjavascript\n\n```typescript\nnpm i @langtrase\u002Ftypescript-sdk\n```\n\n```typescript\nimport * as Langtrace from '@langtrase\u002Ftypescript-sdk' \u002F\u002F Must precede any llm module imports\nLangtrace.init({ api_key: \u003Cyour_api_key> })\n```\n\nOR\n\n```typescript\nimport * as Langtrace from \"@langtrase\u002Ftypescript-sdk\"; \u002F\u002F Must precede any llm module imports\nLangTrace.init(); \u002F\u002F LANGTRACE_API_KEY as an ENVIRONMENT variable\n```\n\n### If your application is built using python\n\n```python\npip install langtrace-python-sdk\n```\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init(api_key=\u003Cyour_api_key>)\n```\n\nOR\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init() # LANGTRACE_API_KEY as an ENVIRONMENT variable\n```\n\n### 🏠 Langtrace self hosted\n\nTo run the Langtrace locally, you have to run three services:\n\n- Next.js app\n- Postgres database\n- Clickhouse database\n\n> [!IMPORTANT]\n> Checkout our [documentation](https:\u002F\u002Fdocs.langtrace.ai\u002Fhosting\u002Foverview) for various deployment options and configurations.\n\nRequirements:\n\n- Docker\n- Docker Compose\n\n#### The .env file\n\nFeel free to modify the `.env` file to suit your needs.\n\n#### Starting the servers\n\n```bash\ndocker compose up\n```\n\nThe application will be available at `http:\u002F\u002Flocalhost:3000`.\n\n#### Take down the setup\n\nTo delete containers and volumes\n\n```bash\ndocker compose down -v\n```\n\n`-v` flag is used to delete volumes\n\n## Telemetry\n\nLangtrace does NOT collect any Telemetry if you are self hosting the OSS client. None of your data leaves your servers.\n\n---\n\n## 🔗 Supported Integrations\n\nLangtrace automatically captures traces from the following vendors and frameworks:\n\n### LLM Providers\n| Provider | TypeScript SDK | Python SDK |\n|----------|:-------------:|:----------:|\n| OpenAI | ✅ | ✅ |\n| Anthropic | ✅ | ✅ |\n| Azure OpenAI | ✅ | ✅ |\n| Cohere | ✅ | ✅ |\n| DeepSeek | ✅ | ✅ |\n| xAI | ✅ | ✅ |\n| Groq | ✅ | ✅ |\n| Perplexity | ✅ | ✅ |\n| Gemini | ✅ | ✅ |\n| AWS Bedrock | ✅ | ✅ |\n| Mistral | ❌ | ✅ |\n\n### LLM Frameworks\n| Framework | TypeScript SDK | Python SDK |\n|-----------|:-------------:|:----------:|\n| Langchain | ❌ | ✅ |\n| LlamaIndex | ✅ | ✅ |\n| Langgraph | ❌ | ✅ |\n| LiteLLM | ❌ | ✅ |\n| DSPy | ❌ | ✅ |\n| CrewAI | ❌ | ✅ |\n| Ollama | ❌ | ✅ |\n| VertexAI | ✅ | ✅ |\n| Vercel AI | ✅ | ❌ |\n| GuardrailsAI | ❌ | ✅ |\n| Arch | ❌ | ✅ |\n| Graphlit | ❌ | ✅ |\n| Agno | ❌ | ✅ |\n| Phidata | ❌ | ✅ |\n| Cleanlab | ❌ | ✅ |\n\n### Vector Databases\n| Database | TypeScript SDK | Python SDK |\n|----------|:-------------:|:----------:|\n| Pinecone | ✅ | ✅ |\n| ChromaDB | ✅ | ✅ |\n| QDrant | ✅ | ✅ |\n| Weaviate | ✅ | ✅ |\n| PGVector | ✅ | ✅ (SQLAlchemy) |\n| MongoDB | ❌ | ✅ |\n| Milvus | ❌ | ✅ |\n\n---\n\n## 📐 Langtrace System Architecture\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_a9a3ae16bdef.png)\n\n---\n\n## 💡 Feature Requests and Issues\n\n- To request for features, head over [here to start a discussion](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fdiscussions\u002Fcategories\u002Ffeature-requests).\n- To raise an issue, head over [here and create an issue](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues).\n\n---\n\n## 🤝 Contributions\n\nWe welcome contributions to this project. To get started, fork this repository and start developing. To get involved, join our Slack workspace.\n\n---\n\n## 🌟 Langtrace Star History\n\n## [![Langtrace Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_8e33f7342ec1.png)](https:\u002F\u002Fstar-history.com\u002F#Scale3-Labs\u002Flangtrace&Timeline)\n\n---\n\n## 🔒Security\n\nTo report security vulnerabilities, email us at \u003Csecurity@scale3labs.com>. You can read more on security [here](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fblob\u002Fdevelopment\u002FSECURITY.md).\n\n---\n\n## 📜 License\n\n- Langtrace application(this repository) is [licensed](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fblob\u002Fdevelopment\u002FLICENSE) under the AGPL 3.0 License. You can read about this license [here](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0.en.html).\n- Langtrace SDKs are licensed under the Apache 2.0 License. You can read about this license [here](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0).\n\n## 👥 Contributors\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fkarthikscale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_91d0178c5079.png\" width=\"100px;\" alt=\"karthikscale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>karthikscale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdylanzuber-scale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_6d2333ec6cac.png\" width=\"100px;\" alt=\"dylanzuber-scale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>dylanzuber-scale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdarshit-s3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_27690656b4ed.png\" width=\"100px;\" alt=\"darshit-s3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>darshit-s3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frohit-kadhe\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_d22ae36fe517.png\" width=\"100px;\" alt=\"rohit-kadhe\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>rohit-kadhe\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyemiadej\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b589099dc7e4.png\" width=\"100px;\" alt=\"yemiadej\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>yemiadej\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Falizenhom\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_a72e14419e26.png\" width=\"100px;\" alt=\"alizenhom\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>alizenhom\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fobinnascale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_5e5545b33970.png\" width=\"100px;\" alt=\"obinnascale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>obinnascale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCruppelt\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_eef562b95922.png\" width=\"100px;\" alt=\"Cruppelt\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Cruppelt\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDnaynu\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_57910262640e.png\" width=\"100px;\" alt=\"Dnaynu\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Dnaynu\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjatin9823\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_03c8c51fee29.png\" width=\"100px;\" alt=\"jatin9823\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>jatin9823\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMayuriS24\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_8e15f882434f.png\" width=\"100px;\" alt=\"MayuriS24\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>MayuriS24\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FNishantRana07\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_23f332cba6a3.png\" width=\"100px;\" alt=\"NishantRana07\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>NishantRana07\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fobinnaokafor\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_9ec9fe49c317.png\" width=\"100px;\" alt=\"obinnaokafor\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>obinnaokafor\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fheysagnik\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_df54b7048e66.png\" width=\"100px;\" alt=\"heysagnik\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>heysagnik\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdabiras3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_0f41752d7c8c.png\" width=\"100px;\" alt=\"dabiras3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>dabiras3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n---\n\n## ❓Frequently Asked Questions\n\n**1. Can I self host and run Langtrace in my own cloud?**\nYes, you can absolutely do that. Follow the self hosting setup instructions in our [documentation](https:\u002F\u002Fdocs.langtrace.ai\u002Fhosting\u002Foverview).\n\n**2. What is the pricing for Langtrace cloud?**\nCurrently, we are not charging anything for Langtrace cloud and we are primarily looking for feedback so we can continue to improve the project. We will inform our users when we decide to monetize it.\n\n**3. What is the tech stack of Langtrace?**\nLangtrace uses NextJS for the frontend and APIs. It uses PostgresDB as a metadata store and Clickhouse DB for storing spans, metrics, logs and traces.\n\n**4. Can I contribute to this project?**\nAbsolutely! We love developers and welcome contributions. Get involved early by joining our [Discord Community](https:\u002F\u002Fdiscord.langtrace.ai\u002F).\n\n**5. What skillset is required to contribute to this project?**\nProgramming Languages: Typescript and Python.\nFramework knowledge: NextJS.\nDatabase: Postgres and Prisma ORM.\nNice to haves: Opentelemetry instrumentation framework, experience with distributed tracing.\n","\u003Cdiv align=\"center\">\n  \u003Ch1>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_354a8979db93.png\" alt=\"Langtrace\" width=\"400\"\u002F>\n    \u003Cbr\u002F>\n    \u003Ca href=\"https:\u002F\u002Fwww.langtrace.ai\">Langtrace\u003C\u002Fa>\n  \u003C\u002Fh1>\n  \u003Ch3>面向LLM应用的开源可观测性平台\u003C\u002Fh3>\n\n  [![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-AGPL--3.0-blue?style=flat-square)](LICENSE)\n  [![开发状态](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FStatus-Active-success?style=flat-square)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace)\n  [![拉取请求](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr\u002FScale3-Labs\u002Flangtrace?style=flat-square)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpulls)\n  [![NPM SDK](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F%40langtrase%2Ftypescript-sdk?style=flat-square&logo=npm&label=typescript-sdk&color=green)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-typescript-sdk)\n  [![NPM 下载量](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fdm\u002F%40langtrase%2Ftypescript-sdk?style=flat-square&logo=npm)](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@langtrase\u002Ftypescript-sdk)\n  [![PyPI SDK](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Flangtrace-python-sdk?style=flat-square&logo=python&label=python-sdk&color=green)](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-python-sdk)\n  [![PyPI 月下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_19fde74dc665.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Flangtrace-python-sdk)\n  [![PyPI 总下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b9ee5cb9c86f.png)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b9ee5cb9c86f.png)\n  [![部署](https:\u002F\u002Frailway.app\u002Fbutton.svg)](https:\u002F\u002Frailway.app\u002Ftemplate\u002F8dNq1c?referralCode=MA2S9H)\n  [![部署到 Northflank](https:\u002F\u002Fassets.northflank.com\u002Fdeploy_to_northflank_smm_36700fb050.svg)](https:\u002F\u002Fnorthflank.com\u002Fstacks\u002Fdeploy-langtrace)\n\u003C\u002Fdiv>\n\n---\n\n## 📚 目录\n- [✨ 功能](#-features)\n- [🚀 快速入门](#-quick-start)\n- [🔗 集成](#-supported-integrations)\n- [🌐 入门指南](#-getting-started)\n- [🏠 自托管](#-langtrace-self-hosted)\n- [📐 架构](#-langtrace-system-architecture)\n- [🤝 贡献](#-contributions)\n- [🔒 安全](#-security)\n- [❓ 常见问题](#-frequently-asked-questions)\n- [👥 贡献者](#-contributors)\n- [📜 许可证](#-license)\n\nLangtrace 是一款开源可观测性软件，可帮助您捕获、调试并分析来自所有使用 LLM API、向量数据库和基于 LLM 的框架的应用程序的跟踪数据和指标。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_175722602f77.png)\n\n## ✨ 功能\n\n- 📊 **Open Telemetry 支持**：基于 OTEL 标准构建，提供全面的追踪功能\n- 🔄 **实时监控**：跟踪 LLM API 调用、向量操作及框架使用情况\n- 🎯 **性能洞察**：分析延迟、成本和使用模式\n- 🔍 **调试工具**：追踪并调试您的 LLM 应用工作流\n- 📈 **分析功能**：获取详细的指标和可视化图表\n- 🏠 **自托管选项**：可在您自己的基础设施上部署\n\n## 🚀 快速入门\n\n```bash\n# 对于 TypeScript\u002FJavaScript\nnpm i @langtrase\u002Ftypescript-sdk\n\n# 对于 Python\npip install langtrace-python-sdk\n```\n\n在代码中初始化：\n```typescript\n\u002F\u002F TypeScript\nimport * as Langtrace from '@langtrase\u002Ftypescript-sdk'\nLangtrace.init({ api_key: '\u003Cyour_api_key>' }) \u002F\u002F 在 langtrace.ai 获取您的 API 密钥\n```\n```python\n# Python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init(api_key='\u003Cyour_api_key>') # 在 langtrace.ai 获取您的 API 密钥\n```\n\n有关详细设置说明，请参阅 [入门指南](#-getting-started)。\n\n## 📊 Open Telemetry 支持\n\nLangtrace 生成的跟踪数据遵循 [Open Telemetry 标准(OTEL)](https:\u002F\u002Fopentelemetry.io\u002Fdocs\u002Fconcepts\u002Fsignals\u002Ftraces\u002F)。我们正在为本项目生成的跟踪数据开发 [语义约定](https:\u002F\u002Fopentelemetry.io\u002Fdocs\u002Fconcepts\u002Fsemantic-conventions\u002F)。您可以在 [此仓库](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-trace-attributes\u002Ftree\u002Fmain\u002Fschemas) 中查看当前定义。请注意：这是一项持续进行中的工作，我们鼓励您参与其中，并欢迎您的反馈。\n\n---\n\n## 📦 SDK 仓库\n\n- [Langtrace TypeScript SDK](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-typescript-sdk)\n- [Langtrace Python SDK](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-python-sdk)\n- [语义跨度属性](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace-trace-attributes)\n\n---\n\n## 🚀 入门指南\n\n### Langtrace 云服务 ☁️\n\n要使用 Langtrace 的托管 SaaS 版本，请按照以下步骤操作：\n\n1. 访问 [此链接](https:\u002F\u002Flangtrace.ai) 进行注册。\n2. 注册后创建一个新项目。项目是用于存储应用程序生成的跟踪数据和指标的容器。如果您只有一个应用程序，只需创建一个项目即可。\n3. 进入项目页面生成 API 密钥。\n4. 在您的应用程序中安装 Langtrace SDK，并使用第 3 步生成的 API 密钥进行初始化。\n5. 安装和设置 SDK 的代码如下所示：\n\n### 如果您的应用程序使用 TypeScript\u002FJavaScript 构建\n\n```typescript\nnpm i @langtrase\u002Ftypescript-sdk\n```\n\n```typescript\nimport * as Langtrace from '@langtrase\u002Ftypescript-sdk' \u002F\u002F 必须在任何 LLM 模块导入之前执行\nLangtrace.init({ api_key: \u003Cyour_api_key> })\n```\n\n或者\n\n```typescript\nimport * as Langtrace from \"@langtrase\u002Ftypescript-sdk\"; \u002F\u002F 必须在任何 LLM 模块导入之前执行\nLangTrace.init(); \u002F\u002F 将 LANGTRACE_API_KEY 设置为环境变量\n```\n\n### 如果您的应用程序使用 Python 构建\n\n```python\npip install langtrace-python-sdk\n```\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init(api_key=\u003Cyour_api_key>)\n```\n\n或者\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init() # 将 LANGTRACE_API_KEY 设置为环境变量\n```\n\n### 🏠 Langtrace 自托管\n\n要在本地运行 Langtrace，您需要运行三个服务：\n\n- Next.js 应用程序\n- Postgres 数据库\n- ClickHouse 数据库\n\n> [!重要提示]\n> 请查阅我们的 [文档](https:\u002F\u002Fdocs.langtrace.ai\u002Fhosting\u002Foverview)，了解各种部署选项和配置。\n\n所需条件：\n\n- Docker\n- Docker Compose\n\n#### .env 文件\n\n您可以根据需要自由修改 `.env` 文件。\n\n#### 启动服务器\n\n```bash\ndocker compose up\n```\n\n应用程序将可在 `http:\u002F\u002Flocalhost:3000` 访问。\n\n#### 关闭部署\n\n要删除容器和卷：\n\n```bash\ndocker compose down -v\n```\n\n`-v` 标志用于删除卷。\n\n## 遥测\n\n如果您自托管 OSS 客户端，Langtrace 不会收集任何遥测数据。您的任何数据都不会离开您的服务器。\n\n---\n\n## 🔗 支持的集成\n\nLangtrace 会自动捕获来自以下供应商和框架的跟踪数据：\n\n### LLM 提供商\n| 提供商 | TypeScript SDK | Python SDK |\n|----------|:-------------:|:----------:|\n| OpenAI | ✅ | ✅ |\n| Anthropic | ✅ | ✅ |\n| Azure OpenAI | ✅ | ✅ |\n| Cohere | ✅ | ✅ |\n| DeepSeek | ✅ | ✅ |\n| xAI | ✅ | ✅ |\n| Groq | ✅ | ✅ |\n| Perplexity | ✅ | ✅ |\n| Gemini | ✅ | ✅ |\n| AWS Bedrock | ✅ | ✅ |\n| Mistral | ❌ | ✅ |\n\n### 大语言模型框架\n| 框架 | TypeScript SDK | Python SDK |\n|-----------|:-------------:|:----------:|\n| Langchain | ❌ | ✅ |\n| LlamaIndex | ✅ | ✅ |\n| Langgraph | ❌ | ✅ |\n| LiteLLM | ❌ | ✅ |\n| DSPy | ❌ | ✅ |\n| CrewAI | ❌ | ✅ |\n| Ollama | ❌ | ✅ |\n| VertexAI | ✅ | ✅ |\n| Vercel AI | ✅ | ❌ |\n| GuardrailsAI | ❌ | ✅ |\n| Arch | ❌ | ✅ |\n| Graphlit | ❌ | ✅ |\n| Agno | ❌ | ✅ |\n| Phidata | ❌ | ✅ |\n| Cleanlab | ❌ | ✅ |\n\n### 向量数据库\n| 数据库 | TypeScript SDK | Python SDK |\n|----------|:-------------:|:----------:|\n| Pinecone | ✅ | ✅ |\n| ChromaDB | ✅ | ✅ |\n| QDrant | ✅ | ✅ |\n| Weaviate | ✅ | ✅ |\n| PGVector | ✅ | ✅（使用 SQLAlchemy）|\n| MongoDB | ❌ | ✅ |\n| Milvus | ❌ | ✅ |\n\n---\n\n## 📐 Langtrace 系统架构\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_a9a3ae16bdef.png)\n\n---\n\n## 💡 功能请求与问题反馈\n\n- 如需请求新功能，请前往 [此处发起讨论](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fdiscussions\u002Fcategories\u002Ffeature-requests)。\n- 如遇到问题或需要报告错误，请前往 [此处创建议题](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues)。\n\n---\n\n## 🤝 贡献方式\n\n我们欢迎各位开发者为本项目贡献力量。如想参与开发，可先 fork 本仓库并开始工作。更多参与方式，请加入我们的 Slack 工作空间。\n\n---\n\n## 🌟 Langtrace 星标历史\n\n## [![Langtrace 星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_8e33f7342ec1.png)](https:\u002F\u002Fstar-history.com\u002F#Scale3-Labs\u002Flangtrace&Timeline)\n\n---\n\n## 🔒 安全性\n\n如发现安全漏洞，请发送邮件至 \u003Csecurity@scale3labs.com> 报告。有关安全性的更多信息，请参阅 [此处](https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fblob\u002Fdevelopment\u002FSECURITY.md)。\n\n---\n\n## 📜 许可证\n\n- Langtrace 应用程序（本仓库）采用 AGPL 3.0 许可证授权。您可在此处了解该许可证的详情：[AGPL 3.0 许可证](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0.en.html)。\n- Langtrace 的 SDK 则采用 Apache 2.0 许可证授权。您可在此处了解该许可证的详情：[Apache 2.0 许可证](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0)。\n\n## 👥 贡献者\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fkarthikscale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_91d0178c5079.png\" width=\"100px;\" alt=\"karthikscale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>karthikscale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdylanzuber-scale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_6d2333ec6cac.png\" width=\"100px;\" alt=\"dylanzuber-scale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>dylanzuber-scale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdarshit-s3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_27690656b4ed.png\" width=\"100px;\" alt=\"darshit-s3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>darshit-s3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frohit-kadhe\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_d22ae36fe517.png\" width=\"100px;\" alt=\"rohit-kadhe\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>rohit-kadhe\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyemiadej\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_b589099dc7e4.png\" width=\"100px;\" alt=\"yemiadej\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>yemiadej\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Falizenhom\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_a72e14419e26.png\" width=\"100px;\" alt=\"alizenhom\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>alizenhom\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fobinnascale3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_5e5545b33970.png\" width=\"100px;\" alt=\"obinnascale3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>obinnascale3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FCruppelt\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_eef562b95922.png\" width=\"100px;\" alt=\"Cruppelt\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Cruppelt\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDnaynu\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_57910262640e.png\" width=\"100px;\" alt=\"Dnaynu\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Dnaynu\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjatin9823\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_03c8c51fee29.png\" width=\"100px;\" alt=\"jatin9823\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>jatin9823\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMayuriS24\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_8e15f882434f.png\" width=\"100px;\" alt=\"MayuriS24\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>MayuriS24\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FNishantRana07\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_23f332cba6a3.png\" width=\"100px;\" alt=\"NishantRana07\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>NishantRana07\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fobinnaokafor\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_9ec9fe49c317.png\" width=\"100px;\" alt=\"obinnaokafor\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>obinnaokafor\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fheysagnik\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_df54b7048e66.png\" width=\"100px;\" alt=\"heysagnik\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>heysagnik\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdabiras3\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_readme_0f41752d7c8c.png\" width=\"100px;\" alt=\"dabiras3\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>dabiras3\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n---\n\n## ❓常见问题解答\n\n**1. 我能否在自己的云环境中自托管并运行 Langtrace？**\n\n可以，完全可以。请按照我们文档中的自托管部署说明进行操作：[文档链接](https:\u002F\u002Fdocs.langtrace.ai\u002Fhosting\u002Foverview)。\n\n**2. Langtrace 云端服务的定价如何？**\n\n目前，Langtrace 云端服务仍处于免费阶段，我们主要希望收集用户反馈以持续改进产品。待我们决定开启商业化时，会及时通知用户。\n\n**3. Langtrace 使用的技术栈是什么？**\n\nLangtrace 前端和 API 层采用 Next.js 构建，元数据存储使用 Postgres 数据库，而 Span、指标、日志和追踪数据则存储在 ClickHouse 数据库中。\n\n**4. 我可以为这个项目做出贡献吗？**\n\n当然可以！我们非常欢迎开发者参与贡献。您可以通过加入我们的 [Discord 社区](https:\u002F\u002Fdiscord.langtrace.ai\u002F)尽早参与进来。\n\n**5. 参与该项目需要具备哪些技能？**\n\n编程语言：TypeScript 和 Python。  \n框架知识：Next.js。  \n数据库：Postgres 和 Prisma ORM。  \n加分项：OpenTelemetry 监测框架经验，以及分布式追踪相关经验。","# Langtrace 快速上手指南\n\nLangtrace 是一款开源的 LLM 应用可观测性工具，支持捕获、调试和分析来自 LLM API、向量数据库及各类框架的追踪数据与指标。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **运行时环境**（二选一）：\n    *   Node.js (推荐 v18+) 用于 TypeScript\u002FJavaScript 项目\n    *   Python (推荐 v3.8+) 用于 Python 项目\n*   **账号准备**：访问 [langtrace.ai](https:\u002F\u002Flangtrace.ai) 注册账号并创建项目，获取 `API_KEY`。\n    *   *注：若选择自托管模式，需额外安装 Docker 和 Docker Compose。*\n\n## 安装步骤\n\n根据您的项目语言选择对应的 SDK 进行安装。\n\n### TypeScript \u002F JavaScript 项目\n\n```bash\nnpm i @langtrase\u002Ftypescript-sdk\n```\n\n### Python 项目\n\n```bash\npip install langtrace-python-sdk\n```\n\n> **提示**：国内用户若下载缓慢，可配置国内镜像源加速：\n> *   npm: `npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n> *   pip: `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple langtrace-python-sdk`\n\n## 基本使用\n\n安装完成后，需在代码中初始化 SDK。**请务必将初始化代码置于任何 LLM 模块导入之前**。\n\n### 方式一：直接在代码中传入 API Key\n\n**TypeScript 示例：**\n\n```typescript\nimport * as Langtrace from '@langtrase\u002Ftypescript-sdk' \u002F\u002F 必须位于任何 llm 模块导入之前\nLangtrace.init({ api_key: '\u003Cyour_api_key>' }) \n```\n\n**Python 示例：**\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init(api_key='\u003Cyour_api_key>') \n```\n\n### 方式二：使用环境变量（推荐）\n\n将 API Key 设置为环境变量 `LANGTRACE_API_KEY`，然后调用无参初始化方法。\n\n**TypeScript 示例：**\n\n```typescript\nimport * as Langtrace from \"@langtrase\u002Ftypescript-sdk\"; \nLangTrace.init(); \n```\n\n**Python 示例：**\n\n```python\nfrom langtrace_python_sdk import langtrace\nlangtrace.init() \n```\n\n初始化成功后，Langtrace 将自动捕获支持的 LLM 提供商（如 OpenAI, Anthropic 等）、框架（如 Langchain, LlamaIndex 等）及向量数据库的操作追踪数据，您可以在 Langtrace 控制台实时查看分析结果。","某电商团队正在开发基于 RAG 架构的智能客服系统，需整合向量数据库检索与大模型生成能力以回答用户复杂的售后咨询。\n\n### 没有 langtrace 时\n- **故障定位如“盲盒”**：当用户反馈回答错误时，开发团队无法判断是向量检索召回了无关文档，还是大模型推理逻辑出错，只能靠猜测试错。\n- **成本与性能黑盒**：无法实时监控每次对话的 Token 消耗和 API 延迟，导致突发流量下账单激增且响应变慢，却找不到具体的耗时瓶颈。\n- **调试效率极低**：复现问题需要人工拼接分散在应用日志、数据库日志和 LLM 平台后台的多份数据，排查一个典型 Bug 平均耗时数小时。\n- **缺乏评估基准**：上线新功能后，难以量化对比新旧版本在回答准确率或响应速度上的具体差异，迭代优化缺乏数据支撑。\n\n### 使用 langtrace 后\n- **全链路透明追踪**：通过端到端的 Trace 视图，清晰看到从用户提问、向量检索匹配到最终生成的完整路径，秒级定位是检索偏差还是模型幻觉。\n- **实时成本与性能监控**：仪表盘实时展示各模型的调用延迟、Token 用量及预估成本，自动识别高耗时环节并预警异常支出。\n- **一键深度调试**：直接在界面中回放完整的请求上下文、中间参数及最终输出，将复杂问题的排查时间从小时级缩短至分钟级。\n- **数据驱动迭代**：利用内置的评估指标对比不同提示词或模型版本的实际表现，用客观数据指导策略调优，显著提升回答质量。\n\nlangtrace 将原本黑盒化的 LLM 应用转化为可观测、可度量、可优化的透明系统，让智能客服的研发与维护从“凭经验”转向“看数据”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FScale3-Labs_langtrace_17572260.png","Scale3-Labs","Langtrace AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FScale3-Labs_1e9786ab.png","Official Github repository for Langtrace AI",null,"contact@scale3labs.com","langtrace_ai","https:\u002F\u002Flangtrace.ai\u002F","https:\u002F\u002Fgithub.com\u002FScale3-Labs",[82,86,90,93,97],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",99.4,{"name":87,"color":88,"percentage":89},"CSS","#663399",0.2,{"name":91,"color":92,"percentage":89},"Shell","#89e051",{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.1,{"name":98,"color":99,"percentage":96},"JavaScript","#f1e05a",1188,122,"2026-04-12T14:52:50","AGPL-3.0","Linux, macOS, Windows","未说明",{"notes":107,"python":108,"dependencies":109},"该工具主要作为可观测性平台运行。自托管（Self-hosted）模式必须安装 Docker 和 Docker Compose，需同时运行 Next.js 应用、Postgres 数据库和 Clickhouse 数据库三个服务。云端模式仅需通过 npm 或 pip 安装对应语言的 SDK 并配置 API Key 即可使用。支持 OpenTelemetry 标准。","未说明 (SDK 支持 Python，具体版本未在 README 中列出)",[110,111,112,113,114,115,116],"Docker","Docker Compose","Postgres","Clickhouse","Next.js","@langtrase\u002Ftypescript-sdk","langtrace-python-sdk",[118,35,16,14,15,13],"其他",[120,121,122,123,124,125,126,127,128,129,130,131,132,133],"ai","llm","observability","tracing","open-telemetry","datasets","evaluations","gpt","openai","prompt-engineering","langchain","llm-framework","llmops","open-source","2026-03-27T02:49:30.150509","2026-04-13T17:41:36.351156",[137,142,147,152,157,162],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},31812,"自托管部署后，Trace 数据已发送但未在界面显示怎么办？","这是一个已知问题，修复版本已发布。请执行以下步骤：\n1. 删除所有旧的 LangTrace Docker 镜像（docker rmi \u003Cimage_id>）。\n2. 重新拉取最新镜像并从头开始部署（docker compose up -d）。\n3. 如果看到 PostHog API Key 的警告，可以忽略，这无害且后续会修复。\n完成后，Trace 数据应能正常显示。","https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F321",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},31813,"如何在本地正确初始化自托管的 LangTrace SDK？","请确保按以下步骤配置：\n1. 运行 `docker compose up` 启动 langtrace、postgres 和 clickhouse 三个容器。\n2. 在代码环境变量或 .env 文件中设置：\n   LANGTRACE_API_KEY=\"\u003C你的_api_key>\"\n   LANGTRACE_API_HOST=\"http:\u002F\u002Flocalhost:3000\"\n3. 在代码最顶部初始化 SDK（必须在导入其他库之前）：\n   from langtrace_python_sdk import langtrace\n   langtrace.init()\n4. 随后再导入和使用其他库（如 crewai, openai 等）。","https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F416",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},31814,"如何隐藏 UI 中的 Prompt 和 Response 内容以保护隐私？","最新版本的 LangTrace 已支持此功能。请执行以下操作：\n1. 将 LangTrace Docker 镜像更新至最新版本（至少 1.6.5 或更高）。\n2. 更新后，UI 将不再显示具体的 Prompt 和 Response 文本，但仍会正常显示 Token 使用量和性能指标。\n3. 如果使用的是 Ollama 且仍看到缓存的 Token 指标问题，请尝试更新 Ollama 客户端到最新版本。","https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F213",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},31815,"更新 Prompt Registry 中的 Prompt 时，为什么总是更新到基础版本而不是选定版本？","该问题已在最新的 PR 中修复并发布。现在您可以：\n1. 像更新 Zod Schema 一样更新 Zod Schema 类型的 Prompt。\n2. 基于 Prompt 的任意历史版本进行更新，而不仅仅是最新版本。\n请确保您的 LangTrace 版本已更新至包含此修复的版本。","https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F343",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},31816,"升级到 v3.1.1+ 后，自定义 Exporter（如 SigNoz）无法接收 Trace 数据怎么办？","在 v3.1.1 版本后，自定义 Exporter 的配置逻辑可能有所变更。虽然官方文档提到不需要 API Key，但日志中不再出现\"Exporting spans to custom remote exporter...\"提示。\n建议检查点：\n1. 确认 Endpoint 地址格式是否正确（例如 SigNoz 在 K8s 中通常为 `apm-signoz-otel-collector:4317`）。\n2. 确认端口（如 4317）已在 Pod 上正确映射为 TCP 端口。\n3. 由于该问题较新且处于活跃调查中，建议暂时回退到 v2.3.22 版本或使用官方推荐的导出方式，直到官方发布针对 v3+ 的明确配置指南。","https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F368",{"id":163,"question_zh":164,"answer_zh":165,"source_url":146},31817,"自托管版创建项目时报错\"Failed to fetch projects\"且 JSON 解析失败是什么原因？","这通常是因为后端服务未完全启动或初始化顺序问题。请尝试：\n1. 确保 docker compose 启动了所有三个必要容器：langtrace, postgres, clickhouse。\n2. 等待所有容器状态变为 healthy 后再访问浏览器。\n3. 严格按照初始化顺序：先启动容器，再在代码最顶端调用 `langtrace.init()`。\n如果问题依旧，可能是自托管版本的不稳定性导致，建议检查容器日志排查具体报错。",[167,172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252,257,262],{"id":168,"version":169,"summary_zh":170,"released_at":171},239026,"4.0.11","## 变更内容\n* 在 traces 选项卡上新增了对显示 [Cleanlab](https:\u002F\u002Fcleanlab.ai\u002F) 可信度分数的支持\n* Cleanlab span 的 span 属性中会显示额外的元数据，例如解释日志。","2025-04-17T23:33:28",{"id":173,"version":174,"summary_zh":175,"released_at":176},239027,"4.0.10","## 变更内容\n* 由 @kanlanc 修复了 TypeScript SDK 的安装说明。\n* 由 @alizenhom 修复了自托管环境中团队信息缺失的问题，并为 ClickHouse 添加了适当的超时设置。\n\n## 新贡献者\n* @kanlanc 完成了他们的首次贡献。\n","2025-04-17T14:28:09",{"id":178,"version":179,"summary_zh":180,"released_at":181},239028,"4.0.9","## 变更内容\n* 修复了若干 bug，并提升了查询性能","2025-04-15T12:53:11",{"id":183,"version":184,"summary_zh":185,"released_at":186},239029,"4.0.8","## 变更内容\n* 在 https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F421 中，@alizenhom 为获取项目端点增加了灵活性\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F4.0.7...4.0.8","2025-04-14T16:22:23",{"id":188,"version":189,"summary_zh":190,"released_at":191},239030,"4.0.7","## 变更内容\n* 由 @alizenhom 在 https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F418 中调整 Gemini 定价\n* 由 @alizenhom 在 https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F419 中同步开发分支到主分支\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F4.0.6...4.0.7","2025-04-10T16:07:38",{"id":193,"version":194,"summary_zh":195,"released_at":196},239031,"4.0.6","## 变更内容\n本次发布包含以下变更：\n* 优化了追踪页面的查询和搜索性能。\n* 更新了 Groq 支持模型的价格表。\n* 重构\u002F重新设计了追踪页面。\n* 修复了若干 bug。","2025-03-26T22:55:26",{"id":198,"version":199,"summary_zh":200,"released_at":201},239032,"4.0.5","## 变更内容\n* 版本 4.0.5，由 @karthikscale3 在 https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F404 中发布\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F4.0.4...4.0.5","2025-03-12T20:16:59",{"id":203,"version":204,"summary_zh":205,"released_at":206},239033,"4.0.4","## 变更内容\n* 自由格式跟踪搜索的查询性能提升\n* 禁用遥测跟踪\n* 修复了若干 bug","2025-03-06T18:00:40",{"id":208,"version":209,"summary_zh":210,"released_at":211},239034,"4.0.3","## 变更内容\n* 本次发布新增对 Cleanlab（https:\u002F\u002Fcleanlab.ai\u002F）的支持。","2025-03-05T21:39:05",{"id":213,"version":214,"summary_zh":215,"released_at":216},239035,"4.0.2","## 变更内容\n* 支持 Agno（https:\u002F\u002Fwww.agno.com\u002F）\n* 支持最新的 OpenAI 和 Claude 模型\n* 修复了若干 bug\n","2025-03-05T07:08:09",{"id":218,"version":219,"summary_zh":220,"released_at":221},239036,"4.0.1","## What's Changed\r\n* Added support for tracing cached input tokens for OpenAI models.\r\n* Updated cost table for OpenAI models and added o3-mini.\r\n* Added support for Arch (https:\u002F\u002Fgithub.com\u002Fkatanemo\u002Farchgw)","2025-02-06T18:44:33",{"id":223,"version":224,"summary_zh":225,"released_at":226},239037,"4.0.0","## What's Changed\r\n* Added support for tracing cached input tokens for OpenAI models.\r\n* Updated cost table for OpenAI models and added o3-mini.\r\n* Added support for Arch (https:\u002F\u002Fgithub.com\u002Fkatanemo\u002Farchgw)\r\n","2025-01-10T20:12:10",{"id":228,"version":229,"summary_zh":230,"released_at":231},239038,"3.1.3","## What's Changed\r\nThis release contains the following updates:\r\n\r\n* Deepseek support (https:\u002F\u002Fdocs.langtrace.ai\u002Fsupported-integrations\u002Fllm-tools\u002Fdeepseek#deepseek)\r\n* UX improvements and new pagination settings for the traces tab\r\n* Query performance improvements\r\n* Minor bugfixes\r\n* Release 3.2.0 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F371\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.1.2...3.1.3","2024-12-13T15:11:07",{"id":233,"version":234,"summary_zh":235,"released_at":236},239039,"3.1.2","## What's Changed\r\n* Update pricing table for Mistral\r\n* Release by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F359\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.1.1...3.1.2","2024-11-22T00:19:52",{"id":238,"version":239,"summary_zh":240,"released_at":241},239040,"3.1.1","## What's Changed\n* Release 3.1.1 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F356\n\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.1.0...3.1.1","2024-11-19T16:28:28",{"id":243,"version":244,"summary_zh":245,"released_at":246},239041,"3.1.0","## What's Changed\r\n* Added support for version controlling zod schema prompts for tool calling. More details - https:\u002F\u002Fwww.langtrace.ai\u002Fblog\u002Fversion-control-zod-schema-prompts-for-tool-calling\r\n* Release 3.1.0 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F349\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.0.19...3.1.0","2024-11-15T21:35:50",{"id":248,"version":249,"summary_zh":250,"released_at":251},239042,"3.0.19","## What's Changed\r\n\r\n* Mistral support enhancement\r\n* Annotations bugfixes\r\n* Update README\r\n* Release 3.1.0 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F342\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.0.18...3.0.19","2024-11-14T19:11:01",{"id":253,"version":254,"summary_zh":255,"released_at":256},239043,"3.0.18","## What's Changed\r\n\r\n* Fix for https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fissues\u002F321[\r\n* Support for Guardrails AI\r\n* Bugfix to the Annotations tab where traces were not showing due to the recent changes to support gRPC\r\nREADME cleanup\r\n* Release 3.0.18 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F336\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.0.17...3.0.18","2024-11-14T16:11:17",{"id":258,"version":259,"summary_zh":260,"released_at":261},239044,"3.0.17","## What's Changed\r\n* Support for MongoDB Atlas Vector Search\r\n* Bugfixes\r\n* Release 3.0.17 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F326\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.0.16...3.0.17","2024-11-12T14:48:23",{"id":263,"version":264,"summary_zh":265,"released_at":266},239045,"3.0.16","## What's Changed\r\n* Support for grouping traces by session.id\r\n* Support for keyword search over traces\r\n* Release 3.0.16 by @karthikscale3 in https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fpull\u002F324\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FScale3-Labs\u002Flangtrace\u002Fcompare\u002F3.0.15...3.0.16","2024-11-08T20:00:30"]