[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-traceloop--openllmetry":3,"similar-traceloop--openllmetry":206},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":18,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":22,"stars":31,"forks":32,"last_commit_at":33,"license":34,"difficulty_score":35,"env_os":36,"env_gpu":36,"env_ram":36,"env_deps":37,"category_tags":43,"github_topics":48,"view_count":66,"oss_zip_url":17,"oss_zip_packed_at":17,"status":67,"created_at":68,"updated_at":69,"faqs":70,"releases":105},4679,"traceloop\u002Fopenllmetry","openllmetry","Open-source observability for your GenAI or LLM application, based on OpenTelemetry","OpenLLMetry 是一款专为生成式 AI（GenAI）和大语言模型（LLM）应用打造的开源可观测性工具。它基于业界标准的 OpenTelemetry 构建，旨在帮助开发者轻松监控、追踪和调试复杂的 AI 应用流程。\n\n在开发 LLM 应用时，开发者常面临请求链路不透明、性能瓶颈难定位以及成本核算困难等挑战。OpenLLMetry 通过自动集成各类主流 LLM 提供商（如 OpenAI）和向量数据库，将这些分散的操作转化为标准化的追踪数据。这不仅让开发者能清晰看到每个提示词（Prompt）的耗时与令牌消耗，还能快速识别系统异常。\n\n该工具主要面向人工智能应用开发者、后端工程师及研究人员。其核心亮点在于强大的兼容性与标准化：由于底层遵循 OpenTelemetry 规范，OpenLLMetry 采集的数据可以无缝对接现有的监控体系（如 Datadog、Honeycomb 等），无需更换基础设施。此外，项目提供的 Traceloop SDK 进一步简化了接入流程，只需几行代码即可启动监控，同时确保输出数据符合即将成为行业标准的 LLM 语义规范，是构建可靠 AI 应用的得力助手。","\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry#gh-light-mode-only\">\n\u003Cimg width=\"600\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_431b7cab59ea.png\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry#gh-dark-mode-only\">\n\u003Cimg width=\"600\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_62aee6795884.png\">\n\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cp align=\"center\">Open-source observability for your LLM application\u003C\u002Fp>\n\u003C\u002Fp>\n\u003Ch4 align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fgetting-started-python\">\u003Cstrong>Get started »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">Slack\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintroduction\">Docs\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry\">Website\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Ch4 align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Freleases\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Ftraceloop\u002Fopenllmetry\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fopentelemetry-instrumentation-openai\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_02fcbfc45598.png\">\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache 2.0-blue.svg\" alt=\"OpenLLMetry is released under the Apache-2.0 License\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Factions\u002Fworkflows\u002Fci.yml\">\n  \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Ftraceloop\u002Fopenllmetry\" alt=\"git commit activity\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.ycombinator.com\u002Fcompanies\u002Ftraceloop\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fwebsite?color=%23f26522&down_message=Y%20Combinator&label=Backed&logo=ycombinator&style=flat-square&up_message=Y%20Combinator&url=https%3A%2F%2Fwww.ycombinator.com\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fblob\u002Fmain\u002FCONTRIBUTING.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-Welcome-brightgreen\" alt=\"PRs welcome!\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-on%20Slack-blueviolet\" alt=\"Slack community channel\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Ftraceloopdev\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffollow-%40traceloopdev-1DA1F2?logo=twitter&style=social\" alt=\"Traceloop Twitter\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fh4>\n\n**🎉 New**:\nOur semantic conventions are now part of OpenTelemetry! Join the [discussion](https:\u002F\u002Fgithub.com\u002Fopen-telemetry\u002Fcommunity\u002Fblob\u002F1c71595874e5d125ca92ec3b0e948c4325161c8a\u002Fprojects\u002Fllm-semconv.md) and help us shape the future of LLM observability.\n\nLooking for the JS\u002FTS version? Check out [OpenLLMetry-JS](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry-js).\n\nOpenLLMetry is a set of extensions built on top of [OpenTelemetry](https:\u002F\u002Fopentelemetry.io\u002F) that gives you complete observability over your LLM application. Because it uses OpenTelemetry under the hood, [it can be connected to your existing observability solutions](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fintroduction) - Datadog, Honeycomb, and others.\n\nIt's built and maintained by Traceloop under the Apache 2.0 license.\n\nThe repo contains standard OpenTelemetry instrumentations for LLM providers and Vector DBs, as well as a Traceloop SDK that makes it easy to get started with OpenLLMetry, while still outputting standard OpenTelemetry data that can be connected to your observability stack.\nIf you already have OpenTelemetry instrumented, you can just add any of our instrumentations directly.\n\n## 🚀 Getting Started\n\nThe easiest way to get started is to use our SDK.\nFor a complete guide, go to our [docs](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fgetting-started-python).\n\nInstall the SDK:\n\n```bash\npip install traceloop-sdk\n```\n\nThen, to start instrumenting your code, just add this line to your code:\n\n```python\nfrom traceloop.sdk import Traceloop\n\nTraceloop.init()\n```\n\nThat's it. You're now tracing your code with OpenLLMetry!\nIf you're running this locally, you may want to disable batch sending, so you can see the traces immediately:\n\n```python\nTraceloop.init(disable_batch=True)\n```\n\n## ⏫ Supported (and tested) destinations\n\n- ✅ [Traceloop](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Ftraceloop)\n- ✅ [Axiom](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Faxiom)\n- ✅ [Azure Application Insights](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fazure)\n- ✅ [Braintrust](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fbraintrust)\n- ✅ [Dash0](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdash0)\n- ✅ [Datadog](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdatadog)\n- ✅ [Dynatrace](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdynatrace)\n- ✅ [Google Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fgcp)\n- ✅ [Grafana](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fgrafana)\n- ✅ [Highlight](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhighlight)\n- ✅ [Honeycomb](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhoneycomb)\n- ✅ [HyperDX](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhyperdx)\n- ✅ [IBM Instana](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Finstana)\n- ✅ [KloudMate](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fkloudmate)\n- ✅ [Laminar](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Flaminar)\n- ✅ [New Relic](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fnewrelic)\n- ✅ [OpenTelemetry Collector](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fotel-collector)\n- ✅ [Oracle Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Foraclecloud)\n- ✅ [Scorecard](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fscorecard)\n- ✅ [Service Now Cloud Observability](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fservice-now)\n- ✅ [SigNoz](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsignoz)\n- ✅ [Sentry](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsentry)\n- ✅ [Splunk](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsplunk)\n- ✅ [Tencent Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Ftencent)\n\nSee [our docs](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fexporting) for instructions on connecting to each one.\n\n## 🪗 What do we instrument?\n\nOpenLLMetry can instrument everything that [OpenTelemetry already instruments](https:\u002F\u002Fgithub.com\u002Fopen-telemetry\u002Fopentelemetry-python-contrib\u002Ftree\u002Fmain\u002Finstrumentation) - so things like your DB, API calls, and more. On top of that, we built a set of custom extensions that instrument things like your calls to OpenAI or Anthropic, or your Vector DB like Chroma, Pinecone, Qdrant or Weaviate.\n\n- ✅ [Aleph Alpha](https:\u002F\u002Fwww.aleph-alpha.com\u002F)\n- ✅ [Anthropic](https:\u002F\u002Fwww.anthropic.com\u002F)\n- ✅ [Bedrock (AWS)](https:\u002F\u002Faws.amazon.com\u002Fbedrock\u002F)\n- ✅ [Cohere](https:\u002F\u002Fcohere.com\u002F)\n- ✅ [Google Generative AI (Gemini)](https:\u002F\u002Fai.google\u002F)\n- ✅ [Groq](https:\u002F\u002Fgroq.com\u002F)\n- ✅ [HuggingFace](https:\u002F\u002Fhuggingface.co\u002F)\n- ✅ [IBM Watsonx AI](https:\u002F\u002Fwww.ibm.com\u002Fwatsonx)\n- ✅ [Mistral AI](https:\u002F\u002Fmistral.ai\u002F)\n- ✅ [Ollama](https:\u002F\u002Follama.com\u002F)\n- ✅ [OpenAI \u002F Azure OpenAI](https:\u002F\u002Fopenai.com\u002F)\n- ✅ [Replicate](https:\u002F\u002Freplicate.com\u002F)\n- ✅ [SageMaker (AWS)](https:\u002F\u002Faws.amazon.com\u002Fsagemaker\u002F)\n- ✅ [Together AI](https:\u002F\u002Ftogether.xyz\u002F)\n- ✅ [Vertex AI (GCP)](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai)\n- ✅ [WRITER](https:\u002F\u002Fwriter.com\u002F)\n\n### Vector DBs\n\n- ✅ [Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅ [LanceDB](https:\u002F\u002Flancedb.com\u002F)\n- ✅ [Marqo](https:\u002F\u002Fmarqo.ai\u002F)\n- ✅ [Milvus](https:\u002F\u002Fmilvus.io\u002F)\n- ✅ [Pinecone](https:\u002F\u002Fwww.pinecone.io\u002F)\n- ✅ [Qdrant](https:\u002F\u002Fqdrant.tech\u002F)\n- ✅ [Weaviate](https:\u002F\u002Fweaviate.io\u002F)\n\n### Frameworks\n\n- ✅ [Agno](https:\u002F\u002Fgithub.com\u002Fagno-agi\u002Fagno)\n- ✅ [AWS Strands](https:\u002F\u002Fstrandsagents.com\u002F) (built-in OTEL support)\n- ✅ [CrewAI](https:\u002F\u002Fdocs.crewai.com\u002Fintroduction)\n- ✅ [Haystack](https:\u002F\u002Fhaystack.deepset.ai\u002Fintegrations\u002Ftraceloop)\n- ✅ [LangChain](https:\u002F\u002Fpython.langchain.com\u002Fdocs\u002Fintroduction\u002F)\n- ✅ [Langflow](https:\u002F\u002Fdocs.langflow.org\u002F)\n- ✅ [LangGraph](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002Fconcepts\u002Fwhy-langgraph\u002F)\n- ✅ [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fobservability\u002Fopentelemetry_integration)\n- ✅ [LlamaIndex](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002Fmodule_guides\u002Fobservability\u002Fobservability.html#openllmetry)\n- ✅ [OpenAI Agents](https:\u002F\u002Fopenai.github.io\u002Fopenai-agents-python\u002F)\n\n### Protocol\n\n- ✅ [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002F)\n\n## 🔎 Telemetry\n\nWe no longer log or collect any telemetry in the SDK or in the instrumentations. Make sure to bump to v0.49.2 and above.\n\n### Why we collect telemetry\n\n- The primary purpose is to detect exceptions within instrumentations. Since LLM providers frequently update their APIs, this helps us quickly identify and fix any breaking changes.\n- We only collect anonymous data, with no personally identifiable information. You can view exactly what data we collect in our [Privacy documentation](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fprivacy\u002Ftelemetry).\n- Telemetry is only collected in the SDK. If you use the instrumentations directly without the SDK, no telemetry is collected.\n\n## 🌱 Contributing\n\nWhether big or small, we love contributions ❤️ Check out our guide to see how to [get started](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fcontributing\u002Foverview).\n\nNot sure where to get started? You can:\n\n- [Book a free pairing session with one of our teammates](mailto:nir@traceloop.com?subject=Pairing%20session&body=I'd%20like%20to%20do%20a%20pairing%20session!)!\n- Join our \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">Slack\u003C\u002Fa>, and ask us any questions there.\n\n## 💚 Community & Support\n\n- [Slack](https:\u002F\u002Ftraceloop.com\u002Fslack) (For live discussion with the community and the Traceloop team)\n- [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fdiscussions) (For help with building and deeper conversations about features)\n- [GitHub Issues](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues) (For any bugs and errors you encounter using OpenLLMetry)\n- [Twitter](https:\u002F\u002Ftwitter.com\u002Ftraceloopdev) (Get news fast)\n\n## 🙏 Special Thanks\n\nTo @patrickdebois, who [suggested the great name](https:\u002F\u002Fx.com\u002Fpatrickdebois\u002Fstatus\u002F1695518950715473991?s=46&t=zn2SOuJcSVq-Pe2Ysevzkg) we're now using for this repo!\n\n## 💫 Contributors\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg alt=\"contributors\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_e47655cbe9c4.png\"\u002F>\n\u003C\u002Fa>\n","\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry#gh-light-mode-only\">\n\u003Cimg width=\"600\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_431b7cab59ea.png\">\n\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry#gh-dark-mode-only\">\n\u003Cimg width=\"600\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_62aee6795884.png\">\n\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n  \u003Cp align=\"center\">面向您的LLM应用的开源可观测性工具\u003C\u002Fp>\n\u003C\u002Fp>\n\u003Ch4 align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fgetting-started-python\">\u003Cstrong>开始使用 »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">Slack\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintroduction\">文档\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.traceloop.com\u002Fopenllmetry\">官网\u003C\u002Fa>\n\u003C\u002Fh4>\n\n\u003Ch4 align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Freleases\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Ftraceloop\u002Fopenllmetry\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fopentelemetry-instrumentation-openai\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_02fcbfc45598.png\">\n  \u003C\u002Fa>\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fblob\u002Fmain\u002FLICENSE\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache 2.0-blue.svg\" alt=\"OpenLLMetry采用Apache-2.0许可证发布\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Factions\u002Fworkflows\u002Fci.yml\">\n  \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Ftraceloop\u002Fopenllmetry\" alt=\"git提交活跃度\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.ycombinator.com\u002Fcompanies\u002Ftraceloop\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fwebsite?color=%23f26522&down_message=Y%20Combinator&label=Backed&logo=ycombinator&style=flat-square&up_message=Y%20Combinator&url=https%3A%2F%2Fwww.ycombinator.com\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fblob\u002Fmain\u002FCONTRIBUTING.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-Welcome-brightgreen\" alt=\"欢迎提交PR!\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-on%20Slack-blueviolet\" alt=\"Slack社区频道\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Ftraceloopdev\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffollow-%40traceloopdev-1DA1F2?logo=twitter&style=social\" alt=\"Traceloop Twitter\" \u002F>\n  \u003C\u002Fa>\n\u003C\u002Fh4>\n\n**🎉 新增**:\n我们的语义规范现已纳入OpenTelemetry！加入[讨论](https:\u002F\u002Fgithub.com\u002Fopen-telemetry\u002Fcommunity\u002Fblob\u002F1c71595874e5d125ca92ec3b0e948c4325161c8a\u002Fprojects\u002Fllm-semconv.md)，共同塑造LLM可观测性的未来。\n\n寻找JS\u002FTS版本？请查看[OpenLLMetry-JS](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry-js)。\n\nOpenLLMetry是一套基于[OpenTelemetry](https:\u002F\u002Fopentelemetry.io\u002F)构建的扩展，可为您的LLM应用提供全面的可观测性。由于其底层使用了OpenTelemetry，因此[可以与您现有的可观测性解决方案集成](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fintroduction)——例如Datadog、Honeycomb等。\n\n该项目由Traceloop开发并维护，采用Apache 2.0许可证。\n\n仓库中包含了针对LLM提供商和向量数据库的标准OpenTelemetry插装，以及一个Traceloop SDK，使您能够轻松上手OpenLLMetry，同时仍能输出可与现有可观测性堆栈对接的标准化OpenTelemetry数据。\n如果您已经启用了OpenTelemetry插装，只需直接添加我们的任意插装即可。\n\n## 🚀 开始使用\n\n最简单的方式是使用我们的SDK。\n完整指南请参阅我们的[文档](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fgetting-started-python)。\n\n安装SDK：\n\n```bash\npip install traceloop-sdk\n```\n\n然后，要开始对代码进行插装，只需在代码中添加以下一行：\n\n```python\nfrom traceloop.sdk import Traceloop\n\nTraceloop.init()\n```\n\n仅此而已。您现在已使用OpenLLMetry追踪代码！\n如果您是在本地运行，建议禁用批量发送功能，以便立即查看跟踪记录：\n\n```python\nTraceloop.init(disable_batch=True)\n```\n\n## ⏫ 支持（且经过测试）的目标系统\n\n- ✅ [Traceloop](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Ftraceloop)\n- ✅ [Axiom](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Faxiom)\n- ✅ [Azure Application Insights](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fazure)\n- ✅ [Braintrust](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fbraintrust)\n- ✅ [Dash0](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdash0)\n- ✅ [Datadog](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdatadog)\n- ✅ [Dynatrace](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fdynatrace)\n- ✅ [Google Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fgcp)\n- ✅ [Grafana](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fgrafana)\n- ✅ [Highlight](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhighlight)\n- ✅ [Honeycomb](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhoneycomb)\n- ✅ [HyperDX](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fhyperdx)\n- ✅ [IBM Instana](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Finstana)\n- ✅ [KloudMate](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fkloudmate)\n- ✅ [Laminar](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Flaminar)\n- ✅ [New Relic](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fnewrelic)\n- ✅ [OpenTelemetry Collector](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fotel-collector)\n- ✅ [Oracle Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Foraclecloud)\n- ✅ [Scorecard](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fscorecard)\n- ✅ [Service Now Cloud Observability](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fservice-now)\n- ✅ [SigNoz](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsignoz)\n- ✅ [Sentry](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsentry)\n- ✅ [Splunk](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fsplunk)\n- ✅ [Tencent Cloud](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Ftencent)\n\n有关如何连接到每个系统的说明，请参阅我们的[文档](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fexporting)。\n\n## 🪗 我们可以对哪些内容进行观测？\n\nOpenLLMetry 可以观测 [OpenTelemetry 已经支持观测的内容](https:\u002F\u002Fgithub.com\u002Fopen-telemetry\u002Fopentelemetry-python-contrib\u002Ftree\u002Fmain\u002Finstrumentation)，例如你的数据库、API 调用等。在此基础上，我们还构建了一组自定义扩展，用于观测你对 OpenAI 或 Anthropic 的调用，以及对 Chroma、Pinecone、Qdrant 或 Weaviate 等向量数据库的访问。\n\n- ✅ [Aleph Alpha](https:\u002F\u002Fwww.aleph-alpha.com\u002F)\n- ✅ [Anthropic](https:\u002F\u002Fwww.anthropic.com\u002F)\n- ✅ [Bedrock (AWS)](https:\u002F\u002Faws.amazon.com\u002Fbedrock\u002F)\n- ✅ [Cohere](https:\u002F\u002Fcohere.com\u002F)\n- ✅ [Google Generative AI (Gemini)](https:\u002F\u002Fai.google\u002F)\n- ✅ [Groq](https:\u002F\u002Fgroq.com\u002F)\n- ✅ [HuggingFace](https:\u002F\u002Fhuggingface.co\u002F)\n- ✅ [IBM Watsonx AI](https:\u002F\u002Fwww.ibm.com\u002Fwatsonx)\n- ✅ [Mistral AI](https:\u002F\u002Fmistral.ai\u002F)\n- ✅ [Ollama](https:\u002F\u002Follama.com\u002F)\n- ✅ [OpenAI \u002F Azure OpenAI](https:\u002F\u002Fopenai.com\u002F)\n- ✅ [Replicate](https:\u002F\u002Freplicate.com\u002F)\n- ✅ [SageMaker (AWS)](https:\u002F\u002Faws.amazon.com\u002Fsagemaker\u002F)\n- ✅ [Together AI](https:\u002F\u002Ftogether.xyz\u002F)\n- ✅ [Vertex AI (GCP)](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai)\n- ✅ [WRITER](https:\u002F\u002Fwriter.com\u002F)\n\n### 向量数据库\n\n- ✅ [Chroma](https:\u002F\u002Fwww.trychroma.com\u002F)\n- ✅ [LanceDB](https:\u002F\u002Flancedb.com\u002F)\n- ✅ [Marqo](https:\u002F\u002Fmarqo.ai\u002F)\n- ✅ [Milvus](https:\u002F\u002Fmilvus.io\u002F)\n- ✅ [Pinecone](https:\u002F\u002Fwww.pinecone.io\u002F)\n- ✅ [Qdrant](https:\u002F\u002Fqdrant.tech\u002F)\n- ✅ [Weaviate](https:\u002F\u002Fweaviate.io\u002F)\n\n### 框架\n\n- ✅ [Agno](https:\u002F\u002Fgithub.com\u002Fagno-agi\u002Fagno)\n- ✅ [AWS Strands](https:\u002F\u002Fstrandsagents.com\u002F)（内置 OTEL 支持）\n- ✅ [CrewAI](https:\u002F\u002Fdocs.crewai.com\u002Fintroduction)\n- ✅ [Haystack](https:\u002F\u002Fhaystack.deepset.ai\u002Fintegrations\u002Ftraceloop)\n- ✅ [LangChain](https:\u002F\u002Fpython.langchain.com\u002Fdocs\u002Fintroduction\u002F)\n- ✅ [Langflow](https:\u002F\u002Fdocs.langflow.org\u002F)\n- ✅ [LangGraph](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002Fconcepts\u002Fwhy-langgraph\u002F)\n- ✅ [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fobservability\u002Fopentelemetry_integration)\n- ✅ [LlamaIndex](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002Fmodule_guides\u002Fobservability\u002Fobservability.html#openllmetry)\n- ✅ [OpenAI Agents](https:\u002F\u002Fopenai.github.io\u002Fopenai-agents-python\u002F)\n\n### 协议\n\n- ✅ [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002F)\n\n## 🔎 遥测数据\n\n我们现在不再在 SDK 或观测插件中记录或收集任何遥测数据。请确保升级到 v0.49.2 或更高版本。\n\n### 为什么我们要收集遥测数据\n\n- 主要目的是检测观测插件中的异常情况。由于 LLM 提供商经常更新其 API，这有助于我们快速识别并修复可能发生的破坏性变更。\n- 我们仅收集匿名数据，不包含任何个人身份信息。你可以在我们的[隐私文档](https:\u002F\u002Fwww.traceloop.com\u002Fdocs\u002Fopenllmetry\u002Fprivacy\u002Ftelemetry)中查看我们具体收集了哪些数据。\n- 遥测数据仅在 SDK 中收集。如果你直接使用观测插件而未通过 SDK，则不会收集任何遥测数据。\n\n## 🌱 贡献\n\n无论大小，我们都欢迎各种贡献 ❤️ 请查看我们的指南，了解如何[开始贡献](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fcontributing\u002Foverview)。\n\n不知道从哪里开始？你可以：\n\n- [预约与我们团队成员的一次免费结对编程会话](mailto:nir@traceloop.com?subject=Pairing%20session&body=I'd%20like%20to%20do%20a%20pairing%20session!)！\n- 加入我们的 \u003Ca href=\"https:\u002F\u002Ftraceloop.com\u002Fslack\">Slack\u003C\u002Fa>，在那里随时提问。\n\n## 💚 社区与支持\n\n- [Slack](https:\u002F\u002Ftraceloop.com\u002Fslack)（与社区及 Traceloop 团队进行实时交流）\n- [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fdiscussions)（获取构建帮助及关于功能的深入讨论）\n- [GitHub Issues](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues)（报告你在使用 OpenLLMetry 时遇到的任何 bug 和错误）\n- [Twitter](https:\u002F\u002Ftwitter.com\u002Ftraceloopdev)（快速获取最新资讯）\n\n## 🙏 特别感谢\n\n感谢 @patrickdebois，他[提出了我们现在为这个仓库使用的绝佳名称](https:\u002F\u002Fx.com\u002Fpatrickdebois\u002Fstatus\u002F1695518950715473991?s=46&t=zn2SOuJcSVq-Pe2Ysevzkg)！\n\n## 💫 贡献者\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg alt=\"contributors\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_readme_e47655cbe9c4.png\"\u002F>\n\u003C\u002Fa>","# OpenLLMetry 快速上手指南\n\nOpenLLMetry 是一套基于 [OpenTelemetry](https:\u002F\u002Fopentelemetry.io\u002F) 构建的开源可观测性工具，专为 LLM（大语言模型）应用设计。它能帮助您全面监控 LLM 调用、向量数据库操作及 AI 框架流程，并兼容 Datadog、Honeycomb、Grafana 等主流可观测性平台。\n\n## 环境准备\n\n- **操作系统**：Linux、macOS 或 Windows\n- **Python 版本**：Python 3.8 及以上\n- **前置依赖**：\n  - 已安装 `pip` 包管理工具\n  - （可选）已配置好您的 LLM 提供商密钥（如 OpenAI API Key）或向量数据库连接\n\n> **注意**：本指南主要针对 Python 开发者。如果您使用 JavaScript\u002FTypeScript，请参考 [OpenLLMetry-JS](https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry-js)。\n\n## 安装步骤\n\n推荐使用官方 SDK 进行快速集成。您可以直接使用 pip 安装，若需加速下载，可指定国内镜像源（如阿里云）。\n\n```bash\n# 使用默认源安装\npip install traceloop-sdk\n\n# 或使用国内镜像源加速安装（推荐中国开发者使用）\npip install traceloop-sdk -i https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n```\n\n## 基本使用\n\n集成 OpenLLMetry 非常简单，只需在代码入口处添加初始化逻辑即可自动拦截并追踪支持的 LLM 和向量数据库调用。\n\n### 1. 最小化集成示例\n\n在您的 Python 应用入口文件（如 `main.py`）中添加以下代码：\n\n```python\nfrom traceloop.sdk import Traceloop\n\nTraceloop.init()\n```\n\n添加上述代码后，SDK 会自动检测并追踪您项目中使用的受支持库（如 OpenAI, LangChain, Chroma 等），并将追踪数据发送到默认的收集端。\n\n### 2. 本地调试模式\n\n如果您在本地开发环境中运行代码，希望立即看到追踪结果而不等待批量发送，可以禁用批量处理功能：\n\n```python\nfrom traceloop.sdk import Traceloop\n\nTraceloop.init(disable_batch=True)\n```\n\n### 3. 后续步骤\n\n完成初始化后，您的应用生成的追踪数据符合 OpenTelemetry 标准。您需要配置环境变量或将数据导出到您选择的后端平台（如 Traceloop, Datadog, Grafana 等）以查看可视化图表。具体配置方法请参考官方文档中的 [集成指南](https:\u002F\u002Ftraceloop.com\u002Fdocs\u002Fopenllmetry\u002Fintegrations\u002Fexporting)。\n\n**支持的常见库包括：**\n- **LLM 提供商**：OpenAI, Anthropic, Azure OpenAI, Google Gemini, Cohere, Ollama 等。\n- **向量数据库**：Chroma, Pinecone, Qdrant, Milvus, Weaviate 等。\n- **AI 框架**：LangChain, LlamaIndex, CrewAI, Haystack, AutoGen 等。","某电商团队正在开发基于大模型的智能客服系统，需要实时追踪用户问答链路以优化回答质量并控制 Token 成本。\n\n### 没有 openllmetry 时\n- **黑盒运行**：LLM 调用过程如同黑盒，当用户反馈回答错误时，开发人员无法复现具体的提示词（Prompt）和模型返回内容，排查问题全靠猜。\n- **成本盲区**：缺乏细粒度的 Token 消耗监控，无法定位是哪个功能模块或哪类问题导致了预算超支，难以进行成本优化。\n- **性能瓶颈难定**：当响应变慢时，无法区分耗时是发生在向量数据库检索、网络传输还是模型生成阶段，优化无从下手。\n- **调试效率低下**：开发者不得不手动在代码中插入大量打印日志，不仅污染代码库，还容易遗漏关键上下文信息。\n\n### 使用 openllmetry 后\n- **全链路可视化**：openllmetry 自动捕获每一次 LLM 交互的完整轨迹，包括输入提示词、输出结果及元数据，支持一键复现故障现场。\n- **精细化成本分析**：实时监控每个会话甚至每次调用的 Token 用量，快速识别高消耗场景，为调整模型策略提供数据支撑。\n- **精准性能诊断**：基于 OpenTelemetry 标准，清晰展示从向量检索到模型生成的各阶段耗时，帮助团队迅速锁定并解决延迟瓶颈。\n- **零侵入式集成**：只需几行代码即可接入现有观测栈（如 Datadog 或 Honeycomb），无需修改业务逻辑即可获得专业的可观测性数据。\n\nopenllmetry 将不可控的生成式 AI 应用转化为透明、可度量且易于优化的生产级系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftraceloop_openllmetry_431b7cab.png","traceloop","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftraceloop_61282304.jpg","Quality monitoring for your LLM applications",null,"hi@traceloop.com","traceloopdev","traceloop.com","https:\u002F\u002Fgithub.com\u002Ftraceloop",[23,27],{"name":24,"color":25,"percentage":26},"Python","#3572A5",100,{"name":28,"color":29,"percentage":30},"Shell","#89e051",0,6981,920,"2026-04-06T13:03:43","Apache-2.0",1,"未说明",{"notes":38,"python":36,"dependencies":39},"该工具是基于 OpenTelemetry 的 LLM 应用可观测性扩展库，主要用于追踪和监控，而非运行大型模型本身，因此对 GPU 和大内存无特殊硬性要求。它支持多种 LLM 提供商（如 OpenAI, Anthropic 等）和向量数据库的集成。可通过 pip install traceloop-sdk 安装 SDK，或直接安装特定的 instrumentation 包。数据可导出至 Datadog, Honeycomb, Traceloop 等多种后端。",[40,41,42],"opentelemetry","traceloop-sdk","opentelemetry-instrumentation-openai",[44,45,46,47],"开发框架","其他","数据工具","语言模型",[49,50,51,52,53,40,54,55,56,57,58,59,60,61,62,63,64,65],"llmops","observability","open-telemetry","metrics","monitoring","datascience","ml","model-monitoring","opentelemetry-python","python","good-first-issue","help-wanted","artifical-intelligence","generative-ai","good-first-issues","llm","open-source",2,"ready","2026-03-27T02:49:30.150509","2026-04-07T07:20:09.787435",[71,76,81,86,91,96,101],{"id":72,"question_zh":73,"answer_zh":74,"source_url":75},21281,"为什么使用 LangChain 的 ChatOpenAI 或 OpenAI 模型时，指标（Metrics）没有发送到 Prometheus？","这是一个已知的兼容性问题。当通过 LangChain 调用 OpenAI 时，指标可能无法正确生成。维护者建议参考相关的 Pull Request（如 #2154）中的评论以获取临时解决方案或修复进度。社区正在优先处理此修复，同时也欢迎贡献代码来解决 LangChain Instrumentation 中的指标发送问题。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F1912",{"id":77,"question_zh":78,"answer_zh":79,"source_url":80},21282,"如何为 OpenLLMetry 项目贡献代码或认领悬赏任务（Bounty）？","贡献者可以通过以下步骤参与：1. 在 Issue 下评论 `\u002Fattempt #Issue编号` 并附上实施计划以开始工作；2. 创建 Pull Request 并在描述中包含 `\u002Fclaim #Issue编号` 来申领奖励；3. 必须在 PR 中提供简短的演示视频展示更改效果。注意：低质量的 AI 生成 PR 将被关闭，且建议在开始前如有疑问先与维护者沟通确认。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F2456",{"id":82,"question_zh":83,"answer_zh":84,"source_url":85},21283,"OpenLLMetry 是否支持 OpenAI 新发布的结构化输出（Structured Outputs）功能？","该功能已被列为需求特性（Feature Request），旨在支持 OpenAI API 中的结构化输出（例如 `refusal` 响应）。目前该问题标记为“适合新手（good first issue）”并寻求社区贡献。如果您需要此功能，可以查看相关评论了解实现思路或直接提交 PR 进行开发。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F1815",{"id":87,"question_zh":88,"answer_zh":89,"source_url":90},21284,"OpenLLMetry 是否支持最新的 OpenAI Agent SDK？","目前 OpenAI Agent SDK 尚未被原生支持。社区正在讨论为其创建新的 Instrumentation 插件。关于实现细节，开发者需要注意语义约定（Semantic Conventions）的选择：是继续使用 OpenLLMetry 自定义的 GenAI 语义约定，还是迁移到 OpenTelemetry 原生的语义约定。建议关注相关 Issue 的进展或参与讨论。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F2916",{"id":92,"question_zh":93,"answer_zh":94,"source_url":95},21285,"Gemini 在使用 LangChain 时为什么没有生成追踪 Span？","这是一个已确认的 Bug。维护者指出在 Gemini 集成中存在一个问题，导致某些情况下无法生成 Span。如果遇到此情况，建议通过官方 Slack 渠道联系团队以获取更快的响应，或者关注后续的修复更新（如关联 Issue #1519）。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F1395",{"id":97,"question_zh":98,"answer_zh":99,"source_url":100},21286,"Anthropic Claude 的工具调用（Tool Use）功能是否被支持？","支持 Anthropic 的工具调用功能是一个明确的需求，旨在完善 Anthropic 的 Instrumentation。目标是像支持 OpenAI 一样，将工具调用的详细信息添加到追踪 Span 中。该功能尚在开发或规划中，具体实现可参考 OpenAI Instrumentation 的相关代码逻辑。","https:\u002F\u002Fgithub.com\u002Ftraceloop\u002Fopenllmetry\u002Fissues\u002F879",{"id":102,"question_zh":103,"answer_zh":104,"source_url":80},21287,"如何在保持旧版属性的同时启用基于事件（Event-based）的新语义约定？","为了符合新的语义约定同时保持兼容性，计划在每个 Instrumentation 包中添加一个配置项 `use_legacy_attributes`（默认为 true）。如果设置为 false，系统将发射事件（events）而不是旧的 prompt\u002Fcompletion 属性。此外，SDK 初始化时也支持传递该参数以全局控制所有 Instrumentation 的行为。",[106,111,116,121,126,131,136,141,146,151,156,161,166,171,176,181,186,191,196,201],{"id":107,"version":108,"summary_zh":109,"released_at":110},127298,"0.57.0","## v0.57.0 (2026-03-30)\n\n### 新特性\n\n- **bedrock**: 为 Otel GenAI 语义约定支持调整观测数据采集 (#3845)\n\n[main 0a258034] 版本号更新：0.56.1 → 0.57.0\n 64 个文件发生变化，插入 69 行，删除 63 行\n","2026-03-30T15:56:40",{"id":112,"version":113,"summary_zh":114,"released_at":115},127299,"0.56.1","## v0.56.1 (2026-03-30)\n\n### 修复\n\n- **SDK + Agno**: 在 @tool() 装饰器和 Agno 工具跨度上设置 gen_ai.tool.name (#3904)\n\n[main bb95db9d] 版本升级：0.56.0 → 0.56.1\n 64 个文件 changed, 69 行插入(+), 63 行删除(-)\n\n","2026-03-30T13:32:46",{"id":117,"version":118,"summary_zh":119,"released_at":120},127300,"0.56.0","## v0.56.0 (2026-03-30)\n\n### 新功能\n\n- **crewai**: 触发版本升级以符合 GenAI 语义约定 (#3903)\n\n[main 78d364b9] 版本升级：0.55.0 → 0.56.0\n 64 个文件已更改，插入 69 行，删除 63 行\n","2026-03-30T08:36:06",{"id":122,"version":123,"summary_zh":124,"released_at":125},127301,"0.55.0","## v0.55.0 (2026-03-29)\n\n### 新特性\n\n- **open-ai**: 增加了对 OTel GenAI 语义约定 0.5.0 的仪器化支持 (#3844)\n- **langchain**: 新的 langchain 语义约定 (#3900)\n\n[main 1cd9f8e5] 版本号更新：0.54.0 → 0.55.0\n 64 个文件发生变化，添加 70 行，删除 63 行\n\n","2026-03-29T20:10:43",{"id":127,"version":128,"summary_zh":129,"released_at":130},127302,"0.54.0","## v0.54.0 (2026-03-29)\n\n### 功能\n\n- **anthropic**: 使监控数据符合 OTel GenAI 语义规范 (#3835)\n\n[main 73bd236a] 版本号更新：0.53.4 → 0.54.0\n 64 个文件已更改，插入 69 行，删除 63 行\n","2026-03-29T13:16:12",{"id":132,"version":133,"summary_zh":134,"released_at":135},127303,"0.53.4","## v0.53.4 (2026-03-29)\n\n### 修复\n\n- **release**: 更新 .cz.toml 中的 google_generativeai 路径，并触发所有插桩的版本号递增 (#3896)\n- **llamaindex**: 处理 StructuredLLM 响应中的空内容 (#3513) (#3665)\n- **semconv**: 将 Span 属性迁移到 OTel gen_ai 规范 (#3809)\n\n[main f58d3897] 版本升级：0.53.3 → 0.53.4\n  共修改 64 个文件，新增 71 行，删除 63 行\n","2026-03-29T09:11:05",{"id":137,"version":138,"summary_zh":139,"released_at":140},127304,"0.53.3","## v0.53.3 (2026-03-19)\n\n### 修复\n\n- **langchain**: 发布并使用 semconv 0.4.16 版本 (#3829)\n\n[main ec78f27a] 版本升级：0.53.2 → 0.53.3\n 64 个文件发生变化，添加 69 行，删除 63 行\n\n","2026-03-19T16:46:01",{"id":142,"version":143,"summary_zh":144,"released_at":145},127305,"0.53.2","## v0.53.2 (2026-03-18)\n\n### 修复\n\n- 使用 GITHUB_TOKEN 创建发布以解决 403 错误 (#3821)\n\n[main 9be7eea1] 版本升级：0.53.1 → 0.53.2\n 64 个文件 changed, 69 次插入(+), 63 次删除(-)\n\n","2026-03-18T10:08:10",{"id":147,"version":148,"summary_zh":149,"released_at":150},127306,"0.53.0","## v0.53.0 (2026-03-04)\n\n### 新特性\n\n- **langchain**: 添加 OpenTelemetry GenAI 语义约定 (#3673)\n\n### 修复\n\n- **semconv**: 恢复已删除的 semconv 属性 (#3750)\n- **pinecone**: 对 pinecone 包进行插桩，而非已弃用的 pinecone-client (#3733)\n- **langchain**: 支持非 ASCII 字符以支持国际化 (#3734)\n\n[main 0b9c603b] 版本升级：0.52.6 → 0.53.0\n 64 个文件发生变化，新增 75 行，删除 63 行\n","2026-03-04T07:46:56",{"id":152,"version":153,"summary_zh":154,"released_at":155},127307,"0.52.6","## v0.52.6 (2026-02-26)\n\n### 修复\n\n- **dataset**: 向数据集元数据中添加版本信息  (#3732)\n- **qdrant**: 支持所有版本的 qdrant 包 (#3500)\n\n[main a78de643] 版本升级：0.52.5 → 0.52.6\n 64 个文件已更改，插入 70 行，删除 63 行\n","2026-02-26T15:37:55",{"id":157,"version":158,"summary_zh":159,"released_at":160},127308,"0.52.5","## v0.52.5 (2026-02-23)\n\n### Fix\n\n- **traceloop-sdk**: Add evaluator config to the evaluator validator (#3706)\n- **anthropic**: restore accidentally lost cache tokens attributes (#3648)\n\n[main c2974c94] bump: version 0.52.4 → 0.52.5\n 64 files changed, 70 insertions(+), 63 deletions(-)\n\n","2026-02-23T15:38:32",{"id":162,"version":163,"summary_zh":164,"released_at":165},127309,"0.52.4","## v0.52.4 (2026-02-19)\n\n### Fix\n\n- **openai-agents**: fix realtime session event handling for prompts, completions, and usage (#3688)\n- preserve return values for RealtimeSession context manager methods (#3681)\n- **openai-agents**: add functools.wraps to dont_throw decorator (#3687)\n\n[main ae9c348b] bump: version 0.52.3 → 0.52.4\n 64 files changed, 71 insertions(+), 63 deletions(-)\n\n","2026-02-19T13:19:47",{"id":167,"version":168,"summary_zh":169,"released_at":170},127310,"0.52.3","## v0.52.3 (2026-02-10)\n\n### Fix\n\n- **openai-agents**: add clear flag to support two instrumentation modes (#3489)\n\n[main d4d4269a] bump: version 0.52.2 → 0.52.3\n 64 files changed, 69 insertions(+), 63 deletions(-)\n\n","2026-02-10T14:52:59",{"id":172,"version":173,"summary_zh":174,"released_at":175},127311,"0.52.2","## v0.52.2 (2026-02-08)\n\n### Fix\n\n- **traceloop-sdk**: Add conversation decorator (#3659)\n- **traceloop-sdk**: Add endpoint_is_traceloop attribute (#3650)\n\n[main 8830cd78] bump: version 0.52.1 → 0.52.2\n 64 files changed, 70 insertions(+), 63 deletions(-)\n\n","2026-02-08T10:03:02",{"id":177,"version":178,"summary_zh":179,"released_at":180},127312,"0.52.1","## v0.52.1 (2026-02-02)\n\n### Fix\n\n- **voyageai**: add to commitizen to bump on release (#3660)\n\n[main c8205f5c] bump: version 0.52.0 → 0.52.1\n 64 files changed, 69 insertions(+), 63 deletions(-)\n\n","2026-02-02T09:21:06",{"id":182,"version":183,"summary_zh":184,"released_at":185},127313,"0.52.0","## v0.52.0 (2026-02-02)\n\n### Feat\n\n- **voyage-ai**: add voyage-ai instrumentation (#3653)\n\n### Fix\n\n- **openai-agents**: apply content tracing flag to content (#3487)\n- **traceloop-sdk**: Align evals output schema (#3643)\n\n[main 5f597c4b] bump: version 0.51.1 → 0.52.0\n 62 files changed, 72 insertions(+), 61 deletions(-)\n\n","2026-02-02T08:25:47",{"id":187,"version":188,"summary_zh":189,"released_at":190},127314,"0.51.1","## v0.51.1 (2026-01-26)\n\n### Fix\n\n- **openai-agents**: add support for realtime (#3533)\n\n[main ad330e3f] bump: version 0.51.0 → 0.51.1\n 62 files changed, 67 insertions(+), 61 deletions(-)\n\n","2026-01-26T16:27:54",{"id":192,"version":193,"summary_zh":194,"released_at":195},127315,"0.51.0","## v0.51.0 (2026-01-20)\n\n### Feat\n\n- **google-generativeai**: Add metrics support (#3506)\n\n### Fix\n\n- **traceloop-sdk**: Add csv and json support to experiment (#3537)\n- **evals**: evals API supports input + config, generate mbt functions (#3534)\n- **langchain**: correct unknown role in completion spans (#3532)\n- **evals**: auto generate evals (#3529)\n- **tracing**: Add association property (#3524)\n- **openai-agents**: optional import of optional deps (#3488)\n\n[main 73913ea3] bump: version 0.50.1 → 0.51.0\n 62 files changed, 76 insertions(+), 61 deletions(-)\n\n","2026-01-20T11:40:11",{"id":197,"version":198,"summary_zh":199,"released_at":200},127316,"0.50.1","## v0.50.1 (2025-12-16)\n\n### Fix\n\n- **sample-app**: lint fix (#3522)\n\n[main 9a487362] bump: version 0.50.0 → 0.50.1\n 62 files changed, 67 insertions(+), 61 deletions(-)\n\n","2025-12-16T08:15:04",{"id":202,"version":203,"summary_zh":204,"released_at":205},127317,"0.50.0","## v0.50.0 (2025-12-15)\n\n### Feat\n\n- **guardrail**: Add guardrail decorator (#3521)\n\n[main edb2fb11] bump: version 0.49.8 → 0.50.0\n 62 files changed, 67 insertions(+), 61 deletions(-)\n\n","2025-12-15T19:19:01",[207,218,226,234,242,251],{"id":208,"name":209,"github_repo":210,"description_zh":211,"stars":212,"difficulty_score":213,"last_commit_at":214,"category_tags":215,"status":67},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[216,44,217,46],"Agent","图像",{"id":219,"name":220,"github_repo":221,"description_zh":222,"stars":223,"difficulty_score":213,"last_commit_at":224,"category_tags":225,"status":67},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[44,217,216],{"id":227,"name":228,"github_repo":229,"description_zh":230,"stars":231,"difficulty_score":66,"last_commit_at":232,"category_tags":233,"status":67},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,"2026-04-06T11:32:54",[44,216,47],{"id":235,"name":236,"github_repo":237,"description_zh":238,"stars":239,"difficulty_score":66,"last_commit_at":240,"category_tags":241,"status":67},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[44,217,216],{"id":243,"name":244,"github_repo":245,"description_zh":246,"stars":247,"difficulty_score":66,"last_commit_at":248,"category_tags":249,"status":67},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[250,44],"插件",{"id":252,"name":253,"github_repo":254,"description_zh":255,"stars":256,"difficulty_score":213,"last_commit_at":257,"category_tags":258,"status":67},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[47,217,216,44]]