[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-trustgraph-ai--trustgraph":3,"tool-trustgraph-ai--trustgraph":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":119,"github_topics":120,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":141,"updated_at":142,"faqs":143,"releases":173},2327,"trustgraph-ai\u002Ftrustgraph","trustgraph","The context development platform. Store, enrich, and retrieve structured knowledge with graph-native infrastructure, semantic retrieval, and portable context cores.","TrustGraph 是一个专为构建“有记忆”的智能应用而设计的上下文开发平台。它解决了传统数据库难以有效存储、关联和检索复杂结构化知识的痛点，让大模型不仅能回答问题，更能基于深厚的背景知识进行推理。\n\n这款工具非常适合需要开发高级 RAG（检索增强生成）系统、多智能体协作应用或知识图谱的开发者与研究团队。TrustGraph 的核心亮点在于其“图原生”架构，能够同时处理表格、文档、向量以及音视频等多模态数据。它内置了自动化数据导入流程，支持从简单的语义检索到精确的本体论结构化检索，并开箱即用 DocumentRAG、GraphRAG 等多种先进流水线。\n\n与其他依赖大量第三方服务的方案不同，TrustGraph 极大降低了部署门槛。它集成了 Cassandra、Qdrant、Pulsar 等强大的开源组件，提供完整的本地化或云端部署方案（支持 Docker 和 Kubernetes）。除了兼容主流商业大模型 API，它还完美支持 Ollama、vLLM 等本地推理框架，无需繁琐配置即可拥有私有的高速消息总线与存储系统。如果你希望打造一个真正理解上下文、具备长期记忆且数据可控的 AI ","TrustGraph 是一个专为构建“有记忆”的智能应用而设计的上下文开发平台。它解决了传统数据库难以有效存储、关联和检索复杂结构化知识的痛点，让大模型不仅能回答问题，更能基于深厚的背景知识进行推理。\n\n这款工具非常适合需要开发高级 RAG（检索增强生成）系统、多智能体协作应用或知识图谱的开发者与研究团队。TrustGraph 的核心亮点在于其“图原生”架构，能够同时处理表格、文档、向量以及音视频等多模态数据。它内置了自动化数据导入流程，支持从简单的语义检索到精确的本体论结构化检索，并开箱即用 DocumentRAG、GraphRAG 等多种先进流水线。\n\n与其他依赖大量第三方服务的方案不同，TrustGraph 极大降低了部署门槛。它集成了 Cassandra、Qdrant、Pulsar 等强大的开源组件，提供完整的本地化或云端部署方案（支持 Docker 和 Kubernetes）。除了兼容主流商业大模型 API，它还完美支持 Ollama、vLLM 等本地推理框架，无需繁琐配置即可拥有私有的高速消息总线与存储系统。如果你希望打造一个真正理解上下文、具备长期记忆且数据可控的 AI 应用，TrustGraph 提供了坚实的基础设施与友好的开发工具链。","\n\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"TG-fullname-logo.svg\" width=100% \u002F>\n\n[![PyPI version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftrustgraph.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftrustgraph\u002F) [![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Ftrustgraph-ai\u002Ftrustgraph?color=blue)](LICENSE) ![E2E Tests](https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Factions\u002Fworkflows\u002Frelease.yaml\u002Fbadge.svg)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1251652173201149994\n)](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX) [![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Ftrustgraph-ai\u002Ftrustgraph)\n\n[**Website**](https:\u002F\u002Ftrustgraph.ai) | [**Docs**](https:\u002F\u002Fdocs.trustgraph.ai) | [**YouTube**](https:\u002F\u002Fwww.youtube.com\u002F@TrustGraphAI?sub_confirmation=1) | [**Configuration Terminal**](https:\u002F\u002Fconfig-ui.demo.trustgraph.ai\u002F) | [**Discord**](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX) | [**Blog**](https:\u002F\u002Fblog.trustgraph.ai\u002Fsubscribe)\n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F17291\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_2afa9a759104.png\" alt=\"trustgraph-ai%2Ftrustgraph | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n# The context development platform\n\n\u003C\u002Fdiv>\n\nBuilding applications that need to know things requires more than a database. [TrustGraph](https:\u002F\u002Ftrustgraph.ai) is the context development platform: graph-native infrastructure for storing, enriching, and retrieving structured knowledge at any scale. Think like [Supabase](https:\u002F\u002Fgithub.com\u002Fsupabase\u002Fsupabase) but built around context graphs: multi-model storage, semantic retrieval pipelines, portable [context cores](#context-cores), and a full developer toolkit out of the box. Deploy locally or in the cloud. No unnecessary API keys. Just context, engineered.\n\nThe platform:\n- [x] Multi-model and multimodal database system\n  - [x] Tabular\u002Frelational, key-value\n  - [x] Document, graph, and vectors\n  - [x] Images, video, and audio \n- [x] Automated data ingest and loading\n  - [x] Quick ingest with semantic similarity retrieval\n  - [x] Ontology structuring for precision retrieval\n- [x] Out-of-the-box RAG pipelines\n  - [x] DocumentRAG\n  - [x] GraphRAG\n  - [x] OntologyRAG     \n- [x] 3D GraphViz for exploring context\n- [x] Fully Agentic System\n  - [x] Single Agent\n  - [x] Multi Agent\n  - [x] MCP integration \n- [x] Run anywhere\n  - [x] Deploy locally with Docker\n  - [x] Deploy in cloud with Kubernetes\n- [x] Support for all major LLMs\n  - [x] API support for Anthropic, Cohere, Gemini, Mistral, OpenAI, and others\n  - [x] Model inferencing with vLLM, Ollama, TGI, LM Studio, and Llamafiles\n- [x] Developer friendly\n  - [x] REST API [Docs](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Frest.html)\n  - [x] Websocket API [Docs](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Fwebsocket.html)\n  - [x] Python API [Docs](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Fpython)\n  - [x] CLI [Docs](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fcli\u002F)\n     \n## No API Keys Required\n\nHow many times have you cloned a repo and opened the `.env.example` to see the dozens of API keys for 3rd party dependencies needed to make the services work? There are only 3 things in TrustGraph that might need an API key:\n\n- 3rd party LLM services like Anthropic, Cohere, Gemini, Mistral, OpenAI, etc.\n- 3rd party OCR like Mistral OCR\n- The API key *you set* for the TrustGraph API gateway\n\nEverything else is included.\n- [x] Managed Multi-model storage in [Cassandra](https:\u002F\u002Fcassandra.apache.org\u002F_\u002Findex.html)\n- [x] Managed Vector embedding storage in [Qdrant](https:\u002F\u002Fgithub.com\u002Fqdrant\u002Fqdrant)\n- [x] Managed File and Object storage in [Garage](https:\u002F\u002Fgithub.com\u002Fdeuxfleurs-org\u002Fgarage) (S3 compatible)\n- [x] Managed High-speed Pub\u002FSub messaging fabric with [Pulsar](https:\u002F\u002Fgithub.com\u002Fapache\u002Fpulsar)\n- [x] Complete LLM inferencing stack for open LLMs with [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm), [TGI](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference), [Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama), [LM Studio](https:\u002F\u002Fgithub.com\u002Flmstudio-ai), and [Llamafiles](https:\u002F\u002Fgithub.com\u002Fmozilla-ai\u002Fllamafile) \n\n## Quickstart\n\n```\nnpx @trustgraph\u002Fconfig\n```\n\nTrustGraph downloads as Docker containers and can be run locally with Docker, Podman, or Minikube. The config tool will generate:\n- `deploy.zip` with either a `docker-compose.yaml` file for a Docker\u002FPodman deploy or `resources.yaml` for Kubernetes\n- Deployment instructions as `INSTALLATION.md`\n\n\u003Cp align=\"center\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2978a6aa-4c9c-4d7c-ad02-8f3d01a1c602\"\nwidth=\"80%\" controls>\u003C\u002Fvideo>\n\u003C\u002Fp>\n\nFor a browser based quickstart, try the [Configuration Terminal](https:\u002F\u002Fconfig-ui.demo.trustgraph.ai\u002F). \n\n\u003Cdetails>\n\u003Csummary>Table of Contents\u003C\u002Fsummary>\n\u003Cbr>\n\n- [**What is a Context Graph?**](#watch-what-is-a-context-graph)\u003Cbr>\n- [**Context Graphs in Action**](#watch-context-graphs-in-action)\u003Cbr>\n- [**Getting Started**](#getting-started-with-trustgraph)\u003Cbr>\n- [**Context Cores**](#context-cores)\u003Cbr>\n- [**Tech Stack**](#tech-stack)\u003Cbr>\n- [**Observability & Telemetry**](#observability--telemetry)\u003Cbr>\n- [**Contributing**](#contributing)\u003Cbr>\n- [**License**](#license)\u003Cbr>\n- [**Support & Community**](#support--community)\u003Cbr>\n\n\u003C\u002Fdetails>\n\n## Watch What is a Context Graph?\n\n[![What is a Context Graph?](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_79aac4aef43b.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gZjlt5WcWB4) \n\n## Watch Context Graphs in Action\n\n[![Context Graphs in Action with TrustGraph](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_cbe0cc7edc93.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sWc7mkhITIo)\n\n## Getting Started with TrustGraph\n\n- [**Getting Started Guides**](https:\u002F\u002Fdocs.trustgraph.ai\u002Fgetting-started)\n- [**Using the Workbench**](#workbench)\n- [**Developer APIs and CLI**](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference)\n- [**Deployment Guides**](https:\u002F\u002Fdocs.trustgraph.ai\u002Fdeployment)\n\n## Workbench\n\nThe **Workbench** provides tools for all major features of TrustGraph. The **Workbench** is on port `8888` by default.\n\n- **Vector Search**: Search the installed knowledge bases\n- **Agentic, GraphRAG and LLM Chat**: Chat interface for agents, GraphRAG queries, or direct to LLMs\n- **Relationships**: Analyze deep relationships in the installed knowledge bases\n- **Graph Visualizer**: 3D GraphViz of the installed knowledge bases\n- **Library**: Staging area for installing knowledge bases\n- **Flow Classes**: Workflow preset configurations\n- **Flows**: Create custom workflows and adjust LLM parameters during runtime\n- **Knowledge Cores**: Manage resuable knowledge bases\n- **Prompts**: Manage and adjust prompts during runtime\n- **Schemas**: Define custom schemas for structured data knowledge bases\n- **Ontologies**: Define custom ontologies for unstructured data knowledge bases\n- **Agent Tools**: Define tools with collections, knowledge cores, MCP connections, and tool groups\n- **MCP Tools**: Connect to MCP servers\n\n## TypeScript Library for UIs\n\nThere are 3 libraries for quick UI integration of TrustGraph services.\n\n- [@trustgraph\u002Fclient](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Fclient)\n- [@trustgraph\u002Freact-state](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Freact-state)\n- [@trustgraph\u002Freact-provider](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Freact-provider)\n\n## Context Cores\n\nA Context Core is a **portable, versioned bundle of context** that you can ship between projects and environments, pin in production, and reuse across agents. It packages the “stuff agents need to know” (structured knowledge + embeddings + evidence + policies) into a single artifact, so you can treat context like code: build it, test it, version it, promote it, and roll it back. TrustGraph is built to support this kind of end-to-end context engineering and orchestration workflow.\n\n### What’s inside a Context Core\nA Context Core typically includes:\n- Ontology (your domain schema) and mappings\n- Context Graph (entities, relationships, supporting evidence)\n- Embeddings \u002F vector indexes for fast semantic entry-point lookup\n- Source manifests + provenance (where facts came from, when, and how they were derived)\n- Retrieval policies (traversal rules, freshness, authority ranking)\n\n## Tech Stack\nTrustGraph provides component flexibility to optimize agent workflows.\n\n\u003Cdetails>\n\u003Csummary>LLM APIs\u003C\u002Fsummary>\n\u003Cbr>\n\n- Anthropic\u003Cbr>\n- AWS Bedrock\u003Cbr>\n- AzureAI\u003Cbr>\n- AzureOpenAI\u003Cbr>\n- Cohere\u003Cbr>\n- Google AI Studio\u003Cbr>\n- Google VertexAI\u003Cbr>\n- Mistral\u003Cbr>\n- OpenAI\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>LLM Orchestration\u003C\u002Fsummary>\n\u003Cbr>\n\n- LM Studio\u003Cbr>\n- Llamafiles\u003Cbr>\n- Ollama\u003Cbr>\n- TGI\u003Cbr>\n- vLLM\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>Multi-model storage\u003C\u002Fsummary>\n\u003Cbr>\n\n- Apache Cassandra\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>VectorDB\u003C\u002Fsummary>\n\u003Cbr>\n\n- Qdrant\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>File and Object Storage\u003C\u002Fsummary>\n\u003Cbr>\n\n- Garage\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>Observability\u003C\u002Fsummary>\n\u003Cbr>  \n\n- Prometheus\u003Cbr>\n- Grafana\u003Cbr>\n- Loki\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>Data Streaming\u003C\u002Fsummary>\n\u003Cbr>\n\n- Apache Pulsar\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>Clouds\u003C\u002Fsummary>\n\u003Cbr>\n\n- AWS\u003Cbr>\n- Azure\u003Cbr>\n- Google Cloud\u003Cbr>\n- OVHcloud\u003Cbr>\n- Scaleway\u003Cbr>\n\n\u003C\u002Fdetails>\n\n## Observability & Telemetry\n\nOnce the platform is running, access the Grafana dashboard at:\n\n```\nhttp:\u002F\u002Flocalhost:3000\n```\n\nDefault credentials are:\n\n```\nuser: admin\npassword: admin\n```\n\nThe default Grafana dashboard tracks the following:\n\n\u003Cdetails>\n\u003Csummary>Telemetry\u003C\u002Fsummary>\n\u003Cbr>\n\n- LLM Latency\u003Cbr>\n- Error Rate\u003Cbr>\n- Service Request Rates\u003Cbr>\n- Queue Backlogs\u003Cbr>\n- Chunking Histogram\u003Cbr>\n- Error Source by Service\u003Cbr>\n- Rate Limit Events\u003Cbr>\n- CPU usage by Service\u003Cbr>\n- Memory usage by Service\u003Cbr>\n- Models Deployed\u003Cbr>\n- Token Throughput (Tokens\u002Fsecond)\u003Cbr>\n- Cost Throughput (Cost\u002Fsecond)\u003Cbr>\n   \n\u003C\u002Fdetails>\n\n## Contributing\n\n[Developer's Guide](https:\u002F\u002Fdocs.trustgraph.ai\u002Fguides\u002Fbuilding\u002Fintroduction.html)\n\n## License\n\n**TrustGraph** is licensed under [Apache 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0).\n\n   Copyright 2024-2025 TrustGraph\n\n   Licensed under the Apache License, Version 2.0 (the \"License\");\n   you may not use this file except in compliance with the License.\n   You may obtain a copy of the License at\n\n       http:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\n   Unless required by applicable law or agreed to in writing, software\n   distributed under the License is distributed on an \"AS IS\" BASIS,\n   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.\n   See the License for the specific language governing permissions and\n   limitations under the License.\n\n## Support & Community\n- Bug Reports & Feature Requests: [Discord](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX)\n- Discussions & Questions: [Discord](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX)\n- Documentation: [Docs](https:\u002F\u002Fdocs.trustgraph.ai\u002F)\n","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"TG-fullname-logo.svg\" width=100% \u002F>\n\n[![PyPI version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Ftrustgraph.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftrustgraph\u002F) [![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Ftrustgraph-ai\u002Ftrustgraph?color=blue)](LICENSE) ![E2E Tests](https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Factions\u002Fworkflows\u002Frelease.yaml\u002Fbadge.svg)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1251652173201149994\n)](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX) [![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Ftrustgraph-ai\u002Ftrustgraph)\n\n[**网站**](https:\u002F\u002Ftrustgraph.ai) | [**文档**](https:\u002F\u002Fdocs.trustgraph.ai) | [**YouTube**](https:\u002F\u002Fwww.youtube.com\u002F@TrustGraphAI?sub_confirmation=1) | [**配置终端**](https:\u002F\u002Fconfig-ui.demo.trustgraph.ai\u002F) | [**Discord**](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX) | [**博客**](https:\u002F\u002Fblog.trustgraph.ai\u002Fsubscribe)\n\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F17291\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_2afa9a759104.png\" alt=\"trustgraph-ai%2Ftrustgraph | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n# 上下文开发平台\n\n\u003C\u002Fdiv>\n\n构建需要“知道”信息的应用程序，仅仅依靠数据库是不够的。[TrustGraph](https:\u002F\u002Ftrustgraph.ai) 是一款上下文开发平台：一种原生图结构的基础设施，用于在任意规模下存储、丰富和检索结构化知识。它类似于 [Supabase](https:\u002F\u002Fgithub.com\u002Fsupabase\u002Fsupabase)，但以上下文图为核心：支持多模态存储、语义检索流水线、可移植的[上下文核心](#context-cores)，以及开箱即用的完整开发者工具链。你可以在本地或云端部署它。无需繁琐的 API 密钥，只需精心设计的上下文即可。\n\n平台功能：\n- [x] 多模型与多模态数据库系统\n  - [x] 表格\u002F关系型、键值对\n  - [x] 文档、图谱和向量\n  - [x] 图像、视频和音频\n- [x] 自动化数据摄取与加载\n  - [x] 基于语义相似度检索的快速摄取\n  - [x] 基于本体的结构化处理，实现精准检索\n- [x] 开箱即用的 RAG 流水线\n  - [x] DocumentRAG\n  - [x] GraphRAG\n  - [x] OntologyRAG     \n- [x] 3D GraphViz 用于探索上下文\n- [x] 完全代理式系统\n  - [x] 单一代理\n  - [x] 多代理\n  - [x] 支持 MCP 集成\n- [x] 随处运行\n  - [x] 使用 Docker 在本地部署\n  - [x] 使用 Kubernetes 在云端部署\n- [x] 支持所有主流大模型\n  - [x] 提供 Anthropic、Cohere、Gemini、Mistral、OpenAI 等第三方 API 支持\n  - [x] 支持 vLLM、Ollama、TGI、LM Studio 和 Llamafiles 等框架进行模型推理\n- [x] 对开发者友好\n  - [x] REST API [文档](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Frest.html)\n  - [x] Websocket API [文档](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Fwebsocket.html)\n  - [x] Python API [文档](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fapis\u002Fpython)\n  - [x] CLI [文档](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference\u002Fcli\u002F)\n\n## 无需 API 密钥\n\n你是否曾克隆过一个项目，打开 `.env.example` 文件却发现里面列满了数十个第三方依赖所需的 API 密钥？而在 TrustGraph 中，真正可能需要 API 密钥的只有三样东西：\n\n- 第三方大模型服务，如 Anthropic、Cohere、Gemini、Mistral、OpenAI 等\n- 第三方 OCR 工具，比如 Mistral OCR\n- 你自己为 TrustGraph API 网关设置的 API 密钥\n\n其余的一切都已包含在内。\n- [x] 在 [Cassandra](https:\u002F\u002Fcassandra.apache.org\u002F_\u002Findex.html) 中托管的多模型存储\n- [x] 在 [Qdrant](https:\u002F\u002Fgithub.com\u002Fqdrant\u002Fqdrant) 中托管的向量嵌入存储\n- [x] 在 [Garage](https:\u002F\u002Fgithub.com\u002Fdeuxfleurs-org\u002Fgarage)（兼容 S3）中托管的文件和对象存储\n- [x] 在 [Pulsar](https:\u002F\u002Fgithub.com\u002Fapache\u002Fpulsar) 中托管的高速 Pub\u002FSub 消息传递网络\n- [x] 为开源大模型提供的完整推理栈，包括 [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm)、[TGI](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference)、[Ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)、[LM Studio](https:\u002F\u002Fgithub.com\u002Flmstudio-ai) 和 [Llamafiles](https:\u002F\u002Fgithub.com\u002Fmozilla-ai\u002Fllamafile) 等工具\n\n## 快速入门\n\n```\nnpx @trustgraph\u002Fconfig\n```\n\nTrustGraph 以 Docker 容器形式分发，可通过 Docker、Podman 或 Minikube 在本地运行。配置工具会生成：\n- `deploy.zip`，其中包含用于 Docker\u002FPodman 部署的 `docker-compose.yaml` 文件，或用于 Kubernetes 的 `resources.yaml`\n- 部署说明文档 `INSTALLATION.md`\n\n\u003Cp align=\"center\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2978a6aa-4c9c-4d7c-ad02-8f3d01a1c602\"\nwidth=\"80%\" controls>\u003C\u002Fvideo>\n\u003C\u002Fp>\n\n若想通过浏览器快速体验，可以尝试使用 [配置终端](https:\u002F\u002Fconfig-ui.demo.trustgraph.ai\u002F)。\n\n\u003Cdetails>\n\u003Csummary>目录\u003C\u002Fsummary>\n\u003Cbr>\n\n- [**什么是上下文图？**](#watch-what-is-a-context-graph)\u003Cbr>\n- [**上下文图实战**](#watch-context-graphs-in-action)\u003Cbr>\n- [**开始使用**](#getting-started-with-trustgraph)\u003Cbr>\n- [**上下文核心**](#context-cores)\u003Cbr>\n- [**技术栈**](#tech-stack)\u003Cbr>\n- [**可观ability & Telemetry**](#observability--telemetry)\u003Cbr>\n- [**贡献代码**](#contributing)\u003Cbr>\n- [**许可证**](#license)\u003Cbr>\n- [**支持与社区**](#support--community)\u003Cbr>\n\n\u003C\u002Fdetails>\n\n## 观看：什么是上下文图？\n\n[![什么是上下文图？](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_79aac4aef43b.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gZjlt5WcWB4) \n\n## 观看：上下文图实战\n\n[![上下文图实战与 TrustGraph](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_readme_cbe0cc7edc93.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sWc7mkhITIo)\n\n## 开始使用 TrustGraph\n\n- [**入门指南**](https:\u002F\u002Fdocs.trustgraph.ai\u002Fgetting-started)\n- [**使用工作台**](#workbench)\n- [**开发者 API 和 CLI**](https:\u002F\u002Fdocs.trustgraph.ai\u002Freference)\n- [**部署指南**](https:\u002F\u002Fdocs.trustgraph.ai\u002Fdeployment)\n\n## 工作台\n\n**工作台** 提供了 TrustGraph 主要功能的工具入口。默认端口为 `8888`。\n\n- **向量搜索**：搜索已加载的知识库\n- **代理、GraphRAG 和大模型聊天**：用于代理交互、GraphRAG 查询或直接与大模型对话的聊天界面\n- **关系分析**：深入分析已加载知识库中的复杂关系\n- **图可视化工具**：展示已加载知识库的 3D 图谱\n- **知识库管理区**：用于暂存待加载的知识库\n- **流程模板**：预设的工作流配置\n- **自定义流程**：创建个性化工作流，并在运行时调整大模型参数\n- **知识核心**：管理可复用的知识库\n- **提示词管理**：在运行时管理和调整提示词\n- **模式定义**：为结构化数据知识库定义自定义模式\n- **本体定义**：为非结构化数据知识库定义自定义本体\n- **代理工具**：通过集合、知识核心、MCP 连接和工具组来定义代理工具\n- **MCP 工具**：连接到 MCP 服务器\n\n## 用于 UI 的 TypeScript 库\n\n有 3 个库可用于快速集成 TrustGraph 服务的 UI。\n\n- [@trustgraph\u002Fclient](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Fclient)\n- [@trustgraph\u002Freact-state](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Freact-state)\n- [@trustgraph\u002Freact-provider](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@trustgraph\u002Freact-provider)\n\n## 上下文核心\n\n上下文核心是一个**可移植、带版本的上下文包**，你可以在不同项目和环境中分发它，在生产环境中固定版本，并在多个智能体之间重复使用。它将“智能体需要知道的内容”（结构化知识 + 嵌入向量 + 证据 + 策略）打包成一个单一的工件，这样你就可以像对待代码一样管理上下文：构建、测试、版本化、升级和回滚。TrustGraph 就是为支持这种端到端的上下文工程与编排工作流而设计的。\n\n### 上下文核心包含什么\n上下文核心通常包括：\n- 本体（你的领域模式）及映射关系\n- 上下文图（实体、关系及支持性证据）\n- 嵌入向量\u002F向量索引，用于快速语义检索\n- 数据来源清单 + 来源追溯信息（事实来自哪里、何时产生以及如何推导而来）\n- 检索策略（遍历规则、时效性、权威度排序）\n\n## 技术栈\nTrustGraph 提供组件灵活性，以优化智能体的工作流。\n\n\u003Cdetails>\n\u003Csummary>大模型 API\u003C\u002Fsummary>\n\u003Cbr>\n\n- Anthropic\u003Cbr>\n- AWS Bedrock\u003Cbr>\n- AzureAI\u003Cbr>\n- AzureOpenAI\u003Cbr>\n- Cohere\u003Cbr>\n- Google AI Studio\u003Cbr>\n- Google VertexAI\u003Cbr>\n- Mistral\u003Cbr>\n- OpenAI\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>大模型编排\u003C\u002Fsummary>\n\u003Cbr>\n\n- LM Studio\u003Cbr>\n- Llamafiles\u003Cbr>\n- Ollama\u003Cbr>\n- TGI\u003Cbr>\n- vLLM\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>多模型存储\u003C\u002Fsummary>\n\u003Cbr>\n\n- Apache Cassandra\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>向量数据库\u003C\u002Fsummary>\n\u003Cbr>\n\n- Qdrant\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>文件与对象存储\u003C\u002Fsummary>\n\u003Cbr>\n\n- Garage\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>可观测性\u003C\u002Fsummary>\n\u003Cbr>  \n\n- Prometheus\u003Cbr>\n- Grafana\u003Cbr>\n- Loki\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>数据流\u003C\u002Fsummary>\n\u003Cbr>\n\n- Apache Pulsar\u003Cbr>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>云服务\u003C\u002Fsummary>\n\u003Cbr>\n\n- AWS\u003Cbr>\n- Azure\u003Cbr>\n- Google Cloud\u003Cbr>\n- OVHcloud\u003Cbr>\n- Scaleway\u003Cbr>\n\n\u003C\u002Fdetails>\n\n## 可观测性与遥测\n\n平台运行后，可通过以下地址访问 Grafana 仪表板：\n\n```\nhttp:\u002F\u002Flocalhost:3000\n```\n\n默认登录凭证为：\n\n```\n用户名: admin\n密码: admin\n```\n\n默认的 Grafana 仪表板会跟踪以下指标：\n\n\u003Cdetails>\n\u003Csummary>遥测数据\u003C\u002Fsummary>\n\u003Cbr>\n\n- 大模型延迟\u003Cbr>\n- 错误率\u003Cbr>\n- 服务请求速率\u003Cbr>\n- 队列积压情况\u003Cbr>\n- 分块分布直方图\u003Cbr>\n- 按服务划分的错误来源\u003Cbr>\n- 速率限制事件\u003Cbr>\n- 各服务的 CPU 使用率\u003Cbr>\n- 各服务的内存使用率\u003Cbr>\n- 已部署的模型数量\u003Cbr>\n- 令牌吞吐量（每秒处理的令牌数）\u003Cbr>\n- 成本吞吐量（每秒产生的成本）\u003Cbr>\n   \n\u003C\u002Fdetails>\n\n## 贡献\n[开发者指南](https:\u002F\u002Fdocs.trustgraph.ai\u002Fguides\u002Fbuilding\u002Fintroduction.html)\n\n## 许可证\n\n**TrustGraph** 采用 [Apache 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 许可证授权。\n\n   版权所有 © 2024–2025 TrustGraph\n\n   根据 Apache 许可证第 2.0 版（简称“许可证”）授权；\n   除非遵守许可证条款，否则不得使用本文件。\n   您可以从以下网址获取许可证副本：\n\n       http:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\n   除非适用法律另有规定或双方书面同意，否则根据“原样”基础分发软件，\n   不提供任何形式的保证或条件。有关权限和限制的具体内容，请参阅许可证文件。\n\n## 支持与社区\n- Bug 报告与功能请求：[Discord](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX)\n- 讨论与问题：[Discord](https:\u002F\u002Fdiscord.gg\u002FsQMwkRz5GX)\n- 文档：[文档](https:\u002F\u002Fdocs.trustgraph.ai\u002F)","# TrustGraph 快速上手指南\n\nTrustGraph 是一个原生的上下文开发平台，专为构建需要深度知识理解的应用而设计。它提供了图原生基础设施，用于存储、丰富和检索大规模的结构化知识，支持多模态数据存储、语义检索管道及完整的智能体（Agent）系统。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS, 或 Windows (需安装 WSL2)\n*   **容器运行时**（任选其一）：\n    *   Docker (推荐)\n    *   Podman\n    *   Minikube (用于 Kubernetes 本地测试)\n*   **Node.js**：用于运行配置工具 (建议 v18+)\n*   **硬件建议**：由于平台包含多个微服务（如 Cassandra, Qdrant, Pulsar 等），建议至少分配 4GB 以上内存给容器引擎。\n\n> **注意**：TrustGraph 的核心组件（数据库、向量存储、消息队列等）均通过容器自动部署，无需手动安装第三方数据库服务。仅需在使用第三方闭源大模型（如 OpenAI, Anthropic 等）时配置对应的 API Key。\n\n## 安装步骤\n\nTrustGraph 提供了一键配置工具，可自动生成适合本地或云端的部署文件。\n\n### 1. 运行配置工具\n\n使用 `npx` 运行官方配置终端，无需全局安装：\n\n```bash\nnpx @trustgraph\u002Fconfig\n```\n\n### 2. 生成部署文件\n\n该工具将引导您完成配置，并生成一个 `deploy.zip` 压缩包。解压后，您将看到：\n*   `docker-compose.yaml`：用于 Docker 或 Podman 本地部署。\n*   `resources.yaml`：用于 Kubernetes 云端部署。\n*   `INSTALLATION.md`：详细的部署说明文档。\n\n### 3. 启动服务\n\n进入解压后的目录，使用 Docker Compose 启动所有服务：\n\n```bash\ndocker compose up -d\n```\n\n*如果您使用的是 Podman，命令类似：`podman-compose up -d`*\n\n等待所有容器启动完毕（首次启动可能需要几分钟拉取镜像）。\n\n## 基本使用\n\n服务启动后，您可以通过以下方式开始使用 TrustGraph。\n\n### 1. 访问工作台 (Workbench)\n\nTrustGraph 提供了一个功能丰富的 Web 界面，默认运行在 **8888** 端口。\n\n打开浏览器访问：\n```\nhttp:\u002F\u002Flocalhost:8888\n```\n\n在工作台中，您可以：\n*   **Vector Search**：搜索已安装的知识库。\n*   **Agentic Chat**：与智能体、GraphRAG 或直接与大模型对话。\n*   **Graph Visualizer**：通过 3D 图谱可视化探索数据关系。\n*   **Library & Flows**：管理知识库导入和工作流配置。\n\n### 2. 监控与可观测性\n\n平台内置了 Grafana 监控面板，默认运行在 **3000** 端口。\n\n访问地址：\n```\nhttp:\u002F\u002Flocalhost:3000\n```\n\n*   **默认用户名**：`admin`\n*   **默认密码**：`admin`\n\n在此面板中，您可以实时查看 LLM 延迟、Token 吞吐量、服务错误率及资源使用情况。\n\n### 3. 开发者集成\n\n您可以通过多种方式使用 TrustGraph 进行开发：\n\n*   **Python API**:\n    ```python\n    # 示例：初始化客户端 (具体用法参考官方文档)\n    from trustgraph import Client\n    client = Client(endpoint=\"http:\u002F\u002Flocalhost:8080\")\n    ```\n\n*   **TypeScript\u002FReact**:\n    安装官方前端库以快速集成 UI：\n    ```bash\n    npm install @trustgraph\u002Fclient @trustgraph\u002Freact-state\n    ```\n\n*   **CLI 工具**:\n    通过命令行直接管理知识库和查询数据（详见 `INSTALLATION.md` 中的 CLI 章节）。\n\n---\n*更多详细文档请访问：[https:\u002F\u002Fdocs.trustgraph.ai](https:\u002F\u002Fdocs.trustgraph.ai)*","某医疗科技公司的研发团队正在构建一个智能临床辅助系统，需要让 AI 医生助手精准理解复杂的病历、医学指南及多模态检查报告。\n\n### 没有 trustgraph 时\n- **知识碎片化严重**：病历文本、影像数据和关系型数据分散在不同数据库中，AI 难以跨模态关联信息，导致诊断建议缺乏上下文支撑。\n- **检索精度低**：传统向量检索只能匹配关键词相似度，无法理解“高血压并发症”与特定药物之间的深层逻辑关系，常返回无关或片面信息。\n- **开发运维复杂**：团队需自行搭建并维护向量库、图数据库及消息队列，配置繁琐且需管理大量第三方 API 密钥，耗时耗力。\n- **推理黑盒难调试**：缺乏可视化工具，开发者无法直观查看 AI 是如何从海量数据中推导结论的，难以优化错误的推理路径。\n\n### 使用 trustgraph 后\n- **多模态知识融合**：利用 trustgraph 的原生图架构，将结构化病历、非结构化文档及影像数据统一存储，自动构建实体间的语义关联，形成完整的患者知识图谱。\n- **高精度本体检索**：通过 OntologyRAG 和本体结构化功能，AI 能精准识别医学概念间的逻辑（如禁忌症、因果关系），显著提升诊断建议的准确性。\n- **开箱即用的基础设施**：trustgraph 内置了 Cassandra、Qdrant 和 Pulsar 等组件，无需配置繁琐的 API 密钥即可本地部署，让团队专注于业务逻辑而非基建。\n- **3D 可视化可解释性**：借助 3D GraphViz 功能，医生和开发者可直接探索上下文图谱，清晰追踪 AI 的决策路径，快速验证并修正推理结果。\n\ntrustgraph 通过将分散的数据转化为可推理的结构化知识图谱，让医疗 AI 真正具备了像专家一样思考的“上下文能力”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftrustgraph-ai_trustgraph_79aac4ae.jpg","trustgraph-ai","TrustGraph","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftrustgraph-ai_896bb611.png","The Context Operating System for AI",null,"info@trustgraph.ai","TrustGraphAI","https:\u002F\u002Ftrustgraph.ai","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai",[86,90,94],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99.8,{"name":91,"color":92,"percentage":93},"Makefile","#427819",0.2,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.1,1927,206,"2026-04-03T10:12:48","Apache-2.0",4,"Linux, macOS, Windows","非必需。若使用本地开源大模型推理（vLLM, TGI, Ollama 等），需根据具体模型配置 NVIDIA GPU；若仅使用第三方 API (OpenAI, Anthropic 等) 则无需 GPU。","未说明（取决于部署规模及是否运行本地大模型，建议 16GB+ 以运行完整 Docker 组件栈）",{"notes":107,"python":108,"dependencies":109},"该工具主要通过 Docker 容器或 Kubernetes 部署，推荐使用 npx @trustgraph\u002Fconfig 生成配置文件。核心组件包括 Cassandra(多模存储)、Qdrant(向量库)、Garage(对象存储) 和 Pulsar(消息队列)。支持连接第三方 LLM API 或本地部署开源模型。默认工作界面端口为 8888，监控面板 (Grafana) 端口为 3000 (默认账号 admin\u002Fadmin)。无需特定 Python 环境安装，主要依赖容器化运行。","未说明",[110,111,112,113,114,115,116,117,118],"Docker \u002F Podman \u002F Minikube","Apache Cassandra","Qdrant","Garage (S3 compatible)","Apache Pulsar","vLLM \u002F TGI \u002F Ollama \u002F LM Studio (可选本地推理)","Prometheus","Grafana","Loki",[15,14,26,51,54,13],[121,122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137,138,139,140],"ai","open-source","ai-infra","ai-tools","chatbot","data-science","ontology","agent","graph","rdf","sparql","context-graph","context","context-engineering","ontology-engineering","knowledge-graph","developer-tools","agent-memory","backend","context-backend","2026-03-27T02:49:30.150509","2026-04-06T09:44:28.944315",[144,149,154,159,164,169],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},10676,"运行脚本时遇到 'Pulsar error: TimeOut' 错误怎么办？","如果您在使用 `sudo` 运行命令时遇到此错误，可能是因为 `sudo` 重置了环境变量。请尝试在命令中显式传递环境变量，例如：\n`sudo env OPENAI_KEY=${OPENAI_KEY} docker-compose -f whatever.yaml up -d`\n确保将 `whatever.yaml` 替换为您实际的配置文件名。","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Fissues\u002F46",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},10677,"Docker 启动时报错 'OpenAI API key not specified' 或警告 'OPENAI_TOKEN variable is not set' 如何解决？","这通常是因为环境变量未正确传递给 Docker 容器。请确保在运行 `docker compose up` 之前，已在当前终端会话中导出密钥：\n1. 执行 `export OPENAI_KEY=您的密钥`。\n2. 如果配置文件中引用的是 `OPENAI_TOKEN`，也请执行 `export OPENAI_TOKEN=您的密钥`。\n3. 然后再次运行 `docker compose -f docker-compose.yaml up`。\n如果问题依旧，请检查是否使用了最新版本的镜像（如 v0.15.5 或更高），旧版本可能存在配置加载问题。","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Fissues\u002F160",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},10678,"在线配置生成器 (Configuration Builder) 点击生成按钮失败并返回 500 错误怎么办？","这是一个已知问题，特别是在选择特定版本（如 1.7.9）和对象存储（Object Store）配置时。原因是后端配置生成器在处理从 `object-store-` 到 `row-store-` 的命名变更时存在兼容性问题。该问题已在后续更新中修复。如果遇到此错误，请尝试刷新页面重试，或者手动编辑生成的 YAML 文件，将相关的 `object-store` 配置项检查是否需调整为 `row-store`（视具体版本而定），建议等待官方配置工具完全同步最新架构后再使用。","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Fissues\u002F591",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},10679,"启动 Docker 容器时出现 'services.bookie.user must be a string' 验证错误怎么办？","这是 Docker Compose 配置文件中的一个类型定义错误（在 0.19.6 版本中发现）。维护者已发布热修复版本。请将您的 TrustGraph 版本升级到 **v0.19.8** 或更高版本以解决此问题。升级后重新生成或拉取 docker-compose 配置文件即可正常启动。","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Fissues\u002F252",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},10680,"TrustGraph 是否支持列出、删除或管理已导入的文档？","截至目前，TrustGraph 核心团队尚未正式实现完整的文档管理功能（如通过 CLI 或 GUI 列表、删除、重命名已导入文档）。虽然可以通过 Workbench 加载文档，但缺乏对已入库文档的生命周期管理工具。该功能已被列入开发 backlog（待办事项），但目前优先级主要集中于战略合作伙伴的核心需求。临时解决方案可能需要直接操作底层数据库（如 Cassandra 或配置的向量库）来管理数据，或者关注后续版本更新。","https:\u002F\u002Fgithub.com\u002Ftrustgraph-ai\u002Ftrustgraph\u002Fissues\u002F259",{"id":170,"question_zh":171,"answer_zh":172,"source_url":163},10681,"Bookie 和 Zookeeper 容器启动失败，日志显示 'Connection refused' 或 SASL 认证警告是什么原因？","这通常是由于 Bookie 服务启动过慢，导致在 Zookeeper 准备就绪前尝试连接而失败，或者是 Docker\u002FPodman 环境配置差异导致的网络问题。维护者指出这与 Pulsar 组件的缓慢启动有关。解决方案包括：\n1. 确保升级到修复了启动顺序或超时问题的最新版本（如 v0.19.8+）。\n2. 如果是 Podman 用户，注意其与 Docker 的配置差异，可能需要调整网络设置。\n3. 尝试增加容器的重启策略或等待时间，让依赖服务（Zookeeper）完全启动后再启动 Bookie。",[174,177,180,183,186,189,192,195,198,201,204,207,210,213,216,219,222,225,228,231],{"id":175,"version":176,"summary_zh":80,"released_at":80},71255,"v2.2.17",{"id":178,"version":179,"summary_zh":80,"released_at":80},71256,"v2.2.16",{"id":181,"version":182,"summary_zh":80,"released_at":80},71257,"v2.2.15",{"id":184,"version":185,"summary_zh":80,"released_at":80},71258,"v2.2.14",{"id":187,"version":188,"summary_zh":80,"released_at":80},71259,"v2.2.13",{"id":190,"version":191,"summary_zh":80,"released_at":80},71260,"v2.2.11",{"id":193,"version":194,"summary_zh":80,"released_at":80},71261,"v2.2.10",{"id":196,"version":197,"summary_zh":80,"released_at":80},71262,"v2.2.8",{"id":199,"version":200,"summary_zh":80,"released_at":80},71263,"v2.2.7",{"id":202,"version":203,"summary_zh":80,"released_at":80},71264,"v2.2.6",{"id":205,"version":206,"summary_zh":80,"released_at":80},71265,"v2.2.5",{"id":208,"version":209,"summary_zh":80,"released_at":80},71266,"v2.2.4",{"id":211,"version":212,"summary_zh":80,"released_at":80},71267,"v2.2.3",{"id":214,"version":215,"summary_zh":80,"released_at":80},71268,"v2.2.2",{"id":217,"version":218,"summary_zh":80,"released_at":80},71269,"v2.2.1",{"id":220,"version":221,"summary_zh":80,"released_at":80},71270,"v2.2.0",{"id":223,"version":224,"summary_zh":80,"released_at":80},71271,"v2.1.28",{"id":226,"version":227,"summary_zh":80,"released_at":80},71272,"v2.1.27",{"id":229,"version":230,"summary_zh":80,"released_at":80},71273,"v2.1.26",{"id":232,"version":233,"summary_zh":80,"released_at":80},71274,"v2.1.25"]