trustgraph
TrustGraph 是一个专为构建“有记忆”的智能应用而设计的上下文开发平台。它解决了传统数据库难以有效存储、关联和检索复杂结构化知识的痛点,让大模型不仅能回答问题,更能基于深厚的背景知识进行推理。
这款工具非常适合需要开发高级 RAG(检索增强生成)系统、多智能体协作应用或知识图谱的开发者与研究团队。TrustGraph 的核心亮点在于其“图原生”架构,能够同时处理表格、文档、向量以及音视频等多模态数据。它内置了自动化数据导入流程,支持从简单的语义检索到精确的本体论结构化检索,并开箱即用 DocumentRAG、GraphRAG 等多种先进流水线。
与其他依赖大量第三方服务的方案不同,TrustGraph 极大降低了部署门槛。它集成了 Cassandra、Qdrant、Pulsar 等强大的开源组件,提供完整的本地化或云端部署方案(支持 Docker 和 Kubernetes)。除了兼容主流商业大模型 API,它还完美支持 Ollama、vLLM 等本地推理框架,无需繁琐配置即可拥有私有的高速消息总线与存储系统。如果你希望打造一个真正理解上下文、具备长期记忆且数据可控的 AI 应用,TrustGraph 提供了坚实的基础设施与友好的开发工具链。
使用场景
某医疗科技公司的研发团队正在构建一个智能临床辅助系统,需要让 AI 医生助手精准理解复杂的病历、医学指南及多模态检查报告。
没有 trustgraph 时
- 知识碎片化严重:病历文本、影像数据和关系型数据分散在不同数据库中,AI 难以跨模态关联信息,导致诊断建议缺乏上下文支撑。
- 检索精度低:传统向量检索只能匹配关键词相似度,无法理解“高血压并发症”与特定药物之间的深层逻辑关系,常返回无关或片面信息。
- 开发运维复杂:团队需自行搭建并维护向量库、图数据库及消息队列,配置繁琐且需管理大量第三方 API 密钥,耗时耗力。
- 推理黑盒难调试:缺乏可视化工具,开发者无法直观查看 AI 是如何从海量数据中推导结论的,难以优化错误的推理路径。
使用 trustgraph 后
- 多模态知识融合:利用 trustgraph 的原生图架构,将结构化病历、非结构化文档及影像数据统一存储,自动构建实体间的语义关联,形成完整的患者知识图谱。
- 高精度本体检索:通过 OntologyRAG 和本体结构化功能,AI 能精准识别医学概念间的逻辑(如禁忌症、因果关系),显著提升诊断建议的准确性。
- 开箱即用的基础设施:trustgraph 内置了 Cassandra、Qdrant 和 Pulsar 等组件,无需配置繁琐的 API 密钥即可本地部署,让团队专注于业务逻辑而非基建。
- 3D 可视化可解释性:借助 3D GraphViz 功能,医生和开发者可直接探索上下文图谱,清晰追踪 AI 的决策路径,快速验证并修正推理结果。
trustgraph 通过将分散的数据转化为可推理的结构化知识图谱,让医疗 AI 真正具备了像专家一样思考的“上下文能力”。
运行环境要求
- Linux
- macOS
- Windows
- 非必需
- 若使用本地开源大模型推理(vLLM, TGI, Ollama 等),需根据具体模型配置 NVIDIA GPU
- 若仅使用第三方 API (OpenAI, Anthropic 等) 则无需 GPU
未说明(取决于部署规模及是否运行本地大模型,建议 16GB+ 以运行完整 Docker 组件栈)

快速开始
构建需要“知道”信息的应用程序,仅仅依靠数据库是不够的。TrustGraph 是一款上下文开发平台:一种原生图结构的基础设施,用于在任意规模下存储、丰富和检索结构化知识。它类似于 Supabase,但以上下文图为核心:支持多模态存储、语义检索流水线、可移植的上下文核心,以及开箱即用的完整开发者工具链。你可以在本地或云端部署它。无需繁琐的 API 密钥,只需精心设计的上下文即可。
平台功能:
- 多模型与多模态数据库系统
- 表格/关系型、键值对
- 文档、图谱和向量
- 图像、视频和音频
- 自动化数据摄取与加载
- 基于语义相似度检索的快速摄取
- 基于本体的结构化处理,实现精准检索
- 开箱即用的 RAG 流水线
- DocumentRAG
- GraphRAG
- OntologyRAG
- 3D GraphViz 用于探索上下文
- 完全代理式系统
- 单一代理
- 多代理
- 支持 MCP 集成
- 随处运行
- 使用 Docker 在本地部署
- 使用 Kubernetes 在云端部署
- 支持所有主流大模型
- 提供 Anthropic、Cohere、Gemini、Mistral、OpenAI 等第三方 API 支持
- 支持 vLLM、Ollama、TGI、LM Studio 和 Llamafiles 等框架进行模型推理
- 对开发者友好
无需 API 密钥
你是否曾克隆过一个项目,打开 .env.example 文件却发现里面列满了数十个第三方依赖所需的 API 密钥?而在 TrustGraph 中,真正可能需要 API 密钥的只有三样东西:
- 第三方大模型服务,如 Anthropic、Cohere、Gemini、Mistral、OpenAI 等
- 第三方 OCR 工具,比如 Mistral OCR
- 你自己为 TrustGraph API 网关设置的 API 密钥
其余的一切都已包含在内。
- 在 Cassandra 中托管的多模型存储
- 在 Qdrant 中托管的向量嵌入存储
- 在 Garage(兼容 S3)中托管的文件和对象存储
- 在 Pulsar 中托管的高速 Pub/Sub 消息传递网络
- 为开源大模型提供的完整推理栈,包括 vLLM、TGI、Ollama、LM Studio 和 Llamafiles 等工具
快速入门
npx @trustgraph/config
TrustGraph 以 Docker 容器形式分发,可通过 Docker、Podman 或 Minikube 在本地运行。配置工具会生成:
deploy.zip,其中包含用于 Docker/Podman 部署的docker-compose.yaml文件,或用于 Kubernetes 的resources.yaml- 部署说明文档
INSTALLATION.md
若想通过浏览器快速体验,可以尝试使用 配置终端。
观看:什么是上下文图?
观看:上下文图实战
开始使用 TrustGraph
工作台
工作台 提供了 TrustGraph 主要功能的工具入口。默认端口为 8888。
- 向量搜索:搜索已加载的知识库
- 代理、GraphRAG 和大模型聊天:用于代理交互、GraphRAG 查询或直接与大模型对话的聊天界面
- 关系分析:深入分析已加载知识库中的复杂关系
- 图可视化工具:展示已加载知识库的 3D 图谱
- 知识库管理区:用于暂存待加载的知识库
- 流程模板:预设的工作流配置
- 自定义流程:创建个性化工作流,并在运行时调整大模型参数
- 知识核心:管理可复用的知识库
- 提示词管理:在运行时管理和调整提示词
- 模式定义:为结构化数据知识库定义自定义模式
- 本体定义:为非结构化数据知识库定义自定义本体
- 代理工具:通过集合、知识核心、MCP 连接和工具组来定义代理工具
- MCP 工具:连接到 MCP 服务器
用于 UI 的 TypeScript 库
有 3 个库可用于快速集成 TrustGraph 服务的 UI。
上下文核心
上下文核心是一个可移植、带版本的上下文包,你可以在不同项目和环境中分发它,在生产环境中固定版本,并在多个智能体之间重复使用。它将“智能体需要知道的内容”(结构化知识 + 嵌入向量 + 证据 + 策略)打包成一个单一的工件,这样你就可以像对待代码一样管理上下文:构建、测试、版本化、升级和回滚。TrustGraph 就是为支持这种端到端的上下文工程与编排工作流而设计的。
上下文核心包含什么
上下文核心通常包括:
- 本体(你的领域模式)及映射关系
- 上下文图(实体、关系及支持性证据)
- 嵌入向量/向量索引,用于快速语义检索
- 数据来源清单 + 来源追溯信息(事实来自哪里、何时产生以及如何推导而来)
- 检索策略(遍历规则、时效性、权威度排序)
技术栈
TrustGraph 提供组件灵活性,以优化智能体的工作流。
大模型 API
- Anthropic
- AWS Bedrock
- AzureAI
- AzureOpenAI
- Cohere
- Google AI Studio
- Google VertexAI
- Mistral
- OpenAI
大模型编排
- LM Studio
- Llamafiles
- Ollama
- TGI
- vLLM
多模型存储
- Apache Cassandra
向量数据库
- Qdrant
文件与对象存储
- Garage
可观测性
- Prometheus
- Grafana
- Loki
数据流
- Apache Pulsar
云服务
- AWS
- Azure
- Google Cloud
- OVHcloud
- Scaleway
可观测性与遥测
平台运行后,可通过以下地址访问 Grafana 仪表板:
http://localhost:3000
默认登录凭证为:
用户名: admin
密码: admin
默认的 Grafana 仪表板会跟踪以下指标:
遥测数据
- 大模型延迟
- 错误率
- 服务请求速率
- 队列积压情况
- 分块分布直方图
- 按服务划分的错误来源
- 速率限制事件
- 各服务的 CPU 使用率
- 各服务的内存使用率
- 已部署的模型数量
- 令牌吞吐量(每秒处理的令牌数)
- 成本吞吐量(每秒产生的成本)
贡献
许可证
TrustGraph 采用 Apache 2.0 许可证授权。
版权所有 © 2024–2025 TrustGraph
根据 Apache 许可证第 2.0 版(简称“许可证”)授权; 除非遵守许可证条款,否则不得使用本文件。 您可以从以下网址获取许可证副本:
http://www.apache.org/licenses/LICENSE-2.0
除非适用法律另有规定或双方书面同意,否则根据“原样”基础分发软件, 不提供任何形式的保证或条件。有关权限和限制的具体内容,请参阅许可证文件。
支持与社区
版本历史
v2.2.17v2.2.16v2.2.15v2.2.14v2.2.13v2.2.11v2.2.10v2.2.8v2.2.7v2.2.6v2.2.5v2.2.4v2.2.3v2.2.2v2.2.1v2.2.0v2.1.28v2.1.27v2.1.26v2.1.25常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。


