ChainForge
ChainForge 是一款开源的可视化编程环境,专为大规模测试和优化大语言模型(LLM)提示词而设计。它解决了传统“聊天式”调试效率低下的痛点,让用户无需编写繁琐代码,即可通过直观的数据流图快速对比不同提示词、模型及参数设置下的响应质量。
这款工具特别适合 AI 开发者、研究人员以及需要系统化评估模型表现的产品团队使用。其核心亮点在于支持同时向多个主流模型(如 OpenAI、Anthropic、Google Gemini 及本地 Ollama 模型等)发送请求,并内置了灵活的评估指标系统,能即时将测试结果可视化。此外,ChainForge 还能利用生成式 AI 自动创建测试数据或辅助编写评估代码,大幅缩短实验周期。无论是进行严谨的基准测试,还是快速验证创意想法,ChainForge 都能帮助用户以更科学、高效的方式找到最佳模型配置方案。
使用场景
某电商公司的算法团队正在为智能客服系统优化“处理退货请求”的提示词,试图在礼貌性与问题解决率之间找到最佳平衡点。
没有 ChainForge 时
- 工程师只能手动在多个聊天窗口中分别测试不同模型(如 GPT-4、Claude 3),反复复制粘贴提示词变体,效率极低且容易出错。
- 缺乏统一的对比视图,难以直观判断哪种提示词结构或模型参数组合能产生最稳定的回复质量。
- 评估过程依赖人工主观打分,无法快速建立量化指标(如“是否包含退款链接”)来批量验证数百条生成结果。
- 当需要构造多样化的用户退货场景(如“商品损坏”、“发错货”)作为测试集时,编写合成数据耗时费力。
使用 ChainForge 后
- 通过可视化节点流同时向 OpenAI、Anthropic 等多个模型发送请求,一键并行测试数十种提示词变体,将迭代周期从几天缩短至几分钟。
- 利用内置的数据流图表直接并排对比不同模型和参数下的回复差异,迅速锁定表现最优的“模型 - 提示词”组合。
- 自定义 Python 评分函数自动检测回复中是否包含关键信息(如退款政策、物流指引),即时生成可视化报表量化效果。
- 调用内置生成式 AI 功能自动创建涵盖各种边缘案例的合成测试数据集,大幅提升了评估的全面性与鲁棒性。
ChainForge 将原本碎片化、靠直觉的提示词调试过程,转变为可量化、可视化的科学实验流程,显著提升了大模型应用落地的可靠性。
运行环境要求
- 未说明
非必需(支持通过 Ollama 调用本地模型,也可完全使用云端 API)
未说明

快速开始
⛓️🛠️ ChainForge
ChainForge 是一个基于数据流的提示工程环境,用于分析和评估大语言模型的响应。它能够快速、简便地比较不同的提示、模型及响应质量,超越了与单个大语言模型进行临时性对话的方式。通过 ChainForge,您可以:
- 同时查询多个大语言模型,以快速有效地测试提示创意及其变体。
- 跨提示排列、跨模型以及跨模型设置比较响应质量,从而为您的应用场景选择最佳的提示和模型。
- 设置评估指标(评分函数),并立即可视化不同提示、提示参数、模型及模型设置下的结果。
- 利用 AI 流程化整个过程:借助内置的生成式 AI 功能创建合成表格和输入示例,或通过让模型为您提供初始代码来加速评估脚本的编写。
阅读文档以了解更多信息。 ChainForge 自带许多示例评估流程,帮助您了解其功能,其中包括从 OpenAI 评估基准中生成的 188 个示例流程。
ChainForge 基于 ReactFlow 和 Flask 构建。
如需用户精选的资源和学习材料,请查看 🌟Awesome ChainForge 仓库!
目录
安装
您可以在本地安装 ChainForge,也可以在网页版上试用:https://chainforge.ai/play/。网页版的功能较为有限。而在本地安装的版本中,您可以从环境变量中自动加载 API 密钥,编写 Python 代码来评估大语言模型的响应,或查询通过 Ollama 托管的本地运行模型。
要在您的机器上安装 ChainForge,请确保已安装 Python 3.8 或更高版本,然后运行:
pip install chainforge
安装完成后,执行以下命令:
chainforge serve
在 Google Chrome、Firefox、Microsoft Edge 或 Brave 浏览器中打开 localhost:8000。
您可以通过点击右上角的设置图标来配置 API 密钥。如果您不想每次打开 ChainForge 时都手动设置这些密钥,我们强烈建议将您的 OpenAI、Anthropic、Google 等 API 密钥和/或 Amazon AWS 凭证保存到本地环境变量中。更多详情请参阅 安装指南。
使用 Docker 运行
您可以使用我们的 Dockerfile 在本地通过 Docker Desktop 运行 ChainForge:
构建 Dockerfile:
docker build -t chainforge .运行镜像:
docker run -p 8000:8000 chainforge
现在您可以打开任意浏览器,并访问 http://127.0.0.1:8000。
支持的提供商
- OpenAI
- Anthropic
- Google Gemini
- DeepSeek
- HuggingFace(推理与端点)
- Together.ai
- Ollama API(本地托管模型)
- Microsoft Azure OpenAI 端点
- Aleph Alpha
- Amazon Bedrock 托管的按需推理服务,包括 Anthropic Claude 3
- …以及其他任何可通过 自定义提供商脚本 集成的提供商!
示例实验
我们准备了许多示例流程,帮助您了解 ChainForge 的强大功能。请点击右上角的“示例流程”按钮并选择一个。以下是一个基本的比较示例,展示了不同模型和提示参数 {game} 下的响应长度:
您还可以使用表格数据节点进行真值评估。例如,我们可以通过将每个大语言模型的回答与预期答案进行比较,来评估它们解答数学问题的能力:
只需导入一个数据集,将其连接到提示节点中的模板变量,然后点击运行即可。
跨模型和提示比较响应
通过交互式响应检查器,您可以跨模型和提示变量进行比较,该检查器包含格式化的表格和可导出的数据:
ChainForge 的核心优势在于其组合能力:它会对提示模板的输入进行笛卡尔积运算,这意味着您可以生成所有可能的输入值组合。这种方式非常高效,能够一次性发送数百个查询,从而比单次提示更稳健地验证模型的行为。
以下是开始比较不同提示模板的教程。
与他人共享
ChainForge 的网页版(https://chainforge.ai/play/)包含一个“分享”按钮。
只需点击“分享”即可生成您流程的唯一链接,并将其复制到剪贴板:

例如,这是我制作的一个尝试让大语言模型泄露秘密密钥的实验:https://chainforge.ai/play/?f=28puvwc788bog
注意 为防止滥用,您一次最多只能分享 10 个流程,且每个流程压缩后不得超过 5MB。 如果您分享超过 10 个流程,最早的链接将会失效,因此请务必始终将重要流程导出为
cforge文件, 并仅使用“分享”功能临时传递数据。
有关特定节点功能的更多细节,请参阅 节点列表。
功能
ChainForge 的一个关键目标是促进提示和模型的比较与评估。总体而言,您可以:
- 跨提示及提示参数进行比较:找到能够最大化您的评估指标(例如最低代码错误率)的最佳提示组合。或者,查看更改提示模板中的参数如何影响响应质量。
- 跨模型进行比较:比较不同模型及其不同设置下对每个提示的响应,从而为您的用例选择最佳模型。
实现这些功能的主要特性包括:
- 提示排列组合:设置一个提示模板,并为其输入变量提供多种变化。ChainForge 将使用所有可能的输入提示排列组合来调用所有选定的 LLM,以便您更好地了解提示的质量。您还可以以任意深度串联提示模板(例如用于比较不同的模板)。
- 模型设置:更改支持的模型设置,并在不同设置之间进行比较。例如,您可以通过添加多个 ChatGPT 模型、调整各自的不同设置并为每个模型命名,来衡量系统消息对 ChatGPT 的影响。ChainForge 会向每个版本的模型发送查询。
- 评估节点:在链中探测 LLM 的响应,并针对某些期望的行为对其进行测试(传统方式)。从基础层面来看,这基于 Python 脚本。我们计划在不久的将来为常见用例添加预设的评估节点(例如命名实体识别)。请注意,您也可以将 LLM 的响应串联到提示模板中,在采用更复杂的评估方法之前,以较低的成本对输出进行初步评估。
- 可视化节点:在分组箱线图(适用于数值指标)和直方图(适用于布尔指标)等图表上可视化评估结果。目前我们仅支持数值和布尔指标。未来我们将为用户提供更多绘图控制和选项。
- 对话轮次:不仅限于提示和模板,还可以像提示一样跟踪后续的聊天消息。您可以测试用户查询措辞的变化如何影响 LLM 的输出,或比较多个聊天模型(或同一聊天模型的不同设置)在后续回复中的质量。
除了内置的 生成式 AI 功能 🪄💫,如合成数据生成外,提示工程也得到了加速:您有时甚至可以在无需编写任何代码的情况下比较提示和模型性能,从而使迭代和发现过程提速十倍。
我们还发现,有些用户只是想利用 ChainForge 向 LLM 发出大量带参数的查询(例如将提示模板串联到提示模板中),可能对其打分,然后将结果导出到电子表格(Excel xlsx 文件)。为此,只需将“检查”节点连接到“提示”节点的输出端,并点击“导出数据”。
有关更详细的信息,请参阅我们的文档。
开发
ChainForge 由哈佛大学人机交互实验室 Glassman 实验室 的博士后学者 Ian Arawjo 在哈佛 HCI 社区的支持下创建。合作者包括博士生 Priyan Vaithilingam 和 Chelse Swoopes、哈佛大学本科生 Sean Yang,以及教职员工 Elena Glassman 和 Martin Wattenberg。其他合作者还包括加州大学伯克利分校博士生 Shreya Shankar 和蒙特利尔大学本科生 Cassandre Hamel。
本项目部分由 NSF 资助,资助编号分别为 IIS-2107391、IIS-2040880 和 IIS-1955699。本文所表达的所有观点、发现、结论或建议均属作者个人观点,不一定反映美国国家科学基金会的观点。
我们持续发布该工具的新版本,希望它能对其他人的项目有所帮助。
灵感与链接
ChainForge 定位为通用工具,并非专为某个特定的 API 或 LLM 后端而开发。我们的最终目标是将其集成到其他工具中,用于 LLM 的系统性评估和审计。我们希望帮助那些正在开发 LLM 提示分析流程或进行 LLM 输出审计的人。该项目的灵感来源于我们自身的使用场景,同时也与两个相关的(闭源)研究项目有着一定的共鸣,这两个项目均由 Sherry Wu 领导:
- “PromptChainer:通过可视化编程串联大型语言模型提示”(Wu 等人,CHI ’22 LBW)视频
- “AI 链:通过串联大型语言模型提示实现透明且可控的人工智能交互”(Wu 等人,CHI ’22)
与这些项目不同的是,我们专注于支持跨提示、提示参数和模型的评估。
如何参与合作?
我们欢迎开源社区的贡献者。如果您想报告 bug 或请求新功能,请在 GitHub 上提交一个 issue。我们也鼓励用户自行实现请求的功能或修复 bug,并提交 pull request。
引用我们
如果您出于研究目的使用 ChainForge,无论是基于源代码进行二次开发,还是利用该工具研究 LLM 行为,我们都恳请您在相关出版物中引用我们的 CHI 研究论文。您可以使用的 BibTeX 格式如下:
@inproceedings{arawjo2024chainforge,
title={ChainForge:用于提示工程和 LLM 假设检验的可视化工具},
author={Arawjo, Ian and Swoopes, Chelse and Vaithilingam, Priyan and Wattenberg, Martin and Glassman, Elena L},
booktitle={人机交互计算系统 CHI 大会论文集},
pages={1--18},
year={2024}
}
许可证
ChainForge 采用 MIT 许可证发布。
版本历史
v0.3.62025/05/11v0.3.52025/04/15v0.3.42025/02/28v0.3.2.52024/12/19v0.3.1.52024/04/25v0.3.12024/03/31v0.32024/03/06add-prettier2024/02/24v0.2.9.52024/01/20v0.2.8.92024/01/08v0.2.82023/12/13v0.2.6.52023/10/23v0.2.62023/08/27docs2023/08/05v0.2.52023/07/26v0.2.1.22023/07/19v0.2.12023/07/12v0.22023/06/30v0.1.7.22023/06/23v0.1.72023/06/21常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。