generative_ai_with_langchain
Generative AI with LangChain 是一套基于Python和LangChain生态的开发工具集,专注于构建可落地的大型语言模型应用与智能代理系统。它针对企业级AI开发中从原型到生产的痛点,提供多代理架构设计、高效工作流编排(LangGraph)、增强检索生成(RAG)等核心技术方案。通过实战案例涵盖软件开发、数据分析等场景,支持Google Gemini、Anthropic等主流大模型,并包含测试评估、成本优化及安全合规等生产必备模块。适合希望将AI技术应用于实际业务的开发者与研究者,尤其对需要构建复杂智能系统的团队具有参考价值。配套书籍提供系统性指导,附带代码仓库与学习资源,助力开发者快速掌握生产环境下的LLM应用开发方法。
使用场景
一家电商公司正为客服团队开发智能助手,用于实时处理客户咨询、订单查询和退货流程,但现有系统频繁崩溃且响应迟缓。
没有 generative_ai_with_langchain 时
- 系统响应延迟高,平均等待时间超10秒,客户流失率上升15%。
- RAG管道设计粗糙,常推荐已下架商品,错误率高达40%。
- 新功能(如退货流程)需重写核心逻辑,每次迭代耗时2周以上。
- 缺乏实时监控,问题定位依赖人工排查,平均修复时间超4小时。
- 部署到生产环境需手动配置API密钥和模型参数,每次更新耗时半天。
使用 generative_ai_with_langchain 后
- 通过LangGraph优化的混合搜索RAG管道,响应时间压缩至1.5秒内,客户等待体验显著改善。
- 多代理架构实现智能错误处理与事实核查,推荐准确率提升至95%,错误率降至5%。
- LangGraph的模块化工作流使退货流程集成仅需1天,迭代效率提高80%。
- 内置的可观测性工具(如日志追踪和性能仪表盘)将问题定位时间缩短至30分钟。
- 自动化部署脚本实现一键发布,生产环境更新从半天缩减至10分钟。
核心价值在于让企业从原型开发无缝过渡到稳定高效的AI客服系统,真正实现“开箱即用”的生产级体验。
运行环境要求
未说明
未说明

快速开始
使用 LangChain 的生成式 AI,第二版
这是 Packt 出版的《使用 LangChain 的生成式 AI,第二版》(ISBN:9781837022014)的代码仓库。
使用 Python 和 LangGraph 构建生产就绪的 LLM 应用程序及高级智能体
本·奥夫斯、列昂尼德·库利金
关于本书
本第二版直面当今企业在 AI 领域面临的最大挑战:如何将原型转化为生产环境中的应用。本书全面更新,反映了 LangChain 生态系统的最新进展,深入探讨了现代 AI 系统在企业环境中开发、部署和扩展的方式。新版特别强调多智能体架构、稳健的 LangGraph 工作流以及先进的检索增强生成(RAG)流水线。
您将探索构建智能体系统的设计模式,并通过实际案例了解用于复杂任务的多智能体配置。书中还介绍了思维树、结构化生成和智能体交接等推理技术,并提供了完整的错误处理示例。此外,新增的测试、评估和部署章节针对现代 LLM 应用的需求,教您如何设计具备内置安全机制和负责任开发原则的安全合规 AI 系统。新版还进一步扩展了 RAG 的内容,提供混合搜索、重排序和事实核查流水线的指导,以提升输出准确性。
无论您是扩展现有工作流,还是从零开始构建多智能体系统,本书都能为您提供所需的技术深度和实用指导,助您设计出能够在生产环境中成功运行的 LLM 应用程序。
核心学习点
- 使用 LangGraph 设计并实现精炼的多智能体系统
- 面向 LLM 应用的企业级测试与评估框架
- 部署生产就绪的可观测性和监控解决方案
- 构建具备混合搜索和重排序能力的 RAG 系统
- 为软件开发和数据分析任务部署智能体
- 兼容最新的 LLM 及其提供商,包括 Google Gemini、Anthropic、Mistral、DeepSeek 和 OpenAI o3-mini
- 优化不同部署方式下的成本与性能
- 按照当前最佳实践设计安全合规的 AI 系统
致读者
感谢您选择《使用 LangChain 的生成式 AI》!我们非常重视您的热情与反馈。
请注意,为了跟上生态系统的步伐,我们已发布了多个代码更新版本。因此,本仓库包含四个不同的分支:
- v1 - 最新迁移:适用于 LangChain v1.0 和 2026 年模型标准(Python 3.12+)。
- 第二版 - 对应第二版纸质书,使用 LangChain v0.3。
- softupdate - 用于该书的软更新版本(2024),对应 LangChain v0.1.13。
- main - 这是本书的原始版本(2023 年 12 月)。
请根据您感兴趣的版本或与您手中书籍版本相对应的分支进行参考。
下载免费 PDF 
下载免费 PDF 如果您已经购买了本书的最新纸质版或 Kindle 版,可以免费获取无 DRM 限制的 PDF 版本。只需点击链接即可领取您的免费 PDF。
免费电子书 ![]()
我们还在 GraphicBundle 提供包含本书中截图和图表彩色图像的 PDF 文件 ![]()
承诺
代码更新: 我们致力于为您提供稳定且有价值的代码示例。尽管 LangChain 以频繁更新著称,但我们深知使代码与最新变化保持一致的重要性。配套仓库会定期更新,以配合 LangChain 的发展。
稳定性预期: 为了确保稳定性和可用性,仓库可能不会完全匹配 LangChain 的每一次小更新。我们的目标是保持一致性与可靠性,从而为读者提供顺畅的体验。
联系我们: 如果您遇到问题或有任何建议,请随时提交问题,我们将尽快予以解决。您的反馈对我们至关重要,我们愿意在您使用 LangChain 的旅程中提供支持。 感谢您的理解,祝编码愉快!
在 Discord 服务器上了解更多 
您可以在 Discord 服务器上与作者及其他读者互动,并在 Discord 社区中找到最新更新和讨论内容。
章节
在下表中,您可以找到本仓库目录的链接。每个目录都包含指向 Python 脚本和笔记本的进一步链接。您还可以看到计算平台的链接,您可以在这些平台上运行仓库中的笔记本。请注意,还有一些非笔记本的 Python 脚本和项目,您可以在各章节目录中找到它们。
| 章节 | 标题 | 目录链接 |
|---|---|---|
| 第1章 | 生成式 AI 的兴起:从语言模型到智能体 | chapter1/ |
| 第2章 | LangChain 初体验 | chapter2/ |
| 第3章 | 使用 LangGraph 构建工作流 | chapter3/ |
| 第4章 | 使用 LangChain 构建智能 RAG 系统 | chapter4/ |
| 第5章 | 构建智能体 | chapter5/ |
| 第6章 | 高级应用与多智能体系统 | chapter6/ |
| 第7章 | 软件开发与数据分析智能体 | chapter7/ |
| 第8章 | LLM 应用的评估与测试 | chapter8/ |
| 第9章 | 生产部署与可观测性 | chapter9/ |
本书所需条件
软硬件清单
这是本书的配套仓库。以下是一些帮助您进行设置的说明。请同时参阅第2章。
所有章节都依赖于 Python(建议使用 v1 分支时使用 3.12 或更高版本)。
请查看书中或此处的环境设置说明。这些说明包括依赖项和 API 密钥的配置。按照说明操作应能确保您顺利运行本书及本仓库中的代码。如果您遇到任何问题,请务必确认已遵循这些步骤。
👋 贡献
我们欢迎各水平开发者参与贡献。如果您希望贡献,请查阅我们的贡献指南,帮助使本仓库和本书更加易用。
❤️ 贡献者
特别感谢 Leslie Pan,她主导了迁移到 LangChain v1.0 的工作,并更新了本仓库。
了解作者
本·奥夫法斯 本·奥夫法斯是一位全栈数据科学家,拥有超过 15 年的工作经验。他拥有计算与认知神经科学背景及博士学位,曾设计并执行细胞培养的湿实验,分析过包含数 TB 数据的实验,还在 IBM 超级计算机上运行过多达 6.4 万个核心的脑模型,构建过每日处理数百至数千笔交易的生产系统,并基于大量文本语料训练过语言模型。他是伦敦 Data Science Speakers 的联合创始人及前主席。
列昂尼德·库利金 列昂尼德·库利金是 Google Cloud 的一名资深 AI 工程师,专注于生成式 AI 和传统机器学习解决方案(如需求预测或优化问题)。他是 LangChain 上 Google Cloud 集成的主要维护者之一,同时也是 CDTM(慕尼黑工业大学和慕尼黑大学)的客座讲师。加入 Google 之前,列昂尼德曾在德国、俄罗斯和美国的科技、金融及零售企业中积累了超过 20 年的经验,负责构建基于复杂机器学习和数据处理技术的 B2C 和 B2B 应用,例如搜索、地图和投资管理。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。




