langchain-nextjs-template
langchain-nextjs-template 是一个专为快速构建 AI 应用设计的开源启动模板,完美结合了 LangChain.js 的强大能力与 Next.js 的现代开发体验。它旨在解决开发者在从零搭建大语言模型(LLM)应用时面临的配置繁琐、示例缺失等痛点,提供了一套开箱即用的解决方案。
该模板非常适合前端工程师、全栈开发者以及希望快速验证 AI 想法的研究人员使用。通过内置的多个实用示例,用户可以轻松实现基础聊天对话、让模型返回结构化数据、构建能处理复杂多步任务的智能体(Agent),以及开发基于检索增强生成(RAG)的知识库问答系统。
其技术亮点在于深度集成了 Vercel AI SDK,支持流畅的流式响应输出,显著提升用户交互体验;同时利用 LangGraph.js 框架简化了智能体工作流的构建逻辑。此外,项目针对无服务器边缘函数进行了优化,包体积小巧,对免费层级友好。无论是想学习 LangChain 实战的新手,还是寻求高效原型的资深开发者,langchain-nextjs-template 都能帮助你迅速将创意转化为可运行的应用。
使用场景
某初创团队急需在两周内上线一款具备联网搜索、结构化数据提取及文档问答功能的智能客服原型,以验证市场可行性。
没有 langchain-nextjs-template 时
- 架构搭建耗时:开发者需手动配置 Next.js 服务端边缘函数与 LangChain.js 的复杂集成,仅环境初始化就耗费数天。
- 流式响应开发难:缺乏现成的 Vercel AI SDK 集成示例,实现打字机效果的流式输出需要反复调试前端状态管理。
- 高级功能重复造轮子:构建支持多步推理的 Agent 或 RAG(检索增强生成)链路时,需从零编写 LangGraph 工作流和向量存储逻辑。
- 数据结构化繁琐:要让大模型返回符合特定 Schema 的 JSON 数据,需手动处理 Zod 校验规则与 OpenAI Function Calling 的底层对接。
- 部署门槛高:由于未针对 Serverless 环境优化,应用在 Vercel 等平台部署时常遇到包体积过大或追踪回调失败的问题。
使用 langchain-nextjs-template 后
- 极速启动项目:直接克隆模板并填入 API Key 即可运行,内置的边缘函数配置让团队当天便完成了基础聊天接口开发。
- 开箱即用的流式体验:复用模板中集成的 AI SDK 组件,无需额外代码即可实现流畅的消息流式渲染,大幅提升用户体验。
- 复杂场景快速落地:直接调用预置的 Agent 和 RAG 示例代码,轻松实现了联网查询竞品价格和内部知识库问答功能。
- 标准化数据输出:利用模板中基于 Zod 的结构化输出范例,快速定义了工单创建格式,确保大模型返回数据可直接入库。
- 无缝云端部署:依托模板对 Vercel 的一键部署支持及包体积优化,应用顺利上线且天然兼容无服务器架构,运维成本极低。
langchain-nextjs-template 将原本需要数周的后端链路整合工作压缩至小时级,让团队能专注于业务逻辑创新而非基础设施搭建。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🦜️🔗 LangChain + Next.js 入门模板
此模板搭建了一个 LangChain.js + Next.js 的入门应用。它展示了如何针对多种用例使用和组合 LangChain 模块。具体包括:
其中大多数示例都使用 Vercel 的 AI SDK 将 token 流式传输到客户端,并显示传入的消息。
代理部分使用了 LangGraph.js,这是 LangChain 用于构建代理工作流的框架。它们使用预配置的帮助函数来减少样板代码,但你也可以根据需要替换为自定义图。
https://github.com/user-attachments/assets/e389e4e4-4fb9-4223-a4c2-dc002c8f20d3
该模板也非常适合免费层级!请查看下方的 打包大小统计。
你可以在以下链接查看此仓库的托管版本:https://langchain-nextjs-template.vercel.app/
🚀 快速开始
首先,克隆此仓库并将其下载到本地。
接下来,你需要在项目的 .env.local 文件中设置环境变量。将 .env.example 文件复制到 .env.local。对于基础示例,你只需添加你的 OpenAI API 密钥即可。
由于此应用运行在无服务器边缘函数中,如果你使用 LangSmith 追踪,请确保将 LANGCHAIN_CALLBACKS_BACKGROUND 环境变量设置为 false,以保证追踪能够完成。
然后,使用你喜欢的包管理器(例如 yarn)安装所需的依赖包。
现在你可以启动开发服务器:
yarn dev
用浏览器打开 http://localhost:3000,你就能看到效果了!向机器人提问,你会看到流式响应:

你可以通过修改 app/page.tsx 来开始编辑页面。文件编辑时,页面会自动更新。
后端逻辑位于 app/api/chat/route.ts 中。在这里,你可以更改提示词和模型,或添加其他模块和逻辑。
🧱 结构化输出
第二个示例展示了如何使用 OpenAI Functions 让模型按照特定模式返回输出。点击导航栏中的“Structured Output”链接来尝试:

此示例中的链使用了一个名为 Zod 的流行库来构建模式,然后将其格式化为 OpenAI 所期望的形式。接着,它将该模式作为函数传递给 OpenAI,并设置 function_call 参数,强制 OpenAI 按照指定格式返回参数。
更多详情,请参阅 此文档页面。
🦜 代理
要尝试代理示例,你需要通过在 .env.local 中填写 SERPAPI_API_KEY 来赋予代理访问互联网的权限。如果没有 API 密钥,可以前往 SERP API 官网 获取。
之后,你可以点击“Agent”示例,尝试向它提出更复杂的问题:

本示例使用了一个 预构建的 LangGraph 代理,但你也可以自定义自己的代理。
🐶 检索
检索示例均使用 Supabase 作为向量存储。不过,你也可以根据需要更换为 其他支持的向量存储,只需修改 app/api/retrieval/ingest/route.ts、app/api/chat/retrieval/route.ts 和 app/api/chat/retrieval_agents/route.ts 中的代码即可。
对于 Supabase,按照 这些说明 设置你的数据库,然后获取数据库 URL 和私钥,并将其粘贴到 .env.local 中。
之后,你可以切换到“Retrieval”和“Retrieval Agent”示例。默认文档文本取自 LangChain.js 的检索用例文档,但你可以将其替换为你想要的任何文本。
对于给定的文本,你只需点击一次“Upload”即可。再次点击会导致文档被重新摄取,从而产生重复内容。你可以通过导航到控制台并执行 DELETE FROM documents; 来清空 Supabase 向量存储。
在分割、嵌入并上传一些文本后,你就可以开始提问了!
有关检索链的更多信息,请参阅 此页面。此处使用的对话式检索链变体是使用 LangChain 表达式语言编写的,你可以 在此处了解更多。除了流式响应外,此链示例还会通过标题返回引用来源。
有关检索代理的更多信息,请参阅 此页面。
📦 打包大小
LangChain 本身的打包大小非常小。经过压缩和分块处理后,对于 RAG 用例,LangChain 使用 37.32 KB 的代码空间(截至 @langchain/core 0.1.15),这不到 Vercel 免费层级边缘函数配额 1 MB 的 4%:

此包默认设置了 @next/bundle-analyzer——你可以通过运行以下命令交互式地探索打包大小:
$ ANALYZE=true yarn build
📚 了解更多
app/api/chat/route.ts 和 app/api/chat/retrieval/route.ts 文件中的示例链使用了 LangChain 表达式语言 来组合不同的 LangChain.js 模块。你还可以集成其他检索器、代理、预配置的链等,但请注意,HttpResponseOutputParser 旨在直接用于模型输出。
要了解 LangChain.js 的更多功能,请查阅以下文档:
▲ 在 Vercel 上部署
准备就绪后,您可以在 Vercel 平台 上部署您的应用。
更多详细信息,请参阅 Next.js 部署文档。
感谢!
感谢您的阅读!如果您有任何问题或意见,请通过 Twitter 联系我们:@LangChainAI,或点击此处加入我们的 Discord 服务器。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
