llm-answer-engine
llm-answer-engine 是一个受 Perplexity 启发的开源答案引擎项目,旨在帮助开发者快速构建具备智能搜索与回答能力的 AI 应用。它不仅能理解用户的自然语言提问,还能自动联网检索相关信息,最终生成包含准确答案、引用来源、相关图片视频以及后续建议问题的综合回复,有效解决了传统大模型因知识截止或缺乏实时数据而产生“幻觉”的问题。
该项目非常适合对自然语言处理、搜索引擎技术感兴趣的开发者,尤其是希望学习如何整合多种 AI 服务来打造复杂应用的技术人员。其核心亮点在于强大的技术栈整合能力:利用 Groq 和 Mixtral 模型实现极速推理,结合 Langchain.JS 进行文本处理,并通过 Brave Search 和 Serper API 获取高质量的实时网络内容。此外,项目基于 Next.js 和 Tailwind CSS 构建,提供了现代化的前端界面,并支持 Vercel AI SDK 实现的流式输出体验。对于想要深入探索 RAG(检索增强生成)架构或需要搭建私有化智能问答系统的团队来说,llm-answer-engine 提供了一个功能完备且易于扩展的绝佳起点。
使用场景
一名科技行业分析师需要在极短时间内为团队撰写一份关于“混合专家模型(MoE)最新商业落地案例”的深度简报,要求内容必须包含权威来源、相关视频演示及后续研究建议。
没有 llm-answer-engine 时
- 信息搜集碎片化:需要手动在 Google、YouTube 和技术博客间反复切换搜索,耗时数小时才能拼凑出完整信息链。
- 来源追溯困难:传统 AI 生成的回答往往缺乏具体出处,分析师必须逐条反向验证信息真实性,极易引入错误数据。
- 多媒体内容缺失:纯文本搜索结果无法直接提供相关的技术演示视频或图表,导致报告缺乏直观的多媒体佐证。
- 深度挖掘受阻:获取基础信息后,难以快速生成有逻辑的追问方向,导致调研容易停留在表面,缺乏深度洞察。
使用 llm-answer-engine 后
- 一站式聚合检索:llm-answer-engine 调用 Brave Search 和 Serper API,瞬间聚合全网文本、图片及视频资源,将数小时的搜集工作压缩至分钟级。
- 引用源自动标注:基于 Langchain.JS 和 Groq 的强大处理能力,生成的每段结论都自动附带精确的来源链接,确保简报数据可信且可追溯。
- 多模态内容直达:直接返回与查询高度匹配的技术演示视频和关键图像,分析师可直接将多媒体素材嵌入报告,大幅提升内容表现力。
- 智能追问引导:系统根据当前语境自动生成具有深度的后续问题建议,帮助分析师迅速锁定如“成本效益分析”等关键切入点,深化研究维度。
llm-answer-engine 通过将分散的搜索、验证与多模态整合流程自动化,把研究人员从繁琐的信息搬运中解放出来,使其专注于高价值的内容洞察与决策支持。
运行环境要求
- Linux
- macOS
- Windows
- 非必需
- 若使用本地 Ollama 模型推理,需根据所选模型配置相应 GPU(未指定具体型号)
- 若使用 Groq/OpenAI 等云端 API 则无需本地 GPU
未说明(若运行本地 Ollama 大模型,建议 16GB+)

快速开始
受Perplexity启发的大型语言模型问答引擎

本仓库包含构建一个复杂问答引擎所需的代码和说明,该引擎充分利用了Groq、Mistral AI的Mixtral、Langchain.JS、Brave Search、Serper API以及OpenAI的功能。此项目旨在根据用户查询高效地返回来源、答案、图片、视频及后续问题,是对于自然语言处理和搜索技术感兴趣的开发者们的理想起点。
YouTube教程
使用的技术
- Next.js: 用于构建服务端渲染和静态网站的React框架。
- Tailwind CSS: 一种实用优先的CSS框架,用于快速构建自定义用户界面。
- Vercel AI SDK: Vercel AI SDK是一个用于构建支持AI的流式文本和聊天UI的库。
- Groq与Mixtral: 用于处理和理解用户查询的技术。
- Langchain.JS: 一个专注于文本操作(如文本分割和嵌入)的JavaScript库。
- Brave Search: 一款注重隐私的搜索引擎,用于获取相关内容和图片。
- Serper API: 根据用户的查询获取相关的视频和图片结果。
- OpenAI Embeddings: 用于创建文本片段的向量表示。
- Cheerio: 用于HTML解析,从而从网页中提取内容。
- Ollama(可选): 用于流式推理和嵌入。
- Upstash Redis限流(可选): 用于为应用程序设置限流。
- Upstash语义缓存(可选): 用于缓存数据以加快响应速度。
开始使用
前提条件
- 从OpenAI、Groq、Brave Search和Serper获取API密钥。
非Docker安装的前提条件
- 确保您的机器上已安装Node.js和npm。
Docker安装的前提条件
- 确保您的机器上已安装Docker和docker compose。
获取API密钥
- OpenAI API密钥: 在此处生成您的OpenAI API密钥。
- Groq API密钥: 在此处获取您的Groq API密钥。
- Brave Search API密钥: 在此处获取您的Brave Search API密钥。
- Serper API密钥: 在此处获取您的Serper API密钥。
快速克隆并部署
简单、容易、快速且免费——部署到Vercel
请务必填写安装所需的所有API密钥。
安装
- 克隆仓库:
git clone https://github.com/developersdigest/llm-answer-engine.git - 进入目录
cd llm-answer-engine
Docker安装
编辑
docker-compose.yml文件并添加您的API密钥启动服务器
要启动服务器,请执行:
docker compose up -d #for v2
或
docker-compose up -d #for v1
服务器将在指定端口上监听。
非Docker安装
- 安装所需的依赖项:
或npm installbun install - 在项目的根目录下创建
.env文件,并添加您的API密钥:OPENAI_API_KEY=your_openai_api_key GROQ_API_KEY=your_groq_api_key BRAVE_SEARCH_API_KEY=your_brave_search_api_key SERPER_API=your_serper_api_key - 启动服务器
要启动服务器,请执行:
npm run dev
或
bun run dev
服务器将在指定端口上监听。
编辑配置
配置文件位于app/config.tsx文件中。您可以修改以下值:
- useOllamaInference: false,
- useOllamaEmbeddings: false,
- inferenceModel: 'mixtral-8x7b-32768',
- inferenceAPIKey: process.env.GROQ_API_KEY,
- embeddingsModel: 'text-embedding-3-small',
- textChunkSize: 800,
- textChunkOverlap: 200,
- numberOfSimilarityResults: 2,
- numberOfPagesToScan: 10,
- nonOllamaBaseURL: 'https://api.groq.com/openai/v1'
- useFunctionCalling: true
- useRateLimiting: false
- useSemanticCache: false
- usePortkey: false
函数调用支持(测试版)
目前,函数调用支持以下功能:
- 地图与位置(Serper Locations API)
- 购物(Serper Shopping API)
- TradingView 股票数据(免费小工具)
- Spotify(免费 API)
- 如果您希望在此处添加任何其他功能,请提交问题或拉取请求。
- 若要启用函数调用和条件流式 UI(当前处于测试阶段),请确保在配置文件中将 useFunctionCalling 设置为 true。
Ollama 支持(部分支持)
目前,Ollama 支持文本流式响应,但暂不支持后续问题。
嵌入功能已支持,不过在同时使用本地嵌入模型和用于流式推理的本地模型时,首个标记的生成时间可能会较长。建议减少 app/config.tsx 文件中指定的 RAG 相关参数值,以缩短使用 Ollama 时的首个标记生成时间。
要开始使用,请确保您的本地机器上已运行 Ollama 模型,并在配置中设置您希望使用的模型,同时将 useOllamaInference 和/或 useOllamaEmbeddings 设置为 true。
注意:当 'useOllamaInference' 设置为 true 时,该模型将用于文本生成,但在使用 Ollama 时会跳过后续问题的推理步骤。
更多信息:https://ollama.com/blog/openai-compatibility
路线图
- [] 添加文档上传 + RAG 功能,用于文档搜索和检索
- [] 添加设置组件,允许用户从 UI 中选择模型、嵌入模型及其他参数
- [] 在使用 Ollama 时增加对后续问题的支持
- [已完成] 添加扩散模型支持(首先支持 Fal.AI SD3),可通过 '@ 提及' 访问
- [已完成] 添加 AI 网关,以支持多种模型和嵌入服务。(OpenAI、Azure OpenAI、Anyscale、Google Gemini & Palm、Anthropic、Cohere、Together AI、Perplexity、Mistral、Nomic、AI21、Stability AI、DeepInfra、Ollama 等)
https://github.com/Portkey-AI/gateway
- [已完成] 添加语义缓存支持,以提升响应速度
- [已完成] 添加基于用户查询的动态和条件渲染 UI 组件支持

- [已完成] 根据用户的系统偏好添加暗模式支持
后端 + Node 仅 Express API
在此观看 Express 教程,获取有关设置和运行该项目的详细指南。 除了 Next.js 版本的项目外,还有一个仅后端的版本,使用 Node.js 和 Express 构建,位于 'express-api' 目录中。这是一个独立的项目版本,可作为构建类似 API 的参考。'express-api' 目录中还包含一个自述文件,说明如何运行后端版本。
Upstash Redis 速率限制
在此观看 Upstash Redis 速率限制教程,获取有关设置和运行该项目的详细指南。 Upstash Redis 速率限制是一项免费层级的服务,允许您为应用程序设置速率限制。它提供了一个简单易用的界面来配置和管理速率限制。借助 Upstash,您可以轻松地为每个用户、IP 地址或其他标准设置请求数量限制。这有助于防止滥用,并确保您的应用程序不会因过多请求而过载。
贡献
欢迎为该项目做出贡献。您可以随意 fork 仓库,进行修改并提交拉取请求。您也可以通过提交问题来提出改进建议或报告 bug。
许可证
本项目采用 MIT 许可证授权。
我是 Developers Digest 背后的开发者。如果您觉得我的工作有帮助,或者喜欢我的创作,请考虑支持我。以下是几种方式:
- Patreon:在 Patreon 上支持我:patreon.com/DevelopersDigest
- Buy Me A Coffee:您可以在 buymeacoffee.com/developersdigest 给我买杯咖啡
- 网站:访问我的网站:developersdigest.tech
- GitHub:在 GitHub 上关注我:github.com/developersdigest
- Twitter:在 Twitter 上关注我:twitter.com/dev__digest
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器


