[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-developersdigest--llm-answer-engine":3,"tool-developersdigest--llm-answer-engine":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":32,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":120,"github_topics":78,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":159},8747,"developersdigest\u002Fllm-answer-engine","llm-answer-engine","Perplexity Inspired Answer Engine","llm-answer-engine 是一个受 Perplexity 启发的开源答案引擎项目，旨在帮助开发者快速构建具备智能搜索与回答能力的 AI 应用。它不仅能理解用户的自然语言提问，还能自动联网检索相关信息，最终生成包含准确答案、引用来源、相关图片视频以及后续建议问题的综合回复，有效解决了传统大模型因知识截止或缺乏实时数据而产生“幻觉”的问题。\n\n该项目非常适合对自然语言处理、搜索引擎技术感兴趣的开发者，尤其是希望学习如何整合多种 AI 服务来打造复杂应用的技术人员。其核心亮点在于强大的技术栈整合能力：利用 Groq 和 Mixtral 模型实现极速推理，结合 Langchain.JS 进行文本处理，并通过 Brave Search 和 Serper API 获取高质量的实时网络内容。此外，项目基于 Next.js 和 Tailwind CSS 构建，提供了现代化的前端界面，并支持 Vercel AI SDK 实现的流式输出体验。对于想要深入探索 RAG（检索增强生成）架构或需要搭建私有化智能问答系统的团队来说，llm-answer-engine 提供了一个功能完备且易于扩展的绝佳起","llm-answer-engine 是一个受 Perplexity 启发的开源答案引擎项目，旨在帮助开发者快速构建具备智能搜索与回答能力的 AI 应用。它不仅能理解用户的自然语言提问，还能自动联网检索相关信息，最终生成包含准确答案、引用来源、相关图片视频以及后续建议问题的综合回复，有效解决了传统大模型因知识截止或缺乏实时数据而产生“幻觉”的问题。\n\n该项目非常适合对自然语言处理、搜索引擎技术感兴趣的开发者，尤其是希望学习如何整合多种 AI 服务来打造复杂应用的技术人员。其核心亮点在于强大的技术栈整合能力：利用 Groq 和 Mixtral 模型实现极速推理，结合 Langchain.JS 进行文本处理，并通过 Brave Search 和 Serper API 获取高质量的实时网络内容。此外，项目基于 Next.js 和 Tailwind CSS 构建，提供了现代化的前端界面，并支持 Vercel AI SDK 实现的流式输出体验。对于想要深入探索 RAG（检索增强生成）架构或需要搭建私有化智能问答系统的团队来说，llm-answer-engine 提供了一个功能完备且易于扩展的绝佳起点。","\u003Ch1 align=\"center\">Perplexity-Inspired LLM Answer Engine\u003C\u002Fh1>\n\u003Cdiv>\n    \u003Cdiv align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fdev__digest\">\n            \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FX\u002FTwitter-000000?style=for-the-badge&logo=x&logoColor=white\" \u002F>\n        \u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002F@developersdigest\">\n            \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYouTube-FF0000?style=for-the-badge&logo=youtube&logoColor=white\" \u002F>\n        \u003C\u002Fa>\n    \u003C\u002Fdiv>\n    \u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8642\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_4a68feb902da.png\" alt=\"developersdigest%2Fllm-answer-engine | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n    \u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_9f704ecf1e0f.gif\">\u003Cbr>\n\u003C\u002Fdiv>\n\nThis repository contains the code and instructions needed to build a sophisticated answer engine that leverages the capabilities of [Groq](https:\u002F\u002Fwww.groq.com\u002F), [Mistral AI's Mixtral](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmixtral-of-experts\u002F), [Langchain.JS](https:\u002F\u002Fjs.langchain.com\u002Fdocs\u002F), [Brave Search](https:\u002F\u002Fsearch.brave.com\u002F), [Serper API](https:\u002F\u002Fserper.dev\u002F), and [OpenAI](https:\u002F\u002Fopenai.com\u002F). Designed to efficiently return sources, answers, images, videos, and follow-up questions based on user queries, this project is an ideal starting point for developers interested in natural language processing and search technologies.\n\n## YouTube Tutorials\n\n\u003Cdiv style=\"display: flex; justify-content: center; align-items: center;\">\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F43ZCeBTcsS8\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_cc49a51080b2.jpg\" alt=\"Tutorial 2\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FkFC-OWw7G8k\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_0238d6ee3d72.jpg\" alt=\"Tutorial 1\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FkV2U7ttqE-g\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_8fd6d1777f57.jpg\" alt=\"Tutorial 3\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F3_aNVu6EU3Y\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_d14f1f43a2ce.jpg\" alt=\"Tutorial 4\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n## Technologies Used\n\n- **Next.js**: A React framework for building server-side rendered and static web applications.\n- **Tailwind CSS**: A utility-first CSS framework for rapidly building custom user interfaces.\n- **Vercel AI SDK**: The Vercel AI SDK is a library for building AI-powered streaming text and chat UIs.\n- **Groq & Mixtral**: Technologies for processing and understanding user queries.\n- **Langchain.JS**: A JavaScript library focused on text operations, such as text splitting and embeddings.\n- **Brave Search**: A privacy-focused search engine used for sourcing relevant content and images.\n- **Serper API**: Used for fetching relevant video and image results based on the user's query.\n- **OpenAI Embeddings**: Used for creating vector representations of text chunks.\n- **Cheerio**: Utilized for HTML parsing, allowing the extraction of content from web pages.\n- **Ollama (Optional)**: Used for streaming inference and embeddings.\n- **Upstash Redis Rate Limiting (Optional)**: Used for setting up rate limiting for the application.\n- **Upstash Semantic Cache (Optional)**: Used for caching data for faster response times.\n\n## Getting Started\n\n### Prerequisites \n\n- Obtain API keys from OpenAI, Groq, Brave Search, and Serper.\n\n#### Prerequisites for Non-Docker Installation\n\n- Ensure Node.js and npm are installed on your machine.\n\n#### Prerequisites for Docker Installation\n\n- Ensure Docker and docker compose are installed on your machine.\n\n### Obtaining API Keys\n\n- **OpenAI API Key**: [Generate your OpenAI API key here](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys).\n- **Groq API Key**: [Get your Groq API key here](https:\u002F\u002Fconsole.groq.com\u002Fkeys).\n- **Brave Search API Key**: [Obtain your Brave Search API key here](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F).\n- **Serper API Key**: [Get your Serper API key here](https:\u002F\u002Fserper.dev\u002F).\n\n### Quick Clone and Deploy\n\nSimple, Easy, Fast and Free - deploy to vercel\n\n> Make Sure to fill all the API Keys required for the Installation.\n\n[![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fdevelopersdigest%2Fllm-answer-engine&env=OPENAI_API_KEY,GROQ_API_KEY,BRAVE_SEARCH_API_KEY,SERPER_API&envDescription=ALL%20API%20KEYS%20are%20needed%20for%20this%20application.%20If%20you%20are%20not%20using%20OpenAI%20KEY%20and%20Using%20Groq%20Instead%2C%20then%20just%20enter%20a%20random%20string%20in%20the%20OpenAI%20Key%20section%20so%20it%20wont%20generate%20any%20error%20while%20building%20the%20project.&project-name=llm-answer-engine&repository-name=llm-answer-engine&skippable-integrations=1)\n\n\n\n### Installation\n\n1. Clone the repository:\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine.git\n    ```\n2. Move in the directory\n    ```\n    cd llm-answer-engine\n    ```\n\n#### Docker Installation\n\n3. Edit the `docker-compose.yml` file and add your API keys\n\n4. Running the Server\n\nTo start the server, execute:\n```\ndocker compose up -d #for v2\n```\nor\n```\ndocker-compose up -d #for v1\n```\nthe server will be listening on the specified port.\n\n#### Non-Docker Installation\n\n3. Install the required dependencies:\n    ```\n    npm install\n    ```\n    or\n    ```\n    bun install\n    ```\n4. Create a `.env` file in the root of your project and add your API keys:\n    ```\n    OPENAI_API_KEY=your_openai_api_key\n    GROQ_API_KEY=your_groq_api_key\n    BRAVE_SEARCH_API_KEY=your_brave_search_api_key\n    SERPER_API=your_serper_api_key\n    ```\n5. Running the Server\n\nTo start the server, execute:\n```\nnpm run dev\n```\nor\n```\nbun run dev\n```\n\nthe server will be listening on the specified port.\n\n## Editing the Configuration\n\nThe configuration file is located in the `app\u002Fconfig.tsx` file. You can modify the following values\n\n- useOllamaInference: false,\n- useOllamaEmbeddings: false,\n- inferenceModel: 'mixtral-8x7b-32768', \n- inferenceAPIKey: process.env.GROQ_API_KEY, \n- embeddingsModel: 'text-embedding-3-small', \n- textChunkSize: 800, \n- textChunkOverlap: 200, \n- numberOfSimilarityResults: 2,\n- numberOfPagesToScan: 10, \n- nonOllamaBaseURL: 'https:\u002F\u002Fapi.groq.com\u002Fopenai\u002Fv1'\n- useFunctionCalling: true\n- useRateLimiting: false\n- useSemanticCache: false\n- usePortkey: false\n\n### Function Calling Support (Beta)\nCurrently, function calling is supported with the following capabilities:\n\n- Maps and Locations (Serper Locations API)\n- Shopping (Serper Shopping API)\n- TradingView Stock Data (Free Widget)\n- Spotify (Free API)\n- Any functionality that you would like to see here, please open an issue or submit a PR.\n- To enable function calling and conditional streaming UI (currently in beta), ensure useFunctionCalling is set to true in the config file.\n\n### Ollama Support (Partially supported)\nCurrently, streaming text responses are supported for Ollama, but follow-up questions are not yet supported.\n\nEmbeddings are supported, however, time-to-first-token can be quite long when using both a local embedding model as well as a local model for the streaming inference. I  recommended decreasing a number of the RAG values specified in the `app\u002Fconfig.tsx` file to decrease the time-to-first-token when using Ollama.\n\nTo get started, make sure you have the Ollama running model on your local machine and set within the config the model you would like to use and set use OllamaInference and\u002For useOllamaEmbeddings to true.\n\nNote: When 'useOllamaInference' is set to true, the model will be used for both text generation, but it will skip the follow-up questions inference step when using Ollama.\n\nMore info: https:\u002F\u002Follama.com\u002Fblog\u002Fopenai-compatibility\n\n### Roadmap\n\n- [] Add document upload + RAG for document search\u002Fretrieval\n- [] Add a settings component to allow users to select the model, embeddings model, and other parameters from the UI\n- [] Add support for follow-up questions when using Ollama\n- [Complete] Add support diffusion models (Fal.AI SD3 to start), accessible via '@ mention'\n- [Complete] Add AI Gateway to support multiple models and embeddings. (OpenAI, Azure OpenAI, Anyscale, Google Gemini & Palm, Anthropic, Cohere, Together AI, Perplexity, Mistral, Nomic, AI21, Stability AI, DeepInfra, Ollama, etc)\n```https:\u002F\u002Fgithub.com\u002FPortkey-AI\u002Fgateway```\n- [Complete] Add support for semantic caching to improve response times\n- [Complete] Add support for dynamic and conditionally rendered UI components based on the user's query\n\n![Example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_ab266b36b0d8.gif)\n\n- [Completed] Add dark mode support based on the user's system preference\n\n### Backend + Node Only Express API\n\n[Watch the express tutorial here](https:\u002F\u002Fyoutu.be\u002F43ZCeBTcsS8) for a detailed guide on setting up and running this project.\nIn addition to the Next.JS version of the project, there is a backend only version that uses Node.js and Express. Which is located in the 'express-api' directory. This is a standalone version of the project that can be used as a reference for building a similar API. There is also a readme file in the 'express-api' directory that explains how to run the backend version.\n\n### Upstash Redis Rate Limiting\n[Watch the Upstash Redis Rate Limiting tutorial here](https:\u002F\u002Fyoutu.be\u002F3_aNVu6EU3Y) for a detailed guide on setting up and running this project.\nUpstash Redis Rate Limiting is a free tier service that allows you to set up rate limiting for your application. It provides a simple and easy-to-use interface for configuring and managing rate limits. With Upstash, you can easily set limits on the number of requests per user, IP address, or other criteria. This can help prevent abuse and ensure that your application is not overwhelmed with requests.\n\n## Contributing\n\nContributions to the project are welcome. Feel free to fork the repository, make your changes, and submit a pull request. You can also open issues to suggest improvements or report bugs.\n\n\n## License\n\nThis project is licensed under the MIT License.\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_40d58bbe5642.png)](https:\u002F\u002Fstar-history.com\u002F#developersdigest\u002Fllm-answer-engine&Date)\n\nI'm the developer behind Developers Digest. If you find my work helpful or enjoy what I do, consider supporting me. Here are a few ways you can do that:\n\n- **Patreon**: Support me on Patreon at [patreon.com\u002FDevelopersDigest](https:\u002F\u002Fwww.patreon.com\u002FDevelopersDigest)\n- **Buy Me A Coffee**: You can buy me a coffee at [buymeacoffee.com\u002Fdevelopersdigest](https:\u002F\u002Fwww.buymeacoffee.com\u002Fdevelopersdigest)\n- **Website**: Check out my website at [developersdigest.tech](https:\u002F\u002Fdevelopersdigest.tech)\n- **Github**: Follow me on GitHub at [github.com\u002Fdevelopersdigest](https:\u002F\u002Fgithub.com\u002Fdevelopersdigest)\n- **Twitter**: Follow me on Twitter at [twitter.com\u002Fdev__digest](https:\u002F\u002Ftwitter.com\u002Fdev__digest)\n","\u003Ch1 align=\"center\">受Perplexity启发的大型语言模型问答引擎\u003C\u002Fh1>\n\u003Cdiv>\n    \u003Cdiv align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fdev__digest\">\n            \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FX\u002FTwitter-000000?style=for-the-badge&logo=x&logoColor=white\" \u002F>\n        \u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002F@developersdigest\">\n            \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYouTube-FF0000?style=for-the-badge&logo=youtube&logoColor=white\" \u002F>\n        \u003C\u002Fa>\n    \u003C\u002Fdiv>\n    \u003Cdiv align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8642\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_4a68feb902da.png\" alt=\"developersdigest%2Fllm-answer-engine | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n    \u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_9f704ecf1e0f.gif\">\u003Cbr>\n\u003C\u002Fdiv>\n\n本仓库包含构建一个复杂问答引擎所需的代码和说明，该引擎充分利用了[Groq](https:\u002F\u002Fwww.groq.com\u002F)、[Mistral AI的Mixtral](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmixtral-of-experts\u002F)、[Langchain.JS](https:\u002F\u002Fjs.langchain.com\u002Fdocs\u002F)、[Brave Search](https:\u002F\u002Fsearch.brave.com\u002F)、[Serper API](https:\u002F\u002Fserper.dev\u002F)以及[OpenAI](https:\u002F\u002Fopenai.com\u002F)的功能。此项目旨在根据用户查询高效地返回来源、答案、图片、视频及后续问题，是对于自然语言处理和搜索技术感兴趣的开发者们的理想起点。\n\n## YouTube教程\n\n\u003Cdiv style=\"display: flex; justify-content: center; align-items: center;\">\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F43ZCeBTcsS8\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_cc49a51080b2.jpg\" alt=\"教程2\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FkFC-OWw7G8k\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_0238d6ee3d72.jpg\" alt=\"教程1\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FkV2U7ttqE-g\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_8fd6d1777f57.jpg\" alt=\"教程3\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F3_aNVu6EU3Y\">\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_d14f1f43a2ce.jpg\" alt=\"教程4\" style=\"width: 24%; height: auto;\">\n    \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n## 使用的技术\n\n- **Next.js**: 用于构建服务端渲染和静态网站的React框架。\n- **Tailwind CSS**: 一种实用优先的CSS框架，用于快速构建自定义用户界面。\n- **Vercel AI SDK**: Vercel AI SDK是一个用于构建支持AI的流式文本和聊天UI的库。\n- **Groq与Mixtral**: 用于处理和理解用户查询的技术。\n- **Langchain.JS**: 一个专注于文本操作（如文本分割和嵌入）的JavaScript库。\n- **Brave Search**: 一款注重隐私的搜索引擎，用于获取相关内容和图片。\n- **Serper API**: 根据用户的查询获取相关的视频和图片结果。\n- **OpenAI Embeddings**: 用于创建文本片段的向量表示。\n- **Cheerio**: 用于HTML解析，从而从网页中提取内容。\n- **Ollama（可选）**: 用于流式推理和嵌入。\n- **Upstash Redis限流（可选）**: 用于为应用程序设置限流。\n- **Upstash语义缓存（可选）**: 用于缓存数据以加快响应速度。\n\n## 开始使用\n\n### 前提条件 \n\n- 从OpenAI、Groq、Brave Search和Serper获取API密钥。\n\n#### 非Docker安装的前提条件\n\n- 确保您的机器上已安装Node.js和npm。\n\n#### Docker安装的前提条件\n\n- 确保您的机器上已安装Docker和docker compose。\n\n### 获取API密钥\n\n- **OpenAI API密钥**: [在此处生成您的OpenAI API密钥](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)。\n- **Groq API密钥**: [在此处获取您的Groq API密钥](https:\u002F\u002Fconsole.groq.com\u002Fkeys)。\n- **Brave Search API密钥**: [在此处获取您的Brave Search API密钥](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F)。\n- **Serper API密钥**: [在此处获取您的Serper API密钥](https:\u002F\u002Fserper.dev\u002F)。\n\n### 快速克隆并部署\n\n简单、容易、快速且免费——部署到Vercel\n\n> 请务必填写安装所需的所有API密钥。\n\n[![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fdevelopersdigest%2Fllm-answer-engine&env=OPENAI_API_KEY,GROQ_API_KEY,BRAVE_SEARCH_API_KEY,SERPER_API&envDescription=ALL%20API%20KEYS%20are%20needed%20for%20this%20application.%20If%20you%20are%20not%20using%20OpenAI%20KEY%20and%20Using%20Groq%20Instead%2C%20then%20just%20enter%20a%20random%20string%20in%20the%20OpenAI%20Key%20section%20so%20it%20wont%20generate%20any%20error%20while%20building%20the%20project.&project-name=llm-answer-engine&repository-name=llm-answer-engine&skippable-integrations=1)\n\n\n\n### 安装\n\n1. 克隆仓库：\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine.git\n    ```\n2. 进入目录\n    ```\n    cd llm-answer-engine\n    ```\n\n#### Docker安装\n\n3. 编辑`docker-compose.yml`文件并添加您的API密钥\n\n4. 启动服务器\n\n要启动服务器，请执行：\n```\ndocker compose up -d #for v2\n```\n或\n```\ndocker-compose up -d #for v1\n```\n服务器将在指定端口上监听。\n\n#### 非Docker安装\n\n3. 安装所需的依赖项：\n    ```\n    npm install\n    ```\n    或\n    ```\n    bun install\n    ```\n4. 在项目的根目录下创建`.env`文件，并添加您的API密钥：\n    ```\n    OPENAI_API_KEY=your_openai_api_key\n    GROQ_API_KEY=your_groq_api_key\n    BRAVE_SEARCH_API_KEY=your_brave_search_api_key\n    SERPER_API=your_serper_api_key\n    ```\n5. 启动服务器\n\n要启动服务器，请执行：\n```\nnpm run dev\n```\n或\n```\nbun run dev\n```\n\n服务器将在指定端口上监听。\n\n## 编辑配置\n\n配置文件位于`app\u002Fconfig.tsx`文件中。您可以修改以下值：\n\n- useOllamaInference: false,\n- useOllamaEmbeddings: false,\n- inferenceModel: 'mixtral-8x7b-32768', \n- inferenceAPIKey: process.env.GROQ_API_KEY, \n- embeddingsModel: 'text-embedding-3-small', \n- textChunkSize: 800, \n- textChunkOverlap: 200, \n- numberOfSimilarityResults: 2,\n- numberOfPagesToScan: 10, \n- nonOllamaBaseURL: 'https:\u002F\u002Fapi.groq.com\u002Fopenai\u002Fv1'\n- useFunctionCalling: true\n- useRateLimiting: false\n- useSemanticCache: false\n- usePortkey: false\n\n### 函数调用支持（测试版）\n目前，函数调用支持以下功能：\n\n- 地图与位置（Serper Locations API）\n- 购物（Serper Shopping API）\n- TradingView 股票数据（免费小工具）\n- Spotify（免费 API）\n- 如果您希望在此处添加任何其他功能，请提交问题或拉取请求。\n- 若要启用函数调用和条件流式 UI（当前处于测试阶段），请确保在配置文件中将 useFunctionCalling 设置为 true。\n\n### Ollama 支持（部分支持）\n目前，Ollama 支持文本流式响应，但暂不支持后续问题。\n\n嵌入功能已支持，不过在同时使用本地嵌入模型和用于流式推理的本地模型时，首个标记的生成时间可能会较长。建议减少 `app\u002Fconfig.tsx` 文件中指定的 RAG 相关参数值，以缩短使用 Ollama 时的首个标记生成时间。\n\n要开始使用，请确保您的本地机器上已运行 Ollama 模型，并在配置中设置您希望使用的模型，同时将 useOllamaInference 和\u002F或 useOllamaEmbeddings 设置为 true。\n\n注意：当 'useOllamaInference' 设置为 true 时，该模型将用于文本生成，但在使用 Ollama 时会跳过后续问题的推理步骤。\n\n更多信息：https:\u002F\u002Follama.com\u002Fblog\u002Fopenai-compatibility\n\n### 路线图\n\n- [] 添加文档上传 + RAG 功能，用于文档搜索和检索\n- [] 添加设置组件，允许用户从 UI 中选择模型、嵌入模型及其他参数\n- [] 在使用 Ollama 时增加对后续问题的支持\n- [已完成] 添加扩散模型支持（首先支持 Fal.AI SD3），可通过 '@ 提及' 访问\n- [已完成] 添加 AI 网关，以支持多种模型和嵌入服务。（OpenAI、Azure OpenAI、Anyscale、Google Gemini & Palm、Anthropic、Cohere、Together AI、Perplexity、Mistral、Nomic、AI21、Stability AI、DeepInfra、Ollama 等）\n```https:\u002F\u002Fgithub.com\u002FPortkey-AI\u002Fgateway```\n- [已完成] 添加语义缓存支持，以提升响应速度\n- [已完成] 添加基于用户查询的动态和条件渲染 UI 组件支持\n\n![示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_ab266b36b0d8.gif)\n\n- [已完成] 根据用户的系统偏好添加暗模式支持\n\n### 后端 + Node 仅 Express API\n\n[在此观看 Express 教程](https:\u002F\u002Fyoutu.be\u002F43ZCeBTcsS8)，获取有关设置和运行该项目的详细指南。\n除了 Next.js 版本的项目外，还有一个仅后端的版本，使用 Node.js 和 Express 构建，位于 'express-api' 目录中。这是一个独立的项目版本，可作为构建类似 API 的参考。'express-api' 目录中还包含一个自述文件，说明如何运行后端版本。\n\n### Upstash Redis 速率限制\n[在此观看 Upstash Redis 速率限制教程](https:\u002F\u002Fyoutu.be\u002F3_aNVu6EU3Y)，获取有关设置和运行该项目的详细指南。\nUpstash Redis 速率限制是一项免费层级的服务，允许您为应用程序设置速率限制。它提供了一个简单易用的界面来配置和管理速率限制。借助 Upstash，您可以轻松地为每个用户、IP 地址或其他标准设置请求数量限制。这有助于防止滥用，并确保您的应用程序不会因过多请求而过载。\n\n## 贡献\n欢迎为该项目做出贡献。您可以随意 fork 仓库，进行修改并提交拉取请求。您也可以通过提交问题来提出改进建议或报告 bug。\n\n## 许可证\n本项目采用 MIT 许可证授权。\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_readme_40d58bbe5642.png)](https:\u002F\u002Fstar-history.com\u002F#developersdigest\u002Fllm-answer-engine&Date)\n\n我是 Developers Digest 背后的开发者。如果您觉得我的工作有帮助，或者喜欢我的创作，请考虑支持我。以下是几种方式：\n\n- **Patreon**：在 Patreon 上支持我：[patreon.com\u002FDevelopersDigest](https:\u002F\u002Fwww.patreon.com\u002FDevelopersDigest)\n- **Buy Me A Coffee**：您可以在 [buymeacoffee.com\u002Fdevelopersdigest](https:\u002F\u002Fwww.buymeacoffee.com\u002Fdevelopersdigest) 给我买杯咖啡\n- **网站**：访问我的网站：[developersdigest.tech](https:\u002F\u002Fdevelopersdigest.tech)\n- **GitHub**：在 GitHub 上关注我：[github.com\u002Fdevelopersdigest](https:\u002F\u002Fgithub.com\u002Fdevelopersdigest)\n- **Twitter**：在 Twitter 上关注我：[twitter.com\u002Fdev__digest](https:\u002F\u002Ftwitter.com\u002Fdev__digest)","# llm-answer-engine 快速上手指南\n\n本项目是一个受 Perplexity 启发的大语言模型（LLM）答案引擎，能够基于用户查询高效返回来源、答案、图片、视频及后续问题。它整合了 Groq、Mixtral、Langchain.JS、Brave Search 和 Serper API 等技术。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Windows, macOS, 或 Linux\n- **运行时**：Node.js (推荐 v18+) 和 npm，或者 Bun\n- **容器化（可选）**：Docker 和 Docker Compose\n\n### 前置依赖：获取 API Keys\n在开始之前，你需要从以下平台获取 API 密钥：\n- **OpenAI**: [获取密钥](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)\n- **Groq**: [获取密钥](https:\u002F\u002Fconsole.groq.com\u002Fkeys)\n- **Brave Search**: [获取密钥](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F)\n- **Serper**: [获取密钥](https:\u002F\u002Fserper.dev\u002F)\n\n> **注意**：如果你仅使用 Groq 而不使用 OpenAI，在配置环境变量时可在 `OPENAI_API_KEY` 处填入任意随机字符串以避免构建报错。\n\n## 安装步骤\n\n你可以选择 **一键部署到 Vercel** 或 **本地安装**。\n\n### 方式一：一键部署到 Vercel（推荐）\n点击下方按钮即可快速克隆并部署，记得在部署过程中填写所有必需的 API Keys。\n\n[![Deploy with Vercel](https:\u002F\u002Fvercel.com\u002Fbutton)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fdevelopersdigest%2Fllm-answer-engine&env=OPENAI_API_KEY,GROQ_API_KEY,BRAVE_SEARCH_API_KEY,SERPER_API&envDescription=ALL%20API%20KEYS%20are%20needed%20for%20this%20application.%20If%20you%20are%20not%20using%20OpenAI%20KEY%20and%20Using%20Groq%20Instead%2C%20then%20just%20enter%20a%20random%20string%20in%20the%20OpenAI%20Key%20section%20so%20it%20wont%20generate%20any%20error%20while%20building%20the%20project.&project-name=llm-answer-engine&repository-name=llm-answer-engine&skippable-integrations=1)\n\n### 方式二：本地安装 (非 Docker)\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine.git\n   cd llm-answer-engine\n   ```\n\n2. **安装依赖**\n   使用 npm 或 bun：\n   ```bash\n   npm install\n   # 或者\n   bun install\n   ```\n\n3. **配置环境变量**\n   在项目根目录创建 `.env` 文件，并填入你的 API Keys：\n   ```env\n   OPENAI_API_KEY=your_openai_api_key\n   GROQ_API_KEY=your_groq_api_key\n   BRAVE_SEARCH_API_KEY=your_brave_search_api_key\n   SERPER_API=your_serper_api_key\n   ```\n\n4. **启动服务**\n   ```bash\n   npm run dev\n   # 或者\n   bun run dev\n   ```\n\n### 方式三：本地安装 (Docker)\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine.git\n   cd llm-answer-engine\n   ```\n\n2. **配置 Docker**\n   编辑 `docker-compose.yml` 文件，将你的 API Keys 填入对应位置。\n\n3. **启动容器**\n   ```bash\n   docker compose up -d\n   # 如果是 Docker Compose v1，使用: docker-compose up -d\n   ```\n\n## 基本使用\n\n启动成功后，服务器将在默认端口运行（通常为 `http:\u002F\u002Flocalhost:3000`）。\n\n1. **访问界面**：在浏览器中打开 `http:\u002F\u002Flocalhost:3000`。\n2. **输入查询**：在搜索框中输入自然语言问题（例如：\"最新的 AI 发展趋势是什么？\"）。\n3. **查看结果**：系统将流式返回：\n   - **答案**：由 LLM 生成的详细回答。\n   - **来源**：引用网页链接。\n   - **多媒体**：相关的图片和视频结果。\n   - **后续问题**：推荐的追问方向。\n\n### 高级配置（可选）\n如需修改模型参数或启用本地 Ollama 支持，请编辑 `app\u002Fconfig.tsx` 文件：\n- `useOllamaInference`: 设置为 `true` 以使用本地 Ollama 进行推理。\n- `inferenceModel`: 指定使用的模型（默认 `mixtral-8x7b-32768`）。\n- `useFunctionCalling`: 设置为 `true` 以启用地图、购物、股票等函数调用功能。\n\n修改配置后需重启开发服务器生效。","一名科技行业分析师需要在极短时间内为团队撰写一份关于“混合专家模型（MoE）最新商业落地案例”的深度简报，要求内容必须包含权威来源、相关视频演示及后续研究建议。\n\n### 没有 llm-answer-engine 时\n- **信息搜集碎片化**：需要手动在 Google、YouTube 和技术博客间反复切换搜索，耗时数小时才能拼凑出完整信息链。\n- **来源追溯困难**：传统 AI 生成的回答往往缺乏具体出处，分析师必须逐条反向验证信息真实性，极易引入错误数据。\n- **多媒体内容缺失**：纯文本搜索结果无法直接提供相关的技术演示视频或图表，导致报告缺乏直观的多媒体佐证。\n- **深度挖掘受阻**：获取基础信息后，难以快速生成有逻辑的追问方向，导致调研容易停留在表面，缺乏深度洞察。\n\n### 使用 llm-answer-engine 后\n- **一站式聚合检索**：llm-answer-engine 调用 Brave Search 和 Serper API，瞬间聚合全网文本、图片及视频资源，将数小时的搜集工作压缩至分钟级。\n- **引用源自动标注**：基于 Langchain.JS 和 Groq 的强大处理能力，生成的每段结论都自动附带精确的来源链接，确保简报数据可信且可追溯。\n- **多模态内容直达**：直接返回与查询高度匹配的技术演示视频和关键图像，分析师可直接将多媒体素材嵌入报告，大幅提升内容表现力。\n- **智能追问引导**：系统根据当前语境自动生成具有深度的后续问题建议，帮助分析师迅速锁定如“成本效益分析”等关键切入点，深化研究维度。\n\nllm-answer-engine 通过将分散的搜索、验证与多模态整合流程自动化，把研究人员从繁琐的信息搬运中解放出来，使其专注于高价值的内容洞察与决策支持。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdevelopersdigest_llm-answer-engine_ab266b36.gif","developersdigest","Developers Digest","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdevelopersdigest_adfd87e9.png","developers.digest.ai@gmail.com","@firecrawl",null,"dev__digest","https:\u002F\u002Fwww.developersdigest.tech\u002F","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest",[83,87,91,95],{"name":84,"color":85,"percentage":86},"TypeScript","#3178c6",93.9,{"name":88,"color":89,"percentage":90},"JavaScript","#f1e05a",3.8,{"name":92,"color":93,"percentage":94},"CSS","#663399",2.1,{"name":96,"color":97,"percentage":98},"Dockerfile","#384d54",0.2,5019,783,"2026-04-17T14:16:55","MIT","Linux, macOS, Windows","非必需。若使用本地 Ollama 模型推理，需根据所选模型配置相应 GPU（未指定具体型号）；若使用 Groq\u002FOpenAI 等云端 API 则无需本地 GPU。","未说明（若运行本地 Ollama 大模型，建议 16GB+）",{"notes":107,"python":108,"dependencies":109},"该项目是基于 JavaScript\u002FTypeScript (Node.js) 的 Web 应用，而非 Python 项目。核心功能依赖外部 API（Groq, OpenAI, Brave, Serper），需提前获取这些服务的 API Key。支持通过 Docker 或直接安装 Node.js 环境运行。可选支持本地 Ollama 进行推理和嵌入，但响应速度可能较慢。","未说明 (项目基于 Node.js\u002FNext.js，非 Python 项目)",[110,111,112,113,114,115,116,117,118,119],"Next.js","Tailwind CSS","Vercel AI SDK","Langchain.JS","Groq API","Brave Search API","Serper API","OpenAI API","Cheerio","Ollama (可选)",[35,14],"2026-03-27T02:49:30.150509","2026-04-18T11:11:08.984196",[124,129,134,139,144,149,154],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},39213,"遇到 'Network response was not ok. Status: 429' 错误怎么办？","这是一个速率限制错误。维护者已更新代码，将默认的 Brave 图片搜索替换为 Serper，并增加了配置选项。现在您可以在配置文件中设置使用 Brave、Google 或 Serper 作为搜索引擎来解决此问题。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F41",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},39214,"界面文字和背景颜色相同导致看不清，或者输入框形状不对，如何修复？","维护者已针对文本颜色和输入框圆角问题发布了修复更新。如果您仍看到深色主题在 OLED 屏幕上显示不佳，可以尝试切换到浅色模式（如果配置支持），或者拉取最新代码以获取最新的 UI 修复。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F12",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39215,"Brave API 费用较高，可以单独使用 Serper API 吗？","可以。虽然完全替换需要重构代码以标准化响应格式，但您可以参考以下逻辑自行修改或使用现有的配置选项。Serper API 的调用示例如下：\nfetch('https:\u002F\u002Fgoogle.serper.dev\u002Fsearch', {\n  method: 'post',\n  headers: {\n    'X-API-KEY': '您的 API_KEY',\n    'Content-Type': 'application\u002Fjson'\n  },\n  body: JSON.stringify({ \"q\": \"搜索关键词\" })\n})\n项目计划支持更多搜索方法，目前可通过配置尝试切换。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F27",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39216,"项目是否支持 LiteLLM 以连接更多大模型？","维护者计划集成 AI Gateway 而不是 LiteLLM 来实现多模型支持。AI Gateway 支持 OpenAI, Azure OpenAI, Google Gemini, Anthropic, Cohere, Ollama 等众多模型。您可以通过配置 AI Gateway 来灵活切换不同的 LLM 提供商。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F23",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},39217,"如何使用开源嵌入模型（Embeddings）代替 OpenAI？","您可以通过 Ollama 使用开源嵌入模型。只需更新 `config.tsx` 文件中的模型配置即可。注意：即使使用 Ollama，某些配置可能仍要求填写 apiKey，您可以尝试填入 'ollama' 作为占位符，因为 Ollama 本地运行通常不需要真实的 Key。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F49",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},39218,"我没有信用卡无法获取 Brave API Key，只能使用 GPT API 吗？","不是的。您有多种免费或低成本的选择：\n1. 在配置中使用 Google Search API（免费层级每天限制 100 次调用）。\n2. 使用 Serper API，它提供无需信用卡的免费搜索查询额度。\n请在配置文件中将搜索提供商设置为 google 或 serper 即可。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F38",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},39219,"是否有 Docker 镜像以便快速部署？","社区强烈建议提供 Docker 镜像以简化部署。虽然直接构建也是自动化的，但使用预构建的 Docker 镜像（如托管在 Docker Hub 或 GHCR 上）可以让新用户通过一条命令直接运行，无需经历完整的构建过程。建议查看项目 README 是否已添加相关的 Docker 安装步骤。","https:\u002F\u002Fgithub.com\u002Fdevelopersdigest\u002Fllm-answer-engine\u002Fissues\u002F16",[]]