[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-langchain-ai--local-deep-researcher":3,"tool-langchain-ai--local-deep-researcher":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":73,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":103,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":136},5675,"langchain-ai\u002Flocal-deep-researcher","local-deep-researcher","Fully local web research and report writing assistant","local-deep-researcher 是一款完全在本地运行的深度网络研究与报告撰写助手。它旨在解决用户在调研过程中面临的信息碎片化、隐私泄露风险以及过度依赖云端大模型的问题。通过模拟人类研究者的思维路径，它能针对给定主题自动生成搜索查询、汇总结果、反思知识盲区并发起新一轮搜索，经过多轮迭代后，最终输出一份包含完整来源引用的 Markdown 格式研究报告。\n\n这款工具特别适合注重数据隐私的开发者、学术研究人员以及希望搭建私有化知识库的技术爱好者使用。其核心亮点在于“完全本地化”架构，支持无缝对接 Ollama 或 LMStudio 托管的任何开源大语言模型（如 DeepSeek R1、Llama 3.2 等），确保所有数据处理均在用户设备完成，无需上传云端。此外，它具备独特的“反思 - 迭代”机制，能够自主发现信息缺口并动态调整搜索策略，而非简单堆砌搜索结果。在配置上，它既默认支持无需 API 密钥的 DuckDuckGo 搜索，也灵活兼容 SearXNG、Tavily 等专业检索服务，让用户在保护隐私的同时，享受高效、透明的深度研究体验。","# Local Deep Researcher\n\nLocal Deep Researcher is a fully local web research assistant that uses any LLM hosted by [Ollama](https:\u002F\u002Follama.com\u002Fsearch) or [LMStudio](https:\u002F\u002Flmstudio.ai\u002F). Give it a topic and it will generate a web search query, gather web search results, summarize the results of web search, reflect on the summary to examine knowledge gaps, generate a new search query to address the gaps, and repeat for a user-defined number of cycles. It will provide the user a final markdown summary with all sources used to generate the summary.\n\n![ollama-deep-research](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_4bb77d87a8b6.png)\n\nShort summary video:\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F02084902-f067-4658-9683-ff312cab7944\" controls>\u003C\u002Fvideo>\n\n## 🔥 Updates \n\n* 8\u002F6\u002F25: Added support for tool calling and [gpt-oss](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F). \n\n> ⚠️ **WARNING (8\u002F6\u002F25)**: The `gpt-oss` models do not support JSON mode in Ollama. Select `use_tool_calling` in the configuration to use tool calling instead of JSON mode.\n\n## 📺 Video Tutorials\n\nSee it in action or build it yourself? Check out these helpful video tutorials:\n- [Overview of Local Deep Researcher with R1](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sGUjmyfof4Q) - Load and test [DeepSeek R1](https:\u002F\u002Fapi-docs.deepseek.com\u002Fnews\u002Fnews250120) [distilled models](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1).\n- [Building Local Deep Researcher from Scratch](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XGuTzHoqlj8) - Overview of how this is built.\n\n## 🚀 Quickstart\n\nClone the repository:\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher.git\ncd local-deep-researcher\n```\n\nThen edit the `.env` file to customize the environment variables according to your needs. These environment variables control the model selection, search tools, and other configuration settings. When you run the application, these values will be automatically loaded via `python-dotenv` (because `langgraph.json` point to the \"env\" file).\n```shell\ncp .env.example .env\n```\n\n### Selecting local model with Ollama\n\n1. Download the Ollama app for Mac [here](https:\u002F\u002Follama.com\u002Fdownload).\n\n2. Pull a local LLM from [Ollama](https:\u002F\u002Follama.com\u002Fsearch). As an [example](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1:8b):\n```shell\nollama pull deepseek-r1:8b\n```\n\n3. Optionally, update the `.env` file with the following Ollama configuration settings. \n\n* If set, these values will take precedence over the defaults set in the `Configuration` class in `configuration.py`. \n```shell\nLLM_PROVIDER=ollama\nOLLAMA_BASE_URL=\"http:\u002F\u002Flocalhost:11434\" # Ollama service endpoint, defaults to `http:\u002F\u002Flocalhost:11434` \nLOCAL_LLM=model # the model to use, defaults to `llama3.2` if not set\n```\n\n### Selecting local model with LMStudio\n\n1. Download and install LMStudio from [here](https:\u002F\u002Flmstudio.ai\u002F).\n\n2. In LMStudio:\n   - Download and load your preferred model (e.g., qwen_qwq-32b)\n   - Go to the \"Local Server\" tab\n   - Start the server with the OpenAI-compatible API\n   - Note the server URL (default: http:\u002F\u002Flocalhost:1234\u002Fv1)\n\n3. Optionally, update the `.env` file with the following LMStudio configuration settings. \n\n* If set, these values will take precedence over the defaults set in the `Configuration` class in `configuration.py`. \n```shell\nLLM_PROVIDER=lmstudio\nLOCAL_LLM=qwen_qwq-32b  # Use the exact model name as shown in LMStudio\nLMSTUDIO_BASE_URL=http:\u002F\u002Flocalhost:1234\u002Fv1\n```\n\n### Selecting search tool\n\nBy default, it will use [DuckDuckGo](https:\u002F\u002Fduckduckgo.com\u002F) for web search, which does not require an API key. But you can also use [SearXNG](https:\u002F\u002Fdocs.searxng.org\u002F), [Tavily](https:\u002F\u002Ftavily.com\u002F) or [Perplexity](https:\u002F\u002Fwww.perplexity.ai\u002Fhub\u002Fblog\u002Fintroducing-the-sonar-pro-api) by adding their API keys to the environment file. Optionally, update the `.env` file with the following search tool configuration and API keys. If set, these values will take precedence over the defaults set in the `Configuration` class in `configuration.py`. \n```shell\nSEARCH_API=xxx # the search API to use, such as `duckduckgo` (default)\nTAVILY_API_KEY=xxx # the tavily API key to use\nPERPLEXITY_API_KEY=xxx # the perplexity API key to use\nMAX_WEB_RESEARCH_LOOPS=xxx # the maximum number of research loop steps, defaults to `3`\nFETCH_FULL_PAGE=xxx # fetch the full page content (with `duckduckgo`), defaults to `false`\n```\n\n### Running with LangGraph Studio\n\n#### Mac\n\n1. (Recommended) Create a virtual environment:\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate\n```\n\n2. Launch LangGraph server:\n\n```bash\n# Install uv package manager\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\nuvx --refresh --from \"langgraph-cli[inmem]\" --with-editable . --python 3.11 langgraph dev\n```\n\n#### Windows\n\n1. (Recommended) Create a virtual environment: \n\n* Install `Python 3.11` (and add to PATH during installation). \n* Restart your terminal to ensure Python is available, then create and activate a virtual environment:\n\n```powershell\npython -m venv .venv\n.venv\\Scripts\\Activate.ps1\n```\n\n2. Launch LangGraph server:\n\n```powershell\n# Install dependencies\npip install -e .\npip install -U \"langgraph-cli[inmem]\"            \n\n# Start the LangGraph server\nlanggraph dev\n```\n\n### Using the LangGraph Studio UI\n\nWhen you launch LangGraph server, you should see the following output and Studio will open in your browser:\n> Ready!\n\n> API: http:\u002F\u002F127.0.0.1:2024\n\n> Docs: http:\u002F\u002F127.0.0.1:2024\u002Fdocs\n\n> LangGraph Studio Web UI: https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002F?baseUrl=http:\u002F\u002F127.0.0.1:2024\n\nOpen `LangGraph Studio Web UI` via the URL above. In the `configuration` tab, you can directly set various assistant configurations. Keep in mind that the priority order for configuration values is:\n\n```\n1. Environment variables (highest priority)\n2. LangGraph UI configuration\n3. Default values in the Configuration class (lowest priority)\n```\n\n\u003Cimg width=\"1621\" alt=\"Screenshot 2025-01-24 at 10 08 31 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_f38ab2925269.png\" \u002F>\n\nGive the assistant a topic for research, and you can visualize its process!\n\n\u003Cimg width=\"1621\" alt=\"Screenshot 2025-01-24 at 10 08 22 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_3eaa9db67eec.png\" \u002F>\n\n### Model Compatibility Note\n\nWhen selecting a local LLM, set steps use structured JSON output. Some models may have difficulty with this requirement, and the assistant has fallback mechanisms to handle this. As an example, the [DeepSeek R1 (7B)](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-llm:7b) and [DeepSeek R1 (1.5B)](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1:1.5b) models have difficulty producing required JSON output, and the assistant will use a fallback mechanism to handle this.\n  \n### Browser Compatibility Note\n\nWhen accessing the LangGraph Studio UI:\n- Firefox is recommended for the best experience\n- Safari users may encounter security warnings due to mixed content (HTTPS\u002FHTTP)\n- If you encounter issues, try:\n  1. Using Firefox or another browser\n  2. Disabling ad-blocking extensions\n  3. Checking browser console for specific error messages\n\n## How it works\n\nLocal Deep Researcher is inspired by [IterDRAG](https:\u002F\u002Farxiv.org\u002Fhtml\u002F2410.04343v1#:~:text=To%20tackle%20this%20issue%2C%20we,used%20to%20generate%20intermediate%20answers.). This approach will decompose a query into sub-queries, retrieve documents for each one, answer the sub-query, and then build on the answer by retrieving docs for the second sub-query. Here, we do similar:\n- Given a user-provided topic, use a local LLM (via [Ollama](https:\u002F\u002Follama.com\u002Fsearch) or [LMStudio](https:\u002F\u002Flmstudio.ai\u002F)) to generate a web search query\n- Uses a search engine \u002F tool to find relevant sources\n- Uses LLM to summarize the findings from web search related to the user-provided research topic\n- Then, it uses the LLM to reflect on the summary, identifying knowledge gaps\n- It generates a new search query to address the knowledge gaps\n- The process repeats, with the summary being iteratively updated with new information from web search\n- Runs for a configurable number of iterations (see `configuration` tab)\n\n## Outputs\n\nThe output of the graph is a markdown file containing the research summary, with citations to the sources used. All sources gathered during research are saved to the graph state. You can visualize them in the graph state, which is visible in LangGraph Studio:\n\n![Screenshot 2024-12-05 at 4 08 59 PM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_15b073ea3cc7.png)\n\nThe final summary is saved to the graph state as well:\n\n![Screenshot 2024-12-05 at 4 10 11 PM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_0c236dac04f9.png)\n\n## Deployment Options\n\nThere are [various ways](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002Fconcepts\u002F#deployment-options) to deploy this graph. See [Module 6](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain-academy\u002Ftree\u002Fmain\u002Fmodule-6) of LangChain Academy for a detailed walkthrough of deployment options with LangGraph.\n\n## TypeScript Implementation\n\nA TypeScript port of this project (without Perplexity search) is available at:\nhttps:\u002F\u002Fgithub.com\u002FPacoVK\u002Follama-deep-researcher-ts\n\n## Running as a Docker container\n\nThe included `Dockerfile` only runs LangChain Studio with local-deep-researcher as a service, but does not include Ollama as a dependant service. You must run Ollama separately and configure the `OLLAMA_BASE_URL` environment variable. Optionally you can also specify the Ollama model to use by providing the `LOCAL_LLM` environment variable.\n\nClone the repo and build an image:\n```\n$ docker build -t local-deep-researcher .\n```\n\nRun the container:\n```\n$ docker run --rm -it -p 2024:2024 \\\n  -e SEARCH_API=\"tavily\" \\ \n  -e TAVILY_API_KEY=\"tvly-***YOUR_KEY_HERE***\" \\\n  -e LLM_PROVIDER=ollama \\\n  -e OLLAMA_BASE_URL=\"http:\u002F\u002Fhost.docker.internal:11434\u002F\" \\\n  -e LOCAL_LLM=\"llama3.2\" \\  \n  local-deep-researcher\n```\n\nNOTE: You will see log message:\n```\n2025-02-10T13:45:04.784915Z [info     ] 🎨 Opening Studio in your browser... [browser_opener] api_variant=local_dev message=🎨 Opening Studio in your browser...\nURL: https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002F?baseUrl=http:\u002F\u002F0.0.0.0:2024\n```\n...but the browser will not launch from the container.\n\nInstead, visit this link with the correct baseUrl IP address: [`https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002Fthread?baseUrl=http:\u002F\u002F127.0.0.1:2024`](https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002Fthread?baseUrl=http:\u002F\u002F127.0.0.1:2024)\n","# 本地深度研究员\n\n本地深度研究员是一个完全本地化的网络研究助手，它可以使用由 [Ollama](https:\u002F\u002Follama.com\u002Fsearch) 或 [LMStudio](https:\u002F\u002Flmstudio.ai\u002F) 托管的任何大语言模型。只需提供一个主题，它就会生成网络搜索查询、收集搜索结果、总结这些结果，并基于总结反思以发现知识空白，进而生成新的搜索查询来填补这些空白，如此循环往复，直至达到用户设定的次数。最后，它会向用户提供一份包含所有引用来源的 Markdown 格式总结。\n\n![ollama-deep-research](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_4bb77d87a8b6.png)\n\n简短总结视频：\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F02084902-f067-4658-9683-ff312cab7944\" controls>\u003C\u002Fvideo>\n\n## 🔥 更新 \n\n* 2025年8月6日：新增对工具调用和 [gpt-oss](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F) 的支持。 \n\n> ⚠️ **警告（2025年8月6日）**：`gpt-oss` 模型在 Ollama 中不支持 JSON 模式。请在配置中选择 `use_tool_calling` 来使用工具调用功能，而非 JSON 模式。\n\n## 📺 视频教程\n\n想亲眼见证它的运行，还是自己动手搭建？请查看以下实用视频教程：\n- [使用 R1 的本地深度研究员概览](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sGUjmyfof4Q) - 加载并测试 [DeepSeek R1](https:\u002F\u002Fapi-docs.deepseek.com\u002Fnews\u002Fnews250120) [蒸馏模型](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1)。\n- [从零开始构建本地深度研究员](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XGuTzHoqlj8) - 介绍其构建过程。\n\n## 🚀 快速入门\n\n克隆仓库：\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher.git\ncd local-deep-researcher\n```\n\n然后编辑 `.env` 文件，根据您的需求自定义环境变量。这些环境变量控制模型选择、搜索工具及其他配置设置。运行应用程序时，这些值将通过 `python-dotenv` 自动加载（因为 `langgraph.json` 指向“env”文件）。\n```shell\ncp .env.example .env\n```\n\n### 使用 Ollama 选择本地模型\n\n1. 在 [这里](https:\u002F\u002Follama.com\u002Fdownload) 下载适用于 Mac 的 Ollama 应用程序。\n\n2. 从 [Ollama](https:\u002F\u002Follama.com\u002Fsearch) 拉取本地大语言模型。例如 [deepseek-r1:8b](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1:8b)：\n```shell\nollama pull deepseek-r1:8b\n```\n\n3. 您还可以选择性地更新 `.env` 文件，添加以下 Ollama 配置设置。  \n\n* 如果设置了这些值，它们将优先于 `configuration.py` 中 `Configuration` 类的默认值。\n```shell\nLLM_PROVIDER=ollama\nOLLAMA_BASE_URL=\"http:\u002F\u002Flocalhost:11434\" # Ollama 服务端点，默认为 `http:\u002F\u002Flocalhost:11434`\nLOCAL_LLM=model # 要使用的模型，默认为 `llama3.2`，若未设置则使用此默认值\n```\n\n### 使用 LMStudio 选择本地模型\n\n1. 从 [这里](https:\u002F\u002Flmstudio.ai\u002F) 下载并安装 LMStudio。\n\n2. 在 LMStudio 中：\n   - 下载并加载您偏好的模型（如 qwen_qwq-32b）\n   - 切换到“本地服务器”选项卡\n   - 启动兼容 OpenAI API 的服务器\n   - 记下服务器 URL（默认：http:\u002F\u002Flocalhost:1234\u002Fv1）\n\n3. 您还可以选择性地更新 `.env` 文件，添加以下 LMStudio 配置设置。  \n\n* 如果设置了这些值，它们将优先于 `configuration.py` 中 `Configuration` 类的默认值。\n```shell\nLLM_PROVIDER=lmstudio\nLOCAL_LLM=qwen_qwq-32b  # 使用与 LMStudio 中显示的模型名称完全一致的名称\nLMSTUDIO_BASE_URL=http:\u002F\u002Flocalhost:1234\u002Fv1\n```\n\n### 选择搜索工具\n\n默认情况下，它会使用无需 API 密钥的 [DuckDuckGo](https:\u002F\u002Fduckduckgo.com\u002F) 进行网络搜索。但您也可以通过在环境文件中添加 API 密钥来使用 [SearXNG](https:\u002F\u002Fdocs.searxng.org\u002F)、[Tavily](https:\u002F\u002Ftavily.com\u002F) 或 [Perplexity](https:\u002F\u002Fwww.perplexity.ai\u002Fhub\u002Fblog\u002Fintroducing-the-sonar-pro-api)。您可以选择性地更新 `.env` 文件，添加以下搜索工具配置及 API 密钥。如果设置了这些值，它们将优先于 `configuration.py` 中 `Configuration` 类的默认值。\n```shell\nSEARCH_API=xxx # 要使用的搜索 API，例如 `duckduckgo`（默认）\nTAVILY_API_KEY=xxx # 要使用的 Tavily API 密钥\nPERPLEXITY_API_KEY=xxx # 要使用的 Perplexity API 密钥\nMAX_WEB_RESEARCH_LOOPS=xxx # 最大研究循环次数，默认为 `3`\nFETCH_FULL_PAGE=xxx # 是否获取完整页面内容（仅限 DuckDuckGo），默认为 `false`\n```\n\n### 使用 LangGraph Studio 运行\n\n#### Mac\n\n1. （推荐）创建虚拟环境：\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate\n```\n\n2. 启动 LangGraph 服务器：\n\n```bash\n# 安装 uv 包管理器\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\nuvx --refresh --from \"langgraph-cli[inmem]\" --with-editable . --python 3.11 langgraph dev\n```\n\n#### Windows\n\n1. （推荐）创建虚拟环境：  \n\n* 安装 `Python 3.11`（并在安装过程中将其添加到 PATH）。  \n* 重启终端以确保 Python 可用，然后创建并激活虚拟环境：\n\n```powershell\npython -m venv .venv\n.venv\\Scripts\\Activate.ps1\n```\n\n2. 启动 LangGraph 服务器：\n\n```powershell\n# 安装依赖\npip install -e .\npip install -U \"langgraph-cli[inmem]\"            \n\n# 启动 LangGraph 服务器\nlanggraph dev\n```\n\n### 使用 LangGraph Studio 界面\n\n当您启动 LangGraph 服务器时，应该会看到以下输出，并且 Studio 将在您的浏览器中打开：\n> 准备就绪！\n\n> API：http:\u002F\u002F127.0.0.1:2024\n\n> 文档：http:\u002F\u002F127.0.0.1:2024\u002Fdocs\n\n> LangGraph Studio Web UI：https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002F?baseUrl=http:\u002F\u002F127.0.0.1:2024\n\n通过上述 URL 打开 `LangGraph Studio Web UI`。在“配置”选项卡中，您可以直接设置各种助手配置。请注意，配置值的优先级顺序如下：\n\n```\n1. 环境变量（最高优先级）\n2. LangGraph UI 配置\n3. Configuration 类中的默认值（最低优先级）\n```\n\n\u003Cimg width=\"1621\" alt=\"Screenshot 2025-01-24 at 10 08 31 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_f38ab2925269.png\" \u002F>\n\n为助手提供一个研究主题，您就可以直观地看到它的整个流程！\n\n\u003Cimg width=\"1621\" alt=\"Screenshot 2025-01-24 at 10 08 22 PM\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_3eaa9db67eec.png\" \u002F>\n\n### 关于模型兼容性的说明\n\n在选择本地大语言模型时，请确保其能够生成结构化的 JSON 输出。然而，某些模型可能难以满足这一要求，此时助手会启用后备机制来处理这种情况。例如，[DeepSeek R1 (7B)](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-llm:7b) 和 [DeepSeek R1 (1.5B)](https:\u002F\u002Follama.com\u002Flibrary\u002Fdeepseek-r1:1.5b) 模型就难以生成所需的 JSON 输出，助手会自动切换到后备模式进行处理。\n\n### 浏览器兼容性说明\n\n访问 LangGraph Studio UI 时：\n- 建议使用 Firefox 以获得最佳体验\n- Safari 用户可能会因混合内容（HTTPS\u002FHTTP）而遇到安全警告\n- 如果遇到问题，请尝试：\n  1. 使用 Firefox 或其他浏览器\n  2. 禁用广告拦截扩展程序\n  3. 检查浏览器控制台以获取具体的错误信息\n\n## 工作原理\n\nLocal Deep Researcher 的灵感来源于 [IterDRAG](https:\u002F\u002Farxiv.org\u002Fhtml\u002F2410.04343v1#:~:text=To%20tackle%20this%20issue%2C%20we,used%20to%20generate%20intermediate%20answers.)。该方法会将一个问题分解为多个子问题，分别为每个子问题检索文档、回答子问题，然后基于回答结果再检索第二个子问题的相关文档。我们的实现与此类似：\n- 给定用户提供的主题，使用本地 LLM（通过 [Ollama](https:\u002F\u002Follama.com\u002Fsearch) 或 [LMStudio](https:\u002F\u002Flmstudio.ai\u002F)）生成网络搜索查询\n- 利用搜索引擎或工具查找相关资料\n- 使用 LLM 对与用户研究主题相关的网络搜索结果进行总结\n- 随后，LLM 会对总结内容进行反思，识别知识空白\n- 生成新的搜索查询以填补这些知识空白\n- 重复上述过程，每次都会用网络搜索的新信息更新总结内容\n- 整个流程可配置迭代次数（请参阅“configuration”选项卡）\n\n## 输出\n\n图的输出是一个包含研究摘要的 Markdown 文件，并附有引用来源的标注。在研究过程中收集的所有资料都会保存到图的状态中。您可以在 LangGraph Studio 中查看这些资料：\n\n![Screenshot 2024-12-05 at 4 08 59 PM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_15b073ea3cc7.png)\n\n最终的摘要也会保存到图的状态中：\n\n![Screenshot 2024-12-05 at 4 10 11 PM](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_readme_0c236dac04f9.png)\n\n## 部署选项\n\n部署此图的方式有多种 [途径](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002Fconcepts\u002F#deployment-options)。有关使用 LangGraph 部署的详细步骤，请参阅 LangChain Academy 的 [第 6 模块](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain-academy\u002Ftree\u002Fmain\u002Fmodule-6)。\n\n## TypeScript 实现\n\n该项目的 TypeScript 版本（不含 Perplexity 搜索）可在以下地址找到：\nhttps:\u002F\u002Fgithub.com\u002FPacoVK\u002Follama-deep-researcher-ts\n\n## 作为 Docker 容器运行\n\n随附的 `Dockerfile` 只会运行带有 local-deep-researcher 服务的 LangChain Studio，但并未将 Ollama 作为依赖服务包含在内。您需要单独运行 Ollama，并配置 `OLLAMA_BASE_URL` 环境变量。此外，您还可以通过设置 `LOCAL_LLM` 环境变量来指定要使用的 Ollama 模型。\n\n克隆仓库并构建镜像：\n```\n$ docker build -t local-deep-researcher .\n```\n\n运行容器：\n```\n$ docker run --rm -it -p 2024:2024 \\\n  -e SEARCH_API=\"tavily\" \\ \n  -e TAVILY_API_KEY=\"tvly-***YOUR_KEY_HERE***\" \\\n  -e LLM_PROVIDER=ollama \\\n  -e OLLAMA_BASE_URL=\"http:\u002F\u002Fhost.docker.internal:11434\u002F\" \\\n  -e LOCAL_LLM=\"llama3.2\" \\  \n  local-deep-researcher\n```\n\n注意：您会看到如下日志信息：\n```\n2025-02-10T13:45:04.784915Z [info     ] 🎨 Opening Studio in your browser... [browser_opener] api_variant=local_dev message=🎨 Opening Studio in your browser...\nURL: https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002F?baseUrl=http:\u002F\u002F0.0.0.0:2024\n```\n…但浏览器并不会从容器中自动打开。\n\n相反，请使用正确的 baseUrl IP 地址访问以下链接：[`https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002Fthread?baseUrl=http:\u002F\u002F127.0.0.1:2024`](https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002Fthread?baseUrl=http:\u002F\u002F127.0.0.1:2024)","# Local Deep Researcher 快速上手指南\n\nLocal Deep Researcher 是一个完全本地化的网络研究助手。它利用本地部署的大语言模型（通过 Ollama 或 LMStudio），自动执行“生成搜索查询 -> 获取结果 -> 总结 -> 反思知识缺口 -> 再次搜索”的循环过程，最终生成带有引用来源的 Markdown 研究报告。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: macOS, Windows, 或 Linux\n*   **Python**: 推荐版本 **3.11** (必须添加到系统 PATH)\n*   **本地大模型服务** (二选一):\n    *   **Ollama**: [下载地址](https:\u002F\u002Follama.com\u002Fdownload) (国内用户若下载缓慢，可尝试社区镜像或手动导入模型文件)\n    *   **LMStudio**: [下载地址](https:\u002F\u002Flmstudio.ai\u002F)\n*   **包管理器**:\n    *   macOS\u002FLinux: `curl` (用于安装 `uv`)\n    *   Windows: `pip`\n\n## 安装步骤\n\n### 1. 克隆项目并配置环境变量\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher.git\ncd local-deep-researcher\ncp .env.example .env\n```\n\n编辑 `.env` 文件，根据您的本地环境调整配置（详见下文模型选择部分）。\n\n### 2. 准备本地大模型\n\n#### 方案 A：使用 Ollama (推荐)\n\n1.  安装 Ollama 后，在终端拉取一个模型（例如 DeepSeek-R1 或 Llama3.2）：\n    ```bash\n    ollama pull deepseek-r1:8b\n    ```\n2.  在 `.env` 文件中配置：\n    ```shell\n    LLM_PROVIDER=ollama\n    OLLAMA_BASE_URL=\"http:\u002F\u002Flocalhost:11434\"\n    LOCAL_LLM=deepseek-r1:8b\n    ```\n    > **注意**: 如果使用 `gpt-oss` 等不支持 JSON 模式的模型，请在配置中启用 `use_tool_calling`。\n\n#### 方案 B：使用 LMStudio\n\n1.  在 LMStudio 中下载并加载模型。\n2.  进入 \"Local Server\" 标签页，启动服务器 (默认端口 1234)。\n3.  在 `.env` 文件中配置：\n    ```shell\n    LLM_PROVIDER=lmstudio\n    LOCAL_LLM=qwen_qwq-32b\n    LMSTUDIO_BASE_URL=http:\u002F\u002Flocalhost:1234\u002Fv1\n    ```\n\n### 3. 配置搜索工具\n\n默认使用 **DuckDuckGo** (无需 API Key)。如需更高精度，可在 `.env` 中配置 Tavily 或 Perplexity 的 API Key：\n\n```shell\nSEARCH_API=duckduckgo\n# 或者使用付费服务\n# SEARCH_API=tavily\n# TAVILY_API_KEY=your_key_here\nMAX_WEB_RESEARCH_LOOPS=3\n```\n\n### 4. 启动服务\n\n#### macOS \u002F Linux 用户\n\n推荐使用 `uv` 管理环境并启动 LangGraph 开发服务器：\n\n```bash\n# 创建虚拟环境\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate\n\n# 安装 uv 并启动服务\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\nuvx --refresh --from \"langgraph-cli[inmem]\" --with-editable . --python 3.11 langgraph dev\n```\n\n#### Windows 用户\n\n```powershell\n# 创建并激活虚拟环境\npython -m venv .venv\n.venv\\Scripts\\Activate.ps1\n\n# 安装依赖\npip install -e .\npip install -U \"langgraph-cli[inmem]\"\n\n# 启动服务\nlanggraph dev\n```\n\n## 基本使用\n\n启动成功后，终端将显示类似以下信息：\n> LangGraph Studio Web UI: https:\u002F\u002Fsmith.langchain.com\u002Fstudio\u002F?baseUrl=http:\u002F\u002F127.0.0.1:2024\n\n1.  **打开界面**: 点击上述 URL 或在浏览器中访问该地址。\n    *   *建议*: 优先使用 **Firefox** 浏览器以获得最佳兼容性。Safari 用户可能会遇到混合内容安全警告。\n2.  **配置参数**: 在界面的 `configuration` 标签页中，您可以直接覆盖 `.env` 中的设置（优先级：环境变量 > UI 配置 > 代码默认值）。\n3.  **开始研究**:\n    *   在输入框中输入您的研究主题（例如：\"2024 年人工智能在医疗领域的最新进展\"）。\n    *   点击运行，系统将自动可视化展示思考、搜索、总结和反思的全过程。\n4.  **获取结果**:\n    *   研究完成后，您可以在右侧面板查看最终的 **Markdown 总结报告**。\n    *   所有引用的源链接和中间状态均可在 Graph State 中查看。\n\n---\n*提示：部分小型模型可能在生成结构化 JSON 输出时不稳定，若遇到错误，系统会自动尝试回退机制，或建议更换参数量更大的模型（如 8B 以上）。*","某独立开发者正在为一款新的开源项目撰写技术选型报告，需要深入调研当前主流的本地大模型推理框架及其性能表现。\n\n### 没有 local-deep-researcher 时\n- **信息搜集碎片化**：需要在多个搜索引擎间反复切换，手动筛选大量无关广告和低质量博客，耗时极长。\n- **深度分析缺失**：难以自动发现知识盲区，往往只停留在表面参数对比，无法深入挖掘架构差异或社区隐性评价。\n- **隐私与成本顾虑**：使用在线 AI 助手整理资料时，担心敏感的技术构思泄露，且高频调用付费 API 导致预算超支。\n- **报告整理繁琐**：收集到的链接和摘要散落在不同标签页，手动汇总成带引用的 Markdown 文档极易出错且格式混乱。\n\n### 使用 local-deep-researcher 后\n- **全自动闭环调研**：只需输入主题，local-deep-researcher 即可自动生成搜索词、抓取结果并总结，无需人工干预浏览过程。\n- **智能迭代补全**：工具能主动反思总结中的知识缺口，自动发起新一轮针对性搜索，确保技术选型的深度和全面性。\n- **完全本地化运行**：结合 Ollama 或 LMStudio 部署本地模型，所有数据在本地处理，既保护了研发隐私又节省了 API 费用。\n- **一键生成规范报告**：调研结束后直接输出包含完整来源引用的 Markdown 报告，开发者可直接将其用于项目文档或技术分享。\n\nlocal-deep-researcher 将原本需要数小时的人工调研与整理工作，转化为一个安全、自主且深度的本地自动化流程，极大提升了技术决策的效率与质量。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flangchain-ai_local-deep-researcher_ee99868e.png","langchain-ai","LangChain","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flangchain-ai_8e6aaeef.png","",null,"support@langchain.dev","https:\u002F\u002Fwww.langchain.com","https:\u002F\u002Fgithub.com\u002Flangchain-ai",[81,85],{"name":82,"color":83,"percentage":84},"Python","#3572A5",97.4,{"name":86,"color":87,"percentage":88},"Dockerfile","#384d54",2.6,9014,950,"2026-04-08T16:47:40","MIT","macOS, Windows","未说明 (依赖用户自行选择的本地 LLM 模型及 Ollama\u002FLMStudio 的运行环境)","未说明 (取决于所选本地大语言模型的显存\u002F内存需求)",{"notes":97,"python":98,"dependencies":99},"1. 该工具本身不直接运行模型，需额外安装并运行 Ollama 或 LMStudio 来提供本地 LLM 服务。\n2. 推荐使用 Firefox 浏览器访问 LangGraph Studio UI，Safari 可能因混合内容出现安全警告。\n3. 若使用 Docker 部署，需单独运行 Ollama 服务并配置正确的网络地址。\n4. 部分小型模型（如 DeepSeek R1 7B\u002F1.5B）可能在生成结构化 JSON 输出时遇到困难，工具内置了回退机制。","3.11",[100,101,102],"langgraph-cli[inmem]","python-dotenv","uv",[35,13],"2026-03-27T02:49:30.150509","2026-04-09T05:25:41.348387",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},25746,"为什么使用 deepseek-r1 模型运行时会报错，而 llama3.1 可以正常运行？","这是特定模型版本兼容性问题。测试表明 `deepseek-r1:7b` 版本会出现错误，但切换到 `deepseek-r1:8b` 版本即可正常工作。维护者已在 README 中添加了相关兼容性说明。","https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher\u002Fissues\u002F18",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},25747,"运行 `langgraph dev` 后打开浏览器显示 \"TypeError: Failed to fetch\" 或无法加载助手，如何解决？","这通常是由浏览器的跨源（CORS）安全策略引起的，特别是在 Safari 或部分严格配置的 Chrome 环境中。维护者建议在 README 中查看“浏览器兼容性说明”。如果遇到此问题，可以尝试更换浏览器（如 Firefox）或在终端中运行而非直接通过某些受限的浏览器环境访问本地服务器地址（http:\u002F\u002F127.0.0.1:2024）。","https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher\u002Fissues\u002F29",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},25748,"在研究过程中，搜索查询为何会意外变成查找 \"String\" 的定义并陷入死循环？","这是一个提示词（Prompt）设计导致的副作用。在 `src\u002Fassistant\u002Fprompts.py` 文件的 `reflection_instructions` 中，JSON 返回格式的示例使用了 \"string\" 作为占位符（例如 `\"knowledge_gap\": \"string\"`）。某些模型会误将此占位符当作实际内容输出。解决方法是修改该提示词文件，将示例中的 \"string\" 替换为更具体的描述性文本（如 \"description of the gap\"），以避免误导模型。","https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher\u002Fissues\u002F8",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},25749,"是否支持使用 llama.cpp 作为 LLM 服务器以进行 CPU 推理？","项目主要针对 Ollama 进行了优化，但社区用户表示可以通过 Fork 项目并进行少量修改来支持 llama.cpp。由于 llama.cpp 通常提供 OpenAI 兼容的 API 接口，理论上只要配置正确的 API 端点和密钥，即可将其作为后端服务器使用，但这可能需要用户自行调整代码适配。","https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher\u002Fissues\u002F50",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},25750,"遇到 \"Failed to load assistants\" 错误且确认 API 密钥无误时该怎么办？","此问题可能与前端助手标签页和配置标签页的合并更新有关。如果服务器正在运行但浏览器返回 404 或加载失败，请尝试刷新页面或清除浏览器缓存。维护者指出，即使助手加载失败，用户通常仍应能够直接设置配置。如果问题持续，建议检查是否处于无痕模式或禁用了隐私中继（Private Relay），并关注项目的最新更新以获取修复。","https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flocal-deep-researcher\u002Fissues\u002F4",{"id":133,"question_zh":134,"answer_zh":135,"source_url":116},25751,"在 Windows 上运行时，日志显示服务器已启动但浏览器无法连接，可能是什么原因？","日志显示 Uvicorn 成功运行在 `http:\u002F\u002F127.0.0.1:2024`，但浏览器报错通常是因为浏览器阻止了本地非 HTTPS 请求或跨源请求。请确保直接访问日志中提供的本地地址。如果是 Windows 用户，还需检查防火墙设置是否允许 Python 或 uvicorn 通过该端口通信。此外，避免使用过于严格的浏览器安全插件。",[]]