[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-InternLM--MindSearch":3,"tool-InternLM--MindSearch":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":110,"forks":111,"last_commit_at":112,"license":113,"difficulty_score":114,"env_os":115,"env_gpu":116,"env_ram":117,"env_deps":118,"category_tags":126,"github_topics":128,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":139,"updated_at":140,"faqs":141,"releases":171},8488,"InternLM\u002FMindSearch","MindSearch","🔍 An LLM-based Multi-agent Framework of Web Search Engine (like Perplexity.ai Pro and SearchGPT)","MindSearch 是一个基于大语言模型的多智能体网络搜索框架，旨在打造类似 Perplexity.ai Pro 和 SearchGPT 的深度 AI 搜索引擎。它通过模拟人类专家的思考过程，将复杂的搜索任务拆解为多个子问题，由多个智能体协同进行并行检索、分析与整合，从而提供比传统搜索更精准、逻辑更严密的深度回答，有效解决了单一模型在面对复杂问题时容易产生的幻觉或信息碎片化痛点。\n\n该项目特别适合开发者、AI 研究人员以及希望构建私有化深度搜索应用的技术团队使用。其核心亮点在于采用了“模仿人类思维”的多智能体架构，支持异步并发处理，显著提升了多轮查询的效率与准确性。同时，MindSearch 具备极高的灵活性，不仅支持 InternLM、GPT-4 等多种主流大模型，还兼容 DuckDuckGo、Bing、Google、百度（腾讯搜索）等多种搜索引擎接口，用户可轻松根据需求定制后端服务。项目提供了完整的部署指南及 React、Gradio、Streamlit 等多种前端界面方案，方便用户快速搭建属于自己的高性能 AI 搜索系统。","\u003Cdiv id=\"top\">\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n\u003Cpicture>\n  \u003Csource srcset=\"assets\u002Flogo.svg\" media=\"(prefers-color-scheme: light)\">\n  \u003Csource srcset=\"assets\u002Flogo-darkmode.svg\" media=\"(prefers-color-scheme: dark)\">\n  \u003Cimg src=\"assets\u002Flogo.svg\" alt=\"Logo\" width=\"50%\">\n\u003C\u002Fpicture>\n\n[📃 Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.20183) | [💻 Demo](https:\u002F\u002Finternlm-chat.intern-ai.org.cn\u002F)\n\nEnglish | [简体中文](README_zh-CN.md)\n\n\u003Chttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F44ffe4b9-be26-4b93-a77b-02fed16e33fe>\n\n\u003C\u002Fdiv>\n\u003C\u002Fp>\n\n## ✨ MindSearch: Mimicking Human Minds Elicits Deep AI Searcher\n\n## 📅 Changelog\n\n- 2024\u002F11\u002F05: 🥳 MindSearch is now deployed on Puyu! 👉 [Try it](https:\u002F\u002Finternlm-chat.intern-ai.org.cn\u002F) 👈\n  -  Refactored the agent module based on [Lagent v0.5](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flagent) for better performance in concurrency.\n  -  Improved the UI to embody the simultaneous multi-query search.\n\n\n## ⚽️ Build Your Own MindSearch\n\n### Step1: Dependencies Installation\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\ncd MindSearch\npip install -r requirements.txt\n```\n\n### Step2: Setup Environment Variables\n\nBefore setting up the API, you need to configure environment variables. Rename the `.env.example` file to `.env` and fill in the required values.\n\n```bash\nmv .env.example .env\n# Open .env and add your keys and model configurations\n```\n\n### Step3: Setup MindSearch API\n\nSetup FastAPI Server.\n\n```bash\npython -m mindsearch.app --lang en --model_format internlm_server --search_engine DuckDuckGoSearch --asy \n```\n\n- `--lang`: language of the model, `en` for English and `cn` for Chinese.\n- `--model_format`: format of the model.\n  - `internlm_server` for InternLM2.5-7b-chat with local server. (InternLM2.5-7b-chat has been better optimized for Chinese.)\n  - `gpt4` for GPT4.\n    if you want to use other models, please modify [models](.\u002Fmindsearch\u002Fagent\u002Fmodels.py)\n- `--search_engine`: Search engine.\n  - `DuckDuckGoSearch` for search engine for DuckDuckGo.\n  - `BingSearch` for Bing search engine.\n  - `BraveSearch` for Brave search web api engine.\n  - `GoogleSearch` for Google Serper web search api engine.\n  - `TencentSearch` for Tencent search api engine.\n  \n  Please set your Web Search engine API key as the `WEB_SEARCH_API_KEY` environment variable unless you are using `DuckDuckGo`, or `TencentSearch` that requires secret id as `TENCENT_SEARCH_SECRET_ID` and secret key as `TENCENT_SEARCH_SECRET_KEY`.\n- `--asy`: deploy asynchronous agents.\n\n### Step4: Setup MindSearch Frontend\n\nProviding following frontend interfaces,\n\n- React\n\nFirst configurate the backend URL for Vite proxy.\n\n```bash\nHOST=\"127.0.0.1\"  # modify as you need\nPORT=8002\nsed -i -r \"s\u002Ftarget:\\s*\\\"\\\"\u002Ftarget: \\\"${HOST}:${PORT}\\\"\u002F\" frontend\u002FReact\u002Fvite.config.ts\n```\n\n```bash\n# Install Node.js and npm\n# for Ubuntu\nsudo apt install nodejs npm\n\n# for windows\n# download from https:\u002F\u002Fnodejs.org\u002Fzh-cn\u002Fdownload\u002Fprebuilt-installer\n\n# Install dependencies\n\ncd frontend\u002FReact\nnpm install\nnpm start\n```\n\nDetails can be found in [React](.\u002Ffrontend\u002FReact\u002FREADME.md)\n\n- Gradio\n\n```bash\npython frontend\u002Fmindsearch_gradio.py\n```\n\n- Streamlit\n\n```bash\nstreamlit run frontend\u002Fmindsearch_streamlit.py\n```\n\n## 🌐 Change Web Search API\n\nTo use a different type of web search API, modify the `searcher_type` attribute in the `searcher_cfg` located in `mindsearch\u002Fagent\u002F__init__.py`. Currently supported web search APIs include:\n\n- `GoogleSearch`\n- `DuckDuckGoSearch`\n- `BraveSearch`\n- `BingSearch`\n- `TencentSearch`\n\nFor example, to change to the Brave Search API, you would configure it as follows:\n\n```python\nBingBrowser(\n    searcher_type='BraveSearch',\n    topk=2,\n    api_key=os.environ.get('BRAVE_API_KEY', 'YOUR BRAVE API')\n)\n```\n\n## 🐞 Using the Backend Without Frontend\n\nFor users who prefer to interact with the backend directly, use the `backend_example.py` script. This script demonstrates how to send a query to the backend and process the response.\n\n```bash\npython backend_example.py\n```\n\nMake sure you have set up the environment variables and the backend is running before executing the script.\n\n## 🐞 Debug Locally\n\n```bash\npython -m mindsearch.terminal\n```\n\n## 📝 License\n\nThis project is released under the [Apache 2.0 license](LICENSE).\n\n## Citation\n\nIf you find this project useful in your research, please consider cite:\n\n```\n@article{chen2024mindsearch,\n  title={MindSearch: Mimicking Human Minds Elicits Deep AI Searcher},\n  author={Chen, Zehui and Liu, Kuikun and Wang, Qiuchen and Liu, Jiangning and Zhang, Wenwei and Chen, Kai and Zhao, Feng},\n  journal={arXiv preprint arXiv:2407.20183},\n  year={2024}\n}\n```\n\n## Our Projects\n\nExplore our additional research on large language models, focusing on LLM agents.\n\n- [Lagent](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flagent): A lightweight framework for building LLM-based agents\n- [AgentFLAN](https:\u002F\u002Fgithub.com\u002FInternLM\u002FAgent-FLAN): An innovative approach for constructing and training with high-quality agent datasets (ACL 2024 Findings)\n- [T-Eval](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FT-Eval): A Fine-grained tool utilization evaluation benchmark (ACL 2024)\n","\u003Cdiv id=\"top\">\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n\u003Cpicture>\n  \u003Csource srcset=\"assets\u002Flogo.svg\" media=\"(prefers-color-scheme: light)\">\n  \u003Csource srcset=\"assets\u002Flogo-darkmode.svg\" media=\"(prefers-color-scheme: dark)\">\n  \u003Cimg src=\"assets\u002Flogo.svg\" alt=\"Logo\" width=\"50%\">\n\u003C\u002Fpicture>\n\n[📃 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.20183) | [💻 演示](https:\u002F\u002Finternlm-chat.intern-ai.org.cn\u002F)\n\nEnglish | [简体中文](README_zh-CN.md)\n\n\u003Chttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F44ffe4b9-be26-4b93-a77b-02fed16e33fe>\n\n\u003C\u002Fdiv>\n\u003C\u002Fp>\n\n## ✨ MindSearch：模拟人类思维，打造深度AI搜索引擎\n\n## 📅 变更日志\n\n- 2024年11月5日：🥳 MindSearch现已部署在Puyu平台！👉 [立即体验](https:\u002F\u002Finternlm-chat.intern-ai.org.cn\u002F) 👈\n  - 基于[Lagent v0.5](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flagent)重构了代理模块，以提升并发性能。\n  - 改进了用户界面，更好地体现同时多查询搜索的功能。\n\n\n## ⚽️ 搭建属于你的MindSearch\n\n### 第一步：安装依赖\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\ncd MindSearch\npip install -r requirements.txt\n```\n\n### 第二步：设置环境变量\n\n在启动API之前，需要配置环境变量。将`.env.example`文件重命名为`.env`，并填写所需值。\n\n```bash\nmv .env.example .env\n# 打开 .env 文件，添加你的密钥和模型配置\n```\n\n### 第三步：搭建MindSearch API\n\n启动FastAPI服务器。\n\n```bash\npython -m mindsearch.app --lang en --model_format internlm_server --search_engine DuckDuckGoSearch --asy \n```\n\n- `--lang`：模型的语言，`en`表示英文，`cn`表示中文。\n- `--model_format`：模型格式。\n  - `internlm_server` 表示使用本地服务器运行的InternLM2.5-7b-chat。（InternLM2.5-7b-chat针对中文进行了更好的优化。）\n  - `gpt4` 表示使用GPT4模型。\n    如果你想使用其他模型，请修改[mindsearch\u002Fagent\u002Fmodels.py]中的模型定义。\n- `--search_engine`：搜索引擎。\n  - `DuckDuckGoSearch` 表示使用DuckDuckGo搜索引擎。\n  - `BingSearch` 表示使用必应搜索引擎。\n  - `BraveSearch` 表示使用Brave Search Web API引擎。\n  - `GoogleSearch` 表示使用Google Serper Web Search API引擎。\n  - `TencentSearch` 表示使用腾讯搜索API引擎。\n  \n  请将你的Web搜索引擎API密钥设置为环境变量`WEB_SEARCH_API_KEY`，除非你使用的是`DuckDuckGo`或`TencentSearch`，后者需要分别设置`TENCENT_SEARCH_SECRET_ID`和`TENCENT_SEARCH_SECRET_KEY`作为密钥和密匙。\n- `--asy`：部署异步代理。\n\n### 第四步：搭建MindSearch前端\n\n提供以下几种前端界面：\n\n- React\n\n首先配置Vite代理的后端URL。\n\n```bash\nHOST=\"127.0.0.1\"  # 根据需要修改\nPORT=8002\nsed -i -r \"s\u002Ftarget:\\s*\\\"\\\"\u002Ftarget: \\\"${HOST}:${PORT}\\\"\u002F\" frontend\u002FReact\u002Fvite.config.ts\n```\n\n```bash\n# 安装Node.js和npm\n# 对于Ubuntu系统：\nsudo apt install nodejs npm\n\n# 对于Windows系统：\n# 从https:\u002F\u002Fnodejs.org\u002Fzh-cn\u002Fdownload\u002Fprebuilt-installer下载\n\n# 安装依赖\n\ncd frontend\u002FReact\nnpm install\nnpm start\n```\n\n详细信息请参阅[React](.\u002Ffrontend\u002FReact\u002FREADME.md)。\n\n- Gradio\n\n```bash\npython frontend\u002Fmindsearch_gradio.py\n```\n\n- Streamlit\n\n```bash\nstreamlit run frontend\u002Fmindsearch_streamlit.py\n```\n\n## 🌐 更改Web搜索API\n\n若需使用不同类型的Web搜索API，可在`mindsearch\u002Fagent\u002F__init__.py`中的`searcher_cfg`里修改`searcher_type`属性。目前支持的Web搜索API包括：\n\n- `GoogleSearch`\n- `DuckDuckGoSearch`\n- `BraveSearch`\n- `BingSearch`\n- `TencentSearch`\n\n例如，若要切换到Brave Search API，可按如下方式配置：\n\n```python\nBingBrowser(\n    searcher_type='BraveSearch',\n    topk=2,\n    api_key=os.environ.get('BRAVE_API_KEY', 'YOUR BRAVE API')\n)\n```\n\n## 🐞 直接使用后端而不通过前端\n\n对于希望直接与后端交互的用户，可以使用`backend_example.py`脚本。该脚本演示如何向后端发送查询并处理响应。\n\n```bash\npython backend_example.py\n```\n\n请确保已正确设置环境变量，并且后端服务正在运行后再执行此脚本。\n\n## 🐞 本地调试\n\n```bash\npython -m mindsearch.terminal\n```\n\n## 📝 许可证\n\n本项目采用[Apache 2.0许可证](LICENSE)发布。\n\n## 引用\n\n如果你的研究中使用了本项目，请考虑引用：\n\n```\n@article{chen2024mindsearch,\n  title={MindSearch: Mimicking Human Minds Elicits Deep AI Searcher},\n  author={Chen, Zehui and Liu, Kuikun and Wang, Qiuchen and Liu, Jiangning and Zhang, Wenwei and Chen, Kai and Zhao, Feng},\n  journal={arXiv preprint arXiv:2407.20183},\n  year={2024}\n}\n```\n\n## 我们的项目\n\n探索我们在大型语言模型领域的更多研究，重点关注LLM代理。\n\n- [Lagent](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flagent)：一个用于构建基于LLM的轻量级代理框架\n- [AgentFLAN](https:\u002F\u002Fgithub.com\u002FInternLM\u002FAgent-FLAN)：一种创新的高质量代理数据集构建与训练方法（ACL 2024 Findings）\n- [T-Eval](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FT-Eval)：一个细粒度的工具使用评估基准（ACL 2024）","# MindSearch 快速上手指南\n\nMindSearch 是一个模仿人类思维过程的深度 AI 搜索框架，支持多轮推理与并发搜索。本指南将帮助中国开发者快速在本地部署并运行该工具。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu) 或 Windows (需配置相应环境)。\n*   **Python**: 版本 3.8 及以上。\n*   **Node.js & npm**: 用于启动 React 前端界面（若仅使用 Gradio\u002FStreamlit 或后端可忽略）。\n    *   Ubuntu: `sudo apt install nodejs npm`\n    *   Windows: 前往 [Node.js 官网](https:\u002F\u002Fnodejs.org\u002Fzh-cn\u002Fdownload\u002Fprebuilt-installer) 下载安装。\n*   **模型服务**:\n    *   推荐使用 **InternLM2.5-7b-chat** (对中文优化更好)，需本地部署服务。\n    *   或使用 **GPT-4** (需配置 API Key)。\n*   **搜索引擎**:\n    *   默认支持 **DuckDuckGo** (无需 Key)。\n    *   国内用户建议使用 **TencentSearch** (腾讯搜索) 或 **BingSearch**，需申请对应的 API Key\u002FSecret。\n\n## 安装步骤\n\n### 1. 克隆项目与安装依赖\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\ncd MindSearch\npip install -r requirements.txt\n```\n\n### 2. 配置环境变量\n\n复制示例配置文件并填入您的密钥信息。\n\n```bash\nmv .env.example .env\n```\n\n编辑 `.env` 文件，根据您选择的模型和搜索引擎填写对应字段：\n*   若使用 GPT-4，填写 `OPENAI_API_KEY`。\n*   若使用 Bing\u002FTencent\u002FBrave 等搜索引擎，填写对应的 `WEB_SEARCH_API_KEY` 或 `TENCENT_SEARCH_SECRET_ID`\u002F`TENCENT_SEARCH_SECRET_KEY`。\n*   若使用 DuckDuckGo，无需额外配置。\n\n### 3. 启动后端服务\n\n运行以下命令启动 FastAPI 后端。以下示例以中文模式、本地 InternLM 模型、DuckDuckGo 搜索引擎及异步代理模式为例：\n\n```bash\npython -m mindsearch.app --lang cn --model_format internlm_server --search_engine DuckDuckGoSearch --asy\n```\n\n**参数说明：**\n*   `--lang`: 语言设置，`cn` 为中文，`en` 为英文。\n*   `--model_format`: 模型格式。\n    *   `internlm_server`: 本地 InternLM2.5-7b-chat 服务。\n    *   `gpt4`: GPT-4 模型。\n    *   *注：若使用其他模型，请修改 `mindsearch\u002Fagent\u002Fmodels.py`。*\n*   `--search_engine`: 搜索引擎类型 (`DuckDuckGoSearch`, `BingSearch`, `BraveSearch`, `GoogleSearch`, `TencentSearch`)。\n*   `--asy`: 启用异步代理部署以提升并发性能。\n\n### 4. 启动前端界面 (可选)\n\n您可以选择以下任意一种前端方式：\n\n#### 方案 A：React 前端 (推荐，体验最佳)\n\n配置 Vite 代理指向后端地址：\n\n```bash\nHOST=\"127.0.0.1\"\nPORT=8002\nsed -i -r \"s\u002Ftarget:\\s*\\\"\\\"\u002Ftarget: \\\"${HOST}:${PORT}\\\"\u002F\" frontend\u002FReact\u002Fvite.config.ts\n```\n\n安装依赖并启动：\n\n```bash\ncd frontend\u002FReact\nnpm install\nnpm start\n```\n\n#### 方案 B：Gradio 前端 (轻量级)\n\n```bash\npython frontend\u002Fmindsearch_gradio.py\n```\n\n#### 方案 C：Streamlit 前端\n\n```bash\nstreamlit run frontend\u002Fmindsearch_streamlit.py\n```\n\n## 基本使用\n\n### 方式一：通过网页界面使用\n启动前端后（如 React 默认在 `http:\u002F\u002Flocalhost:5173`，Gradio\u002FStreamlit 会输出具体地址），直接在浏览器访问该地址。在输入框中输入您的问题（例如：“分析一下 2024 年人工智能的发展趋势”），系统将自动进行多步搜索、推理并生成深度报告。\n\n### 方式二：通过命令行脚本调用 (无前端)\n如果您只想测试后端逻辑，可以使用提供的示例脚本：\n\n```bash\npython backend_example.py\n```\n*注意：运行前请确保后端服务 (`mindsearch.app`) 已在后台运行，且环境变量已正确配置。*\n\n### 方式三：本地终端调试\n直接在终端运行交互式调试：\n\n```bash\npython -m mindsearch.terminal\n```","某科技公司的市场分析师需要在两小时内完成一份关于“全球固态电池最新技术突破及主要厂商布局”的深度竞品分析报告，以支持即将到来的投资决策会议。\n\n### 没有 MindSearch 时\n- **信息搜集耗时极长**：分析师需手动在多个搜索引擎中反复切换关键词，逐页翻阅新闻、论文和财报，仅收集资料就耗费了大部分时间。\n- **内容碎片化严重**：搜到的信息分散在不同来源，缺乏逻辑关联，难以快速理清技术路线的演进脉络和厂商间的竞争关系。\n- **深度分析不足**：由于时间紧迫，只能罗列表面新闻，无法像专业研报那样对数据进行交叉验证和深度解读，报告缺乏洞察力。\n- **多任务处理困难**：若需同时追踪多个细分技术领域（如硫化物与氧化物路线），人工并行处理极易出错或遗漏关键信息。\n\n### 使用 MindSearch 后\n- **自动化全网聚合**：MindSearch 的多智能体框架自动并发调用 DuckDuckGo 或 Bing 等引擎，几分钟内即可抓取并筛选出全球范围内的最新技术动态与厂商数据。\n- **结构化思维链输出**：工具模仿人类专家的思考过程，自动将碎片信息整合为逻辑严密的综述，清晰呈现技术对比图谱与市场竞争格局。\n- **深度推理与验证**：内置的大模型不仅能总结信息，还能对不同来源的数据进行交叉验证，自动生成包含数据支撑的深度洞察结论。\n- **高效并行查询**：针对固态电池的多个技术分支，MindSearch 可同时启动多个搜索代理并行处理，一次性输出多维度的完整分析视图。\n\nMindSearch 将原本需要数天的人工调研工作压缩至分钟级，让分析师能从繁琐的信息搜集解放出来，专注于高价值的战略决策。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInternLM_MindSearch_e3be0b29.png","InternLM","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FInternLM_bc4eb14c.png","",null,"internlm@pjlab.org.cn","intern_lm","https:\u002F\u002Fchat.intern-ai.org.cn\u002F","https:\u002F\u002Fgithub.com\u002FInternLM",[82,86,90,94,98,102,106],{"name":83,"color":84,"percentage":85},"JavaScript","#f1e05a",74.6,{"name":87,"color":88,"percentage":89},"Python","#3572A5",15.5,{"name":91,"color":92,"percentage":93},"TypeScript","#3178c6",5.6,{"name":95,"color":96,"percentage":97},"Less","#1d365d",3.8,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0.3,{"name":103,"color":104,"percentage":105},"CSS","#663399",0.2,{"name":107,"color":108,"percentage":109},"HTML","#e34c26",0,6841,678,"2026-04-17T03:13:24","Apache-2.0",4,"Linux, Windows","未说明（若使用本地模型 internlm_server 通常需要支持 CUDA 的 NVIDIA GPU，具体显存取决于模型大小；若使用 GPT4 等云端 API 则无强制要求）","未说明",{"notes":119,"python":117,"dependencies":120},"1. 前端 React 界面需要安装 Node.js 和 npm。2. 支持多种搜索引擎（DuckDuckGo, Bing, Brave, Google, Tencent），除 DuckDuckGo 外均需配置对应的 API Key 环境变量。3. 默认推荐使用的 InternLM2.5-7b-chat 模型针对中文优化，需本地部署或配置相应服务地址。4. 可通过 --asy 参数启用异步代理部署以提升并发性能。",[121,122,123,124,125],"lagent>=0.5","fastapi","duckduckgo-search","nodejs","npm",[35,14,127,13],"其他",[129,130,131,132,133,134,135,136,137,138],"gpt","llm","llms","search","transformer","ai-search-engine","multi-agent-systems","web-search","perplexity-ai","searchgpt","2026-03-27T02:49:30.150509","2026-04-18T00:45:52.911889",[142,147,152,157,162,167],{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},37987,"安装时遇到 'ERROR: No matching distribution found for lmdeploy' 错误怎么办？","如果您计划使用 GPT-4 模型，可以直接从 requirements.txt 中移除 lmdeploy 依赖。lmdeploy 主要用于本地模型部署，若不使用本地模型（如 InternLM），则不需要该包。","https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\u002Fissues\u002F57",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},37988,"如何在 macOS 上运行 MindSearch？","目前 lmdeploy 不支持 macOS。建议的解决方案是使用 MLC LLM 作为推理后端：\n1. 安装 MLC：`python -m pip install --pre -U -f https:\u002F\u002Fmlc.ai\u002Fwheels mlc-llm-nightly mlc-ai-nightly`\n2. 启动服务（以 Mistral 7B 为例）：`mlc_llm serve HF:\u002F\u002Fmlc-ai\u002FMistral-7B-Instruct-v0.2-q4f16_1-MLC --port 7860 --host 0.0.0.0`\n3. 在客户端设置中将 URL 改为 `localhost:7860`。\n另外，社区也建议项目未来可以考虑支持 ollama 作为推理引擎。","https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\u002Fissues\u002F46",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},37989,"使用 Streamlit 前端时出现 'json.decoder.JSONDecodeError' 错误如何解决？","该错误通常是因为后端启动参数不匹配导致的。请确保后端启动命令指定了正确的模型格式，例如使用 GPT-4 时，应运行：`python -m mindsearch.app --lang en --model_format gpt4`。确保前后端配置的模型类型一致。","https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\u002Fissues\u002F54",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},37990,"运行时遇到 'ReadTimeout' 或连接本地端口超时错误怎么办？","这个问题通常由代理配置引起。如果您设置了指向局域网其他主机的代理（如 `export http_proxy=http:\u002F\u002F192.168.1.77:7890`），可能会导致本地请求超时。解决方法是取消这些代理设置，或者确保代理指向本机。此外，也可以尝试重新转发 8002 端口，或在代码中的 BingBrowser 部分直接传入代理配置。","https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\u002Fissues\u002F104",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},37991,"如何在本地使用 GPT-4 模型运行 MindSearch？","要使用 GPT-4 运行，需要确保后端启动命令指定了正确的模型格式参数。请使用以下命令启动应用：`python -m mindsearch.app --lang en --model_format gpt4`（中文环境可将 lang 设为 cn）。同时，请确保已正确配置 OpenAI API Key 环境变量。","https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch\u002Fissues\u002F17",{"id":168,"question_zh":169,"answer_zh":170,"source_url":146},37992,"Python 3.10 或 3.12 版本无法安装 lmdeploy 包是否正常？","这是正常现象，特别是当您不需要使用本地部署的 InternLM 模型时。如果您的方案是基于 GPT-4 或其他 API 模型，lmdeploy 不是必需的依赖。您可以安全地从 requirements.txt 中删除该行，或者忽略此安装错误，只要您的工作流不依赖本地推理引擎即可。",[172],{"id":173,"version":174,"summary_zh":175,"released_at":176},306173,"v0.1.0","## 一款具备 Perplexity.ai Pro 性能的开源 AI 搜索引擎框架\n\n**技术报告**：https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.20183\n\n搜索引擎能够提供丰富且最新的网络信息，但往往难以根据人类复杂的意图定制搜索结果。受大型语言模型（LLMs）取得的显著进展启发，近期的研究尝试将 LLMs 融入搜索引擎中。然而，这些方法仍存在不尽如人意的表现，主要源于以下三个关键问题：\n\n- LLMs 无法将复杂查询分解为原子级子查询，这使得准确、全面地检索相关信息变得困难。\n- 相较于其他任务，搜索结果通常规模庞大，需要专门的预筛选机制。\n- 迭代式网络搜索的内容可能迅速超出 LLM 输入长度的上限。\n\n![](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F15990c0d-cc9a-4302-b005-3f1f23441cc9)\n\n图 1：MindSearch 的整体框架。它由两个核心组件构成：WebPlanner 和 WebSearcher。WebPlanner 充当高层规划器，协调推理步骤并调度多个 WebSearcher；而 WebSearcher 则执行细粒度的网络搜索，并将有价值的信息汇总回规划器，从而形成一个简单却高效的多智能体架构。\n\n为解决上述问题，我们提出了 MindSearch——一种基于 LLM 的多智能体网络搜索框架，由 Web Planner 和 Web Searcher 组成。WebPlanner 将复杂的问题求解过程建模为动态图构建的过程：它将问题分解为若干子查询作为图节点，并根据 WebSearcher 返回的搜索结果逐步扩展图结构。每个子查询由一个 WebSearcher 负责，通过分层的信息检索机制从搜索引擎中获取数据，并将有用信息反馈给 WebPlanner。\n\n![](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc104c0a7-d93c-4459-96b9-9bf8c5cb5fb8)\n图 2：由人类专家针对开放集问答任务进行的主观评估结果。在深度、广度和时效性方面，MindSearch 显著优于 ChatGPT-Web 和 Perplexity.ai Pro。\n\nMindSearch 的多智能体设计将海量信息分配给不同的智能体处理，从而使整个系统能够处理更长的上下文（例如超过 300 页的网页内容）。为了验证该方法的有效性，我们在封闭集和开放集问答任务上，分别使用 GPT-4o 和 InternLM2.5-7B 模型对 MindSearch 进行了全面评估。实验结果表明，我们的方法在回答的深度和广度方面均有显著提升。此外，我们还发现，基于 InternLM2.5-7B 的 MindSearch 回答比由 GPT-4o 驱动的 ChatGPT-Web 以及 Perplexity.ai 应用程序更受人类用户青睐，这表明 MindSearch 为 AI 搜索引擎领域提供了一种具有竞争力的解决方案。\n\n代码已开源，地址为：https:\u002F\u002Fgithub.com\u002FInternLM\u002FMindSearch。","2024-11-05T02:51:16"]