[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-u14app--deep-research":3,"tool-u14app--deep-research":61},[4,17,27,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[14,26],"插件",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[26,14,35,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[26,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":50,"last_commit_at":51,"category_tags":52,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":10,"env_os":103,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":113,"github_topics":115,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":128},8329,"u14app\u002Fdeep-research","deep-research","Use any LLMs (Large Language Models) for Deep Research. Support SSE API and MCP server.","deep-research 是一款专为深度调研打造的开源 AI 工具，旨在利用各类大语言模型（LLM），在短短几分钟内生成详尽的研究分析报告。它有效解决了传统人工调研耗时费力、信息碎片化以及通用 AI 缺乏深度推理能力的痛点，让用户能快速获得结构清晰、洞察深刻的专业内容。\n\n无论是需要快速掌握行业动向的研究人员、追求效率的开发者，还是希望深入理解复杂主题的普通用户，都能从中受益。deep-research 的独特之处在于其强大的技术架构：它不仅兼容 Gemini、OpenAI、Ollama 等主流模型，还集成了 Searxng、Tavily 等多种搜索引擎，弥补了部分模型无法联网的短板。通过独特的“思考”与“任务”双模型机制，它在保证分析深度的同时大幅提升了响应速度。\n\n此外，deep-research 高度重视隐私安全，所有数据均在本地浏览器处理与存储，无需担心泄露。它还支持上传本地文档构建知识库、一键生成知识图谱以系统化梳理逻辑，并允许用户随时中断、调整研究方向或回溯历史记录。配合对 SSE API 和 MCP 服务器的支持，这款工具既适合个人本地部署使用，也便于开发者集成到更复杂","deep-research 是一款专为深度调研打造的开源 AI 工具，旨在利用各类大语言模型（LLM），在短短几分钟内生成详尽的研究分析报告。它有效解决了传统人工调研耗时费力、信息碎片化以及通用 AI 缺乏深度推理能力的痛点，让用户能快速获得结构清晰、洞察深刻的专业内容。\n\n无论是需要快速掌握行业动向的研究人员、追求效率的开发者，还是希望深入理解复杂主题的普通用户，都能从中受益。deep-research 的独特之处在于其强大的技术架构：它不仅兼容 Gemini、OpenAI、Ollama 等主流模型，还集成了 Searxng、Tavily 等多种搜索引擎，弥补了部分模型无法联网的短板。通过独特的“思考”与“任务”双模型机制，它在保证分析深度的同时大幅提升了响应速度。\n\n此外，deep-research 高度重视隐私安全，所有数据均在本地浏览器处理与存储，无需担心泄露。它还支持上传本地文档构建知识库、一键生成知识图谱以系统化梳理逻辑，并允许用户随时中断、调整研究方向或回溯历史记录。配合对 SSE API 和 MCP 服务器的支持，这款工具既适合个人本地部署使用，也便于开发者集成到更复杂的工作流中，是提升信息获取效率的理想助手。","\u003Cdiv align=\"center\">\n\u003Ch1>Deep Research\u003C\u002Fh1>\n\n![GitHub deployments](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdeployments\u002Fu14app\u002Fgemini-next-chat\u002FProduction)\n![GitHub Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fu14app\u002Fdeep-research)\n![Docker Image Size](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fimage-size\u002Fxiangfa\u002Fdeep-research\u002Flatest)\n![Docker Pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fxiangfa\u002Fdeep-research)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-default.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n\n[![Gemini](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGemini-8E75B2?style=flat&logo=googlegemini&logoColor=white)](https:\u002F\u002Fai.google.dev\u002F)\n[![Next](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNext.js-111111?style=flat&logo=nextdotjs&logoColor=white)](https:\u002F\u002Fnextjs.org\u002F)\n[![Tailwind CSS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTailwind%20CSS-06B6D4?style=flat&logo=tailwindcss&logoColor=white)](https:\u002F\u002Ftailwindcss.com\u002F)\n[![shadcn\u002Fui](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fshadcn\u002Fui-111111?style=flat&logo=shadcnui&logoColor=white)](https:\u002F\u002Fui.shadcn.com\u002F)\n\n[![Vercel](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVercel-111111?style=flat&logo=vercel&logoColor=white)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n[![Cloudflare](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCloudflare-F69652?style=flat&logo=cloudflare&logoColor=white)](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md)\n[![PWA](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPWA-blue?style=flat&logo=pwa&logoColor=white)](https:\u002F\u002Fresearch.u14.app\u002F)\n\n[![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fu14app\u002Fdeep-research)\n\n\u003C\u002Fdiv>\n\n**Lightning-Fast Deep Research Report**\n\nDeep Research uses a variety of powerful AI models to generate in-depth research reports in just a few minutes. It leverages advanced \"Thinking\" and \"Task\" models, combined with an internet connection, to provide fast and insightful analysis on a variety of topics. **Your privacy is paramount - all data is processed and stored locally.**\n\n## ✨ Features\n\n- **Rapid Deep Research:** Generates comprehensive research reports in about 2 minutes, significantly accelerating your research process.\n- **Multi-platform Support:** Supports rapid deployment to Vercel, Cloudflare and other platforms.\n- **Powered by AI:** Utilizes the advanced AI models for accurate and insightful analysis.\n- **Privacy-Focused:** Your data remains private and secure, as all data is stored locally on your browser.\n- **Support for Multi-LLM:** Supports a variety of mainstream large language models, including Gemini, OpenAI, Anthropic, Deepseek, Grok, Mistral, Azure OpenAI, any OpenAI Compatible LLMs, OpenRouter, Ollama, etc.\n- **Support Web Search:** Supports search engines such as Searxng, Tavily, Firecrawl, Exa, Bocha, Brave, etc., allowing LLMs that do not support search to use the web search function more conveniently.\n- **Thinking & Task Models:** Employs sophisticated \"Thinking\" and \"Task\" models to balance depth and speed, ensuring high-quality results quickly. Support switching research models.\n- **Support Further Research:** You can refine or adjust the research content at any stage of the project and support re-research from that stage.\n- **Local Knowledge Base:** Supports uploading and processing text, Office, PDF and other resource files to generate local knowledge base.\n- **Artifact:** Supports editing of research content, with two editing modes: WYSIWYM and Markdown. It is possible to adjust the reading level, article length and full text translation.\n- **Knowledge Graph:** It supports one-click generation of knowledge graph, allowing you to have a systematic understanding of the report content.\n- **Research History:** Support preservation of research history, you can review previous research results at any time and conduct in-depth research again.\n- **Local & Server API Support:** Offers flexibility with both local and server-side API calling options to suit your needs.\n- **Support for SaaS and MCP:** You can use this project as a deep research service (SaaS) through the SSE API, or use it in other AI services through MCP service.\n- **Support PWA:** With Progressive Web App (PWA) technology, you can use the project like a software.\n- **Support Multi-Key payload:** Support Multi-Key payload to improve API response efficiency.\n- **Multi-language Support**: English, 简体中文, Español.\n- **Built with Modern Technologies:** Developed using Next.js 15 and Shadcn UI, ensuring a modern, performant, and visually appealing user experience.\n- **MIT Licensed:** Open-source and freely available for personal and commercial use under the MIT License.\n\n## 🎯 Roadmap\n\n- [x] Support preservation of research history\n- [x] Support editing final report and search results\n- [x] Support for other LLM models\n- [x] Support file upload and local knowledge base\n- [x] Support SSE API and MCP server\n\n## 🚀 Getting Started\n\n### Use Free Gemini (recommend)\n\n1. Get [Gemini API Key](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)\n2. One-click deployment of the project, you can choose to deploy to Vercel or Cloudflare\n\n   [![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fu14app_deep-research_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n\n   Currently the project supports deployment to Cloudflare, but you need to follow [How to deploy to Cloudflare Pages](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md) to do it.\n\n3. Start using\n\n### Use Other LLM\n\n1. Deploy the project to Vercel or Cloudflare\n2. Set the LLM API key\n3. Set the LLM API base URL (optional)\n4. Start using\n\n## ⌨️ Development\n\nFollow these steps to get Deep Research up and running on your local browser.\n\n### Prerequisites\n\n- [Node.js](https:\u002F\u002Fnodejs.org\u002F) (version 18.18.0 or later recommended)\n- [pnpm](https:\u002F\u002Fpnpm.io\u002F) or [npm](https:\u002F\u002Fwww.npmjs.com\u002F) or [yarn](https:\u002F\u002Fyarnpkg.com\u002F)\n\n### Installation\n\n1. **Clone the repository:**\n\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research.git\n   cd deep-research\n   ```\n\n2. **Install dependencies:**\n\n   ```bash\n   pnpm install  # or npm install or yarn install\n   ```\n\n3. **Set up Environment Variables:**\n\n   You need to modify the file `env.tpl` to `.env`, or create a `.env` file and write the variables to this file.\n\n   ```bash\n   # For Development\n   cp env.tpl .env.local\n   # For Production\n   cp env.tpl .env\n   ```\n\n4. **Run the development server:**\n\n   ```bash\n   pnpm dev  # or npm run dev or yarn dev\n   ```\n\n   Open your browser and visit [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) to access Deep Research.\n\n### Custom Model List\n\nThe project allow custom model list, but **only works in proxy mode**. Please add an environment variable named `NEXT_PUBLIC_MODEL_LIST` in the `.env` file or environment variables page.\n\nCustom model lists use `,` to separate multiple models. If you want to disable a model, use the `-` symbol followed by the model name, i.e. `-existing-model-name`. To only allow the specified model to be available, use `-all,+new-model-name`.\n\n## 🚢 Deployment\n\n### Vercel\n\n[![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fu14app_deep-research_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n\n### Cloudflare\n\nCurrently the project supports deployment to Cloudflare, but you need to follow [How to deploy to Cloudflare Pages](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md) to do it.\n\n### Docker\n\n> The Docker version needs to be 20 or above, otherwise it will prompt that the image cannot be found.\n\n> ⚠️ Note: Most of the time, the docker version will lag behind the latest version by 1 to 2 days, so the \"update exists\" prompt will continue to appear after deployment, which is normal.\n\n```bash\ndocker pull xiangfa\u002Fdeep-research:latest\ndocker run -d --name deep-research -p 3333:3000 xiangfa\u002Fdeep-research\n```\n\nYou can also specify additional environment variables:\n\n```bash\ndocker run -d --name deep-research \\\n   -p 3333:3000 \\\n   -e ACCESS_PASSWORD=your-password \\\n   -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \\\n   xiangfa\u002Fdeep-research\n```\n\nor build your own docker image:\n\n```bash\ndocker build -t deep-research .\ndocker run -d --name deep-research -p 3333:3000 deep-research\n```\n\nIf you need to specify other environment variables, please add `-e key=value` to the above command to specify it.\n\nDeploy using `docker-compose.yml`:\n\n```bash\nversion: '3.9'\nservices:\n   deep-research:\n      image: xiangfa\u002Fdeep-research\n      container_name: deep-research\n      environment:\n         - ACCESS_PASSWORD=your-password\n         - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...\n      ports:\n         - 3333:3000\n```\n\nor build your own docker compose:\n\n```bash\ndocker compose -f docker-compose.yml build\n```\n\n### Static Deployment\n\nYou can also build a static page version directly, and then upload all files in the `out` directory to any website service that supports static pages, such as Github Page, Cloudflare, Vercel, etc..\n\n```bash\npnpm build:export\n```\n\n## ⚙️ Configuration\n\nAs mentioned in the \"Getting Started\" section, Deep Research utilizes the following environment variables for server-side API configurations:\n\nPlease refer to the file [env.tpl](.\u002Fenv.tpl) for all available environment variables.\n\n**Important Notes on Environment Variables:**\n\n- **Privacy Reminder:** These environment variables are primarily used for **server-side API calls**. When using the **local API mode**, no API keys or server-side configurations are needed, further enhancing your privacy.\n\n- **Multi-key Support:** Supports multiple keys, each key is separated by `,`, i.e. `key1,key2,key3`.\n\n- **Security Setting:** By setting `ACCESS_PASSWORD`, you can better protect the security of the server API.\n\n- **Make variables effective:** After adding or modifying this environment variable, please redeploy the project for the changes to take effect.\n\n## 📄 API documentation\n\nCurrently the project supports two forms of API: Server-Sent Events (SSE) and Model Context Protocol (MCP).\n\n### Server-Sent Events API\n\nThe Deep Research API provides a real-time interface for initiating and monitoring complex research tasks.\n\nRecommended to use the API via `@microsoft\u002Ffetch-event-source`, to get the final report, you need to listen to the `message` event, the data will be returned in the form of a text stream.\n\n#### POST method\n\nEndpoint: `\u002Fapi\u002Fsse`\n\nMethod: `POST`\n\nBody:\n\n```typescript\ninterface SSEConfig {\n  \u002F\u002F Research topic\n  query: string;\n  \u002F\u002F AI provider, Possible values ​​include: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, openaicompatible, pollinations, ollama\n  provider: string;\n  \u002F\u002F Thinking model id\n  thinkingModel: string;\n  \u002F\u002F Task model id\n  taskModel: string;\n  \u002F\u002F Search provider, Possible values ​​include: model, tavily, firecrawl, exa, bocha, searxng\n  searchProvider: string;\n  \u002F\u002F Response Language, also affects the search language. (optional)\n  language?: string;\n  \u002F\u002F Maximum number of search results. Default, `5` (optional)\n  maxResult?: number;\n  \u002F\u002F Whether to include content-related images in the final report. Default, `true`. (optional)\n  enableCitationImage?: boolean;\n  \u002F\u002F Whether to include citation links in search results and final reports. Default, `true`. (optional)\n  enableReferences?: boolean;\n}\n```\n\nHeaders:\n\n```typescript\ninterface Headers {\n  \"Content-Type\": \"application\u002Fjson\";\n  \u002F\u002F If you set an access password\n  \u002F\u002F Authorization: \"Bearer YOUR_ACCESS_PASSWORD\";\n}\n```\n\nSee the detailed [API documentation](.\u002Fdocs\u002Fdeep-research-api-doc.md).\n\n#### GET method\n\nThis is an interesting implementation. You can watch the whole process of deep research directly through the URL just like watching a video.\n\nYou can access the deep research report via the following link:\n\n```text\nhttp:\u002F\u002Flocalhost:3000\u002Fapi\u002Fsse\u002Flive?query=AI+trends+for+this+year&provider=pollinations&thinkingModel=openai&taskModel=openai-fast&searchProvider=searxng\n```\n\nQuery Params:\n\n```typescript\n\u002F\u002F The parameters are the same as POST parameters\ninterface QueryParams extends SSEConfig {\n  \u002F\u002F If you set the `ACCESS_PASSWORD` environment variable, this parameter is required\n  password?: string;\n}\n```\n\n### Model Context Protocol (MCP) Server\n\nCurrently supports `StreamableHTTP` and `SSE` Server Transport.\n\nStreamableHTTP server endpoint: `\u002Fapi\u002Fmcp`, transport type: `streamable-http`\n\nSSE server endpoint: `\u002Fapi\u002Fmcp\u002Fsse`, transport type: `sse`\n\n```json\n{\n  \"mcpServers\": {\n    \"deep-research\": {\n      \"url\": \"http:\u002F\u002F127.0.0.1:3000\u002Fapi\u002Fmcp\",\n      \"transportType\": \"streamable-http\",\n      \"timeout\": 600\n    }\n  }\n}\n```\n\n**Note:** Since deep research take a long time to execute, you need to set a longer timeout to avoid interrupting the study.\n\nIf your server sets `ACCESS_PASSWORD`, the MCP service will be protected and you need to add additional headers parameters:\n\n```json\n{\n  \"mcpServers\": {\n    \"deep-research\": {\n      \"url\": \"http:\u002F\u002F127.0.0.1:3000\u002Fapi\u002Fmcp\",\n      \"transportType\": \"streamable-http\",\n      \"timeout\": 600,\n      \"headers\": {\n        \"Authorization\": \"Bearer YOUR_ACCESS_PASSWORD\"\n      }\n    }\n  }\n}\n```\n\n**Enabling MCP service requires setting global environment variables:**\n\n```bash\n# MCP Server AI provider\n# Possible values ​​include: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, openaicompatible, pollinations, ollama\nMCP_AI_PROVIDER=google\n# MCP Server search provider. Default, `model`\n# Possible values ​​include: model, tavily, firecrawl, exa, bocha, searxng\nMCP_SEARCH_PROVIDER=tavily\n# MCP Server thinking model id, the core model used in deep research.\nMCP_THINKING_MODEL=gemini-2.0-flash-thinking-exp\n# MCP Server task model id, used for secondary tasks, high output models are recommended.\nMCP_TASK_MODEL=gemini-2.0-flash-exp\n```\n\n**Note:** To ensure that the MCP service can be used normally, you need to set the environment variables of the corresponding model and search engine. For specific environment variable parameters, please refer to [env.tpl](.\u002Fenv.tpl).\n\n## 🪄 How it works\n\n1. **Research topic**\n   - Input research topic\n   - Use local research resources (optional)\n   - Start thinking (or rethinking)\n\n2. **Propose your ideas**\n   - The system asks questions\n     - Answer system questions (optional)\n     - Write a research plan (or rewrite the research plan)\n   - The system outputs the research plan\n     - Start in-depth research (or re-research)\n     - The system generates SERP queries\n\n3. **Information collection**\n   - Initial research\n     - Retrieve local research resources based on SERP queries\n     - Collect information from the Internet based on SERP queries\n   - In-depth research (this process can be repeated)\n     - Propose research suggestions (optional)\n     - Start a new round of information collection (the process is the same as the initial research)\n\n4. **Generate Final Report**\n   - Make a writing request (optional)\n   - Summarize all research materials into a comprehensive Markdown report\n   - Regenerate research report (optional)\n\n```mermaid\nflowchart TB\n    A[Research Topic]:::start\n\n    subgraph Propose[Propose your ideas]\n        B1[System asks questions]:::process\n        B2[System outputs the research plan]:::process\n        B3[System generates SERP queries]:::process\n        B1 --> B2\n        B2 --> B3\n    end\n\n    subgraph Collect[Information collection]\n        C1[Initial research]:::collection\n        C1a[Retrieve local research resources based on SERP queries]:::collection\n        C1b[Collect information from the Internet based on SERP queries]:::collection\n        C2[In-depth research]:::recursive\n        Refine{More in-depth research needed?}:::decision\n\n        C1 --> C1a\n        C1 --> C1b\n        C1a --> C2\n        C1b --> C2\n        C2 --> Refine\n        Refine -->|Yes| C2\n    end\n\n    Report[Generate Final Report]:::output\n\n    A --> Propose\n    B3 --> C1\n\n    %% Connect the exit from the loop\u002Fsubgraph to the final report\n    Refine -->|No| Report\n\n    %% Styling\n    classDef start fill:#7bed9f,stroke:#2ed573,color:black\n    classDef process fill:#70a1ff,stroke:#1e90ff,color:black\n    classDef recursive fill:#ffa502,stroke:#ff7f50,color:black\n    classDef output fill:#ff4757,stroke:#ff6b81,color:black\n    classDef collection fill:#a8e6cf,stroke:#3b7a57,color:black\n    classDef decision fill:#c8d6e5,stroke:#8395a7,color:black\n\n    class A start\n    class B1,B2,B3 process\n    class C1,C1a,C1b collection\n    class C2 recursive\n    class Refine decision\n    class Report output\n```\n\n## 🙋 FAQs\n\n**Why does my Ollama or SearXNG not work properly and displays the error `TypeError: Failed to fetch`?**\n\nIf your request generates `CORS` due to browser security restrictions, you need to configure parameters for Ollama or SearXNG to allow cross-domain requests. You can also consider using the server proxy mode, which is a backend server that makes requests, which can effectively avoid cross-domain issues.\n\n## 🛡️ Privacy\n\nDeep Research is designed with your privacy in mind. **All research data and generated reports are stored locally on your machine.** We do not collect or transmit any of your research data to external servers (unless you are explicitly using server-side API calls, in which case data is sent to API through your configured proxy if any). Your privacy is our priority.\n\n## 🙏 Acknowledgements\n\n- [Next.js](https:\u002F\u002Fnextjs.org\u002F) - The React framework for building performant web applications.\n- [Shadcn UI](https:\u002F\u002Fui.shadcn.com\u002F) - Beautifully designed components that helped streamline the UI development.\n- [AI SDKs](https:\u002F\u002Fsdk.vercel.ai) - Powering the intelligent research capabilities of Deep Research.\n- [Deep Research](https:\u002F\u002Fgithub.com\u002Fdzhng\u002Fdeep-research) - Thanks to the project `dzhng\u002Fdeep-research` for inspiration.\n\n## 🤝 Contributing\n\nWe welcome contributions to Deep Research! If you have ideas for improvements, bug fixes, or new features, please feel free to:\n\n1. Fork the repository.\n2. Create a new branch for your feature or bug fix.\n3. Make your changes and commit them.\n4. Submit a pull request.\n\nFor major changes, please open an issue first to discuss your proposed changes.\n\n## ✉️ Contact\n\nIf you have any questions, suggestions, or feedback, please create a new [issue](https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research\u002Fissues).\n\n## 📝 License\n\nDeep Research is released under the [MIT License](LICENSE). This license allows for free use, modification, and distribution for both commercial and non-commercial purposes.\n","\u003Cdiv align=\"center\">\n\u003Ch1>深度研究\u003C\u002Fh1>\n\n![GitHub 部署](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdeployments\u002Fu14app\u002Fgemini-next-chat\u002FProduction)\n![GitHub 发布](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fu14app\u002Fdeep-research)\n![Docker 镜像大小](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fimage-size\u002Fxiangfa\u002Fdeep-research\u002Flatest)\n![Docker 拉取次数](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fxiangfa\u002Fdeep-research)\n[![许可证：MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-default.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n\n[![Gemini](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGemini-8E75B2?style=flat&logo=googlegemini&logoColor=white)](https:\u002F\u002Fai.google.dev\u002F)\n[![Next.js](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNext.js-111111?style=flat&logo=nextdotjs&logoColor=white)](https:\u002F\u002Fnextjs.org\u002F)\n[![Tailwind CSS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTailwind%20CSS-06B6D4?style=flat&logo=tailwindcss&logoColor=white)](https:\u002F\u002Ftailwindcss.com\u002F)\n[![shadcn\u002Fui](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fshadcn\u002Fui-111111?style=flat&logo=shadcnui&logoColor=white)](https:\u002F\u002Fui.shadcn.com\u002F)\n\n[![Vercel](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVercel-111111?style=flat&logo=vercel&logoColor=white)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n[![Cloudflare](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCloudflare-F69652?style=flat&logo=cloudflare&logoColor=white)](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md)\n[![PWA](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPWA-blue?style=flat&logo=pwa&logoColor=white)](https:\u002F\u002Fresearch.u14.app\u002F)\n\n[![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fu14app\u002Fdeep-research)\n\n\u003C\u002Fdiv>\n\n**闪电般的深度研究报告**\n\nDeep Research 利用多种强大的 AI 模型，只需几分钟即可生成深入的研究报告。它结合先进的“思考”和“任务”模型，并通过互联网连接，为您提供关于各种主题的快速而富有洞察力的分析。**您的隐私至关重要——所有数据均在本地处理和存储。**\n\n## ✨ 功能\n\n- **快速深度研究：** 大约 2 分钟内生成全面的研究报告，显著加速您的研究流程。\n- **多平台支持：** 支持快速部署到 Vercel、Cloudflare 等平台。\n- **AI 驱动：** 使用先进的 AI 模型进行准确且富有洞见的分析。\n- **注重隐私：** 您的数据始终私密且安全，因为所有数据都存储在您的浏览器本地。\n- **支持多 LLM：** 支持多种主流大型语言模型，包括 Gemini、OpenAI、Anthropic、Deepseek、Grok、Mistral、Azure OpenAI、任何兼容 OpenAI 的 LLM、OpenRouter、Ollama 等。\n- **支持网络搜索：** 支持 Searxng、Tavily、Firecrawl、Exa、Bocha、Brave 等搜索引擎，使不支持搜索的 LLM 能更方便地使用网络搜索功能。\n- **思考与任务模型：** 采用复杂的“思考”和“任务”模型，在深度与速度之间取得平衡，确保快速获得高质量结果。支持切换研究模型。\n- **支持进一步研究：** 您可以在项目的任何阶段细化或调整研究内容，并从该阶段重新进行研究。\n- **本地知识库：** 支持上传和处理文本、Office、PDF 等资源文件，以生成本地知识库。\n- **成果物：** 支持编辑研究内容，提供 WYSIWYM 和 Markdown 两种编辑模式。可以调整阅读难度、文章长度以及全文翻译。\n- **知识图谱：** 支持一键生成知识图谱，帮助您系统性地理解报告内容。\n- **研究历史：** 支持保存研究历史，您可以随时回顾之前的成果并再次深入研究。\n- **本地与服务器 API 支持：** 提供灵活的本地和服务器端 API 调用选项，以满足您的需求。\n- **支持 SaaS 和 MCP：** 您可以通过 SSE API 将该项目用作深度研究服务 (SaaS)，或通过 MCP 服务将其集成到其他 AI 服务中。\n- **支持 PWA：** 借助渐进式 Web 应用 (PWA) 技术，您可以像使用软件一样使用该项目。\n- **支持多 Key 负载：** 支持多 Key 负载，以提高 API 响应效率。\n- **多语言支持：** 英语、简体中文、西班牙语。\n- **基于现代技术构建：** 使用 Next.js 15 和 Shadcn UI 开发，确保现代化、高性能且视觉上吸引人的用户体验。\n- **MIT 许可证：** 在 MIT 许可证下开源，可供个人和商业用途免费使用。\n\n## 🎯 路线图\n\n- [x] 支持保存研究历史\n- [x] 支持编辑最终报告和搜索结果\n- [x] 支持其他 LLM 模型\n- [x] 支持文件上传和本地知识库\n- [x] 支持 SSE API 和 MCP 服务器\n\n## 🚀 快速开始\n\n### 使用免费 Gemini（推荐）\n\n1. 获取 [Gemini API 密钥](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)\n2. 一键部署项目，您可以选择部署到 Vercel 或 Cloudflare\n\n   [![使用 Vercel 部署](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fu14app_deep-research_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n\n   目前该项目也支持部署到 Cloudflare，但您需要按照 [如何部署到 Cloudflare Pages](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md) 的说明来进行操作。\n\n3. 开始使用\n\n### 使用其他 LLM\n\n1. 将项目部署到 Vercel 或 Cloudflare\n2. 设置 LLM API 密钥\n3. 设置 LLM API 基础 URL（可选）\n4. 开始使用\n\n## ⌨️ 开发\n\n按照以下步骤，您可以在本地浏览器上运行 Deep Research。\n\n### 先决条件\n\n- [Node.js](https:\u002F\u002Fnodejs.org\u002F)（建议使用 18.18.0 或更高版本）\n- [pnpm](https:\u002F\u002Fpnpm.io\u002F) 或 [npm](https:\u002F\u002Fwww.npmjs.com\u002F) 或 [yarn](https:\u002F\u002Fyarnpkg.com\u002F)\n\n### 安装\n\n1. **克隆仓库：**\n\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research.git\n   cd deep-research\n   ```\n\n2. **安装依赖：**\n\n   ```bash\n   pnpm install  # 或 npm install 或 yarn install\n   ```\n\n3. **设置环境变量：**\n\n   您需要将 `env.tpl` 文件修改为 `.env`，或者创建一个 `.env` 文件并将变量写入其中。\n\n   ```bash\n   # 用于开发\n   cp env.tpl .env.local\n   # 用于生产\n   cp env.tpl .env\n   ```\n\n4. **运行开发服务器：**\n\n   ```bash\n   pnpm dev  # 或 npm run dev 或 yarn dev\n   ```\n\n   打开您的浏览器并访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000)，即可使用 Deep Research。\n\n### 自定义模型列表\n\n该项目支持自定义模型列表，但**仅在代理模式下生效**。请在 `.env` 文件或环境变量页面中添加名为 `NEXT_PUBLIC_MODEL_LIST` 的环境变量。\n\n自定义模型列表使用逗号 `,` 分隔多个模型。如果要禁用某个模型，可以使用 `-` 符号后跟模型名称，例如 `-existing-model-name`。若只想允许指定的模型可用，则可以使用 `-all,+new-model-name`。\n\n## 🚢 部署\n\n### Vercel\n\n[![部署到 Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fu14app_deep-research_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https%3A%2F%2Fgithub.com%2Fu14app%2Fdeep-research&project-name=deep-research&repository-name=deep-research)\n\n### Cloudflare\n\n目前该项目支持部署到 Cloudflare，但需要按照 [如何部署到 Cloudflare Pages](.\u002Fdocs\u002FHow-to-deploy-to-Cloudflare-Pages.md) 的说明进行操作。\n\n### Docker\n\n> Docker 版本需为 20 或以上，否则会提示无法找到镜像。\n\n> ⚠️ 注意：大多数情况下，Docker 版本会比最新版本滞后 1 到 2 天，因此部署后可能会持续出现“存在更新”的提示，这是正常现象。\n\n```bash\ndocker pull xiangfa\u002Fdeep-research:latest\ndocker run -d --name deep-research -p 3333:3000 xiangfa\u002Fdeep-research\n```\n\n您也可以指定额外的环境变量：\n\n```bash\ndocker run -d --name deep-research \\\n   -p 3333:3000 \\\n   -e ACCESS_PASSWORD=your-password \\\n   -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \\\n   xiangfa\u002Fdeep-research\n```\n\n或者构建您自己的 Docker 镜像：\n\n```bash\ndocker build -t deep-research .\ndocker run -d --name deep-research -p 3333:3000 deep-research\n```\n\n如需指定其他环境变量，请在上述命令中添加 `-e key=value` 来设置。\n\n使用 `docker-compose.yml` 部署：\n\n```yaml\nversion: '3.9'\nservices:\n   deep-research:\n      image: xiangfa\u002Fdeep-research\n      container_name: deep-research\n      environment:\n         - ACCESS_PASSWORD=your-password\n         - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...\n      ports:\n         - 3333:3000\n```\n\n或者构建您自己的 docker compose：\n\n```bash\ndocker compose -f docker-compose.yml build\n```\n\n### 静态部署\n\n您也可以直接构建静态页面版本，然后将 `out` 目录中的所有文件上传到任何支持静态页面的服务平台，例如 Github Page、Cloudflare、Vercel 等。\n\n```bash\npnpm build:export\n```\n\n## ⚙️ 配置\n\n如“快速入门”部分所述，Deep Research 使用以下环境变量进行服务器端 API 配置：\n\n所有可用的环境变量请参考 [env.tpl](.\u002Fenv.tpl) 文件。\n\n**环境变量重要注意事项：**\n\n- **隐私提醒：** 这些环境变量主要用于**服务器端 API 调用**。当使用**本地 API 模式**时，无需任何 API 密钥或服务器端配置，从而进一步提升您的隐私保护。\n\n- **多密钥支持：** 支持多个密钥，各密钥之间用逗号分隔，例如 `key1,key2,key3`。\n\n- **安全设置：** 通过设置 `ACCESS_PASSWORD`，您可以更好地保护服务器 API 的安全性。\n\n- **使变量生效：** 添加或修改此环境变量后，请重新部署项目以使更改生效。\n\n## 📄 API 文档\n\n目前该项目支持两种形式的 API：Server-Sent Events (SSE) 和 Model Context Protocol (MCP)。\n\n### Server-Sent Events API\n\nDeep Research API 提供了一个实时接口，用于启动和监控复杂的调研任务。\n\n建议通过 `@microsoft\u002Ffetch-event-source` 使用该 API。要获取最终报告，您需要监听 `message` 事件，数据将以文本流的形式返回。\n\n#### POST 方法\n\n端点：`\u002Fapi\u002Fsse`\n\n方法：`POST`\n\n请求体：\n\n```typescript\ninterface SSEConfig {\n  \u002F\u002F 调研主题\n  query: string;\n  \u002F\u002F AI 提供商，可能的值包括：google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, openaicompatible, pollinations, ollama\n  provider: string;\n  \u002F\u002F 思考模型 ID\n  thinkingModel: string;\n  \u002F\u002F 任务模型 ID\n  taskModel: string;\n  \u002F\u002F 搜索提供商，可能的值包括：model, tavily, firecrawl, exa, bocha, searxng\n  searchProvider: string;\n  \u002F\u002F 响应语言，也会影响搜索语言。（可选）\n  language?: string;\n  \u002F\u002F 最大搜索结果数量，默认为 5。（可选）\n  maxResult?: number;\n  \u002F\u002F 是否在最终报告中包含与内容相关的图片。默认为 true。（可选）\n  enableCitationImage?: boolean;\n  \u002F\u002F 是否在搜索结果和最终报告中包含引用链接。默认为 true。（可选）\n  enableReferences?: boolean;\n}\n```\n\n请求头：\n\n```typescript\ninterface Headers {\n  \"Content-Type\": \"application\u002Fjson\";\n  \u002F\u002F 如果设置了访问密码\n  \u002F\u002F Authorization: \"Bearer YOUR_ACCESS_PASSWORD\";\n}\n```\n\n详细 API 文档请参阅 [API 文档](.\u002Fdocs\u002Fdeep-research-api-doc.md)。\n\n#### GET 方法\n\n这是一种有趣的实现方式。您可以通过 URL 直接观看深度调研的全过程，就像观看视频一样。\n\n您可以通过以下链接访问深度调研报告：\n\n```text\nhttp:\u002F\u002Flocalhost:3000\u002Fapi\u002Fsse\u002Flive?query=AI+trends+for+this+year&provider=pollinations&thinkingModel=openai&taskModel=openai-fast&searchProvider=searxng\n```\n\n查询参数：\n\n```typescript\n\u002F\u002F 参数与 POST 参数相同\ninterface QueryParams extends SSEConfig {\n  \u002F\u002F 如果设置了 `ACCESS_PASSWORD` 环境变量，此参数为必填项\n  password?: string;\n}\n```\n\n### Model Context Protocol (MCP) 服务器\n\n目前支持 `StreamableHTTP` 和 `SSE` 服务器传输协议。\n\nStreamableHTTP 服务器端点：`\u002Fapi\u002Fmcp`，传输类型：`streamable-http`\n\nSSE 服务器端点：`\u002Fapi\u002Fmcp\u002Fsse`，传输类型：`sse`\n\n```json\n{\n  \"mcpServers\": {\n    \"deep-research\": {\n      \"url\": \"http:\u002F\u002F127.0.0.1:3000\u002Fapi\u002Fmcp\",\n      \"transportType\": \"streamable-http\",\n      \"timeout\": 600\n    }\n  }\n}\n```\n\n**注意：** 由于深度调研执行时间较长，您需要设置较长的超时时间，以避免研究过程中断。\n\n如果您服务器设置了 `ACCESS_PASSWORD`，MCP 服务将受到保护，您需要添加额外的头部参数：\n\n```json\n{\n  \"mcpServers\": {\n    \"deep-research\": {\n      \"url\": \"http:\u002F\u002F127.0.0.1:3000\u002Fapi\u002Fmcp\",\n      \"transportType\": \"streamable-http\",\n      \"timeout\": 600,\n      \"headers\": {\n        \"Authorization\": \"Bearer YOUR_ACCESS_PASSWORD\"\n      }\n    }\n  }\n}\n```\n\n**启用 MCP 服务需要设置全局环境变量：**\n\n```bash\n# MCP 服务器 AI 提供商\n# 可能的值包括：google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, openaicompatible, pollinations, ollama\nMCP_AI_PROVIDER=google\n# MCP 服务器搜索提供商，默认为 model\n# 可能的值包括：model, tavily, firecrawl, exa, bocha, searxng\nMCP_SEARCH_PROVIDER=tavily\n\n# MCP 服务器思考模型 ID，用于深度研究的核心模型。\nMCP_THINKING_MODEL=gemini-2.0-flash-thinking-exp\n# MCP 服务器任务模型 ID，用于次要任务，推荐使用高输出模型。\nMCP_TASK_MODEL=gemini-2.0-flash-exp\n```\n\n**注意：** 为了确保 MCP 服务能够正常使用，您需要设置相应模型和搜索引擎的环境变量。具体的环境变量参数，请参考 [env.tpl](.\u002Fenv.tpl)。\n\n## 🪄 工作原理\n\n1. **研究主题**\n   - 输入研究主题\n   - 使用本地研究资源（可选）\n   - 开始思考（或重新思考）\n\n2. **提出您的想法**\n   - 系统提问\n     - 回答系统问题（可选）\n     - 撰写研究计划（或重写研究计划）\n   - 系统输出研究计划\n     - 开始深入研究（或重新研究）\n     - 系统生成 SERP 查询\n\n3. **信息收集**\n   - 初步研究\n     - 根据 SERP 查询检索本地研究资源\n     - 根据 SERP 查询从互联网上收集信息\n   - 深入研究（此过程可以重复）\n     - 提出研究建议（可选）\n     - 开始新一轮的信息收集（流程与初步研究相同）\n\n4. **生成最终报告**\n   - 发出撰写请求（可选）\n   - 将所有研究资料汇总成一份全面的 Markdown 报告\n   - 重新生成研究报告（可选）\n\n```mermaid\nflowchart TB\n    A[研究主题]:::start\n\n    subgraph Propose[提出您的想法]\n        B1[系统提问]:::process\n        B2[系统输出研究计划]:::process\n        B3[系统生成 SERP 查询]:::process\n        B1 --> B2\n        B2 --> B3\n    end\n\n    subgraph Collect[信息收集]\n        C1[初步研究]:::collection\n        C1a[根据 SERP 查询检索本地研究资源]:::collection\n        C1b[根据 SERP 查询从互联网上收集信息]:::collection\n        C2[深入研究]:::recursive\n        Refine{是否需要更深入的研究？}:::decision\n\n        C1 --> C1a\n        C1 --> C1b\n        C1a --> C2\n        C1b --> C2\n        C2 --> Refine\n        Refine -->|是| C2\n    end\n\n    Report[生成最终报告]:::output\n\n    A --> Propose\n    B3 --> C1\n\n    %% 将循环\u002F子图的出口连接到最终报告\n    Refine -->|否| Report\n\n    %% 样式定义\n    classDef start fill:#7bed9f,stroke:#2ed573,color:black\n    classDef process fill:#70a1ff,stroke:#1e90ff,color:black\n    classDef recursive fill:#ffa502,stroke:#ff7f50,color:black\n    classDef output fill:#ff4757,stroke:#ff6b81,color:black\n    classDef collection fill:#a8e6cf,stroke:#3b7a57,color:black\n    classDef decision fill:#c8d6e5,stroke:#8395a7,color:black\n\n    class A start\n    class B1,B2,B3 process\n    class C1,C1a,C1b collection\n    class C2 recursive\n    class Refine decision\n    class Report output\n```\n\n## 🙋 常见问题解答\n\n**为什么我的 Ollama 或 SearXNG 无法正常工作，并显示错误 `TypeError: Failed to fetch`？**\n\n如果您的请求因浏览器安全限制而产生 `CORS` 错误，您需要为 Ollama 或 SearXNG 配置允许跨域请求的参数。您也可以考虑使用服务器代理模式，即通过后端服务器发起请求，这样可以有效避免跨域问题。\n\n## 🛡️ 隐私\n\nDeep Research 在设计时充分考虑了您的隐私。**所有研究数据和生成的报告都存储在您本地的设备上。** 我们不会收集或将您的任何研究数据传输到外部服务器（除非您明确使用服务器端 API 调用，在这种情况下，数据会通过您配置的代理发送到 API）。您的隐私始终是我们最优先考虑的事项。\n\n## 🙏 致谢\n\n- [Next.js](https:\u002F\u002Fnextjs.org\u002F) - 用于构建高性能 Web 应用程序的 React 框架。\n- [Shadcn UI](https:\u002F\u002Fui.shadcn.com\u002F) - 设计精美的组件，帮助我们简化了 UI 开发。\n- [AI SDKs](https:\u002F\u002Fsdk.vercel.ai) - 为 Deep Research 的智能研究功能提供了支持。\n- [Deep Research](https:\u002F\u002Fgithub.com\u002Fdzhng\u002Fdeep-research) - 感谢 `dzhng\u002Fdeep-research` 项目给予我们的启发。\n\n## 🤝 贡献\n\n我们欢迎对 Deep Research 的贡献！如果您有任何改进建议、错误修复或新功能的想法，请随时：\n\n1. 分支该项目。\n2. 为您的功能或修复创建一个新的分支。\n3. 进行更改并提交。\n4. 提交一个拉取请求。\n\n对于重大更改，请先打开一个问题来讨论您的提议。\n\n## ✉️ 联系方式\n\n如果您有任何问题、建议或反馈，请创建一个新的[问题](https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research\u002Fissues)。\n\n## 📝 许可证\n\nDeep Research 采用 [MIT 许可证](LICENSE) 发布。该许可证允许免费使用、修改和分发，无论是用于商业用途还是非商业用途。","# Deep Research 快速上手指南\n\nDeep Research 是一个利用多种强大 AI 模型在几分钟内生成深度研究报告的开源工具。它支持本地数据存储，保障隐私，并兼容主流大语言模型及搜索引擎。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Node.js**：版本 18.18.0 或更高（推荐最新 LTS 版本）\n    *   *国内加速建议*：如下载缓慢，可使用 [Node.js 国内镜像](https:\u002F\u002Fnpmmirror.com\u002Fmirrors\u002Fnode\u002F) 或通过 `nvm` 管理版本。\n*   **包管理器**：推荐使用 `pnpm`，也可使用 `npm` 或 `yarn`\n    *   安装 pnpm: `npm install -g pnpm`\n    *   *国内加速建议*：配置 pnpm 使用国内源\n      ```bash\n      pnpm config set registry https:\u002F\u002Fregistry.npmmirror.com\n      ```\n\n## 安装步骤\n\n### 1. 克隆项目\n将代码仓库克隆到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research.git\ncd deep-research\n```\n\n### 2. 安装依赖\n使用包管理器安装项目依赖：\n```bash\npnpm install\n# 或者\nnpm install\n# 或者\nyarn install\n```\n\n### 3. 配置环境变量\n复制环境变量模板文件并命名为 `.env.local`（开发环境）：\n```bash\ncp env.tpl .env.local\n```\n\n> **提示**：如果您仅使用本地模式且不需要服务端 API 转发，可跳过密钥配置；若需使用特定模型或搜索服务，请在 `.env.local` 中填入对应的 `API_KEY` 和 `BASE_URL`。\n\n### 4. 启动开发服务器\n运行以下命令启动项目：\n```bash\npnpm dev\n# 或者\nnpm run dev\n# 或者\nyarn dev\n```\n\n启动成功后，在浏览器中访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) 即可使用。\n\n## 基本使用\n\n### 方式一：直接使用免费 Gemini 模型（推荐新手）\n这是最快捷的上手方式，无需复杂配置。\n\n1.  **获取密钥**：访问 [Google AI Studio](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey) 获取一个免费的 Gemini API Key。\n2.  **配置密钥**：在项目根目录的 `.env.local` 文件中添加：\n    ```env\n    GOOGLE_GENERATIVE_AI_API_KEY=你的_Gemini_API_Key\n    ```\n    *(如果是生产环境部署，请使用 `.env` 文件)*\n3.  **开始研究**：\n    *   刷新浏览器页面。\n    *   在输入框中输入研究主题（例如：\"2024 年人工智能发展趋势”）。\n    *   点击发送，系统将在约 2 分钟内自动生成包含搜索、分析和引用的深度报告。\n\n### 方式二：使用其他大模型\n如果您希望使用 OpenAI、Anthropic、DeepSeek 等其他模型：\n\n1.  打开界面右上角的设置菜单。\n2.  选择对应的 **AI 提供商** (Provider)。\n3.  填入您的 **API Key** 和 **API Base URL** (如果需要)。\n4.  选择 **思考模型** (Thinking Model) 和 **任务模型** (Task Model)。\n5.  选择 **搜索引擎** (如 Searxng, Tavily 等，若模型自带联网能力可选 \"model\")。\n6.  输入主题并开始研究。\n\n### 进阶功能简述\n*   **本地知识库**：支持上传 PDF、Office 文档或文本文件，系统将基于本地文件进行研究。\n*   **报告编辑**：生成的报告支持 WYSIWYM 和 Markdown 两种编辑模式，可调整阅读难度、文章长度或全文翻译。\n*   **知识图谱**：一键生成知识图谱，系统化理解报告内容。\n*   **历史回溯**：自动保存研究历史，可随时查看或基于旧结果进行二次深入研究。","某科技公司的市场分析师需要在两小时内完成一份关于“全球固态电池最新技术突破与产业链格局”的深度调研报告，以支持下午的投资决策会议。\n\n### 没有 deep-research 时\n- **信息搜集耗时极长**：需手动在数十个学术网站和新闻源中反复搜索、筛选，仅整理资料就花费数小时，难以按时交付。\n- **分析深度不足**：受限于个人精力，只能浅层罗列新闻，缺乏对技术路线优劣及产业链上下游影响的深度逻辑推演。\n- **知识碎片化**：收集的资料散落在多个浏览器标签页和文档中，难以形成系统性的知识结构，汇报时逻辑连贯性差。\n- **无法动态调整**：若领导临时要求增加“中国厂商竞争力分析”，整个研究流程需从头再来，灵活性极低。\n\n### 使用 deep-research 后\n- **分钟级报告生成**：利用 deep-research 的“思考”与“任务”模型，结合联网搜索，约 2 分钟即可自动生成包含多源信息的完整初稿。\n- **洞察深刻精准**：工具自动调用高级 AI 模型进行多维度分析，不仅罗列事实，还能输出技术瓶颈突破点及产业链重构趋势的深度见解。\n- **一键构建知识图谱**：通过 deep-research 的知识图谱功能，将零散信息转化为可视化的系统结构，帮助分析师快速理清逻辑脉络。\n- **支持迭代式研究**：针对新增的“中国厂商”需求，直接在原有研究阶段追加指令，deep-research 即刻基于上下文进行补充调研，无需重启流程。\n\ndeep-research 将原本需要数天的深度研究工作压缩至分钟级，让专业人士从繁琐的信息搬运中解放，专注于高价值的决策判断。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fu14app_deep-research_8ff3631e.png","u14app","U14 App","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fu14app_91ad72ec.png","We only develop interesting applications. u14 is a homophone of the word \"interesting\" in Chinese.",null,"https:\u002F\u002Fgithub.com\u002Fu14app",[80,84,88,92,95],{"name":81,"color":82,"percentage":83},"JavaScript","#f1e05a",54.4,{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",44.9,{"name":89,"color":90,"percentage":91},"CSS","#663399",0.3,{"name":93,"color":94,"percentage":91},"Smarty","#f0c040",{"name":96,"color":97,"percentage":98},"Dockerfile","#384d54",0.1,4560,1056,"2026-04-16T12:02:05","MIT","Linux, macOS, Windows","未说明",{"notes":106,"python":104,"dependencies":107},"该项目是基于 Next.js 的前端\u002F全栈应用，而非本地运行的 Python AI 模型。运行环境主要需要 Node.js (推荐 18.18.0+) 和包管理器 (pnpm\u002Fnpm\u002Fyarn)。支持通过 Docker 部署或静态页面导出。AI 计算和搜索功能主要通过调用外部 API (如 Gemini, OpenAI, Tavily 等) 实现，因此对本地 GPU、显存和 Python 环境无特殊要求。数据主要在浏览器本地处理和存储以保护隐私。",[108,109,110,111,112],"Node.js >= 18.18.0","pnpm\u002Fnpm\u002Fyarn","Next.js 15","Shadcn UI","Tailwind CSS",[114,26,15],"其他",[64,116,117,118,119,120,121,122,123,124],"deepresearch","gemini","anthropic","deepseek","grok","ollama","openai","mcp-server","deep-research-api","2026-03-27T02:49:30.150509","2026-04-17T09:53:24.912193",[],[129,134,139,144,149,154,159,164,169],{"id":130,"version":131,"summary_zh":132,"released_at":133},297806,"v0.11.0","# 项目发布说明\n\n---\n\n## 📢 概述\n本次更新带来了显著的功能增强，重点聚焦于 **Deep Research API 的高度可定制性**、**会话管理优化** 以及 **用户交互体验的全面升级**。通过引入自定义提示机制，开发者和高级用户 now 可以深度定制 AI 的生成逻辑。此外，会话导入导出功能及全局快捷键支持的加入，大幅提升了工作流效率。\n\n---\n\n## 🚀 新特性\n\n### 1. Deep Research 提示自定义（Prompt Overrides）\n这是本次更新的核心功能，赋予用户对 AI 生成内容的完全控制权。\n- **配置接口：** 在 `Config` 接口中引入了 `promptOverrides`，允许用户覆盖内置的提示模板。\n- **API 支持：** SSE API 路由现已支持解析提示覆盖参数，并集成了严格的验证与错误处理机制。\n- **全链路集成：** `KnowledgeGraph`、`FinalReport` 以及 `useDeepResearch` 钩子均已适配，支持自定义提示。\n- **动态生成：** 增强了提示生成函数，支持基于用户定义模板的动态内容构建。\n- **设置界面：** 在设置面板中新增了一个 JSON 输入区域，提供实时验证和错误反馈功能，用于提示配置。\n\n### 2. 会话与数据管理\n- **主题管理优化：** 引入了 `maxCollectionTopics` 设置，允许用户自定义每个集合的最大主题数量，从而更好地组织长期研究。\n\n### 3. 搜索与偏好设置\n- **领域筛选：** 在搜索功能中新增了领域筛选选项，以便更精准地筛选来源。\n- **报告偏好：** 在设置中新增了报告偏好选项，以满足多样化的报告生成需求。\n\n### 4. 交互体验提升\n- **工作流进度条：** 实现了一个全新的工作流进度组件，用于实时显示研究任务的执行状态。\n- **全局快捷键：** 在核心组件中实现了“提交”快捷键（如 Ctrl\u002FCmd + Enter），以加速操作流程。\n- **多语言支持：** 更新了本地化文件，添加了与提示自定义相关的全新字符串。\n\n---\n\n## 🛠 技术优化与重构\n\n### 1. 开发规范与文档\n- **新增 `AGENTS.md`：** 明确定义了项目的编码规范和开发指南，以提升团队协作效率和代码质量。\n\n### 2. 组件重构\n- **主题组件重构：** 优化了表单结构和资源处理逻辑，使主题编辑和管理更加流畅。\n- **水合优化：** 在 `body` 元素中添加了 `suppressHydrationWarning`，以解决 Next.js\u002FReact 环境中常见的客户端-服务器水合不匹配警告。","2026-02-10T09:20:42",{"id":135,"version":136,"summary_zh":137,"released_at":138},297807,"v0.10.0","特性：使用文件附件突破模型上下文限制（需要在实验性中手动开启）","2025-09-11T15:02:47",{"id":140,"version":141,"summary_zh":142,"released_at":143},297808,"v0.9.20","本次发布的主要更新集中在 API、MCP 服务、知识图谱、搜索功能和 PWA 支持方面：\n\n*   **API 支持：**\n\n    *   **深度研究 API：** 已完成深度研究 API 的开发，支持 SSE 请求和 Live 模式。Live 模式可让您直观地体验整个深度研究过程。\n    *   **MCP 服务支持：** 构建了深度研究 MCP 服务，支持单独执行每个研究步骤。\n\n*   **智能引用图片：** 研究报告现已支持从原始资料中智能引用图片。\n\n*   **新增知识图谱：** 现已支持生成知识图谱，以可视化方式呈现您的研究成果。\n\n*   **PWA 支持：** 新增对 PWA 的支持，用户可将其安装为 Web 应用。\n\n*   **知识库文件分块上传：** 知识库文件上传现支持分块处理，有效防止数据丢失。\n\n*   **搜索功能增强：**\n\n    *   **图片搜索支持：** 搜索功能现已支持返回图片结果（不包括模型内置和 Firecrawl）。\n    *   **SearXNG 优化：** SearXNG 搜索结果现支持重新排序。\n\n*   **界面和体验优化：**\n\n    *   **试验性功能设置页面：** 新增了试验性功能设置页面。\n    *   **Markdown 输出优化：** 优化了 Markdown 文本输出，并增加了文本显示动画效果。\n    *   **Markdown 图片布局优化：** 优化了 Markdown 中图片的布局。\n    *   **图片查看器：** 新增 Lightbox 组件，方便用户查看图片。\n    *   **设置界面布局优化：** 优化了设置界面的布局。\n\n*   **Bug 修复：**\n\n    *   **修复 SearXNG 问题：** 修复了 SearXNG 在前端页面无法正常发起请求的问题。\n\n本次更新旨在为您提供更强大、更智能的研究与知识管理体验，感谢您的支持！\n\n---\n\n![WX20250520-160637@2x](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7827cd60-342a-406d-9a36-566d2d1a35e0)\n\n支持生成包含图片和文字的研究报告\n\n![W","2025-05-20T06:50:57",{"id":145,"version":146,"summary_zh":147,"released_at":148},297809,"v0.8.2","本次更新带来了 Magicdown 编辑器的大幅增强，以及研究、知识库和资源管理功能的全面升级！\r\n\r\n* **Magicdown 编辑器大爆发！**\r\n    * **便捷编辑：** 支持 tooltip 和 slash 等插件，内容编辑更加轻松。\r\n    * **实时预览：** 支持实时预览编辑结果，所见即所得。\r\n    * **代码块增强：** Magicdown 代码块支持复制功能。\r\n\r\n* **研究功能深度优化！**\r\n    * **基于方案的数据收集：** 在收集数据之前增加报告方案，并基于方案进行数据收集。\r\n    * **引用来源标记：** 支持标记引用来源，增强报告可信度。\r\n    * **报告优化：** 优化了最终报告的提示，并减少引用数量。\r\n    * **数据收集流程支持重新研究：** 数据收集流程 now 支持 re-research，提供更大的灵活性。\r\n    * **研究历史和知识库搜索：** 研究历史和知识库 now 支持关键词搜索。\r\n    * **历史记录导入导出：** 支持历史记录的导入和导出功能。\r\n\r\n* **知识库 & 资源管理升级！**\r\n    * **本地资源上传：** 支持将本地资源上传至知识库。\r\n    * **信息收集结果和报告加入知识库：** 信息收集结果和最终报告 now 可以添加到知识库中。\r\n    * **知识库页面：** 新增知识库页面，用于统一的知识管理。\r\n    * **网页爬虫组件：** 新增网页爬虫组件，方便抓取网页内容。\r\n\r\n* **体验优化 & Bug 修复！**\r\n    * **界面优化：** 针对大屏幕尺寸进行了页面适配，优化了项目布局体验。同时优化了桌面浏览器上工具栏的使用体验。\r\n    * **滚动优化：** 优化了研究历史和知识库页面的滚动体验。\r\n    * **历史记录 UI 优化：** 优化了历史记录的 UI。\r\n\r\n* **技术调整：**\r\n    * **临时替换 Milkdown 编辑器：** 由于 MilkdownEditor 存在严重的渲染性能问题，该组件已被暂时移除，并替换为 Magicdown 组件。\r\n\r\n本次更新致力于为您提供更强大、更易用、更稳定的研究与知识管理体验。感谢您的支持！","2025-05-05T03:19:08",{"id":150,"version":151,"summary_zh":152,"released_at":153},297810,"v0.7.12","本次更新带来了海量模型支持、强大的搜索功能、以及更灵活的配置选项！\r\n\r\n* **模型选择大爆炸！**\r\n    * **新增模型支持：** 支持 OpenAI、Anthropic、DeepSeek、Grok 等更多主流大模型，以及 OpenRouter、Ollama 等平台。\r\n    * **自定义模型列表：** 支持自定义模型列表，打造专属模型库。\r\n\r\n* **搜索功能再升级！**\r\n    * **网络搜索：** 支持 Tavily、Firecrawl、Bocha、Searxng 等搜索引擎，可以让不支持搜索的 LLM 可以更便捷地使用网络搜索功能。\r\n    * **服务器代理搜索 API：** 支持服务器代理搜索 API，提升搜索稳定性。\r\n    * **多 Key 轮询：** 搜索 API 现在支持多 Key 轮询，提高可用性。\r\n\r\n* **写作体验优化！**\r\n    * **先写需求再写作：** 支持先写需求再进行写作，更符合创作流程。\r\n    * **继续写作功能：** 新增继续写作功能，让创作不间断。\r\n\r\n* **配置更灵活！**\r\n    * **独立设置：** 为每个模型和搜索引擎单独设置，实现精细化配置。\r\n    * **禁用选项：** 支持服务端禁用 AI Provider 和搜索 Provider，灵活控制功能。\r\n\r\n* **界面与性能优化：**\r\n    * **报告布局提示优化：** 优化了报告布局提示。\r\n    * **Mermaid 渲染提示：** 增加了 Mermaid 渲染规则提示。\r\n\r\n* **底层架构升级：**\r\n    * **服务器代理重构：** 重构了服务器代理转发模式，采用中间件重写 Header。\r\n    * **API 调整：** 移除了 `api` 目录下的所有文件，改用 `rewrites` 替代 API。\r\n\r\n* **其他改进：**\r\n    * **i18n 翻译改进**\r\n    * **新增 404 页面（未找到页面）**\r\n    * **项目文档优化**\r\n\r\n本次更新致力于为您提供更强大、更灵活、更稳定的使用体验。感谢您的支持！","2025-04-11T03:01:49",{"id":155,"version":156,"summary_zh":157,"released_at":158},297811,"v0.6.6","本次更新主要改进了用户体验和模型管理：\n\n* **个性化设置持久化：** 系统现在可以记住您的语言和主题设置，下次使用时无需重新设置。\n* **模型列表分类归档：** 对模型列表进行了分类和归档，让模型类型更加清晰，方便您选择合适的模型。","2025-03-29T11:49:16",{"id":160,"version":161,"summary_zh":162,"released_at":163},297812,"v0.6.3","本次更新主要围绕研究功能和编辑器体验进行了大幅度增强：\n\n* **研究功能全面升级！**\n    * **Canvas：** 支持编辑研究内容，提供 WYSIWYM 和 Markdown 两种编辑模式，可调整阅读级别、文章长度和全文翻译。\n    * **研究进度保留：** 支持保留当前研究进度，可以随时继续研究，并且可以删除不需要的研究内容。\n    * **研究记录修订：** 支持对之前的研究记录进行修订。\n    * **研究报告格式优化：** 研究报告现在拥有更好的排版格式。\n    * **Mermaid & Math 公式支持：**  编辑器组件现在支持渲染 mermaid 流程图和数学公式。\n    * **信息收集板块功能增强：** 重构了信息收集部分，将可编辑区域和不可编辑区域分开，内容支持导出 Markdown，并可以同时展开多个页面。\n    * **文件导出改进：** 修复了导出 Markdown 文件时缺少文件后缀的问题，并优化了 PDF 和 Markdown 文件的导出功能。\n\n* **其他优化：**\n    * **模型管理：** 新增 `useModel` hook，用于获取最新的模型列表，并支持自定义“思考模型”和“联网模型”。\n    * **支持多 key 负载**：支持多 key 负载，提高 API 响应效率。\n    * **性能优化：** 优化了编辑器，避免多次渲染导致性能问题。优化了计时器，避免瞬间累积。 优化了启动新研究的逻辑。\n    * **文档改进：** 改进了i18n 翻译。\n\n我们致力于提供更强大、更流畅的研究和编辑体验，感谢您的支持！","2025-03-27T11:01:04",{"id":165,"version":166,"summary_zh":167,"released_at":168},297813,"v0.5.2","本次更新包含以下改进：\n\n- 新增研究历史记录功能：方便您回顾和管理之前的研究结果。\n- 修复PDF布局异常问题：解决了PDF文件在生成时可能出现的布局宽度过小的问题。\n\n感谢 [raymond9zhou](https:\u002F\u002Fgithub.com\u002Fraymond9zhou) 贡献了本次更新的核心代码实现：[deep-research\u002Fpull\u002F11](https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research\u002Fpull\u002F11)\n\n---\n\n本次更新带来以下改进：\n\n- 新增研究历史记录功能: 方便您回顾和管理之前的研究结果。\n- 修复PDF布局异常问题: 解决了PDF文件在生成时可能出现的布局宽度过小问题。\n\n感谢 [raymond9zhou](https:\u002F\u002Fgithub.com\u002Fraymond9zhou) 贡献了本次更新的核心代码实现: [deep-research\u002Fpull\u002F11](https:\u002F\u002Fgithub.com\u002Fu14app\u002Fdeep-research\u002Fpull\u002F11)\n","2025-03-22T17:23:08",{"id":170,"version":171,"summary_zh":172,"released_at":173},297814,"v0.5.0","本次更新主要集中在报告生成和研究流程优化：\n\n* **优化研究流程:** 优化了研究过程，支持可控和无限研究，让研究更加灵活。\n* **报告标题自动生成:** 现在可以自动生成报告标题，节省您的时间。\n* **项目Logo更新:**  我们更新了项目Logo，焕然一新。","2025-03-15T12:19:32"]