gpt-researcher
GPT Researcher 是一款开源的自主智能体,专为执行深度网络和本地研究任务而设计。它能够利用任意大语言模型提供商的能力,针对任何主题自动开展调研,并生成包含引用来源的详细、客观且事实准确的研究报告。
传统人工研究往往耗时数周且资源消耗巨大,而现有大模型常因训练数据过时产生“幻觉”,或受限于上下文长度无法生成长篇报告,加之网络来源单一导致信息片面甚至误导。GPT Researcher 正是为解决这些痛点而生。它借鉴了“规划与求解”及检索增强生成(RAG)的前沿理念,通过独特的“规划者”与“执行者”多智能体协作架构,将研究问题拆解并行处理。这种机制不仅显著提升了检索速度和稳定性,还有效消除了信息来源的偏差,确保结论的可靠性。
这款工具非常适合需要高效获取深度行业洞察的研究人员、分析师,以及希望构建定制化领域研究助手的开发者。无论是撰写学术综述、市场分析还是技术调研,GPT Researcher 都能帮助用户在极短时间内获得高质量、可验证的专业信息,让准确的事实触手可及。
使用场景
某金融科技公司的行业分析师需要在 24 小时内完成一份关于“全球固态电池产业链最新突破与主要玩家”的深度调研报告,以支持投资决策。
没有 gpt-researcher 时
- 信息滞后与幻觉风险:依赖通用大模型直接生成内容,常因训练数据截止而遗漏近半年的关键技术突破,甚至编造不存在的企业合作案例。
- 人工检索效率低下:分析师需手动在数十个新闻源、学术论文库和财报中交叉验证信息,耗时数天仍难以覆盖全面。
- 观点主观且来源模糊:人工整理的报告容易受个人搜索习惯影响产生偏差,且难以在文中精确标注每一条数据的原始出处,合规审查困难。
- 长文逻辑断裂:受限于 LLM 的上下文窗口,一次性生成的长篇报告往往结构松散,缺乏深度的因果推导和多视角对比。
使用 gpt-researcher 后
- 实时深度挖掘:gpt-researcher 自主规划搜索路径,并行抓取最新的科研论文、新闻资讯及财报数据,确保内容涵盖截至当下的技术进展,杜绝幻觉。
- 自动化全流程研究:工具自动拆解任务为多个子问题,由执行代理并行收集信息并汇总,将原本数天的工作压缩至几分钟内完成初稿。
- 客观引用与去偏:生成的报告自带详细的脚注和超链接引用,基于多源交叉验证消除单一信源偏差,满足严格的金融合规要求。
- 结构化专业输出:内置的“规划 - 执行 - 发布”架构确保报告逻辑严密,自动生成包含市场格局、技术路线对比及风险提示的专业级长文档。
gpt-researcher 将原本耗时数周的人工深度调研转化为分钟级的自动化流程,为决策者提供即时、准确且可追溯的事实依据。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🔎 GPT Researcher
GPT Researcher 是一款开源的深度研究代理,专为任何任务的网络和本地研究而设计。
该代理能够生成详细、基于事实且无偏见的研究报告,并附有引用来源。GPT Researcher 提供了全套的自定义选项,以创建量身定制的领域特定研究代理。受近期 Plan-and-Solve 和 RAG 论文启发,GPT Researcher 通过并行化代理工作,提供稳定的性能和更高的速度,从而解决虚假信息、效率、确定性和可靠性等问题。
我们的使命是通过人工智能,为个人和组织提供准确、公正、基于事实的信息。
为什么选择 GPT Researcher?
- 对于人工研究而言,得出客观结论可能需要数周时间,耗费大量资源和精力。
- 基于过时信息训练的语言模型可能会产生幻觉,使其无法满足当前的研究需求。
- 现有的语言模型存在 token 数量限制,难以生成较长的研究报告。
- 现有服务中的网络资源有限,容易导致错误信息和浅层结果。
- 选择性地使用网络资源可能会给研究任务带来偏差。
演示
作为 Claude Skill 安装
通过将 GPT Researcher 作为 Claude Skill 安装,扩展 Claude 的深度研究能力:
npx skills add assafelovic/gpt-researcher
安装完成后,Claude 就可以在对话中直接利用 GPT Researcher 的深度研究功能。
架构
核心思想是利用“规划者”和“执行者”两个代理。规划者生成研究问题,而执行者则收集相关信息。随后,发布者会将所有发现汇总成一份全面的研究报告。
步骤:
- 根据研究查询创建特定任务的代理。
- 生成一系列问题,这些问题共同构成对任务的客观看法。
- 使用爬虫代理为每个问题收集信息。
- 对每条资源进行总结并追踪来源。
- 过滤并汇总这些摘要,形成最终的研究报告。
教程
特性
- 📝 利用网络和本地文档生成详细的研究报告。
- 🖼️ 智能图像抓取与过滤功能,用于研究报告。
- 🍌 AI生成的内嵌图片,使用 Google Gemini(Nano Banana)进行视觉说明。
- 📜 生成超过2,000字的详细报告。
- 🌐 聚合超过20个来源,以得出客观结论。
- 🖥️ 提供轻量级(HTML/CSS/JS)和生产就绪版(NextJS + Tailwind)前端。
- 🔍 支持JavaScript的网页抓取。
- 📂 在整个研究过程中保持记忆和上下文。
- 📄 可将报告导出为PDF、Word等格式。
📖 文档
请参阅 文档 了解:
- 安装与设置指南
- 配置与自定义选项
- 操作示例
- 完整的API参考
⚙️ 开始使用
安装
安装 Python 3.11 或更高版本。教程。
克隆项目并进入目录:
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher设置 API 密钥,可以通过导出或将其存储在
.env文件中来完成。export OPENAI_API_KEY={您的 OpenAI API 密钥} export TAVILY_API_KEY={您的 Tavily API 密钥}(可选)为了增强跟踪和可观ability,您还可以设置:
# export LANGCHAIN_TRACING_V2=true # export LANGCHAIN_API_KEY={您的 LangChain API 密钥}对于自定义的 OpenAI 兼容 API(例如本地模型或其他提供商),您也可以设置:
export OPENAI_BASE_URL={您的自定义 API 基础 URL}安装依赖并启动服务器:
pip install -r requirements.txt python -m uvicorn main:app --reload
访问 http://localhost:8000 即可开始使用。
对于其他设置方式(例如 Poetry 或虚拟环境),请查看 入门页面。
以 PIP 包运行
pip install gpt-researcher
示例用法:
...
from gpt_researcher import GPTResearcher
query = "为什么英伟达股价上涨?"
researcher = GPTResearcher(query=query)
# 对给定的查询进行研究
research_result = await researcher.conduct_research()
# 撰写报告
report = await researcher.write_report()
...
更多示例和配置,请参阅 PIP 文档 页面。
🔧 MCP 客户端
GPT Researcher 支持 MCP 集成,可连接到 GitHub 仓库、数据库和自定义 API 等专业数据源。这使得研究不仅可以通过网页搜索进行,还可以从这些数据源中获取信息。
export RETRIEVER=tavily,mcp # 启用混合式网页 + MCP 研究
from gpt_researcher import GPTResearcher
import asyncio
import os
async def mcp_research_example():
# 启用 MCP 与网页搜索
os.environ["RETRIEVER"] = "tavily,mcp"
researcher = GPTResearcher(
query="什么是顶级的开源网络研究代理?",
mcp_configs=[
{
"name": "github",
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {"GITHUB_TOKEN": os.getenv("GITHUB_TOKEN")}
}
]
)
research_result = await researcher.conduct_research()
report = await researcher.write_report()
return report
如需全面的 MCP 文档及高级示例,请访问 MCP 集成指南。
🍌 内联图像生成
GPT Researcher 可以使用 Google 的 Gemini 模型(Nano Banana)自动为您的研究报告生成并嵌入 AI 创作的插图。
# 在 .env 文件中启用
IMAGE_GENERATION_ENABLED=true
GOOGLE_API_KEY=your_google_api_key
IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image
启用后,系统将:
- 分析您的研究背景以识别可视化机会
- 在研究阶段预先生成 2–3 张相关图像
- 在撰写报告时将其内联嵌入
生成的图像采用与 GPT Researcher UI 匹配的暗色模式设计,具有青蓝色点缀的专业信息图美学风格。
✨ 深度研究
GPT Researcher 现已包含深度研究功能——一种先进的递归研究工作流,能够以智能体式的深度和广度探索主题。此功能采用树状探索模式,在深入子主题的同时保持对研究主题的全面视角。
- 🌳 可配置深度和广度的树状探索
- ⚡️ 并发处理以加快结果生成
- 🤝 跨研究分支的智能上下文管理
- ⏱️ 每次深度研究约需 5 分钟
- 💰 每次研究成本约 0.4 美元(使用
o3-mini模型,设置为“高”推理强度)
使用 Docker 运行
步骤 1 - 安装 Docker
步骤 2 - 克隆
.env.example文件,将您的 API 密钥添加到克隆后的文件中,并将其保存为.env文件。
步骤 3 - 在
docker-compose文件中,注释掉您不想通过 Docker 运行的服务。
docker-compose up --build
如果上述命令不起作用,请尝试不带破折号运行:
docker compose up --build
步骤 4 - 默认情况下,如果您未取消注释
docker-compose文件中的任何内容,该流程将启动两个进程:
- 在 localhost:8000 上运行的 Python 服务器
- 在 localhost:3000 上运行的 React 应用程序
在任意浏览器中访问 localhost:3000,尽情享受研究的乐趣吧!
📄 基于本地文档的研究
您可以指示 GPT Researcher 根据您的本地文档执行研究任务。目前支持的文件格式包括:PDF、纯文本、CSV、Excel、Markdown、PowerPoint 和 Word 文档。
步骤 1:添加环境变量 DOC_PATH,指向存放您文档的文件夹。
export DOC_PATH="./my-docs"
步骤 2:
- 如果您在 localhost:8000 上运行前端应用,只需从“报告来源”下拉选项中选择“我的文档”。
- 如果您使用 PIP 包 运行 GPT Researcher,则在实例化
GPTResearcher类时,将report_source参数设置为“local” 代码示例在此。
🤖 MCP 服务器
我们已将 MCP 服务器迁移到专用仓库:gptr-mcp。
GPT Researcher 的 MCP 服务器使像 Claude 这样的 AI 应用程序能够进行深度研究。虽然大型语言模型应用程序可以通过 MCP 访问网页搜索工具,但 GPT Researcher 的 MCP 服务器能够提供更深入、更可靠的研究结果。
特点:
- 为 AI 助手提供深度研究能力
- 优化上下文使用,提升信息质量
- 为大型语言模型提供更全面、更具推理能力的结果
- 支持 Claude Desktop 集成
有关详细的安装和使用说明,请访问 官方仓库。
👪 多智能体助手
随着 AI 从提示工程和 RAG 发展到多智能体系统,我们很高兴推出基于 LangGraph 和 AG2 构建的多智能体助手。
通过使用多智能体框架,可以利用多个具备专业技能的智能体显著提升研究的深度和质量。受近期 STORM 论文启发,该项目展示了由一组 AI 智能体如何协同工作,从规划到发表,共同完成一项研究任务。
一次平均运行可生成 5–6 页的研究报告,并支持 PDF、Docx 和 Markdown 等多种格式。
请在此处查看:https://github.com/assafelovic/gpt-researcher/tree/master/multi_agents,或前往我们的文档,了解关于 LangGraph 和 AG2 的更多信息。
🔍 可观测性
GPT Researcher 支持 LangSmith,以增强跟踪和可观ability,从而更轻松地调试和优化复杂的多智能体工作流。
要启用跟踪:
- 设置以下环境变量:
export LANGCHAIN_TRACING_V2=true export LANGCHAIN_API_KEY=your_api_key export LANGCHAIN_PROJECT="gpt-researcher" - 正常运行您的研究任务。所有基于 LangGraph 的智能体交互都将自动被跟踪,并在您的 LangSmith 仪表板上可视化。
🖥️ 前端应用
GPT-Researcher 现在配备了增强的前端界面,以提升用户体验并简化研究流程。前端提供了:
- 直观的研究查询输入界面
- 研究任务的实时进度跟踪
- 研究成果的交互式展示
- 可自定义的设置,以满足个性化的研究需求
目前提供两种部署方式:
- 由 FastAPI 提供服务的轻量级静态前端
- 具备丰富功能的 Next.js 应用程序
如需详细的安装说明及更多关于前端功能的信息,请访问我们的文档页面。
🚀 贡献
我们非常欢迎各位的贡献!如果您感兴趣,请查看贡献指南。
请浏览我们的路线图页面,并通过我们的Discord 社区与我们联系,加入我们的使命吧。
✉️ 支持 / 联系我们
🛡 免责声明
本项目 GPT Researcher 属于实验性应用,按“原样”提供,不提供任何明示或暗示的担保。我们依据 Apache 2 许可证将代码分享用于学术目的。本文档内容不构成学术建议,亦不建议将其用于学术或研究论文中。
我们对无偏见研究的立场如下:
- GPT Researcher 的主要目标是减少错误和有偏见的事实。如何实现?我们认为,抓取的网站越多,出现错误数据的可能性就越小。通过为每次研究抓取多个网站,并选择出现频率最高的信息,这些信息全部出错的概率极低。
- 我们并不旨在完全消除偏见,而是力求尽可能地降低其影响。我们作为一个社区,共同探索最有效的人机协作方式。
- 在研究过程中,人们往往也会带有自身的偏见,因为大多数人在研究特定主题时早已形成了自己的观点。而这款工具会抓取大量不同的观点,并均衡地呈现多元化的看法,这正是那些带有偏见的研究者通常不会接触到的内容。
版本历史
v3.4.32026/03/13v3.4.22026/03/01v3.4.12026/02/21v3.4.02026/01/29v3.3.92026/01/25v.3.3.82025/12/14v.3.3.72025/11/07v.3.3.62025/10/07v.3.3.52025/09/23v.3.3.42025/09/17v.3.3.32025/08/08v.3.3.22025/07/19v.3.3.12025/07/04v3.3.02025/06/08v3.2.92025/06/01v3.2.82025/05/04v3.2.72025/04/07v3.2.62025/03/31v3.2.52025/03/27v3.2.42025/03/10常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。