open-deep-research

GitHub
2.1k 197 简单 1 次阅读 2天前MIT语言模型Agent
AI 解读 由 AI 自动生成,仅供参考

open-deep-research 是一款开源的 AI 研究助手,旨在帮助用户基于网络搜索结果自动生成深度分析报告。它有效解决了传统研究中信息搜集耗时、内容整合困难以及依赖单一付费模型的痛点,让高质量的研究工作流变得更加高效且自主可控。

这款工具特别适合研究人员、数据分析师、开发者以及需要快速产出深度内容的普通用户。其核心优势在于极高的灵活性与开放性:支持对接 Google 或 Bing 进行检索,利用 JinaAI 精准提取网页内容,并允许用户自由选择 Google Gemini、OpenAI GPT、Anthropic Sonnet 甚至本地部署的模型来生成报告。

技术亮点方面,open-deep-research 不仅支持上传本地文档(如 PDF、Word)与网络信息结合分析,还内置了个人知识库功能,方便保存和回溯历史报告。更独特的是其“深度研究流”特性,能够像人类专家一样进行递归式探索,根据初步结论自动提出后续问题,层层深入挖掘主题,并将分散的报告整合成可视化的研究图谱。无论是撰写行业调研还是学术综述,它都能成为你得力的智能搭档。

使用场景

某科技公司的市场分析师需要在两天内完成一份关于“全球固态电池技术突破与主要厂商布局”的深度竞品分析报告,以支持高层战略决策。

没有 open-deep-research 时

  • 信息搜集碎片化:需手动在 Google 和 Bing 反复切换关键词搜索,耗时数小时筛选几十篇新闻和技术文档,极易遗漏关键数据。
  • 内容消化效率低:面对大量付费墙阻挡或格式杂乱的网页,只能人工复制粘贴并清洗文本,难以快速提取核心参数和观点。
  • 洞察整合困难:缺乏统一框架将零散的搜索结果串联成逻辑严密的报告,最终产出往往只是资料堆砌,缺乏深度综合研判。
  • 知识复用缺失:报告完成后散落在本地文件夹,后续遇到类似课题无法快速回溯历史调研路径和原始素材。

使用 open-deep-research 后

  • 自动化全域检索:配置好 API 后,open-deep-research 自动并发调用搜索引擎,按时间过滤并精准抓取最新技术动态,将搜集时间从数小时压缩至几分钟。
  • 智能内容萃取:利用内置的 JinaAI 引擎,工具自动绕过付费墙提取正文,清洗无关广告,直接输出结构化的高质量语料供模型分析。
  • 深度报告生成:选定 Claude Sonnet 或 GPT-4 等模型,结合自定义提示词,工具将多源信息合成一份包含趋势预测、厂商对比及风险提示的完整报告。
  • 构建个人知识库:生成的报告自动存入本地知识库,形成可追溯的研究树,支持随时调取过往数据或通过"Flow"功能发起递归式深度追问。

open-deep-research 将原本需要数天的人工调研工作流缩短为小时级,让研究者从繁琐的信息搬运工转型为真正的策略洞察者。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

非必需(仅在使用本地 Ollama 模型且该模型需要 GPU 加速时才涉及,README 未指定具体型号)

内存

未说明

依赖
notes该项目是基于 Node.js 的 Web 应用,非 Python 项目。核心运行环境需安装 Node.js 20+ 版本。若启用速率限制功能需配置 Upstash Redis;若使用本地模型需安装 Ollama。使用 Google 或 Bing 搜索及各类 AI 模型(Gemini, GPT-4, Claude 等)需在 .env.local 文件中配置对应的 API Key。若部署在 Vercel 等 Serverless 平台并使用推理模型,需调整函数最大执行时长限制。
python不需要 (基于 Node.js)
Node.js 20+
npm/yarn/pnpm/bun
Redis (可选,用于速率限制)
open-deep-research hero image

快速开始

开放式深度研究

开放式深度研究演示

注:为简洁起见,演示已加速播放

一款功能强大的开源研究助手,能够根据网络搜索结果生成全面的AI驱动报告。与其他深度研究解决方案不同,它与多个AI平台无缝集成,包括Google、OpenAI、Anthropic、DeepSeek,甚至本地模型——让您自由选择最适合特定研究需求的AI模型。

该应用分为三个关键步骤:

  1. 检索搜索结果:通过可配置的Google自定义搜索或Bing搜索API,应用会为指定的搜索词获取全面的搜索结果。
  2. 内容提取:借助JinaAI,它会提取并处理所选搜索结果的内容,确保信息准确且相关。
  3. 报告生成:基于精选的搜索结果和提取的内容,应用会使用您选择的AI模型(如Gemini、GPT-4、Sonnet等)生成详细报告,提供贴合您自定义提示的深入且综合性的输出。
  4. 知识库:将生成的报告保存到个人知识库中,方便日后查阅和快速检索。

开放式深度研究结合了强大的工具,在一个用户友好的开源平台上简化了研究和报告制作流程。您可以根据自身需求自定义应用(选择偏好的搜索引擎、AI模型,自定义提示语、更新速率限制,并配置获取及选定的结果数量)。

特性

  • 🔍 灵活的网络搜索,支持Google或Bing API
  • ⏱️ 按时间筛选搜索结果
  • 📄 从网页中提取内容
  • 🤖 多平台AI支持(Google Gemini、OpenAI GPT、Anthropic Sonnet)
  • 🎯 灵活的模型选择,支持精细化配置
  • 📊 多种导出格式(PDF、Word、文本)
  • 🧠 知识库,用于保存和访问过往报告
  • ⚡ 速率限制以保证稳定性
  • 📱 响应式设计

本地文件支持

该应用支持分析本地文件以进行研究和报告生成。您可以:

  • 直接通过界面上传TXT、PDF和DOCX文件
  • 将本地文档与网络搜索结果结合处理
  • 无需网络搜索即可从本地文件生成报告
  • 综合本地文件和网络来源的见解

使用本地文件的步骤如下:

  1. 在搜索界面点击上传按钮(⬆️)
  2. 选择您的文件(支持格式:TXT、PDF、DOCX)
  3. 文件将作为自定义来源显示在您的搜索结果中
  4. 选择该文件并点击“生成报告”以分析其内容。

知识库

知识库功能允许您:

  • 保存生成的报告以供日后参考(报告存储在浏览器的本地存储中)
  • 访问您的研究历史
  • 快速加载和查看过往报告
  • 长期构建个人研究资料库

流程:深度研究与报告整合

Flow功能通过以下方式实现深度递归研究:

  • 创建包含相互关联报告的可视化研究流程
  • 根据初始研究结果生成后续查询
  • 通过递归探索深入特定主题
  • 将多个相关报告整合为综合性最终报告

主要功能:

  • 🌳 深度研究树:从一个主题开始,自动生成相关的后续问题,以深入探讨各个层面
  • 🔄 递归探索:根据报告中的洞察生成新查询,沿着不同的“岔路”继续深入研究
  • 🔍 可视化研究地图:以图形化方式展示整个研究过程,清晰呈现不同研究路径之间的联系
  • 🎯 智能查询生成:基于报告内容由AI自动推导出后续研究问题
  • 🔗 报告整合:选择多个相关报告,将其合并为一份综合性最终报告
  • 📊 交互式界面:直观地拖动、排列和组织您的研究流程

Flow界面使操作变得简单易行:

  1. 从初始研究查询开始
  2. 审查并选择相关的搜索结果
  3. 从选定的来源生成详细报告
  4. 获取AI建议的后续问题,以进一步深入探索
  5. 根据这些问题创建新的研究分支
  6. 最后,将相关报告整合为综合性摘要

此功能非常适合:

  • 需要深入探索相互关联主题的学术研究
  • 需要多角度调查的市场研究
  • 需要递归深入分析的复杂主题研究
  • 任何需要“顺藤摸瓜”追踪信息的研究任务

配置

应用的设置可通过lib/config.ts配置文件进行自定义。以下是您可以调整的关键参数:

速率限制

控制不同操作每分钟允许的请求数量和速率限制:

rateLimits: {
  enabled: true,         // 启用或禁用速率限制(设为false可跳过Redis设置)
  search: 5,            // 每分钟允许的搜索请求数
  contentFetch: 20,     // 每分钟允许的抓取内容请求数
  reportGeneration: 5,  // 每分钟允许的报告生成请求数
}

注意:如果将enabled设置为false,则无需设置Redis即可运行应用程序。这在本地开发或不需要速率限制时非常有用。

搜索提供商配置

该应用同时支持Google自定义搜索和Bing搜索API。您可以在lib/config.ts中配置首选的搜索提供商:

search: {
  resultsPerPage: 10,
  maxSelectableResults: 3,
  provider: 'google', // 'google'或'bing'
  safeSearch: {
    google: 'active',  // 'active'或'off'
    bing: 'moderate'   // 'moderate'、'strict'或'off'
  },
  market: 'en-US',
}

使用Google自定义搜索的步骤如下:

  1. Google Cloud Console获取API密钥
  2. 创建自定义搜索引擎,并从Google Programmable Search获取CX ID
  3. 将凭据添加到.env.local文件中:
GOOGLE_SEARCH_API_KEY="your-api-key"
GOOGLE_SEARCH_CX="your-cx-id"

使用Bing搜索的步骤如下:

  1. Azure门户获取API密钥
  2. 将凭据添加到.env.local文件中:
AZURE_SUB_KEY="your-azure-key"

知识库

知识库功能允许您通过以下方式构建个人研究库:

  • 保存生成的报告及其原始搜索查询
  • 即时访问和加载过往报告
  • 构建可搜索的研究档案
  • 在不同研究会话之间保持上下文连贯性

保存到知识库中的报告包括:

  • 包含所有部分的完整报告内容
  • 原始搜索查询和提示
  • 来源网址和参考文献
  • 生成时间戳

您可以通过界面中的专用按钮访问知识库,该按钮会打开一个包含所有已保存报告的侧边栏。

AI 平台设置

您可以配置哪些 AI 平台和模型可用。该应用支持多个 AI 平台(Google、OpenAI、Anthropic、DeepSeek),每个平台下又有多种模型可供选择。您可以根据需求启用或禁用不同的平台及个别模型:

platforms: {
  google: {
    enabled: true,
    models: {
      'gemini-flash': {
        enabled: true,
        label: 'Gemini Flash',
      },
      'gemini-flash-thinking': {
        enabled: true,
        label: 'Gemini Flash Thinking',
      },
      'gemini-exp': {
        enabled: false,
        label: 'Gemini Exp',
      },
    },
  },
  openai: {
    enabled: true,
    models: {
      'gpt-4o': {
        enabled: false,
        label: 'GPT-4o',
      },
      'o1-mini': {
        enabled: false,
        label: 'o1-mini',
      },
      'o1': {
        enabled: false,
        label: 'o1',
      },
    },
  },
  anthropic: {
     enabled: true,
    models: {
      'claude-3-7-sonnet-latest': {
        enabled: false,
        label: 'Claude 3.7 Sonnet',
      },
      'claude-3-5-haiku-latest': {
        enabled: false,
        label: 'Claude 3.5 Haiku',
      },
    },
  },
  deepseek: {
    enabled: true,
    models: {
      'chat': {
        enabled: false,
        label: 'DeepSeek V3',
      },
      'reasoner': {
        enabled: false,
        label: 'DeepSeek R1',
      },
    },
  },
  openrouter: {
    enabled: true,
    models: {
      'openrouter/auto': {
        enabled: false,
        label: 'Auto',
      },
    },
  },
}

对于每个平台:

  • enabled:控制该平台是否可用
  • 对于每个模型:
    • enabled:控制该特定模型是否可选
    • label:在界面上显示的名称

被禁用的模型会在界面上以灰色显示,但仍会保留可见状态,以便展示所有可用选项。这样用户可以看到全部可用模型,同时清楚地知道当前哪些模型可以使用。

要修改这些设置,请更新 lib/config.ts 文件中的值。更改将在重启开发服务器后生效。

OpenRouter 集成

OpenRouter 提供了一个统一的 API,用于访问各种 AI 模型。默认情况下,它处于“auto”模式,会自动选择最合适的模型;但您也可以通过修改配置文件中的模型部分,来指定使用特定的模型。

关于推理模型的重要提示

当使用高级推理模型(如 OpenAI 的 o1 或 DeepSeek Reasoner)时,可能需要增加无服务器函数的执行时长限制,因为这些模型通常需要更长时间才能生成完整的报告。默认的执行时长可能不足以完成任务。

对于 Vercel 部署,您可以在 vercel.json 中增加执行时长限制:

{
  "functions": {
    "app/api/report/route.ts": {
      "maxDuration": 120
    }
  }
}

或者直接在路由文件中修改执行时长:

// 在 app/api/report/route.ts 中
export const maxDuration = 120 // 设置为 120 秒或更长

请注意:最大执行时长限制可能因您的托管平台和订阅层级而异。

使用 Ollama 运行本地模型

该应用支持通过 Ollama 集成进行本地模型推理。您可以按照以下步骤操作:

  1. 在您的机器上安装 Ollama
  2. 使用 ollama pull model-name 下载您喜欢的模型。
  3. lib/config.ts 中配置该模型:
platforms: {
  ollama: {
    enabled: true,
    models: {
      'your-model-name': {
        enabled: true,
        label: '您的模型显示名称'
      }
    }
  }
}

通过 Ollama 运行的本地模型不会受到速率限制,因为它们是在您的本地机器上执行的。这使得它们非常适合开发、测试,或者在需要无限次生成时使用。

开始使用

先决条件

  • Node.js 20 或更高版本
  • npm、yarn、pnpm 或 bun

安装步骤

  1. 克隆仓库:
git clone https://github.com/btahir/open-deep-research
cd open-deep-research
  1. 安装依赖项:
npm install
# 或者
yarn install
# 或者
pnpm install
# 或者
bun install
  1. 在项目根目录下创建 .env.local 文件:
# Google Gemini Pro API 密钥(生成 AI 报告所必需)
GEMINI_API_KEY=your_gemini_api_key

# OpenAI API 密钥(可选——仅在启用 OpenAI 模型时需要)
OPENAI_API_KEY=your_openai_api_key

# Anthropic API 密钥(可选——仅在启用 Anthropic 模型时需要)
ANTHROPIC_API_KEY=your_anthropic_api_key

# DeepSeek API 密钥(可选——仅在启用 DeepSeek 模型时需要)
DEEPSEEK_API_KEY=your_deepseek_api_key

# OpenRouter API 密钥(可选——如果将 OpenRouter 作为 AI 平台使用时需要)
OPENROUTER_API_KEY=your-openrouter-api-key

# Upstash Redis(用于速率限制,必需)
UPSTASH_REDIS_REST_URL=your_upstash_redis_url
UPSTASH_REDIS_REST_TOKEN=your_upstash_redis_token

# Bing 搜索 API(可选——如果使用 Bing 作为搜索引擎时需要)
AZURE_SUB_KEY=your-azure-subscription-key

# Google 自定义搜索 API(可选——如果使用 Google 作为搜索引擎时需要)
GOOGLE_SEARCH_API_KEY=your-google-search-api-key
GOOGLE_SEARCH_CX=your-google-search-cx

# EXA API 密钥(可选——如果使用 EXA 作为搜索引擎时需要)
EXA_API_KEY=your-exa-api-key

注意:您只需提供计划使用的平台的 API 密钥。如果某个平台在配置中已启用,但缺少其 API 密钥,则该平台下的所有模型将在界面上显示为禁用状态。

运行应用程序

您可以通过在本地直接运行或使用 Docker 来启动应用程序。

选项 1:传统部署

  1. 启动开发服务器:
npm run dev
# 或者
yarn dev
# 或者
pnpm dev
# 或者
bun dev
  1. 打开浏览器并访问 http://localhost:3000

选项 2:Docker 部署

如果您更倾向于使用 Docker,可以在设置好环境变量后,构建并运行容器:

  1. 构建 Docker 镜像:
docker build -t open-deep-research:v1 .
  1. 运行容器:
docker run -p 3000:3000 open-deep-research

应用程序将可在 http://localhost:3000 访问。

获取 API 密钥

Azure Bing 搜索 API

  1. 前往 Azure 门户
  2. 创建一个 Bing 搜索资源
  3. 从“密钥和终结点”中获取订阅密钥

Google 自定义搜索 API

使用 Google 自定义搜索需要两个组件:

  1. 获取 API 密钥

    • 访问 获取密钥 页面
    • 按照提示获取您的 API 密钥
    • 将其复制到 GOOGLE_SEARCH_API_KEY 环境变量中
  2. 获取搜索引擎 ID (CX)

    • 访问 可编程搜索引擎控制面板
    • 创建一个新的搜索引擎
    • 创建完成后,在“概览”页面的“基本”部分找到您的搜索引擎 ID
    • 将该 ID(即 cx 参数)复制到 GOOGLE_SEARCH_CX 环境变量中

EXA API 密钥

  1. 访问 EXA 平台
  2. 注册或登录您的账户
  3. 进入 API 密钥部分
  4. 创建一个新的 API 密钥

Google Gemini API 密钥

  1. 访问 Google AI Studio
  2. 创建一个 API 密钥
  3. 复制该 API 密钥

OpenAI API 密钥

  1. 访问 OpenAI 平台
  2. 注册或登录您的账户
  3. 进入 API 密钥部分
  4. 创建一个新的 API 密钥

Anthropic API 密钥

  1. 访问 Anthropic 控制台
  2. 注册或登录您的账户
  3. 进入 API 密钥部分
  4. 创建一个新的 API 密钥

DeepSeek API 密钥

  1. 访问 DeepSeek 平台
  2. 注册或登录您的账户
  3. 还原 API 密钥部分
  4. 创建一个新的 API 密钥

OpenRouter API 密钥

  1. 访问 OpenRouter 平台
  2. 注册或登录您的账户
  3. 还原 API 密钥部分
  4. 创建一个新的 API 密钥

Upstash Redis

  1. Upstash 注册
  2. 创建一个新的 Redis 数据库
  3. 复制 REST URL 和 REST Token

技术栈

该应用将使用配置的提供商(默认:Google)进行所有搜索。您可以通过更新配置文件中的 provider 值来切换提供商。

演示

请在以下地址试用:Open Deep Research

贡献

欢迎提交拉取请求。对于重大更改,请先打开一个问题,讨论您想要进行的修改。

许可证

MIT

致谢

  • 受 Google Gemini Deep Research 功能启发
  • 使用出色的开源工具和 API 构建

关注我

如果您对关注我正在进行的各种项目感兴趣,可以在 Twitter 上找到我:

Twitter 关注

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|2天前
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|今天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像