probe

GitHub
543 56 非常简单 1 次阅读 昨天Apache-2.0图像开发框架Agent插件
AI 解读 由 AI 自动生成,仅供参考

Probe 是一款专为大型代码库设计的语义代码搜索引擎,旨在成为 AI 编程助手的强大后盾。它巧妙结合了 ripgrep 的极速搜索能力与 tree-sitter 的抽象语法树(AST)解析技术,让机器能像开发者一样“理解”代码结构,而非仅仅匹配文本行。

当前许多 AI 工具在处理复杂项目时,往往依赖简单的文本抓取或耗时的向量索引,导致返回的代码片段支离破碎或缺乏上下文。Probe 解决了这一痛点,它无需预先建立索引或调用外部嵌入模型,即可零配置启动。通过 AST 感知技术,Probe 能精准定位并返回完整的函数、类等语义块,确保 AI 获得的上下文连贯且有意义。其独特的布尔查询语言配合大模型的意图翻译能力,能以极低的延迟提供高准确度结果,大幅减少 AI 代理的无效循环。

这款工具特别适合需要在企业级代码库中进行深度阅读、代码审查、规范驱动开发或快速上手的开发者及研究团队。无论是集成到 Claude Code 等智能助手,还是通过命令行直接使用,Probe 都能帮助用户在海量代码中迅速锁定关键逻辑,将原本需要多次试探的搜索过程简化为一次精准的调用,显著提升研发效率。

使用场景

某后端团队需要在拥有数百万行代码的遗留系统中,快速定位并重构分散在各处的“用户会话验证”逻辑,以修复一个严重的安全漏洞。

没有 probe 时

  • 上下文支离破碎:传统 grep 只能返回匹配的行片段,开发者无法直接看到完整的函数或类结构,必须手动翻阅周围代码来拼凑逻辑。
  • 语义匹配失效:若代码中使用的是 verify_credentials 而非搜索词 authentication,基于文本的工具会直接漏掉关键文件,导致排查陷入僵局。
  • AI 助手效率低下:通用 AI 编程助手往往需要经历十几次“猜测 - 搜索 - 读取”的循环才能理清脉络,不仅耗时久,还容易产生大量无关噪音。
  • 环境配置繁琐:引入基于向量嵌入(Embedding)的搜索方案通常需要漫长的索引构建时间和外部 API 依赖,无法在紧急故障中立即投入使用。

使用 probe 后

  • 结构化完整返回:probe 利用 AST 解析技术,直接返回完整的函数和类定义块,开发者一眼即可掌握核心逻辑,无需手动拼接上下文。
  • 智能语义转换:借助内置 Agent,probe 能自动将“会话验证”意图转化为包含 verify_credentialsauth_handler 等变体的精准布尔查询,确保零遗漏。
  • 单次调用即洞察:原本需要 AI 进行十多次迭代才能完成的任务,probe 仅需一次调用即可提供深度、干净且无噪音的全局视图,大幅缩短决策时间。
  • 零配置即时启动:无需预建索引或连接外部服务,probe 开箱即用,支持离线运行,让团队在安全漏洞爆发的黄金时间内立即展开行动。

probe 通过将代码视为可理解的结构而非纯文本,让开发者在复杂的大型代码库中实现了从“盲目搜索”到“精准洞察”的质的飞跃。

运行环境要求

操作系统
  • 未说明
GPU

不需要 GPU,完全本地运行且无需嵌入模型或向量数据库

内存

未说明

依赖
notes该工具基于 Node.js 运行(通过 npx 安装),而非 Python。它不需要外部嵌入模型、向量数据库或 GPU 加速,支持完全离线运行。核心依赖包括用于 AST 解析的 Tree-sitter 和用于快速扫描的 ripgrep。
python未说明 (基于 Node.js)
Node.js
npx
Tree-sitter
ripgrep
rayon
probe hero image

快速开始

Probe Logo

Probe

我们阅读代码的频率是编写代码的10倍。 Probe是一款代码与Markdown上下文引擎,内置代理,专为企业级代码库设计。

如今的AI编码工具大多采用“原始人式”的方法:用grep搜索一些文件,随机读取几行,然后寄希望于运气。这种方法在小型项目中或许奏效,但在真正的大型代码库面前却显得力不从心。

Probe则是一款专为阅读和推理而打造的上下文引擎。 它将你的代码视为代码,而非文本。通过AST解析理解代码结构;语义搜索精准定位关键内容。只需一次调用,你就能获得完整且有意义的上下文信息。

Probe代理专为代码理解而设计。它精通如何使用Probe引擎,在整个代码库中进行搜索、提取和推理。无论是基于规范的开发、代码审查、新员工入职,还是任何需要先理解后编写的任务,Probe代理都能完美胜任。

相比之下,其他工具往往需要10次以上的代理循环才能完成同样的工作,而Probe只需一次调用——更深入、更干净,且噪音更少。


目录


为什么选择Probe?

大多数代码搜索工具无外乎两类:基于文本的(如grep、ripgrep)或基于嵌入的(如需要索引和嵌入模型的向量搜索)。而Probe则走出了第三条路:无需任何配置的AST感知型结构化搜索

grep/ripgrep 嵌入式工具(grepai、Octocode) Probe
设置时间 几分钟(索引+嵌入服务)
代码理解能力 仅文本 文本片段(可能截断函数中间部分) AST感知(返回完整的函数/类)
搜索方式 正则表达式 向量相似度 Elasticsearch风格的布尔查询 + BM25
结果质量 行片段 ~512字符的文本块 完整的语义代码块
排序机制 无(按行顺序) 余弦相似度 BM25/TF-IDF/混合算法,配备SIMD加速
外部依赖 嵌入API(Ollama/OpenAI)
Token意识 部分支持 支持(--max-tokens,会话去重)
离线可用性 仅限本地模型 始终可用
AI代理集成 MCP服务器 完整的代理流程 + MCP + Vercel AI SDK

关键洞察:AI代理并不需要嵌入式搜索

基于嵌入的工具主要解决词汇不匹配的问题——比如用户输入“authentication”,而代码中却是verify_credentials。然而,当AI代理作为消费者时,LLM本身已经能够处理这一问题

用户:“找到认证逻辑”
  -> LLM生成:probe搜索 "verify_credentials OR authenticate OR login OR auth_handler"
  -> Probe在毫秒级内返回完整的AST节点

LLM会将用户的意图转化为精确的布尔查询。Probe则提供了一套为此量身定制的强大查询语言(ANDOR+required-excluded"exact phrases"ext:rs、`lang:python等),结合会话去重功能,代理可以在短时间内执行3-4次快速搜索,覆盖的范围远超单次嵌入式查询——而且速度更快、结果确定,无需任何前期配置。


快速入门

方法一:通过MCP使用Probe代理(推荐)

我们的内置代理可与Claude Code原生集成,利用其身份验证机制,无需额外的API密钥。

~/.claude/claude_desktop_config.json中添加以下内容:

{
  "mcpServers": {
    "probe": {
      "command": "npx",
      "args": ["-y", "@probelabs/probe@latest", "agent", "--mcp"]
    }
  }
}

Probe代理专为阅读和推理代码而设计。它可以借助Claude Code的身份验证(或Codex的身份验证),也可以通过你自己的API密钥与任何模型配合使用(例如GOOGLE_API_KEY)。

方法二:通过MCP使用原生Probe工具

如果你更倾向于直接访问搜索/查询/提取工具,而不经过代理层:

{
  "mcpServers": {
    "probe": {
      "command": "npx",
      "args": ["-y", "@probelabs/probe@latest", "mcp"]
    }
  }
}

方法三:直接使用CLI(无需MCP)

你可以直接在终端中使用Probe,无需任何AI编辑器:

# 使用Elasticsearch语法进行语义搜索
npx -y @probelabs/probe search "authentication AND login" ./src

# 提取第42行的代码块
npx -y @probelabs/probe extract src/main.rs:42

# AST模式匹配
npx -y @probelabs/probe query "fn $NAME($$$) -> Result<$RET>" --language rust

方法四:CLI代理

你可以在终端中直接提问关于任何代码库的问题:

# 一次性问答(适用于任何LLM提供商)
npx -y @probelabs/probe@latest agent "认证功能是如何实现的?"

# 具备代码编辑能力
npx -y @probelabs/probe@latest agent "重构登录函数" --allow-edit

功能特性

  • 代码感知:Tree-sitter AST解析准确理解代码的实际结构
  • 语义搜索:Elasticsearch风格的查询(ANDORNOT、短语、过滤条件)
  • 完整上下文:返回完整的函数、类或结构体——而不是可能中断函数的文本片段
  • 无需索引:对任何代码库即时响应。无需嵌入模型、向量数据库或任何配置
  • 确定性:相同的查询始终返回相同的结果。没有模型差异,也没有过时的索引
  • 完全本地化:你的代码永远不会离开你的设备。搜索过程中无需任何API调用
  • 极速运行:SIMD加速的模式匹配 + ripgrep扫描 + rayon并行计算
  • 智能排序:BM25、TF-IDF以及混合算法,并可选BERT重新排名
  • Token意识:支持--max-tokens预算和基于会话的去重,避免重复上下文
  • 内置代理:支持多提供商(Anthropic、OpenAI、Google、Bedrock),具备重试、回退和上下文压缩功能
  • 多语言支持:Rust、Python、JavaScript、TypeScript、Go、C/C++、Java、Ruby、PHP、Swift、C#等

使用模式

Probe 代理(MCP)

使用 Probe 结合 AI 编辑器的推荐方式。Probe 代理是一种专门的代码助手,它能够对你的代码进行推理——而不仅仅是模式匹配。

{
  "mcpServers": {
    "probe": {
      "command": "npx",
      "args": ["-y", "@probelabs/probe@latest", "agent", "--mcp"]
    }
  }
}

为什么使用代理?

  • 专为理解和推理代码而设计
  • 借助 Claude Code / Codex 的身份验证(或使用你自己的 API 密钥)
  • 针对复杂问题提供更智能的多步推理
  • 内置代码编辑、任务委派等功能

代理选项:

选项 描述
--path <dir> 搜索目录(默认:当前目录)
--provider <name> AI 提供者:anthropicopenaigoogle
--model <name> 覆盖模型名称
--prompt <type> 角色设定:code-explorerengineercode-reviewarchitect
--allow-edit 启用代码修改
--enable-delegate 启用向子代理的任务委派
--enable-bash 启用 Bash 命令执行
--max-iterations <n> 最大工具迭代次数(默认:30)

原生 MCP 工具

直接访问 Probe 的搜索、查询和提取工具——无需代理层。当你希望你的 AI 编辑器直接调用 Probe 工具时,可以使用此方式。

{
  "mcpServers": {
    "probe": {
      "command": "npx",
      "args": ["-y", "@probelabs/probe@latest", "mcp"]
    }
  }
}

可用工具:

  • search - 使用 Elasticsearch 风格查询的语义代码搜索
  • query - 基于 AST 的结构化模式匹配
  • extract - 按行号或符号名称提取代码块
  • symbols - 列出文件中的所有符号(函数、类、常量),并附带行号

CLI 代理

直接在终端运行 Probe 代理:

# 一次性提问
npx -y @probelabs/probe@latest agent "排名算法是如何工作的?"

# 指定搜索路径
npx -y @probelabs/probe@latest agent "查找 API 端点" --path ./src

# 启用代码编辑
npx -y @probelabs/probe@latest agent "为 login() 添加错误处理" --allow-edit

# 使用自定义角色
npx -y @probelabs/probe@latest agent "审查这段代码" --prompt code-review

直接 CLI 命令

用于脚本编写和直接代码分析。

搜索命令

probe search <PATTERN> [PATH] [OPTIONS]

示例:

# 基本搜索
probe search "authentication" ./src

# 布尔运算符(Elasticsearch 语法)
probe search "error AND handling" ./
probe search "login OR auth" ./src
probe search "database NOT sqlite" ./

# 搜索提示(文件过滤)
probe search "function AND ext:rs" ./           # 仅 .rs 文件
probe search "class AND file:src/**/*.py" ./    # src/ 目录下的 Python 文件
probe search "error AND dir:tests" ./           # tests/ 目录下的文件

# 限制结果以适应 AI 上下文窗口
probe search "API" ./ --max-tokens 10000

关键选项:

选项 描述
--max-tokens <n> 限制返回的总 token 数
--max-results <n> 限制结果数量
--reranker <algo> 排序算法:bm25tfidfhybridhybrid2
--allow-tests 包含测试文件
--format <fmt> 输出格式:markdownjsonxml

抽取命令

probe extract <FILES> [OPTIONS]

示例:

# 提取第 42 行的函数
probe extract src/main.rs:42

# 按符号名称提取
probe extract src/main.rs#authenticate

# 提取行范围
probe extract src/main.rs:10-50

# 从编译器输出中提取
go test | probe extract

符号命令

probe symbols <FILES> [OPTIONS]

示例:

# 列出文件中的符号
probe symbols src/main.rs

# JSON 格式输出,便于程序化使用
probe symbols src/main.rs --format json

# 多个文件
probe symbols src/main.rs src/lib.rs

查询命令(AST 模式)

probe query <PATTERN> [PATH] [OPTIONS]

示例:

# 查找 Rust 中的所有异步函数
probe query "async fn $NAME($$$)" --language rust

# 查找 React 组件
probe query "function $NAME($$$) { return <$$$> }" --language javascript

# 查找具有特定方法的 Python 类
probe query "class $CLASS: def __init__($$$)" --language python

Node.js SDK

在你的应用程序中以编程方式使用 Probe。

import { ProbeAgent } from '@probelabs/probe/agent';

// 创建代理
const agent = new ProbeAgent({
  path: './src',
  provider: 'anthropic'
});

await agent.initialize();

// 提问
const response = await agent.answer('认证是如何工作的?');
console.log(response);

// 获取 token 使用情况
console.log(agent.getTokenUsage());

直接函数:

import { search, extract, query, symbols } from '@probelabs/probe';

// 语义搜索
const results = await search({
  query: 'authentication',
  path: './src',
  maxTokens: 10000
});

// 提取代码
const code = await extract({
  files: ['src/auth.ts:42'],
  format: 'markdown'
});

// 列出文件中的符号
const fileSymbols = await symbols({
  files: ['src/auth.ts']
});

// AST 模式查询
const matches = await query({
  pattern: 'async function $NAME($$$)',
  path: './src',
  language: 'typescript'
});

Vercel AI SDK 集成:

import { tools } from '@probelabs/probe';

const { searchTool, queryTool, extractTool } = tools;

// 与 Vercel AI SDK 结合使用
const result = await generateText({
  model: anthropic('claude-sonnet-4-6'),
  tools: {
    search: searchTool({ defaultPath: './src' }),
    query: queryTool({ defaultPath: './src' }),
    extract: extractTool({ defaultPath: './src' })
  },
  prompt: '查找认证代码'
});

LLM 脚本

Probe 代理可以使用 execute_plan 工具来运行确定性的多步代码分析任务。LLM 脚本是一个沙盒化的 JavaScript DSL,AI 可以在此生成可执行的计划,将搜索、提取和 LLM 推理结合在一个管道中。

// AI 生成的 LLM 脚本示例(await 会自动注入,无需手动编写)
const files = search("authentication login")
const chunks = chunk(files)
const analysis = map(chunks, c => LLM("总结认证模式", c))
return analysis.join("\n")

主要特性:

  • 代理集成 - Probe 代理调用 execute_plan 工具来运行脚本
  • 自动 await - 异步调用会自动等待(无需编写 await
  • 所有工具可用 - search()query()extract()LLM()map()chunk(),以及任何 MCP 工具
  • 沙盒执行 - 安全、隔离的 JavaScript 环境,并带有超时保护

有关语法和示例,请参阅完整的 LLM 脚本文档


安装

NPM(推荐)

npm install -g @probelabs/probe

curl(macOS/Linux)

curl -fsSL https://raw.githubusercontent.com/probelabs/probe/main/install.sh | bash

PowerShell(Windows)

iwr -useb https://raw.githubusercontent.com/probelabs/probe/main/install.ps1 | iex

从源码安装

git clone https://github.com/probelabs/probe.git
cd probe
cargo build --release
cargo install --path .

支持的语言

语言 文件扩展名
Rust .rs
JavaScript/JSX .js, .jsx
TypeScript/TSX .ts, .tsx
Python .py
Go .go
C/C++ .c, .h, .cpp, .cc, .hpp
Java .java
Ruby .rb
PHP .php
Swift .swift
C# .cs
Markdown .md

文档

完整文档可在 probelabs.com/probe 查看,或在本地 docs/ 目录中浏览。

入门指南

Probe CLI

LSP 与索引

LSP 功能包括调用层次结构增强(extract --lsp)、直接符号操作(probe lsp call definition|references|hover|...)、守护进程诊断(probe lsp logs --analyze)以及工作区索引(probe lsp indexprobe lsp index-status)。

Probe Agent

指南与参考


环境变量

# AI 供应商密钥
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
GOOGLE_API_KEY=...

# 供应商选择
FORCE_PROVIDER=anthropic
MODEL_NAME=claude-sonnet-4-6

# 自定义端点
ANTHROPIC_API_URL=https://your-proxy.com
OPENAI_API_URL=https://your-proxy.com

# 调试
DEBUG=1

贡献

我们欢迎各位贡献!请参阅我们的贡献指南

如有任何问题或需要支持:


许可证


如有任何问题或想参与贡献,请在 GitHub 上提交 issue,或加入我们的 Discord 社区 进行讨论与支持。祝编码愉快——也祝搜索顺利!

版本历史

v0.6.0-rc3152026/04/06
v0.6.0-rc3142026/04/06
v0.6.0-rc3132026/04/03
v0.6.0-rc3122026/03/27
v0.6.0-rc3112026/03/21
v0.6.0-rc3102026/03/21
v0.6.0-rc3092026/03/21
v0.6.0-rc3082026/03/20
v0.6.0-rc3072026/03/20
v0.6.0-rc3062026/03/20
v0.6.0-rc3052026/03/20
v0.6.0-rc3042026/03/20
v0.6.0-rc3032026/03/19
v0.6.0-rc3022026/03/19
v0.6.0-rc3012026/03/19
v0.6.0-rc3002026/03/18
v0.6.0-rc2992026/03/18
v0.6.0-rc2982026/03/18
v0.6.0-rc2972026/03/17
v0.6.0-rc2962026/03/13

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

159.6k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|昨天
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|1周前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像