CLI
Bito CLI 是一款将 Bito AI 聊天功能引入命令行的开源工具,让用户无需离开终端即可直接与人工智能互动。它主要解决了开发者在编写脚本、调试代码或查询技术命令时,频繁切换窗口至网页或图形界面导致工作流中断的痛点。通过简单的命令行指令,用户能快速获取如 awk 命令用法、代码片段生成等技术支持,显著提升开发效率。
这款工具特别适合习惯使用终端的开发者、运维工程师及技术研究人员。其独特亮点在于支持多行长文本输入(通过 Ctrl+D 提交),能够处理复杂的提示词和自动化工作流需求。目前 Bito CLI 处于早期 Alpha 版本,正积极迭代以支持更丰富的功能选项。它提供跨平台支持,涵盖 Mac、Linux 及 Windows 系统,并提供了包括一键脚本、Homebrew、AUR 源及 MSI 安装包在内的多种便捷安装方式。对于希望将 AI 辅助深度集成到现有命令行工作流中的技术用户而言,Bito CLI 是一个值得尝试的高效助手。
使用场景
一位后端工程师在排查生产服务器日志时,需要快速生成复杂的 awk 和 grep 组合命令来提取特定错误模式,但手头没有图形界面且无法离开终端环境。
没有 CLI 时
- 上下文频繁切换:必须最小化终端窗口,打开浏览器搜索语法或切换到本地 IDE 询问 AI 助手,打断心流。
- 复制粘贴易出错:将网页生成的命令复制回服务器时,常因格式问题(如引号不匹配)导致执行失败,需反复调整。
- 多轮调试效率低:当初始命令结果不理想时,需重新描述需求并等待网页响应,无法在当前会话中直接修正逻辑。
- 环境依赖受限:在无外网访问权限的受限服务器环境中,完全无法获取外部 AI 助力的支持。
使用 CLI 后
- 终端内闭环操作:直接在命令行输入
bito即可发起对话,无需离开当前工作界面,保持专注度。 - 原生命令无缝衔接:Bito CLI 返回的命令可直接在当前 Shell 运行,支持多行输入(Ctrl+D 提交),避免格式错乱。
- 即时迭代优化:针对输出结果不满意的情况,可立即在同一会话中追问“只统计出现次数大于 5 的行”,实现敏捷调试。
- 随时随地可用:只要安装了 Bito CLI,即便在无浏览器的纯命令行服务器上也能源源不断地获得 AI 代码建议。
Bito CLI 将 AI 编程助手深度集成至终端工作流,让开发者在不切换上下文的前提下,显著提升命令行操作的智能化与流畅度。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
Bito CLI
Bito CLI(命令行界面)为 Bito AI 聊天功能提供了一个命令行接口。随着时间的推移,CLI 将会增加更多功能和新的命令选项,以支持复杂的自动化和工作流。
目前这是一个非常早期的 Alpha 版本。我们非常希望收到您对新功能或改进建议的反馈。请发送邮件至 founders@bito.ai 或 support@bito.ai。
先决条件
终端
- Bash(适用于 Mac 和 Linux)
- CMD(适用于 Windows)
使用 Bito CLI
执行聊天: 在命令提示符中运行
bito命令即可开始。您可以询问任何需要帮助的问题,例如awk 命令如何打印第一列和最后一列。注意: Bito CLI 支持多行输入的长提示。要完成并提交提示,请按
Ctrl+D。Enter/Return 键会在输入中添加新行。退出 Bito CLI: 要退出 Bito CLI,输入
quit并按下Ctrl+D。终止: 按下
Ctrl+C可以终止 Bito CLI。
开始使用
观看下面的视频,了解如何开始使用 Bito CLI:
安装 Bito CLI(推荐)
我们建议您使用以下方法安装 Bito CLI。
MAC 和 Linux
sudo curl https://alpha.bito.ai/downloads/cli/install.sh -fsSL | bash (curl 会始终下载最新版本)
Archlinux
Arch 及其基于 Arch 的发行版用户可以从 AUR 安装。
yay -S bito-cli 或 paru -S bito-cli
使用 Homebrew:
- 在使用 Homebrew 之前,请确保您已使用此处提供的卸载脚本卸载所有先前安装的 Bito CLI 版本:卸载 Bito CLI。
- 完成上述操作后,您可以使用以下命令通过 Homebrew 安装 Bito CLI:
- 首先使用
brew tap gitbito/bitocli添加 CLI 仓库,这只需执行一次,无需每次都进行。 - 然后可以使用以下命令安装 Bito CLI:
brew install bito-cli— 这将根据您的机器架构安装 Bito CLI。
- 若要将 Bito CLI 更新到最新版本,请使用以下命令:
- 请务必在升级前始终运行
brew update,以避免出现错误。 brew update— 这将更新所有必要的软件包后再进行升级。brew upgrade bito-cli— 执行完上述步骤后,此命令会将 Bito CLI 更新到最新版本。
- 请务必在升级前始终运行
- 若要卸载 Bito CLI,您可以使用上述链接中的卸载命令,或者使用以下命令:
brew uninstall bito-cli— 这将从您的系统中完全卸载 Bito CLI。
- 首先使用
Mac 用户请注意: 您可能会遇到与验证相关的问题,为此您需要手动按照此处的步骤操作:Apple 支持页面(我们正在尽快解决此问题)。
Windows
- 通过 MSI 安装程序安装 Bito CLI,安装程序链接如下:installer。
- 在 Windows 11 上,您可能会收到有关发布者验证的通知。请点击“显示更多”或“更多信息”,然后点击“仍要运行”(我们正在尽快解决这个问题)。
- 安装完成后,打开一个新的命令提示符并运行
bito即可开始使用。
卸载 Bito CLI
MAC 和 Linux
sudo curl https://alpha.bito.ai/downloads/cli/uninstall.sh -fsSL | bash (这将彻底卸载 Bito CLI 及其所有组件)
Windows
对于 Windows 用户,您可以像卸载其他软件一样,通过控制面板卸载 Bito CLI。您仍然可以参考此处提供的链接:卸载 Bito CLI。
手动下载二进制文件安装(不推荐)
虽然不推荐,但您也可以从我们的仓库下载 Bito CLI 的二进制文件,并手动安装。该二进制文件适用于 Linux 和 Mac OS,支持 x86 和 ARM 架构。
Mac & Linux
- 从 这里 下载适合您操作系统平台的 Bito CLI 二进制文件(请下载最新版本以获取所有更新)。
- 打开终端,进入您下载二进制文件的目录,将下载的文件(在下面的命令中使用您下载的 bito-* 文件名)重命名为 bito:
mv bito-<os>-<arch> bito - 使用以下命令使文件可执行:
chmod +x ./bito - 使用以下命令将二进制文件复制到 /usr/local/bin:
sudo cp ./bito /usr/local/bin - 设置 PATH 环境变量,以便始终可以访问 Bito CLI:
PATH=$PATH:/usr/local/bin - 使用
bito命令运行 Bito CLI。如果未设置 PATH 环境变量,您需要使用完整路径或相对路径来运行 Bito 可执行文件。
Windows
- 使用 Bito CLI 时,务必先切换到包含 Bito CLI 的目录再运行它。
- 设置 PATH 环境变量,以便始终可以访问 Bito CLI:
- 请按照此链接中的说明操作:设置 PATH 变量
- 编辑“Path”变量,添加 Bito CLI 在您计算机上安装位置的新路径。
Bito CLI 命令
help
在 MAC/Linux 上: 运行
bito --help或bito config --help在 Windows 上: 运行
bito --help或bito config --help
斜杠命令
Bito CLI 引入了斜杠命令,旨在通过 CLI 提供“理解您代码的 AI”等功能。借助此功能,您可以访问由 IDE 中的 Bito 扩展创建的代码索引。斜杠命令可用于快速执行诸如查看所有本地代码索引、选择特定本地代码索引以及对该索引进行 LCA 查询等操作。
- 在 Bito CLI 交互模式的 bito> 提示符中输入 "/" 并按 ENTER 或 TAB 键,即可查看所有可用命令。
- 在 Bito CLI 交互模式的 bito> 提示符中输入 "/[command_name]" 并按 ENTER 或 TAB 键,即可查看该命令的所有可用选项。
- 在 Bito CLI 交互模式的 bito> 提示符中输入 "/[command_name] [option_name]" 并按 ENTER 或 TAB 键,即可执行相应的选项。
- 运行
bito --help以获取与斜杠命令相关的帮助。
Bito CLI MyPrompt(使用 Bito CLI 自动化)
在 MAC/Linux 上:
运行
bito -v或bito --version以打印当前安装的 Bito CLI 版本号。运行
bito –p writedocprompt.txt -f mycode.js以在 Bito 中启用非交互模式(其中 writedocprompt.txt 将包含您的提示文本,例如“简要解释以下代码”,而 mycode.js 则包含需要执行操作的实际代码)。运行
bito –p writedocprompt.txt以从标准输入读取内容并传递给 Bito(其中 writedocprompt.txt 将包含您的提示文本,例如“简要解释以下代码”,而输入内容则为需要执行操作的实际代码)。运行
cat file.txt | bito直接将文件内容输出并通过管道传递给 Bito,从而立即获得查询结果。运行
cat inventory.sql | bito -p testdataprompt.txt > testdata.sql将输出直接重定向到文件(其中 -p 可与 cat 结合使用,对给定内容执行提示相关操作)。运行
cat inventory.sql | bito -c runcontext.txt -p testdataprompt.txt > testdata.sql将上下文/对话历史存储在非交互模式下的文件runcontext.txt中,以便在需要先前上下文时用于后续命令。如果runcontext.txt不存在,则会自动创建。请提供新文件或使用 -c 选项由 Bito 创建的现有上下文文件。现在通过 -c 选项,非交互模式下也支持上下文运行
echo "给我一段 Python 的冒泡排序代码" | bito即可使用 Bito CLI 立即获得查询响应。
在 Windows 上:
运行
bito -v或bito --version以打印当前安装的 Bito CLI 版本号。运行
bito –p writedocprompt.txt -f mycode.js以在 Bito 中启用非交互模式(其中 writedocprompt.txt 将包含您的提示文本,例如“简要解释以下代码”,而 mycode.js 则包含需要执行操作的实际代码)。运行
bito –p writedocprompt.txt以从标准输入读取内容并传递给 Bito(其中 writedocprompt.txt 将包含您的提示文本,例如“简要解释以下代码”,而输入内容则为需要执行操作的实际代码)。运行
type file.txt | bito从 Windows 文件中获取输入,并将其通过管道传递给 Bito,从而立即获得查询结果。运行
type inventory.sql | bito -p testdataprompt.txt > testdata.sql将输出直接重定向到文件(其中 -p 可与 type 结合使用,对给定内容执行提示相关操作)。运行
type inventory.sql | bito -c runcontext.txt -p testdataprompt.txt > testdata.sql将上下文/对话历史存储在非交互模式下的文件runcontext.txt中,以便在需要先前上下文时用于后续命令。如果runcontext.txt不存在,则会自动创建。请提供新文件或使用 -c 选项由 Bito 创建的现有上下文文件。现在通过 -c 选项,非交互模式下也支持上下文运行
echo "给我一段 Python 的冒泡排序代码" | bito即可使用 Bito CLI 立即获得查询响应。
关于 Bito CLI MyPrompt 的更多说明:
使用注释:
在您的提示文件中,任何位于 # 之后的内容都将被 Bito CLI 视为注释,不会成为提示的一部分。
您可以使用 \# 作为转义序列,使 # 成为您提示的一部分,而不用于注释。
以上几点的几个示例:
- 给我一个 Python 中的冒泡排序示例 # 此处写的一切都将被视为注释。
- 解释这段代码的作用:
\#include<stdio.h>
i. 在上面的例子中,\#可以用作转义序列,将#包含在您的提示中。 - #这将被视为注释,因为它本身就以 # 开头。
禁用注释:
若希望将 # 视为普通字符而非用于标记注释开头的特殊字符(这是默认行为),可以在 Bito CLI 命令中使用 -i/--ignore 标志。
使用 -i/--ignore 标志后,Bito CLI 将不再将 # 视为特殊符号,而是将其作为提示的一部分进行处理。
例如:“bito -p prompt.txt -i” 将确保即使您的提示文件中存在 # 符号,它也不会被视为注释,您的文件将按原样被处理。
使用宏:
在提示文件中使用 {{%input%}} 宏来引用通过 -f 选项提供的文件内容。
示例:要检查某个文件是否包含 JS 代码,您可以创建一个名为 checkifjscode.txt 的提示文件,内容如下:
上下文如下,位于 contextstart 和 contextend 之间
contextstart
{{%input%}}
contextend
请检查上下文中提供的内容是否为 JS 代码。
示例:
以下是两个示例,展示 My Prompt 的实际应用:
- 如何使用 Bito CLI My Prompt 轻松创建 Git 提交信息和 Markdown 文档:
- 如何使用 Bito CLI My Prompt 生成测试数据:
Bito CLI 配置
bito config [flags]
运行
bito config -l或bito config --list以列出所有配置变量及其值。运行
bito config -e或bito config --edit以在默认编辑器中打开配置文件。
示例配置
bito:
access_key: ""
email: first.last@mycompany.com
preferred_ai_model: ADVANCED
settings:
auto_update: true
max_context_entries: 20
首选 AI 模型类型
默认情况下,AI 模型类型设置为 ADVANCED,可以通过运行 bito -m <BASIC/ADVANCED> 来覆盖此设置。
模型类型用于当前会话中的 AI 查询。模型类型可以设置为 BASIC 或 ADVANCED,不区分大小写。
“ADVANCED”指的是像 GPT-4o、Claude Sonnet 3.5 等顶级 AI 模型;而“BASIC”则指 GPT-4o mini 等类似模型。
使用 BASIC AI 模型时,您的提示和聊天记忆将被限制在 40,000 个字符(约 18 页单倍行距文本)。然而,使用 ADVANCED AI 模型时,提示和聊天记忆可扩展至 240,000 个字符(约 110 页单倍行距文本)。这意味着 ADVANCED 模型能够处理您的整个代码文件,从而提供更准确的答案。
如果您希望在复杂任务中获得最佳结果,请选择 ADVANCED AI 模型。
Bito CLI 还会在标准错误输出中打印已配置的模型以及当前会话正在使用的模型,供您参考。如果您运行 bito,您应该会看到“Model configured”显示为 “BASIC/ADVANCED”。这正是您 CLI 配置中所设置的模型(可通过 bito config -e 访问)。
当您开始进行查询时,根据您的 Bito 账单计划:如果您处于免费计划,则模型将自动切换为 BASIC,并且您会看到“Model in use:”显示为 BASIC。
如果您是付费计划用户且尚未用尽高级查询额度,则会看到“Model in use:”显示为 ADVANCED。
访问密钥
访问密钥可以在 Bito Web UI 上创建,并在 Bito CLI 中使用。
创建访问密钥的步骤如下:
- 登录您的账户:https://alpha.bito.ai
- 登录后,打开:https://alpha.bito.ai/home/settings/advanced
- 在“Bito Access Key”部分点击“Create new key”按钮以创建新密钥并复制它。
- 请务必妥善保管您的密钥,切勿将其提交到任何代码库中,以免意外泄露。
- 如果您怀疑密钥已被泄露,可以随时删除现有密钥并重新创建新的密钥。
访问密钥是电子邮件和 OTP 验证之外的另一种身份验证机制。
访问密钥可以通过运行 bito config -e 持久化到 Bito CLI 中。
这种持久化的访问密钥可以通过运行 bito -k <access-key> 或 bito --key <access-key> 在临时会话中被覆盖。
输出语言
默认情况下,Bito CLI 以英语生成输出。您可以从这里将输出语言更改为首选语言。
目前,当 CLI 处于运行状态时,语言更改需要 30 分钟才能生效。若要立即生效,您可以使用 Ctrl+C 退出当前 CLI 会话,然后再次运行 bito。
常见问题解答
在 Windows 10 及以下版本中启用 Unicode:
- 如果您使用的是 Windows 10 或更低版本,命令提示符可能无法直接支持 Unicode 字符(使用其他语言)。您可以在使用 bito 之前,在 cmd 中运行命令
chcp 936,以在 Windows 10 及以下版本中支持 Unicode 字符。(如需撤销此处所做的设置,您可以参考此链接)。 - 如果您使用的是 Windows 11,则不应遇到此类问题。
许可证
版权所有 © 2021,Bito Inc - 版权所有
版本历史
v5.3.02025/04/23v5.2.02025/03/18v5.1.02025/02/28v5.0.02025/01/23v4.9.02024/10/22v4.8.02024/10/14v4.7.02024/07/23v4.6.02024/07/22v4.5.02024/06/27v4.4.02024/06/05v4.3.02024/04/17v4.2.02024/04/04v4.1.02024/03/21v4.0.02024/03/20packages2024/01/30v3.9.02024/01/10v3.8.02023/12/19v3.7.02023/12/04v3.6.02023/11/10v3.5.02023/10/06相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

