chatGPT-shell-cli
chatGPT-shell-cli 是一款轻量级的命令行工具,让你无需安装 Python 或 Node.js 环境,直接在终端中调用 OpenAI 的 ChatGPT 和 DALL-E 能力。它通过简单的 Shell 脚本封装了官方 API,解决了传统 AI 工具依赖复杂运行环境、启动繁琐的痛点,让开发者能像使用普通系统命令一样与 AI 交互。
这款工具特别适合习惯终端操作的开发者、运维工程师及极客用户。它不仅支持多轮对话上下文记忆,还能根据文本提示生成图片、列出可用模型、自定义请求参数,甚至直接生成并执行系统命令。其独特的技术亮点在于极简的依赖设计(仅需 curl 和 jq),支持管道传输(pipe)和脚本参数调用,可轻松集成到自动化工作流中。此外,它还允许用户设定初始人设(如扮演特定角色),让对话更具趣味性。无论是快速查询技术文档、调试正则表达式,还是生成创意图像,chatGPT-shell-cli 都能让你在熟悉的终端环境中高效完成,是提升命令行工作效率的得力助手。
使用场景
一位 Linux 系统管理员正在排查生产服务器的异常日志,需要快速生成分析脚本并查询复杂的命令语法。
没有 chatGPT-shell-cli 时
- 环境依赖繁琐:为了调用 AI 接口,必须先安装 Python 或 Node.js 环境,并配置虚拟环境和依赖包,在受限的服务器环境中往往无法执行。
- 工作流频繁中断:遇到不懂的正则或命令参数时,需手动切换浏览器搜索或打开网页版 ChatGPT,复制粘贴内容严重打断排查思路。
- 上下文难以延续:在网页端多轮对话后,回到终端时容易忘记之前的代码逻辑,导致生成的脚本与当前终端环境不兼容。
- 自动化能力弱:无法直接将
grep或awk的输出通过管道传递给 AI 进行即时分析,必须先将日志保存为文件再上传处理。
使用 chatGPT-shell-cli 后
- 零依赖即刻启动:仅需
curl和jq这两个 Linux 标配工具,无需安装任何重型运行时,一条命令即可在任意终端直接对话。 - 终端内无缝闭环:直接在命令行输入
chatgpt -p "如何查找占用端口 8080 的进程",结果即时返回,全程无需离开终端界面。 - 智能上下文记忆:支持多轮对话模式,AI 能记住前一次生成的脚本逻辑,可根据管理员的反馈连续优化代码,确保方案落地。
- 强大的管道集成:可直接执行
cat error.log | chatgpt "分析错误原因",将实时日志流喂给 AI 并获得诊断建议,极大提升排错效率。
chatGPT-shell-cli 将大模型能力原生融入命令行工作流,让开发者在不切换上下文的前提下实现“所想即所得”的高效运维。
运行环境要求
- Linux
- macOS
不需要 GPU
未说明

快速开始
✨加入新的Discord服务器,一起为这个项目贡献力量吧!✨
chatGPT-shell-cli
一个简单轻量的 Shell 脚本,无需安装 Python 或 Node.js 即可在终端中使用 OpenAI 的 ChatGPT 和 DALL-E。该脚本使用 OpenAI API 端点 /chat/completions 上的官方 ChatGPT 模型 gpt-3.5-turbo。如果您有权限,也可以使用新的 gpt-4 模型。
此外,该脚本还支持使用所有其他具有 completions 端点的 OpenAI 模型,以及用于生成图片的 images/generations 端点。
功能
- 聊天:通过 ✨官方 ChatGPT API✨ 在终端中与 ChatGPT 互动
- 生成图片:根据文本提示生成图像
- 查看您的 聊天历史
- 聊天上下文:ChatGPT 会记住之前的对话内容
- 支持通过 管道、脚本参数 或普通 聊天模式 传递输入提示
- 列出所有可用的 OpenAI 模型
- 设置 OpenAI 请求参数
- 生成 命令,并在终端中执行



聊天模式:
$ chatgpt
欢迎使用 chatgpt。您可以用 'exit' 退出。
请输入提示:
带有 初始提示 的聊天模式:
$ chatgpt -i "你是《瑞克和莫蒂》中的瑞克。请用他的说话方式回答问题,并在每次回答中加入侮辱性的笑话和对剧集的引用。"
欢迎使用 chatgpt。您可以用 'exit' 退出。
请输入提示:
用简单的语言解释一下 GPT3 是如何工作的?
chatgpt 哎呀,你想让我用简单的话解释 GPT3 吗?其实它就是一个计算机程序,可以根据你已经说过的词来预测你接下来要说什么。就像在我回答完这个问题后,我就能猜到你会发表一些关于《瑞克和莫蒂》某集的愚蠢评论一样。
请输入提示:
使用 管道:
echo "如何在 Ubuntu 上查看正在运行的进程?" | chatgpt
使用 脚本参数:
chatgpt -p "匹配电子邮件地址的正则表达式是什么?"
快速开始
前提条件
此脚本依赖 curl 发送 API 请求,并使用 jq 解析 JSON 响应。
-
brew install curl -
brew install jq 一个 OpenAI API 密钥。请在 OpenAI 创建账户并获取免费的 API 密钥。
您还可以选择安装 glow,以 Markdown 格式渲染响应。
安装
要安装,请在终端中运行以下命令,并在提示时提供您的 OpenAI API 密钥。
curl -sS https://raw.githubusercontent.com/0xacx/chatGPT-shell-cli/main/install.sh | sudo -E bash
ArchLinux
如果您使用的是 ArchLinux,可以通过以下命令安装 AUR 包:
paru -S chatgpt-shell-cli
手动安装
如果您想手动安装,只需执行以下步骤:
- 将
chatgpt.sh文件下载到您希望存放的目录中。 - 将
chatgpt.sh的路径添加到您的$PATH中。您可以通过在 shell 配置文件中添加以下行来实现:export PATH=$PATH:/path/to/chatgpt.sh - 将 OpenAI API 密钥添加到您的 shell 配置文件中,方法是添加一行:
export OPENAI_KEY=your_key_here - 如果您使用 iTerm 并希望在终端中查看图片,可以安装 imgcat。
使用方法
启动
聊天模式
- 您可以在任何地方使用
chatgpt命令来运行脚本。默认情况下,脚本使用gpt-3.5-turbo模型。
管道模式
- 您也可以使用管道模式:
echo "获取昨天创建的所有 PDF 文件的命令是什么?" | chatgpt
脚本参数
- 您还可以将提示作为命令行参数传递:
chatgpt -p "匹配电子邮件地址的正则表达式是什么?"
命令
image:若要生成图片,只需在提示前加上image:。 如果您使用 iTerm,可以直接在终端中查看图片。否则,脚本会提示您在浏览器中打开图片。history若要查看聊天历史,请输入history。models若要获取 OpenAI API 上可用的模型列表,请输入models。model:若要查看特定模型的所有信息,只需在提示前加上model:,然后输入模型的 ID(如模型列表中所示)。例如:model:text-babbage:001将为您提供有关text-babbage:001模型的所有字段。command:若要获得具有指定功能的命令并执行它,只需输入command:,然后说明您想要实现的目标。脚本始终会询问您是否要执行该命令。例如:command: 显示当前目录中所有代码行数超过 150 行的文件如果某个命令会修改您的文件系统或下载外部文件,脚本会在执行前显示警告。
聊天上下文
- 对于不支持 OpenAI API 聊天上下文的
gpt-3.5-turbo和gpt-4以外的其他模型,您可以使用本脚本内置的聊天上下文功能。启用聊天上下文模式后,模型将记住您之前的提问和回答,这样您就可以提出后续问题。在聊天上下文中,模型会收到一条提示,表明其身份为 ChatGPT,并且知道当前日期以及它所训练的数据截止至 2021 年。要启用此模式,请使用-c或--chat-context参数启动脚本。例如:chatgpt --chat-context,然后开始聊天。
设置初始聊天提示
- 您可以设置自己的初始聊天提示,以便在聊天上下文模式下使用。初始提示将在每次请求时与您的常规提示一起发送,从而使 OpenAI 模型“保持角色一致性”。要设置自定义的初始聊天提示,请使用
-i或--init-prompt参数,后接您的初始提示,例如:chatgpt -i "你是《瑞克和莫蒂》中的瑞克,请在回答中引用剧集内容。" - 您还可以通过
--init-prompt-from-file参数从文件中设置初始聊天提示,例如:chatgpt --init-prompt-from-file myprompt.txt
当您设置初始提示时,无需启用聊天上下文模式。
使用官方 ChatGPT 模型
- 启动脚本时默认使用的模型是
gpt-3.5-turbo。
使用 GPT-4
- 如果您有 GPT-4 模型的访问权限,可以通过将模型设置为
gpt-4来使用它,即chatgpt --model gpt-4。
设置请求参数
要设置请求参数,您可以这样启动脚本:
chatgpt --temperature 0.9 --model text-babbage:001 --max-tokens 100 --size 1024x1024可用的参数包括:
- 温度,
-t或--temperature - 模型,
-m或--model - 最大 token 数量,
--max-tokens - 图像尺寸,
-s或--size(OpenAI API 接受的尺寸为 256x256、512x512、1024x1024) - 提示词,
-p或--prompt - 从您文件系统中的文件读取提示词,
--prompt-from-file
如需了解更多关于这些参数的信息,您可以查看 API 文档。
- 温度,
贡献者
:pray: 感谢所有使用、测试、提交问题、拉取请求以及提出改进建议的朋友们:
pfr-dev, jordantrizz, se7en-x230, mountaineerbr, oligeo, biaocy, dmd, goosegit11, dilatedpupils, direster, rxaviers, Zeioth, edshamis, nre-ableton, TobiasLaving, RexAckermann, emirkmo, np, camAtGitHub, keyboardsage tomas223
参与贡献
我们非常欢迎您的参与!
如果您有任何想法或需要帮助开始,请加入我们的 Discord 服务器。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信