how2
how2 是一款专为终端用户设计的智能命令行助手,旨在用最简单的方式解答"如何在 Unix Shell 中完成某项操作”的问题。它就像一本能用自然语言对话的超级手册,彻底改变了传统查阅文档或切换浏览器搜索 StackOverflow 的繁琐流程。
对于经常与命令行打交道的开发者和系统管理员而言,how2 极大地提升了工作效率。用户只需输入如“如何解压 tar 文件”这样的自然语言描述,它便能立即推荐最佳的命令组合。其核心亮点在于融合了经过 Bash 和 PowerShell 命令微调的 AI 代码补全模型与真实的 StackOverflow 搜索结果。默认模式下,AI 会直接生成建议;若需更多参考,添加 -s 参数即可检索社区答案,并通过空格键进入交互模式,灵活浏览和选择不同解决方案。
尽管 AI 模式对普通用户免费开放(每日限次),但它也提供了针对专业用户的高级订阅选项。当遇到复杂问题时,how2 还能通过简单的措辞调整提供意想不到的解决思路,甚至支持在代理环境下运行。无论是日常运维还是脚本编写,how2 都能让命令行操作变得更加直观、高效且充满乐趣。
使用场景
一位后端工程师在维护 Linux 服务器时,突然需要执行一个复杂的文件操作:递归查找所有大于 100MB 且修改时间在 7 天前的日志文件并将其压缩归档。
没有 how2 时
- 思维中断:工程师记不清
find命令中关于时间(-mtime)和大小(-size)的具体参数格式,不得不暂停手头工作。 - 流程繁琐:必须切换出终端,打开浏览器,新建标签页搜索"linux find file larger than 100mb older than 7 days compress"。
- 信息筛选成本高:在搜索引擎结果中逐个点击链接,排除过时的教程,最终在 StackOverflow 长篇大论的回答中滚动查找代码片段。
- 复制粘贴风险:从网页复制命令回终端时,容易带入多余的换行符或特殊字符,导致执行报错,需反复调试。
使用 how2 后
- 无缝衔接:直接在终端输入
how2 find files bigger than 100mb older than 7 days and compress,无需离开当前工作环境。 - 即时响应:how2 利用 AI 模型瞬间生成最简命令
find . -type f -size +100M -mtime +7 -exec gzip {} \;,并展示在屏幕上。 - 交互式优选:若对首选方案不满意,按下空格键即可进入交互模式,浏览并切换其他来自 StackOverflow 的高票解决方案。
- 精准执行:确认命令无误后直接复制运行,将原本几分钟的查询过程缩短为几秒钟,大幅降低语法错误率。
how2 通过将自然语言查询直接转化为精准的 Shell 命令,彻底消除了开发者在“记忆语法”与“查阅文档”之间的低效切换,让终端操作如对话般流畅。
运行环境要求
- Linux
- macOS
未说明
未说明

快速开始
how2:为你的终端打造的AI工具
how2 能帮你找到在 Unix Shell 中完成某项任务的最简单方法。
它就像 man 命令,但你可以用自然语言进行查询。它结合了 AI 代码补全和 StackOverflow 搜索功能。
这样一来,你就不再需要打开 Chrome -> 新标签页 -> Google 搜索 -> 点击 StackOverflow -> 向下滚动到第一个答案这样的繁琐流程了。
访问 how2terminal.com 获取更多信息。

演示视频
https://user-images.githubusercontent.com/179558/196452157-60e6b33a-116d-46f2-a441-7d0696a31452.mp4
安装
macOS(通过 HowBrew):
brew tap how2terminal/how2
brew install how2
使用 npm:
sudo npm install -g how2
如果你没有使用 sudo 安装,那么运行时需要使用 npx how2,或者手动为该命令创建别名。
Ubuntu/Debian:
下载最新的 .deb 包,然后执行:
wget how2terminal.com/how2.deb
sudo dpkg -i how2.deb
二进制文件:
前往 最新发布页面 下载二进制文件。
使用方法
默认情况下,how2 会调用外部 AI 服务器来提供最佳的 Unix 命令行建议。
如果你加上 -s 参数,则会直接在 StackOverflow 上搜索答案。


之后,你可以按下空格键进入交互模式,在这里可以选择不同的 StackOverflow 问题或答案。


工作原理是什么?
在后台,API 使用了几款经过微调的 AI 代码补全模型,这些模型专门针对 Bash 和 PowerShell 命令进行了再训练。 这仅仅是个开始,我们正在努力进一步优化模型,使其更专注于命令行操作体验。 目前,AI 模式对所有用户每天前 5 次请求都是免费的。如果你是专业用户,可以考虑升级到付费订阅。
效果如何?
一旦你熟悉了它的用法,就会发现它非常实用!我已经把它添加到了所有的服务器和笔记本电脑上,并且每天都在使用。
不过,有时模型可能无法找到解决方案,导致输出结果不太理想。这时,不妨尝试换一种表达方式,通常只需稍作调整就能得到满意的答案。
如果仍然无效,只需加上 -s 参数,就能直接在终端中获取 StackOverflow 上的最佳答案。
使用鼠标复制粘贴
当你处于“交互模式”(按下空格键后),如果需要复制粘贴多行内容,可以:
- 按下
p键,只打印出选中的答案(方便复制粘贴); - 使用块选择:在 Ubuntu 系统中,按住
Ctrl+Alt再进行选择;如果你在 Mac 的 iTerm 终端中,则按Alt+Cmd。(感谢 @danielkop 提供的建议)。
能否在代理后使用?
可以,你需要设置 HTTP_PROXY 或 HTTPS_PROXY 环境变量。
例如,你可以在 ~/.bash_profile 中为 proxy 设置一个别名:
alias how2="HTTPS_PROXY='your_proxy:8888' how2"
版本历史
v3.0.32022/10/22v3.0.22022/10/19v3.0.1-alpha2022/10/18v3.0.0-beta2022/09/30常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。