[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ricklamers--shell-ai":3,"tool-ricklamers--shell-ai":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":32,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":143},4695,"ricklamers\u002Fshell-ai","shell-ai","LangChain powered shell command generator and runner CLI","shell-ai 是一款智能命令行助手，旨在让用户通过自然语言直接生成并执行 Shell 命令。只需在终端输入想要完成的任务描述（例如\"terraform dry run\"），它就能利用大语言模型的理解能力，即时推荐多条精准的单行命令供选择执行，彻底解决了用户记不住复杂命令语法或频繁查阅文档的痛点。\n\n这款工具特别适合开发者、运维工程师以及任何需要频繁与终端交互的技术人员。无论是日常文件操作、系统管理，还是复杂的云基础设施部署，shell-ai 都能显著提升工作效率。其核心亮点在于基于 LangChain 框架构建，具备强大的语义理解能力，并支持高度灵活的配置。它不仅兼容 OpenAI、Azure、Groq 等主流云服务，还能无缝对接本地运行的 Ollama 模型，充分保障数据隐私与离线可用性。此外，shell-ai 提供跨平台支持（Linux、macOS、Windows），内置交互式确认机制防止误操作，并允许用户通过环境变量或配置文件自定义模型参数与建议数量，让 AI 真正融入个性化的开发工作流中。","# Shell-AI: let AI write your shell commands\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fshell-ai.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fshell-ai\u002F)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fricklamers\u002Fshell-ai)](https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fnetwork)\n[![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fricklamers\u002Fshell-ai)](https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fstargazers)\n\nShell-AI (`shai`) is a CLI utility that brings the power of natural language understanding to your command line. Simply input what you want to do in natural language, and `shai` will suggest single-line commands that achieve your intent. Under the hood, Shell-AI leverages the [LangChain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain) for LLM use and builds on the excellent [InquirerPy](https:\u002F\u002Fgithub.com\u002Fkazhala\u002FInquirerPy) for the interactive CLI.\n\n![demo-shell-ai](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fricklamers_shell-ai_readme_3b33e73b141b.png)\n\n## Installation\n\nYou can install Shell-AI directly from PyPI using pip:\n\n```bash\npip install shell-ai\n```\n\nNote that on Linux, Python 3.10 or later is required.\n\nAfter installation, you can invoke the utility using the `shai` command.\n\n## Usage\n\nTo use Shell-AI, open your terminal and type:\n\n```bash\nshai run terraform dry run thingy\n```\n\nShell-AI will then suggest 3 commands to fulfill your request:\n- `terraform plan`\n- `terraform plan -input=false`\n- `terraform plan`\n\n## Features\n\n- **Natural Language Input**: Describe what you want to do in plain English (or other supported languages).\n- **Command Suggestions**: Get single-line command suggestions that accomplish what you asked for.\n- **Cross-Platform**: Works on Linux, macOS, and Windows.\n- **Azure Compatibility**: Shell-AI now supports Azure OpenAI deployments.\n\n## Configuration\n\nShell-AI can be configured through environment variables or a config file located at `~\u002F.config\u002Fshell-ai\u002Fconfig.json` (Linux\u002FMacOS) or `%APPDATA%\\shell-ai\\config.json` (Windows).\n\n### Environment Variables\n\n- `OPENAI_API_KEY`: (Required) Your OpenAI API key, leave empty if you use ollama\n- `OPENAI_MODEL`: The OpenAI model to use (default: \"gpt-3.5-turbo\")\n- `OPENAI_API_BASE`: The OpenAI API \u002F OpenAI compatible API endpoint to use (default: None)\n- `GROQ_API_KEY`: (Required if using Groq) Your Groq API key\n- `SHAI_SUGGESTION_COUNT`: Number of suggestions to generate (default: 3)\n- `SHAI_SKIP_CONFIRM`: Skip command confirmation when set to \"true\"\n- `SHAI_SKIP_HISTORY`: Skip writing to shell history when set to \"true\"\n- `SHAI_API_PROVIDER`: Choose between \"openai\", \"ollama\", \"azure\", or \"groq\" (default: \"groq\")\n- `SHAI_TEMPERATURE`: Controls randomness in the output (default: 0.05). Lower values (e.g., 0.05) make output more focused and deterministic, while higher values (e.g., 0.7) make it more creative and varied.\n- `CTX`: Enable context mode when set to \"true\" (Note: outputs will be sent to the API)\n- `OLLAMA_MODEL`: The Ollama model to use (default: \"phi3.5\")\n- `OLLAMA_API_BASE`: The Ollama endpoint to use (default: \"http:\u002F\u002Flocalhost:11434\u002Fv1\u002F\")\n\n### Config File Example\n\n```json\n{\n  \"OPENAI_API_KEY\": \"your_openai_api_key_here\",\n  \"OPENAI_MODEL\": \"gpt-3.5-turbo\",\n  \"SHAI_SUGGESTION_COUNT\": \"3\",\n  \"CTX\": true\n}\n```\n\n### Config Example for OpenAI compatible\n\n```json\n{\n   \"SHAI_API_PROVIDER\": \"openai\",\n   \"OPENAI_API_KEY\": \"deepseek_api_key\",\n   \"OPENAI_API_BASE\": \"https:\u002F\u002Fapi.deepseek.com\",\n   \"OPENAI_MODEL\": \"deepseek-chat\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"CTX\": true\n}\n```\n\n### Config example for MistralAI\n\n```json\n{\n   \"SHAI_API_PROVIDER\": \"mistral\",\n   \"MISTRAL_API_KEY\": \"mistral_api_key\",\n   \"MISTRAL_API_BASE\": \"https:\u002F\u002Fapi.mistral.ai\u002Fv1\",\n   \"MISTRAL_MODEL\": \"codestral-2508\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"CTX\": true\n}\n\n```\n\n### Config Example for Ollama\n\n```json\n   {\n   \"OPENAI_API_KEY\":\"\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"SHAI_API_PROVIDER\": \"ollama\",\n   \"OLLAMA_MODEL\": \"phi3.5\",\n   \"OLLAMA_API_BASE\": \"http:\u002F\u002Flocalhost:11434\u002Fv1\u002F\",\n   \"SHAI_TEMPERATURE\": \"0.05\"\n   }\n```\n\nThe application will read from this file if it exists, overriding any existing environment variables.\n\nRun the application after setting these configurations.\n\n### Using with Groq\n\nTo use Shell AI with Groq:\n\n1. Get your API key from Groq\n2. Set the following environment variables:\n   ```bash\n   export SHAI_API_PROVIDER=groq\n   export GROQ_API_KEY=your_api_key_here\n   export GROQ_MODEL=llama-3.3-70b-versatile\n   ```\n\n## Contributing\n\nThis implementation can be made much smarter! Contribute your ideas as Pull Requests and make AI Shell better for everyone.\n\nContributions are welcome! Please read the [CONTRIBUTING.md](CONTRIBUTING.md) for guidelines.\n\n## License\n\nShell-AI is licensed under the MIT License. See [LICENSE](LICENSE) for details.\n","# Shell-AI：让 AI 为你编写 Shell 命令\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fshell-ai.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fshell-ai\u002F)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fricklamers\u002Fshell-ai)](https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fnetwork)\n[![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fricklamers\u002Fshell-ai)](https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fstargazers)\n\nShell-AI (`shai`) 是一款命令行工具，它将自然语言理解的力量带入你的命令行界面。只需用自然语言输入你想做的事情，`shai` 就会为你推荐能够实现目标的单行命令。在底层，Shell-AI 利用 [LangChain](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain) 来调用大模型，并基于优秀的 [InquirerPy](https:\u002F\u002Fgithub.com\u002Fkazhala\u002FInquirerPy) 构建交互式命令行界面。\n\n![demo-shell-ai](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fricklamers_shell-ai_readme_3b33e73b141b.png)\n\n## 安装\n\n你可以通过 pip 直接从 PyPI 安装 Shell-AI：\n\n```bash\npip install shell-ai\n```\n\n请注意，在 Linux 系统上，需要 Python 3.10 或更高版本。\n\n安装完成后，你可以使用 `shai` 命令来调用该工具。\n\n## 使用方法\n\n要使用 Shell-AI，请打开终端并输入以下命令：\n\n```bash\nshai run terraform dry run thingy\n```\n\nShell-AI 将会为你提供 3 条建议命令来完成你的请求：\n- `terraform plan`\n- `terraform plan -input=false`\n- `terraform plan`\n\n## 功能特性\n\n- **自然语言输入**：用简单的英文（或其他支持的语言）描述你想要完成的任务。\n- **命令建议**：获得能够实现你需求的单行命令建议。\n- **跨平台**：支持 Linux、macOS 和 Windows。\n- **Azure 兼容性**：Shell-AI 现已支持 Azure OpenAI 部署。\n\n## 配置\n\nShell-AI 可以通过环境变量或配置文件进行配置，配置文件位于 `~\u002F.config\u002Fshell-ai\u002Fconfig.json`（Linux\u002FMacOS）或 `%APPDATA%\\shell-ai\\config.json`（Windows）。\n\n### 环境变量\n\n- `OPENAI_API_KEY`：（必填）你的 OpenAI API 密钥，如果你使用 Ollama，则留空。\n- `OPENAI_MODEL`：要使用的 OpenAI 模型（默认值为 \"gpt-3.5-turbo\"）。\n- `OPENAI_API_BASE`：要使用的 OpenAI API 或兼容 OpenAI 的 API 端点（默认值为 None）。\n- `GROQ_API_KEY`：（如果使用 Groq 必填）你的 Groq API 密钥。\n- `SHAI_SUGGESTION_COUNT`：生成的建议数量（默认值为 3）。\n- `SHAI_SKIP_CONFIRM`：设置为 \"true\" 时跳过命令确认。\n- `SHAI_SKIP_HISTORY`：设置为 \"true\" 时不会将命令写入 shell 历史记录。\n- `SHAI_API_PROVIDER`：选择 \"openai\"、\"ollama\"、\"azure\" 或 \"groq\" 中的一个作为 API 提供者（默认值为 \"groq\"）。\n- `SHAI_TEMPERATURE`：控制输出的随机性（默认值为 0.05）。较低的值（如 0.05）会使输出更加专注和确定性，而较高的值（如 0.7）则会使输出更具创造性和多样性。\n- `CTX`：设置为 \"true\" 时启用上下文模式（注意：输出将会发送到 API）。\n- `OLLAMA_MODEL`：要使用的 Ollama 模型（默认值为 \"phi3.5\"）。\n- `OLLAMA_API_BASE`：要使用的 Ollama 端点（默认值为 \"http:\u002F\u002Flocalhost:11434\u002Fv1\u002F\"）。\n\n### 配置文件示例\n\n```json\n{\n  \"OPENAI_API_KEY\": \"your_openai_api_key_here\",\n  \"OPENAI_MODEL\": \"gpt-3.5-turbo\",\n  \"SHAI_SUGGESTION_COUNT\": \"3\",\n  \"CTX\": true\n}\n```\n\n### 与 OpenAI 兼容的配置示例\n\n```json\n{\n   \"SHAI_API_PROVIDER\": \"openai\",\n   \"OPENAI_API_KEY\": \"deepseek_api_key\",\n   \"OPENAI_API_BASE\": \"https:\u002F\u002Fapi.deepseek.com\",\n   \"OPENAI_MODEL\": \"deepseek-chat\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"CTX\": true\n}\n```\n\n### MistralAI 的配置示例\n\n```json\n{\n   \"SHAI_API_PROVIDER\": \"mistral\",\n   \"MISTRAL_API_KEY\": \"mistral_api_key\",\n   \"MISTRAL_API_BASE\": \"https:\u002F\u002Fapi.mistral.ai\u002Fv1\",\n   \"MISTRAL_MODEL\": \"codestral-2508\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"CTX\": true\n}\n```\n\n### Ollama 的配置示例\n\n```json\n{\n   \"OPENAI_API_KEY\":\"\",\n   \"SHAI_SUGGESTION_COUNT\": \"3\",\n   \"SHAI_API_PROVIDER\": \"ollama\",\n   \"OLLAMA_MODEL\": \"phi3.5\",\n   \"OLLAMA_API_BASE\": \"http:\u002F\u002Flocalhost:11434\u002Fv1\u002F\",\n   \"SHAI_TEMPERATURE\": \"0.05\"\n}\n```\n\n如果存在该配置文件，应用程序将优先读取其中的设置，从而覆盖任何现有的环境变量。\n\n完成上述配置后即可运行应用程序。\n\n### 与 Groq 配合使用\n\n要将 Shell AI 与 Groq 配合使用：\n\n1. 从 Groq 获取你的 API 密钥。\n2. 设置以下环境变量：\n   ```bash\n   export SHAI_API_PROVIDER=groq\n   export GROQ_API_KEY=your_api_key_here\n   export GROQ_MODEL=llama-3.3-70b-versatile\n   ```\n\n## 贡献\n\n这个实现还可以变得更加智能！欢迎提交 Pull Request 分享你的想法，共同让 AI Shell 更加完善。\n\n我们欢迎所有贡献！请阅读 [CONTRIBUTING.md](CONTRIBUTING.md) 以获取相关指南。\n\n## 许可证\n\nShell-AI 采用 MIT 许可证授权。详情请参阅 [LICENSE](LICENSE)。","# Shell-AI 快速上手指南\n\nShell-AI (`shai`) 是一款命令行工具，允许你使用自然语言描述需求，它会自动生成对应的 Shell 命令。\n\n## 环境准备\n\n- **操作系统**：Linux、macOS 或 Windows\n- **Python 版本**：Linux 用户需安装 Python 3.10 或更高版本；其他平台建议使用较新的 Python 版本以确保兼容性。\n- **API Key**：你需要准备一个大模型服务的 API Key（默认支持 Groq、OpenAI、Ollama、Azure 等）。若使用本地 Ollama 则无需 Key。\n\n## 安装步骤\n\n使用 pip 直接从 PyPI 安装：\n\n```bash\npip install shell-ai\n```\n\n> **提示**：国内用户若下载缓慢，可使用清华或阿里镜像源加速安装：\n> ```bash\n> pip install shell-ai -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n安装完成后，即可在终端中使用 `shai` 命令。\n\n## 基本使用\n\n### 1. 配置 API (以 Groq 为例)\n\n在使用前，需通过环境变量配置 API Provider 和 Key。以下以免费的 Groq 服务为例：\n\n```bash\nexport SHAI_API_PROVIDER=groq\nexport GROQ_API_KEY=your_groq_api_key_here\nexport GROQ_MODEL=llama-3.3-70b-versatile\n```\n\n*注：若使用 OpenAI 或 Ollama，请参考官方文档设置对应的 `OPENAI_API_KEY` 或 `OLLAMA_API_BASE` 等变量。*\n\n### 2. 运行命令\n\n在终端输入 `shai run`  followed by 你的自然语言描述。例如，想要执行 Terraform 的 dry run：\n\n```bash\nshai run terraform dry run thingy\n```\n\n### 3. 选择并执行\n\n工具会列出 3 个建议命令供你选择：\n- `terraform plan`\n- `terraform plan -input=false`\n- `terraform plan`\n\n使用键盘上下键选择最合适的命令，回车确认后，该命令将自动填入当前命令行等待你再次回车执行（除非设置了 `SHAI_SKIP_CONFIRM=true`）。","某后端工程师在紧急排查生产环境日志时，需要快速构造复杂的命令来筛选特定时间段的错误信息并统计频次。\n\n### 没有 shell-ai 时\n- **记忆负担重**：难以准确回忆 `grep`、`awk`、`sed` 组合处理时间戳和正则匹配的具体语法参数。\n- **试错成本高**：需频繁查阅文档或搜索网络，手动拼凑命令后反复运行调试，极易因引号或转义字符出错。\n- **效率低下**：简单的“统计过去一小时 500 错误”需求，往往耗费十几分钟才写出正确命令，延误故障响应速度。\n- **上下文割裂**：在浏览器搜索页与终端窗口间来回切换，打断排查思路，增加操作疲劳感。\n\n### 使用 shell-ai 后\n- **自然语言直达**：直接输入“统计最近一小时所有 HTTP 500 错误的 IP 出现次数”，shell-ai 即刻生成精准的管道命令。\n- **智能纠错与建议**：自动处理复杂的正则转义和参数顺序，并提供多个变体供选择，消除语法错误风险。\n- **秒级响应**：无需离开终端，几秒钟内即可获得可执行命令，将原本耗时的构造过程压缩至瞬间完成。\n- **流畅工作流**：全程在命令行交互，保持思维连贯，让工程师专注于问题分析而非命令语法细节。\n\nshell-ai 通过将自然语言意图直接转化为可执行的 Shell 命令，彻底消除了语法记忆障碍，让开发者在运维排查中实现“所想即所得”的高效体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fricklamers_shell-ai_8f8ccdf6.png","ricklamers","Rick Lamers","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fricklamers_3445a0ff.jpg","I like building software, open source, reading papers and generally working with optimistic people!",null,"Amsterdam + Palo Alto","https:\u002F\u002Fricklamers.io\u002Fabout","https:\u002F\u002Fgithub.com\u002Fricklamers",[81,85],{"name":82,"color":83,"percentage":84},"Python","#3572A5",99.1,{"name":86,"color":87,"percentage":88},"Makefile","#427819",0.9,1154,79,"2026-04-01T18:01:37","MIT","Linux, macOS, Windows","未说明",{"notes":96,"python":97,"dependencies":98},"该工具为命令行实用程序，主要通过 API 调用大模型（如 OpenAI, Groq, Azure, Ollama 等），本地无需运行大型模型，因此无特定 GPU 和显存需求。若使用本地 Ollama，需自行确保 Ollama 服务运行及对应模型的资源需求。配置可通过环境变量或 JSON 配置文件完成。","3.10+ (Linux 必需，其他平台未明确但建议一致)",[99,100],"LangChain","InquirerPy",[52,13,35,14],[103,104,105,106,107,108,109],"langchain","llm","openai","gpt","automation","cli","shell","2026-03-27T02:49:30.150509","2026-04-07T08:12:20.443410",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},21344,"为什么生成的命令前包含英文解释文本导致无法直接执行？","这是因为模型输出的格式问题。解决方案包括：1. 使用更遵循指令的模型（如 gpt-4）来处理复杂查询；2. 项目已实现输出解析器来提取代码块，或者社区欢迎提交使用 Markdown 解析器（如 Mistune）的 PR 来 robustly 地处理前缀\u002F后缀文本。相关修复已在 PR #14 中合并。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F5",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},21345,"遇到 'TypeError: str expected, not int' 错误怎么办？","该错误通常是因为配置文件中的键值对类型不正确。请检查 `config.json` 文件，确保所有的键（key）和值（value）都必须是字符串（string）类型，而不是整数或其他类型。项目后续更新已尝试规避非字符串输入的问题，但用户仍需保证配置格式正确。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F1",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},21346,"如何将选中的命令插入到 Shell 历史记录中？","目前难以以与 Shell 无关的方式直接实现。简单地追加到 `.bash_history` 文件只有在重启 Shell 后才生效。推荐的解决方案是模拟真实的用户输入（使用 TTY 参数和 IOCTL），参考 Arsenal 项目的实现方式，这样命令才会被当前 Shell 会话记录到历史中。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F10",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},21347,"如何添加对其他 LLM 提供商（如 Google Gemini 或 DeepInfra）的支持？","项目持开放态度，欢迎社区贡献。维护者表示如果开发者已经集成了 LangChain 或直接通过 PR 提交代码，非常乐意合并。对于 Gemini 等模型，建议通过环境变量或命令行标志来实现切换，但目前主要依赖社区开发者提交 PR 来完成具体集成工作。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F30",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},21348,"是否支持指定 Shell 类型（如 PowerShell、Bash）以生成更准确的命令？","这是一个被提出的功能需求。目前应用生成的命令较为通用，未针对特定 Shell 环境优化。理想的解决方案是让应用自动检测用户的 Shell 类型，或允许用户通过命令行参数指定（例如区分 PowerShell 和 Bash\u002FZsh），以便生成适合当前环境的命令。用户可以关注后续版本是否采纳此建议。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F25",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},21349,"如何添加 Ollama 作为本地模型提供商？","社区已提出添加 Ollama 支持的需求。维护者明确表示欢迎此类功能的 PR（Pull Request）。如果您需要使用 Ollama，可以查看是否有社区成员已经提交了相关代码，或者自行开发并提交 PR 以集成 Ollama 提供商。","https:\u002F\u002Fgithub.com\u002Fricklamers\u002Fshell-ai\u002Fissues\u002F40",[]]