[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kharvd--gpt-cli":3,"tool-kharvd--gpt-cli":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":145},5325,"kharvd\u002Fgpt-cli","gpt-cli","Command-line interface for ChatGPT, Claude and Bard","gpt-cli 是一款专为终端用户设计的命令行工具，让你无需离开键盘即可直接与 ChatGPT、Claude、Google Gemini 等主流大语言模型进行对话。它主要解决了开发者在编码或系统管理过程中频繁切换窗口、打断工作流的痛点，将强大的 AI 助手无缝集成到熟悉的终端环境中。\n\n这款工具特别适合开发者、运维工程师及习惯使用命令行的技术研究人员。通过简单的配置，用户可以定义不同场景的专属助手（如通用问答、代码开发或 Bash 脚本生成），并灵活切换。gpt-cli 的独特亮点在于其精细的控制能力：支持自定义模型参数（如温度、top_p），甚至能开启 Claude 3.7 的“扩展思维模式”以查看复杂问题的推理过程。此外，它还具备实用的 API 用量追踪功能，实时显示 Token 消耗与费用，帮助团队有效控制成本。\n\n安装简便，支持通过 YAML 文件进行高度定制化配置，同时提供多行输入、Markdown 渲染开关及丰富的快捷键操作，确保交互流畅自然。无论是快速查询文档、调试代码还是自动化任务，gpt-cli 都能让 AI 成为你终端中得力的全天候伙伴。","# gpt-cli\n\nCommand-line interface for chat LLMs.\n\n## Try now\n```\nexport ANTHROPIC_API_KEY=xcxc\nuvx --from gpt-command-line gpt\n```\n\n## Supported providers\n\n- OpenAI\n- Anthropic\n- Google Gemini\n- Cohere\n- Other APIs compatible with OpenAI (e.g. Together, OpenRouter, local models with LM Studio)\n\n![screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkharvd_gpt-cli_readme_5f616d3b6a19.png)\n\n## Features\n\n- **Command-Line Interface**: Interact with ChatGPT or Claude directly from your terminal.\n- **Model Customization**: Override the default model, temperature, and top_p values for each assistant, giving you fine-grained control over the AI's behavior.\n- **Extended Thinking Mode**: Enable Claude 3.7's extended thinking capability to see its reasoning process for complex problems.\n- **Usage tracking**: Track your API usage with token count and price information.\n- **Keyboard Shortcuts**: Use Ctrl-C, Ctrl-D, and Ctrl-R shortcuts for easier conversation management and input control.\n- **Multi-Line Input**: Enter multi-line mode for more complex queries or conversations.\n- **Markdown Support**: Enable or disable markdown formatting for chat sessions to tailor the output to your preferences.\n- **Predefined Messages**: Set up predefined messages for your custom assistants to establish context or role-play scenarios.\n- **Multiple Assistants**: Easily switch between different assistants, including general, dev, and custom assistants defined in the config file.\n- **Flexible Configuration**: Define your assistants, model parameters, and API key in a YAML configuration file, allowing for easy customization and management.\n\n## Installation\n\nThis install assumes a Linux\u002FOSX machine with Python and pip available.\n\n```bash\npip install gpt-command-line\n```\n\nInstall latest version from source:\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\n```\n\nOr install by cloning the repository manually:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\ncd gpt-cli\npip install .\n```\n\nAdd the OpenAI API key to your `.bashrc` file (in the root of your home folder).\nIn this example we use nano, you can use any text editor.\n\n```\nnano ~\u002F.bashrc\nexport OPENAI_API_KEY=\u003Cyour_key_here>\n```\n\nRun the tool\n\n```\ngpt\n```\n\nYou can also use a `gpt.yml` file for configuration. See the [Configuration](README.md#Configuration) section below.\n\n## Usage\n\nMake sure to set the `OPENAI_API_KEY` environment variable to your OpenAI API key (or put it in the `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml` file as described below).\n\n```\nusage: gpt [-h] [--no_markdown] [--model MODEL] [--temperature TEMPERATURE] [--top_p TOP_P]\n              [--thinking THINKING_BUDGET] [--log_file LOG_FILE] \n              [--log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}] [--prompt PROMPT] \n              [--execute EXECUTE] [--no_stream] [{dev,general,bash}]\n\nRun a chat session with ChatGPT. See https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli for more information.\n\npositional arguments:\n  {dev,general,bash}\n                        The name of assistant to use. `general` (default) is a generally helpful\n                        assistant, `dev` is a software development assistant with shorter\n                        responses. You can specify your own assistants in the config file\n                        ~\u002F.config\u002Fgpt-cli\u002Fgpt.yml. See the README for more information.\n\noptional arguments:\n  -h, --help            show this help message and exit\n  --no_markdown         Disable markdown formatting in the chat session.\n  --model MODEL         The model to use for the chat session. Overrides the default model defined\n                        for the assistant.\n  --temperature TEMPERATURE\n                        The temperature to use for the chat session. Overrides the default\n                        temperature defined for the assistant.\n  --top_p TOP_P         The top_p to use for the chat session. Overrides the default top_p defined\n                        for the assistant.\n  --thinking THINKING_BUDGET\n                        Enable Claude's extended thinking mode with the specified token budget.\n                        Only applies to Claude 3.7 models.\n  --log_file LOG_FILE   The file to write logs to. Supports strftime format codes.\n  --log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}\n                        The log level to use\n  --prompt PROMPT, -p PROMPT\n                        If specified, will not start an interactive chat session and instead will\n                        print the response to standard output and exit. May be specified multiple\n                        times. Use `-` to read the prompt from standard input. Implies\n                        --no_markdown.\n  --execute EXECUTE, -e EXECUTE\n                        If specified, passes the prompt to the assistant and allows the user to\n                        edit the produced shell command before executing it. Implies --no_stream.\n                        Use `-` to read the prompt from standard input.\n  --no_stream           If specified, will not stream the response to standard output. This is\n                        useful if you want to use the response in a script. Ignored when the\n                        --prompt option is not specified.\n  --no_price            Disable price logging.\n```\n\nType `:q` or Ctrl-D to exit, `:c` or Ctrl-C to clear the conversation, `:r` or Ctrl-R to re-generate the last response.\nTo enter multi-line mode, enter a backslash `\\` followed by a new line. Exit the multi-line mode by pressing ESC and then Enter.\n\nThe `dev` assistant is instructed to be an expert in software development and provide short responses.\n\n```bash\n$ gpt dev\n```\n\nThe `bash` assistant is instructed to be an expert in bash scripting and provide only bash commands. Use the `--execute` option to execute the commands. It works best with the `gpt-4` model.\n\n```bash\ngpt bash -e \"How do I list files in a directory?\"\n```\n\nThis will prompt you to edit the command in your `$EDITOR` it before executing it.\n\n## Configuration\n\nYou can configure the assistants in the config file `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml`. The file is a YAML file with the following structure (see also [config.py](.\u002Fgptcli\u002Fconfig.py))\n\n```yaml\ndefault_assistant: \u003Cassistant_name>\nmarkdown: False\nopenai_api_key: \u003Copenai_api_key>\nanthropic_api_key: \u003Canthropic_api_key>\nlog_file: \u003Cpath>\nlog_level: \u003CDEBUG|INFO|WARNING|ERROR|CRITICAL>\nassistants:\n  \u003Cassistant_name>:\n    model: \u003Cmodel_name>\n    temperature: \u003Ctemperature>\n    top_p: \u003Ctop_p>\n    thinking_budget: \u003Ctoken_budget>  # Claude 3.7 models only\n    messages:\n      - { role: \u003Crole>, content: \u003Cmessage> }\n      - ...\n  \u003Cassistant_name>:\n    ...\n```\n\nYou can override the parameters for the pre-defined assistants as well.\n\nYou can specify the default assistant to use by setting the `default_assistant` field. If you don't specify it, the default assistant is `general`. You can also specify the `model`, `temperature` and `top_p` to use for the assistant. If you don't specify them, the default values are used. These parameters can also be overridden by the command-line arguments.\n\nExample:\n\n```yaml\ndefault_assistant: dev\nmarkdown: True\nopenai_api_key: \u003Copenai_api_key>\nassistants:\n  pirate:\n    model: gpt-4\n    temperature: 1.0\n    messages:\n      - { role: system, content: \"You are a pirate.\" }\n```\n\n```\n$ gpt pirate\n\n> Arrrr\nAhoy, matey! What be bringing ye to these here waters? Be it treasure or adventure ye seek, we be sailing the high seas together. Ready yer map and compass, for we have a long voyage ahead!\n```\n\n### Read other context to the assistant with !include\n\nYou can read in files to the assistant's context with !include \u003Cfile_path>.\n\n```yaml\ndefault_assistant: dev\nmarkdown: True\nopenai_api_key: \u003Copenai_api_key>\nassistants:\n  pirate:\n    model: gpt-4\n    temperature: 1.0\n    messages:\n      - { role: system, content: !include \"pirate.txt\" }\n```\n\n### Customize OpenAI API URL\n\nIf you are using other models compatible with the OpenAI Python SDK, you can configure them by modifying the `openai_base_url` setting in the config file or using the `OPENAI_BASE_URL` environment variable .\n\nExample:\n\n```\nopenai_base_url: https:\u002F\u002Fyour-custom-api-url.com\u002Fv1\n```\n\nUse `oai-compat:` prefix for the model name to pass non-GPT model names to the API. For example, to chat with Llama3-70b on [Together](https:\u002F\u002Ftogether.ai), use the following command:\n\n```bash\nOPENAI_API_KEY=$TOGETHER_API_KEY OPENAI_BASE_URL=https:\u002F\u002Fapi.together.xyz\u002Fv1 gpt general --model oai-compat:meta-llama\u002FLlama-3-70b-chat-hf\n```\n\nThe prefix is stripped before sending the request to the API.\n\nSimilarly, use the `oai-azure:` model name prefix to use a model deployed via Azure Open AI. For example, `oai-azure:my-deployment-name`.\n\nWith assistant configuration, you can override the base URL and API key for a specific assistant.\n\n```yaml\n# ~\u002F.config\u002Fgpt-cli\u002Fgpt.yml\nassistants:\n  llama:\n    model: oai-compat:meta-llama\u002Fllama-3.3-70b-instruct\n    openai_base_url_override: https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\n    openai_api_key_override: $OPENROUTER_API_KEY\n```\n\n## Other chat bots\n\n### Anthropic Claude\n\nTo use Claude, you should have an API key from [Anthropic](https:\u002F\u002Fconsole.anthropic.com\u002F) (currently there is a waitlist for API access). After getting the API key, you can add an environment variable\n\n```bash\nexport ANTHROPIC_API_KEY=\u003Cyour_key_here>\n```\n\nor a config line in `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml`:\n\n```yaml\nanthropic_api_key: \u003Cyour_key_here>\n```\n\nNow you should be able to run `gpt` with `--model claude-3-(opus|sonnet|haiku)-\u003Cdate>`.\n\n```bash\ngpt --model claude-3-opus-20240229\n```\n\n#### Claude 3.7 Sonnet Extended Thinking Mode\n\nClaude 3.7 Sonnet supports an extended thinking mode, which shows Claude's reasoning process before delivering the final answer. This is useful for complex analysis, advanced STEM problems, and tasks with multiple constraints.\n\nEnable it with the `--thinking` parameter, specifying the token budget for the thinking process:\n\n```bash\ngpt --model claude-3-7-sonnet-20250219 --thinking 32000\n```\n\nYou can also configure thinking mode for specific assistants in your config:\n\n```yaml\nassistants:\n  math:\n    model: claude-3-7-sonnet-20250219\n    thinking_budget: 32000\n    messages:\n      - { role: system, content: \"You are a math expert.\" }\n```\n\n**Note**: When thinking mode is enabled, the temperature is automatically set to 1.0 and top_p is unset as required by the Claude API.\n\n### Google Gemini\n\n```bash\nexport GOOGLE_API_KEY=\u003Cyour_key_here>\n```\n\nor\n\n```yaml\ngoogle_api_key: \u003Cyour_key_here>\n```\n\n### Cohere\n\n```bash\nexport COHERE_API_KEY=\u003Cyour_key_here>\n```\n\nor\n\n```yaml\ncohere_api_key: \u003Cyour_key_here>\n```\n","# gpt-cli\n\n用于聊天型大语言模型的命令行界面。\n\n## 立即试用\n```\nexport ANTHROPIC_API_KEY=xcxc\nuvx --from gpt-command-line gpt\n```\n\n## 支持的提供商\n\n- OpenAI\n- Anthropic\n- Google Gemini\n- Cohere\n- 其他兼容 OpenAI 的 API（例如 Together、OpenRouter，以及使用 LM Studio 的本地模型）\n\n![截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkharvd_gpt-cli_readme_5f616d3b6a19.png)\n\n## 功能特性\n\n- **命令行界面**：直接在终端中与 ChatGPT 或 Claude 交互。\n- **模型自定义**：为每个助手覆盖默认的模型、温度和 top_p 值，从而对 AI 的行为进行精细控制。\n- **扩展思考模式**：启用 Claude 3.7 的扩展思考功能，以查看其在复杂问题上的推理过程。\n- **用量跟踪**：通过统计 token 数量和价格信息来跟踪 API 使用情况。\n- **快捷键**：使用 Ctrl-C、Ctrl-D 和 Ctrl-R 快捷键，更方便地管理对话和输入。\n- **多行输入**：进入多行模式，以处理更复杂的查询或对话。\n- **Markdown 支持**：可选择开启或关闭聊天会话中的 Markdown 格式，以便根据个人偏好调整输出。\n- **预设消息**：为自定义助手设置预设消息，以建立上下文或角色扮演场景。\n- **多助手支持**：轻松在不同助手之间切换，包括通用助手、开发助手以及在配置文件中定义的自定义助手。\n- **灵活配置**：可在 YAML 配置文件中定义助手、模型参数和 API 密钥，便于自定义和管理。\n\n## 安装\n\n此安装假定您有一台已安装 Python 和 pip 的 Linux\u002FOSX 机器。\n\n```bash\npip install gpt-command-line\n```\n\n从源代码安装最新版本：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\n```\n\n或者手动克隆仓库进行安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\ncd gpt-cli\npip install .\n```\n\n将 OpenAI API 密钥添加到您的 `.bashrc` 文件中（位于主目录下）。在此示例中我们使用 nano 编辑器，您也可以使用任何其他文本编辑器。\n\n```\nnano ~\u002F.bashrc\nexport OPENAI_API_KEY=\u003Cyour_key_here>\n```\n\n运行工具：\n\n```\ngpt\n```\n\n您还可以使用 `gpt.yml` 文件进行配置。请参阅下方的 [配置](README.md#Configuration) 部分。\n\n## 使用方法\n\n请确保将 `OPENAI_API_KEY` 环境变量设置为您自己的 OpenAI API 密钥（或将其放入 `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml` 文件中，如下所述）。\n\n```\n用法: gpt [-h] [--no_markdown] [--model MODEL] [--temperature TEMPERATURE] [--top_p TOP_P]\n              [--thinking THINKING_BUDGET] [--log_file LOG_FILE] \n              [--log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}] [--prompt PROMPT] \n              [--execute EXECUTE] [--no_stream] [{dev,general,bash}]\n\n运行与 ChatGPT 的聊天会话。更多信息请访问 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli。\n\n位置参数:\n  {dev,general,bash}\n                        要使用的助手名称。`general`（默认）是一个通用的帮助助手，`dev` 是一个软件开发助手，回复较短。您可以在配置文件 ~\u002F.config\u002Fgpt-cli\u002Fgpt.yml 中指定自己的助手。更多信息请参阅 README。\n\n可选参数:\n  -h, --help            显示此帮助信息并退出\n  --no_markdown         禁用聊天会话中的 Markdown 格式。\n  --model MODEL         用于聊天会话的模型。覆盖助手定义的默认模型。\n  --temperature TEMPERATURE\n                        用于聊天会话的温度。覆盖助手定义的默认温度。\n  --top_p TOP_P         用于聊天会话的 top_p 值。覆盖助手定义的默认 top_p。\n  --thinking THINKING_BUDGET\n                        启用 Claude 的扩展思考模式，并指定 token 预算。仅适用于 Claude 3.7 模型。\n  --log_file LOG_FILE   日志写入文件。支持 strftime 格式代码。\n  --log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}\n                        日志级别\n  --prompt PROMPT, -p PROMPT\n                        如果指定，则不会启动交互式聊天会话，而是将响应打印到标准输出并退出。可以多次指定。使用 `-` 可从标准输入读取提示。隐含 --no_markdown。\n  --execute EXECUTE, -e EXECUTE\n                        如果指定，会将提示传递给助手，并允许用户在执行之前编辑生成的 shell 命令。隐含 --no_stream。使用 `-` 可从标准输入读取提示。\n  --no_stream           如果指定，将不会将响应流式传输到标准输出。这在需要将响应用于脚本时很有用。当未指定 --prompt 选项时，此选项将被忽略。\n  --no_price            禁用价格记录。\n```\n\n输入 `:q` 或 Ctrl-D 退出，`:c` 或 Ctrl-C 清除对话，`:r` 或 Ctrl-R 重新生成上一条回复。要进入多行模式，输入反斜杠 `\\` 后换行。按 ESC 键后再按 Enter 键即可退出多行模式。\n\n`dev` 助手被设定为软件开发专家，并提供简短的回复。\n\n```bash\n$ gpt dev\n```\n\n`bash` 助手被设定为 Bash 脚本专家，只提供 Bash 命令。使用 `--execute` 选项可以执行这些命令。它最适合与 `gpt-4` 模型配合使用。\n\n```bash\ngpt bash -e \"How do I list files in a directory?\"\n```\n\n这将提示您在执行前使用 `$EDITOR` 编辑该命令。\n\n## 配置\n\n您可以在配置文件 `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml` 中配置助手。该文件是一个 YAML 文件，具有以下结构（另请参阅 [config.py](.\u002Fgptcli\u002Fconfig.py)）：\n\n```yaml\ndefault_assistant: \u003Cassistant_name>\nmarkdown: False\nopenai_api_key: \u003Copenai_api_key>\nanthropic_api_key: \u003Canthropic_api_key>\nlog_file: \u003Cpath>\nlog_level: \u003CDEBUG|INFO|WARNING|ERROR|CRITICAL>\nassistants:\n  \u003Cassistant_name>:\n    model: \u003Cmodel_name>\n    temperature: \u003Ctemperature>\n    top_p: \u003Ctop_p>\n    thinking_budget: \u003Ctoken_budget>  # 仅限 Claude 3.7 模型\n    messages:\n      - { role: \u003Crole>, content: \u003Cmessage> }\n      - ...\n  \u003Cassistant_name>:\n    ...\n```\n\n您也可以覆盖预定义助手的参数。\n\n可以通过设置 `default_assistant` 字段来指定默认使用的助手。如果您未指定，则默认助手为 `general`。您还可以为助手指定要使用的 `model`、`temperature` 和 `top_p`。如果未指定，则使用默认值。这些参数也可以通过命令行参数进行覆盖。\n\n示例：\n\n```yaml\ndefault_assistant: dev\nmarkdown: True\nopenai_api_key: \u003Copenai_api_key>\nassistants:\n  pirate:\n    model: gpt-4\n    temperature: 1.0\n    messages:\n      - { role: system, content: \"你是一名海盗。\" }\n```\n\n```\n$ gpt pirate\n\n> Arrrr\n你好啊，伙计！是什么风把你吹到这片海域来了？无论你是来寻宝还是冒险，我们都可以一起扬帆远航。准备好你的地图和罗盘吧，因为我们的旅程还很长呢！\n```\n\n### 使用 !include 将其他上下文读入助手\n\n您可以使用 `!include \u003Cfile_path>` 将文件内容读入助手的上下文中。\n\n```yaml\ndefault_assistant: dev\nmarkdown: True\nopenai_api_key: \u003Copenai_api_key>\nassistants:\n  pirate:\n    model: gpt-4\n    temperature: 1.0\n    messages:\n      - { role: system, content: !include \"pirate.txt\" }\n```\n\n### 自定义 OpenAI API URL\n\n如果您使用的是与 OpenAI Python SDK 兼容的其他模型，可以通过修改配置文件中的 `openai_base_url` 设置或使用 `OPENAI_BASE_URL` 环境变量来进行配置。\n\n示例：\n\n```\nopenai_base_url: https:\u002F\u002Fyour-custom-api-url.com\u002Fv1\n```\n\n对于非 GPT 模型名称，可以在模型名称前加上 `oai-compat:` 前缀，以将其传递给 API。例如，要在 [Together](https:\u002F\u002Ftogether.ai) 上与 Llama3-70b 对话，可以使用以下命令：\n\n```bash\nOPENAI_API_KEY=$TOGETHER_API_KEY OPENAI_BASE_URL=https:\u002F\u002Fapi.together.xyz\u002Fv1 gpt general --model oai-compat:meta-llama\u002FLlama-3-70b-chat-hf\n```\n\n在将请求发送到 API 之前，会先去掉该前缀。\n\n同样，使用 `oai-azure:` 模型名称前缀可以使用通过 Azure Open AI 部署的模型。例如，`oai-azure:my-deployment-name`。\n\n借助助手配置，您可以为特定助手覆盖基础 URL 和 API 密钥。\n\n```yaml\n# ~\u002F.config\u002Fgpt-cli\u002Fgpt.yml\nassistants:\n  llama:\n    model: oai-compat:meta-llama\u002Fllama-3.3-70b-instruct\n    openai_base_url_override: https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\n    openai_api_key_override: $OPENROUTER_API_KEY\n```\n\n## 其他聊天机器人\n\n### Anthropic Claude\n\n要使用 Claude，您需要从 [Anthropic](https:\u002F\u002Fconsole.anthropic.com\u002F) 获取 API 密钥（目前 API 访问仍处于等待名单中）。获取 API 密钥后，您可以添加一个环境变量\n\n```bash\nexport ANTHROPIC_API_KEY=\u003Cyour_key_here>\n```\n\n或者在 `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml` 中添加一行配置：\n\n```yaml\nanthropic_api_key: \u003Cyour_key_here>\n```\n\n现在您应该可以使用 `--model claude-3-(opus|sonnet|haiku)-\u003Cdate>` 运行 `gpt` 命令了。\n\n```bash\ngpt --model claude-3-opus-20240229\n```\n\n#### Claude 3.7 Sonnet 扩展思考模式\n\nClaude 3.7 Sonnet 支持扩展思考模式，该模式会在给出最终答案之前展示 Claude 的推理过程。这对于复杂分析、高级 STEM 问题以及具有多重约束的任务非常有用。\n\n通过 `--thinking` 参数启用该模式，并指定用于思考过程的 token 预算：\n\n```bash\ngpt --model claude-3-7-sonnet-20250219 --thinking 32000\n```\n\n您也可以在配置中为特定助手配置思考模式：\n\n```yaml\nassistants:\n  math:\n    model: claude-3-7-sonnet-20250219\n    thinking_budget: 32000\n    messages:\n      - { role: system, content: \"你是一位数学专家。\" }\n```\n\n**注意**：当启用思考模式时，温度会自动设置为 1.0，而 top_p 则会被取消设置，这是 Claude API 的要求。\n\n### Google Gemini\n\n```bash\nexport GOOGLE_API_KEY=\u003Cyour_key_here>\n```\n\n或者\n\n```yaml\ngoogle_api_key: \u003Cyour_key_here>\n```\n\n### Cohere\n\n```bash\nexport COHERE_API_KEY=\u003Cyour_key_here>\n```\n\n或者\n\n```yaml\ncohere_api_key: \u003Cyour_key_here>\n```","# gpt-cli 快速上手指南\n\n`gpt-cli` 是一个功能强大的命令行工具，允许你在终端中直接与 ChatGPT、Claude、Gemini 等大语言模型进行交互。它支持多助手配置、流式输出、代码执行及详细的 Token 用量统计。\n\n## 环境准备\n\n- **操作系统**：Linux 或 macOS\n- **依赖环境**：Python 3 及 pip 包管理工具\n- **API 密钥**：需提前准备好对应服务商的 API Key（如 OpenAI、Anthropic、Google Gemini 等）\n\n## 安装步骤\n\n### 方式一：使用 pip 安装（推荐）\n\n```bash\npip install gpt-command-line\n```\n\n如需安装最新开发版本：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\n```\n\n### 方式二：源码安装\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli.git\ncd gpt-cli\npip install .\n```\n\n### 配置 API 密钥\n\n将 API 密钥添加到环境变量中（以 OpenAI 为例），编辑 `~\u002F.bashrc` 或 `~\u002F.zshrc`：\n\n```bash\nnano ~\u002F.bashrc\n```\n\n添加以下内容：\n\n```bash\nexport OPENAI_API_KEY=\u003Cyour_key_here>\n```\n\n保存后生效：\n\n```bash\nsource ~\u002F.bashrc\n```\n\n> **提示**：你也可以在配置文件 `~\u002F.config\u002Fgpt-cli\u002Fgpt.yml` 中直接设置 `openai_api_key` 字段，无需设置环境变量。\n\n## 基本使用\n\n### 启动交互式对话\n\n运行以下命令即可开始与默认助手（general）对话：\n\n```bash\ngpt\n```\n\n**常用快捷键：**\n- `:q` 或 `Ctrl-D`：退出程序\n- `:c` 或 `Ctrl-C`：清除当前对话历史\n- `:r` 或 `Ctrl-R`：重新生成上一条回复\n- 输入 `\\` 后回车：进入多行输入模式（按 `ESC` 然后 `Enter` 退出）\n\n### 使用特定助手\n\n工具内置了针对不同场景优化的助手：\n\n- **通用助手**（默认）：\n  ```bash\n  gpt general\n  ```\n\n- **开发助手**（回答更简洁，适合编程）：\n  ```bash\n  gpt dev\n  ```\n\n- **Bash 专家**（仅生成 Shell 命令，配合 `-e` 可直接执行）：\n  ```bash\n  gpt bash -e \"如何列出当前目录下的文件？\"\n  ```\n  *执行前会在编辑器中打开命令供你确认修改。*\n\n### 指定模型与参数\n\n你可以临时覆盖默认模型或调整参数：\n\n```bash\ngpt --model gpt-4 --temperature 0.7 --prompt \"解释一下量子纠缠\"\n```\n\n启用 Claude 3.7 的扩展思维模式（Extended Thinking）：\n\n```bash\ngpt --model claude-3-7-sonnet-20250219 --thinking 32000\n```\n\n### 非交互式调用\n\n直接输出结果而不进入交互模式，适合脚本集成：\n\n```bash\ngpt --prompt \"计算 123 * 456\" --no_markdown\n```","一位后端工程师在排查生产环境日志时，需要快速分析多段复杂的报错堆栈并生成修复脚本。\n\n### 没有 gpt-cli 时\n- **切换繁琐**：必须在浏览器中打开多个标签页，手动复制终端报错信息，粘贴到网页版 ChatGPT 或 Claude，再复制结果回终端，打断心流。\n- **上下文割裂**：无法直接在本地配置文件（如 `gpt.yml`）中预设\"Dev\"角色，每次对话都要重复输入“你是一个资深后端专家”等提示词。\n- **成本黑盒**：频繁调用 API 时，无法实时查看 Token 消耗和预估费用，容易导致预算超支而不自知。\n- **格式混乱**：网页返回的 Markdown 代码块在终端直接粘贴时往往格式错乱，需要二次调整才能执行。\n\n### 使用 gpt-cli 后\n- **终端直连**：直接在终端运行 `gpt dev`，一键读取剪贴板或管道输入的报错日志，秒级获得修复建议，无需离开命令行环境。\n- **角色预置**：通过配置文件预先定义 `dev` 助手，自动加载精简回复风格和特定技术栈上下文，开箱即用。\n- **透明监控**：每次对话结束后，gpt-cli 自动在底部显示本次消耗的 Token 数量及对应美元金额，让成本清晰可控。\n- **原生适配**：输出内容自动适配终端 Markdown 渲染，代码块高亮清晰，配合 `Ctrl-R` 快捷键可直接重新生成或修改上一条指令。\n\ngpt-cli 将大模型能力无缝融入开发者原有的命令行工作流，彻底消除了网页交互带来的效率损耗与上下文断层。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkharvd_gpt-cli_5f616d3b.png","kharvd","Val Kharitonov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkharvd_bb9e5987.jpg","member of technical staff",null,"val@kharvd.com","kharvd.com","https:\u002F\u002Fgithub.com\u002Fkharvd",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,725,82,"2026-04-07T05:08:14","MIT","Linux, macOS","未说明",{"notes":92,"python":93,"dependencies":94},"该工具为命令行客户端，本身不运行本地大模型，而是通过 API 调用云端模型（如 OpenAI, Anthropic, Google Gemini, Cohere 等）或兼容 OpenAI 接口的本地\u002F远程服务。因此无需本地 GPU 或大显存。用户需自行配置对应服务的 API Key（可通过环境变量或 YAML 配置文件）。支持通过 uvx 直接运行或通过 pip 安装。若连接本地模型（如 LM Studio），需确保本地服务已启动并配置正确的 Base URL。","未说明 (需具备 Python 和 pip)",[95,96],"gpt-command-line","PyYAML (隐含，用于配置文件)",[35,52,14],[99,100,101,102,103,104,64,105,106,107,108,109,110,111,112,113],"assistant","chatgpt","gpt-3","gpt-4","llm","openai","gpt-client","cli","command-line","anthropic","anthropic-claude","claude","bard","google-bard","palm2","2026-03-27T02:49:30.150509","2026-04-08T10:01:07.209410",[117,122,127,132,137,141],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},24126,"为什么在对话中输入包含双破折号（如 `--a b`）的代码或文本时会报错 \"Invalid argument\"？","这是因为 CLI 将输入中的 `--` 误解析为命令行参数。如果输入的文本（如代码片段或错误信息）中包含 `--` 且未被特定的分隔符（如三重反引号 ```、三重引号 \"\"\" 或单反引号 `）包裹，就会触发此错误。\n解决方案：在多行模式下输入包含 `--` 的内容时，请确保将其包裹在代码块标记中（例如使用 ``` 开头和结尾），或者避免直接粘贴未格式化的包含双破折号的文本。","https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fissues\u002F52",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},24127,"配置 Google Bard (Google Generative AI) 时遇到 \"Your default credentials were not found\" 或权限拒绝错误怎么办？","请按以下步骤排查：\n1. **配置文件清理**：检查 YAML 配置文件，删除除 `api_key` 以外的所有示例占位符内容（README 中的示例下方内容通常是存根，保留可能导致冲突）。\n2. **API 启用**：确保已在 Google Cloud Console 中为该项目启用了 \"Generative Language API\"。如果看到 \"403 PermissionDenied\" 错误，请访问提供的链接启用 API 并等待几分钟生效。\n3. **密钥设置**：可以尝试直接将 API 密钥导出到环境变量（如在 `.bashrc` 中 export），而不仅仅依赖配置文件。","https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fissues\u002F32",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},24128,"运行时出现 \"You exceeded your current quota\" (超出配额) 错误，即使我是第一次使用该工具？","这通常不是工具本身的 Bug，而是 OpenAI 账户层面的问题。即使你从未通过该 CLI 使用过 API，也可能因为以下原因导致：\n1. **免费试用额度过期**：OpenAI 的初始免费信用额度可能已过期或被用完。\n2. **未绑定支付方式**：某些模型或超出免费额度的使用需要绑定有效的信用卡。\n解决方法：请登录 OpenAI 官网检查你的账单详情 (Billing details) 和配额使用情况，必要时绑定支付方式或升级套餐。","https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fissues\u002F27",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},24129,"在使用 Anthropic 模型时遇到 \"TypeError: Client.__init__() got an unexpected keyword argument 'proxies'\" 错误如何解决？","这是由于 `anthropic` Python 库的版本更新导致的兼容性问题。新版本的 Anthropic SDK 不再支持以旧方式传递 `proxies` 参数，或者参数名称\u002F处理方式发生了变化。\n解决方案：\n1. 尝试升级 `gpt-cli` 到最新版本，看是否已修复此兼容性。\n2. 如果问题依旧，尝试调整 `anthropic` 库的版本（通常降级或升级到特定稳定版可解决，具体需参考项目最新的 requirements.txt）。\n3. 检查是否在配置文件中显式设置了代理相关参数，如有，尝试暂时移除该配置。","https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fissues\u002F102",{"id":138,"question_zh":139,"answer_zh":140,"source_url":121},24130,"如何在对话中清除当前的上下文或重新开始？","在交互式会话中，你可以使用以下命令或快捷键来管理对话：\n- **清除对话**：输入 `:c` 或按下 `Ctrl-C` 然后回车，可以清除当前对话历史并重新开始。\n- **退出程序**：输入 `:q` 或按下 `Ctrl-D`。\n- **重新生成**：输入 `:r` 或按下 `Ctrl-R` 可以重新生成上一次的回复。",{"id":142,"question_zh":143,"answer_zh":144,"source_url":121},24131,"如何进入多行模式以输入长段代码或文本？","要进入多行模式，请输入一个反斜杠 `\\` 后跟一个换行符（即输入 `\\` 然后按回车）。\n退出多行模式的方法：按下 `ESC` 键，然后按 `Enter` 键（Meta+Enter）。这在粘贴大段代码或包含特殊字符的文本时非常有用，可以避免被误解析为命令。",[146,151,156,161,166,171,176,181,186,191,196,201,206,211,216,221,225],{"id":147,"version":148,"summary_zh":149,"released_at":150},145705,"v0.4.3","## 变更内容\n* 由 @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F114 中升级了 Google GenAI 库\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.4.2...v0.4.3","2025-04-15T12:51:45",{"id":152,"version":153,"summary_zh":154,"released_at":155},145706,"v0.4.2","新增 GPT-4.1 模型系列定价\n\n**完整更新日志**：https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.4.1...v0.4.2","2025-04-14T17:25:04",{"id":157,"version":158,"summary_zh":159,"released_at":160},145707,"v0.4.1","## 变更内容\n* 更新模型定价\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.4.0...v0.4.1","2025-03-23T22:08:54",{"id":162,"version":163,"summary_zh":164,"released_at":165},145708,"v0.4.0","Claude 3.7 Sonnet 支持（带思考模式）\n**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.3.2...v0.4.0","2025-02-25T04:01:38",{"id":167,"version":168,"summary_zh":169,"released_at":170},145709,"v0.3.2","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.3.1...v0.3.2","2025-01-23T03:51:20",{"id":172,"version":173,"summary_zh":174,"released_at":175},145710,"v0.3.1","## 变更内容\n* 更新 `Together` 引用，由 @emmanuel-ferdman 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F99 中完成\n* 新增功能（OpenAI）：添加 Azure 支持，由 @trojan-bumble-bee 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F96 中完成\n* 为每个助手配置 OpenAI 兼容的 API，由 @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F106 中完成\n\n## 新贡献者\n* @emmanuel-ferdman 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F99 中完成了首次贡献\n* @trojan-bumble-bee 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F96 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.3.0...v0.3.1","2025-01-21T01:54:51",{"id":177,"version":178,"summary_zh":179,"released_at":180},145711,"v0.3.0","## 变更内容\n* 使用 `!include` 将文本文件读入助手的上下文中，由 @samleeney 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F98 中实现\n* 更新聊天会话，使其能够接受 `no_stream` 选项，由 @williamjameshandley 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F91 中实现\n* 通过重命名 `logging.py` 文件修复调试模式下的 `AttributeError`，由 @filiso 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F82 中实现\n* 移除聊天中的模型覆盖设置，由 @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F100 中实现\n\n## 新贡献者\n* @samleeney 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F98 中完成了首次贡献\n* @filiso 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F82 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.2.1...v0.3.0","2024-11-17T20:46:22",{"id":182,"version":183,"summary_zh":184,"released_at":185},145712,"v0.2.1","## 变更内容\n* 可转义的文本块，由 @sghael 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F83 中实现\n* o1 OpenAI 模型，由 @williamjameshandley 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F89 中添加\n\n## 新贡献者\n* @sghael 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F83 中完成了首次贡献\n* @williamjameshandley 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F89 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.2.0...v0.2.1","2024-09-18T17:03:39",{"id":187,"version":188,"summary_zh":189,"released_at":190},145713,"v0.2.0","## 变更内容\n* @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F78 中添加了对 Cohere 的支持\n* [破坏性变更] @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F79 中移除了对 Google Bard 的支持\n* @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F81 中添加了对 Gemini 的支持\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.7...v0.2.0","2024-05-29T03:29:17",{"id":192,"version":193,"summary_zh":194,"released_at":195},145714,"v0.1.7","## 变更内容\n* 由 @kharvd 在 https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F77 中实现，为 Claude 和 GPT 使用流式 token 计数\n* 为兼容 OpenAI 的 API 添加 `oai-compat:` 模型名称前缀\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.6...v0.1.7","2024-05-15T03:35:06",{"id":197,"version":198,"summary_zh":199,"released_at":200},145715,"v0.1.6","## What's Changed\r\n* custom openai base url support by @NierYYDS in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F72\r\n* Support for GPT-4o\r\n* Bugfixes\r\n\r\n## New Contributors\r\n* @NierYYDS made their first contribution in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F72\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.5...v0.1.6","2024-05-15T01:43:06",{"id":202,"version":203,"summary_zh":204,"released_at":205},145716,"v0.1.5","## What's Changed\r\n* feat(fine tuned models) enable access to fine tuned OpenAI models whi… by @ykim-isabel in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F66\r\n* New Anthropic models https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-3-family\r\n* Updated GPT-4-Turbo pricing\r\n\r\n## New Contributors\r\n* @ykim-isabel made their first contribution in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F66\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.4...v0.1.5","2024-03-04T17:04:33",{"id":207,"version":208,"summary_zh":209,"released_at":210},145717,"v0.1.4","- Upgrade OpenAI, Anthropic and other dependencies\r\n- Add gpt-4-1106-preview pricing\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.3...v0.1.4","2023-12-12T04:39:14",{"id":212,"version":213,"summary_zh":214,"released_at":215},145718,"v0.1.3","## What's Changed\r\n* Make cost calculation more robust + Claude 2 fix by @kharvd in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F49\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.2...v0.1.3","2023-07-11T14:09:47",{"id":217,"version":218,"summary_zh":219,"released_at":220},145719,"v0.1.2","## What's Changed\r\n* Add navigation key bindings by @AlexanderYastrebov in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F47\r\n* Add confirmation when clearing the conversation with Ctrl+C by @kharvd in https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fpull\u002F48\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fkharvd\u002Fgpt-cli\u002Fcompare\u002Fv0.1.1...v0.1.2","2023-07-11T03:10:23",{"id":222,"version":223,"summary_zh":76,"released_at":224},145720,"v0.1.2.dev0","2023-07-09T20:40:18",{"id":226,"version":227,"summary_zh":228,"released_at":229},145721,"v0.1.1","Initial PyPI release","2023-07-09T20:15:45"]