just-prompt
just-prompt 是一个轻量级的 MCP(模型控制协议)服务器,旨在为开发者提供统一接口,轻松调用 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 及 Ollama 等主流大语言模型。它有效解决了在不同模型提供商之间切换时需重复配置环境、适配各异 API 格式的痛点,让用户只需一套指令即可并行管理多个模型。
这款工具特别适合需要频繁对比模型效果、进行批量测试或构建复杂 AI 工作流的开发者与研究人员。除了基础的文本和文件提示词发送功能外,just-prompt 还具备独特的“董事会与 CEO"(ceo_and_board)模式:它能同时让多个模型扮演“董事会成员”提供观点,再由指定的强力模型担任"CEO"综合决策并输出最终结论,极大地简化了复杂问题的推理过程。此外,它支持自动修正模型名称、并行运行测试以及将结果直接保存为 Markdown 文件,配合简洁的提供商前缀(如 o: 代表 OpenAI),显著提升了开发效率与实验灵活性。通过简单的环境变量配置,用户即可快速搭建起属于自己的多模型调度中心。
使用场景
某初创公司的技术负责人需要在产品上线前,快速评估一个高风险架构决策,希望同时听取多个主流大模型的意见并得出最终结论。
没有 just-prompt 时
- 切换繁琐:开发者需分别登录 OpenAI、Anthropic、Google 等不同网页控制台,反复复制粘贴同一段提示词,操作极其割裂。
- 格式混乱:从不同平台复制的回答格式不一(有的带 Markdown 有的不带),整理对比时需要大量手动调整排版。
- 决策困难:面对五六个模型各执一词的分析结果,缺乏机制来综合权衡,难以快速形成统一的执行方案。
- 本地集成难:若想将多模型对比融入本地自动化脚本,需为每家厂商单独编写 API 调用代码,维护成本极高。
使用 just-prompt 后
- 一键并发:通过
prompt_from_file工具,只需指定本地提示词文件,即可并行调用 GPT-4o、Claude 3.5、Gemini 等所有配置好的模型,秒级获取多方反馈。 - 统一输出:利用
prompt_from_file_to_file功能,所有模型的回复自动以标准 Markdown 格式保存至指定目录,天然便于横向对比阅读。 - 智能决策:调用独特的
ceo_and_board工具,让多个模型扮演“董事会成员”提供建议,再由指定的高阶模型(如 o3)担任"CEO"综合各方意见输出最终决策报告。 - 屏蔽差异:无需关心各厂商 API 的细节差异,仅用
provider:model简写前缀(如o:gpt-4o)即可统一调度,极大简化了本地工作流。
just-prompt 将分散的多模型调用转化为标准化的流水线作业,特别是其“董事会 +CEO"机制,让复杂的技术决策从“众说纷纭”变成了“有据可依”。
运行环境要求
- Linux
- macOS
- Windows
非必需(仅在使用本地 Ollama 且运行大型模型时可能需要 GPU,云端 API 无需 GPU)
未说明(取决于是否运行本地模型,纯 API 调用模式对内存无特殊要求)

快速开始
Just Prompt - 一款面向 LLM 提供商的轻量级 MCP 服务器
just-prompt 是一个模型控制协议 (MCP) 服务器,为包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama 在内的多家大型语言模型 (LLM) 提供商提供统一的接口。请查看我们如何使用 ceo_and_board 工具,借助 o3 轻松做出艰难决策:点击观看。
工具列表
该服务器提供了以下 MCP 工具:
prompt:将提示发送至多个 LLM 模型- 参数:
text:提示文本models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
- 参数:
prompt_from_file:从文件中读取提示并将其发送至多个 LLM 模型- 参数:
abs_file_path:包含提示的文件的绝对路径(必须是绝对路径,不能是相对路径)models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
- 参数:
prompt_from_file_to_file:从文件中读取提示,发送至多个 LLM 模型,并将响应保存为 Markdown 文件- 参数:
abs_file_path:包含提示的文件的绝对路径(必须是绝对路径,不能是相对路径)models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。abs_output_dir(默认值:“.”):用于保存响应 Markdown 文件的绝对目录路径(必须是绝对路径,不能是相对路径)
- 参数:
ceo_and_board:将提示发送至多个“董事会成员”模型,并由“CEO”模型根据它们的响应做出决策- 参数:
abs_file_path:包含提示的文件的绝对路径(必须是绝对路径,不能是相对路径)models_prefixed_by_provider(可选):用作董事会成员的模型列表。若未提供,则使用默认模型。abs_output_dir(默认值:“.”):用于保存响应文件和 CEO 决策的绝对目录路径(必须是绝对路径,不能是相对路径)ceo_model(默认值:“openai:o3”):用于 CEO 决策的模型,格式为“提供商:模型”
- 参数:
list_providers:列出所有可用的 LLM 提供商- 参数:无
list_models:列出特定 LLM 提供商的所有可用模型- 参数:
provider:要列出模型的提供商(例如,“openai”或“o”)
- 参数:
提供商前缀
每个模型都必须以提供商名称作为前缀
使用简称可加快引用速度
o或openai:OpenAIo:gpt-4o-miniopenai:gpt-4o-mini
a或anthropic:Anthropica:claude-3-5-haikuanthropic:claude-3-5-haiku
g或gemini:Google Geminig:gemini-2.5-pro-exp-03-25gemini:gemini-2.5-pro-exp-03-25
q或groq:Groqq:llama-3.1-70b-versatilegroq:llama-3.1-70b-versatile
d或deepseek:DeepSeekd:deepseek-coderdeepseek:deepseek-coder
l或ollama:Ollamal:llama3.1ollama:llama3.1
功能特性
- 面向多个 LLM 提供商的统一 API
- 支持从字符串或文件中读取文本提示
- 并行运行多个模型
- 自动校正模型名称,使用
--default-models列表中的第一个模型 - 可将响应保存到文件中
- 轻松列出可用的提供商和模型
安装说明
# 克隆仓库
git clone https://github.com/yourusername/just-prompt.git
cd just-prompt
# 使用 uv 安装
uv sync
环境变量
创建一个 .env 文件来存放你的 API 密钥(可以复制 .env.sample 文件):
cp .env.sample .env
然后编辑 .env 文件以添加你的 API 密钥(或在你的 shell 中导出它们):
OPENAI_API_KEY=your_openai_api_key_here
ANTHROPIC_API_KEY=your_anthropic_api_key_here
GEMINI_API_KEY=your_gemini_api_key_here
GROQ_API_KEY=your_groq_api_key_here
DEEPSEEK_API_KEY=your_deepseek_api_key_here
OLLAMA_HOST=http://localhost:11434
Claude Code 安装
在所有这些示例中,请将目录替换为 just-prompt 目录的路径。
默认模型设置为 openai:o3:high、openai:o4-mini:high、anthropic:claude-opus-4-20250514、anthropic:claude-sonnet-4-20250514、gemini:gemini-2.5-pro-preview-03-25 和 gemini:gemini-2.5-flash-preview-04-17。
如果你直接从仓库使用 Claude Code,可以在 .mcp.json 文件中看到我们已将默认模型设置为……
{
"mcpServers": {
"just-prompt": {
"type": "stdio",
"command": "uv",
"args": [
"--directory",
".",
"run",
"just-prompt",
"--default-models",
"openai:o3:high,openai:o4-mini:high,anthropic:claude-opus-4-20250514,anthropic:claude-sonnet-4-20250514,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"
],
"env": {}
}
}
}
--default-models 参数用于设置当 API 端点未显式指定模型时使用的默认模型。列表中的第一个模型还将在需要时用于模型名称校正。此参数可以是一个由逗号分隔的模型列表。
启动服务器时,它会自动检查你环境中可用的 API 密钥,并告知你可以使用哪些提供商。如果缺少某个密钥,相应的提供商将被列为不可用,但服务器仍会启动,并且你可以继续使用那些可用的提供商。
使用 mcp add-json
复制以下内容并粘贴到 Claude Code 中,但不要运行,直到你先复制 JSON:
claude mcp add just-prompt "$(pbpaste)"
待复制的 JSON:
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt"]
}
自定义默认模型设置为 openai:gpt-4o:
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"]
}
设置多个默认模型:
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-opus-4-20250514,anthropic:claude-sonnet-4-20250514,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"]
}
使用 mcp add 并指定项目范围
# 使用默认模型
claude mcp add just-prompt -s project \
-- \
uv --directory . \
run just-prompt
# 使用自定义默认模型
claude mcp add just-prompt -s project \
-- \
uv --directory . \
run just-prompt --default-models "openai:gpt-4o"
# 使用多个默认模型
claude mcp add just-prompt -s user \
-- \
uv --directory . \
run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-opus-4-20250514,anthropic:claude-sonnet-4-20250514,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"
mcp remove
claude mcp remove just-prompt
运行测试
uv run pytest
代码库结构
.
├── ai_docs/ # AI模型详细信息的文档
│ ├── extending_thinking_sonny.md
│ ├── llm_providers_details.xml
│ ├── openai-reasoning-effort.md
│ └── pocket-pick-mcp-server-example.xml
├── example_outputs/ # 不同模型的示例输出
├── list_models.py # 列出可用LLM模型的脚本
├── prompts/ # 示例提示文件
├── pyproject.toml # Python项目配置文件
├── specs/ # 项目规格说明
│ ├── init-just-prompt.md
│ ├── new-tool-llm-as-a-ceo.md
│ └── oai-reasoning-levels.md
├── src/ # 源代码目录
│ └── just_prompt/
│ ├── __init__.py
│ ├── __main__.py
│ ├── atoms/ # 核心组件
│ │ ├── llm_providers/ # 各提供商的具体实现
│ │ │ ├── anthropic.py
│ │ │ ├── deepseek.py
│ │ │ ├── gemini.py
│ │ │ ├── groq.py
│ │ │ ├── ollama.py
│ │ │ └── openai.py
│ │ └── shared/ # 共享工具和数据类型
│ │ ├── data_types.py
│ │ ├── model_router.py
│ │ ├── utils.py
│ │ └── validator.py
│ ├── molecules/ # 高层功能
│ │ ├── ceo_and_board_prompt.py
│ │ ├── list_models.py
│ │ ├── list_providers.py
│ │ ├── prompt.py
│ │ ├── prompt_from_file.py
│ │ └── prompt_from_file_to_file.py
│ ├── server.py # MCP服务器实现
│ └── tests/ # 测试目录
│ ├── atoms/ # 原子层的测试
│ │ ├── llm_providers/
│ │ └── shared/
│ └── molecules/ # 分子层的测试
│ ├── test_ceo_and_board_prompt.py
│ ├── test_list_models.py
│ ├── test_list_providers.py
│ ├── test_prompt.py
│ ├── test_prompt_from_file.py
│ └── test_prompt_from_file_to_file.py
└── ultra_diff_review/ # 差异对比审查输出
上下文引导
阅读README.md和pyproject.toml,然后运行git ls-files以及eza --git-ignore --tree命令,以了解项目的整体背景。
OpenAI o系列的推理力度
对于OpenAI o系列推理模型(o4-mini、o3-mini、o3),你可以控制模型在生成可见答案之前进行的内部推理量。
在模型名称后(紧接提供商前缀之后)添加以下后缀之一:
:low– 最小化内部推理(更快、更便宜):medium– 平衡模式(若未指定则默认使用此模式):high– 彻底推理(较慢、消耗更多token)
示例:
openai:o4-mini:lowo:o4-mini:high
当存在推理力度后缀时,just‑prompt会自动切换到OpenAI Responses API(如果可用),并设置相应的reasoning.effort参数。如果安装的OpenAI SDK版本较旧,则会优雅地回退到Chat Completions端点,并嵌入一条内部系统指令来近似请求的推理力度。
Claude的思考token
Anthropic公司的Claude模型claude-opus-4-20250514和claude-sonnet-4-20250514支持通过思考token扩展其思考能力。这使得Claude能够在回答问题之前进行更为深入的思考过程。
你可以通过在模型名称后添加以下格式的后缀来启用思考token功能:
anthropic:claude-opus-4-20250514:1k- 为Opus 4使用1024个思考tokenanthropic:claude-sonnet-4-20250514:4k- 为Sonnet 4使用4096个思考tokenanthropic:claude-opus-4-20250514:8000- 为Opus 4使用8000个思考token
注意事项:
- 思考token功能仅适用于
claude-opus-4-20250514、claude-sonnet-4-20250514和claude-3-7-sonnet-20250219等型号。 - 有效的思考token预算范围为1024至16000。
- 超出此范围的值将自动调整至有效区间内。
- 你可以使用k记法(如1k、4k等)或具体数字(如1024、4096等)来指定预算。
Gemini的思考预算
Google的Gemini模型gemini-2.5-flash-preview-04-17支持通过思考预算扩展其思考能力。这使得Gemini能够在给出响应之前进行更加深入的推理。
你可以通过在模型名称后添加以下格式的后缀来启用思考预算功能:
gemini:gemini-2.5-flash-preview-04-17:1k- 使用1024个思考预算gemini:gemini-2.5-flash-preview-04-17:4k- 使用4096个思考预算gemini:gemini-2.5-flash-preview-04-17:8000- 使用8000个思考预算
注意事项:
- 思考预算功能仅适用于
gemini-2.5-flash-preview-04-17型号。 - 有效的思考预算范围为0至24576。
- 超出此范围的值将自动调整至有效区间内。
- 你可以使用k记法(如1k、4k等)或具体数字(如1024、4096等)来指定预算。
资源
- https://docs.anthropic.com/en/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
掌握AI编程
学习如何利用AI进行编程,掌握基础的AI编程原则。
关注IndyDevDan YouTube频道,获取更多AI编程技巧与窍门。
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器