GodMode
GodMode 是一款轻量级的专用 AI 聊天浏览器,旨在帮助用户通过单一快捷键(默认为 Cmd+Shift+G)快速唤起并同时访问 ChatGPT、Claude、Perplexity、Bing 等多个主流大模型的原生网页版应用。
它主要解决了用户在多个 AI 平台间频繁切换标签页的繁琐痛点,以及部分新功能(如代码解释器、多模态输入)尚未开放 API 导致无法集成的问题。通过在 GodMode 底部输入框键入内容,指令会同步发送至所有已登录的模型窗口,让用户能即时对比不同模型的回答质量与风格。若需深入交互,用户也可独立操作各个窗口,享受完整的网页端功能体验。
这款工具特别适合需要高频使用多种 AI 模型的开发者、研究人员、内容创作者及普通效率追求者。对于希望横向测评模型表现或综合利用各平台独家功能的用户而言,它能显著提升工作流效率。
在技术实现上,GodMode 的独特之处在于坚持使用“完整网页应用”而非仅依赖 API。这不仅确保了用户在功能发布首日即可用上最新特性(如 Bing 图像生成或 Claude 多文件上传),还天然支持 Perplexity 等无公开 API 的服务,甚至可通过本地部署接入 LLaMa 等开源模型。此外,它还提供了深色模式适配及 PromptCritic(AI 辅助提示词优化)等实用功能,且完全免费开源,支持 macOS、Windows 和 Linux 系统。
使用场景
资深内容策略师李明正在为一款新发布的 AI 编程助手撰写跨平台营销文案,他需要同时参考 ChatGPT 的创意发散能力、Claude 的长文本逻辑梳理能力以及 Perplexity 的实时事实核查功能,以确保文案既具吸引力又准确无误。
没有 GodMode 时
- 频繁切换窗口导致注意力分散:李明需要在浏览器中打开多个标签页,分别登录不同平台,每次对比结果都要手动切换标签,打断创作心流。
- 重复输入降低工作效率:相同的提示词(Prompt)需要在三个不同的网页中逐一复制粘贴,不仅耗时,还容易因手误导致输入不一致,影响对比效果。
- 无法即时利用最新功能:由于依赖 API 的工具往往滞后于网页版更新,李明无法直接使用 ChatGPT 最新的代码解释器或 Claude 的多文件上传功能来辅助素材整理。
- 上下文管理混乱:当某个模型生成速度较慢时,他只能干等或切去其他页面,回来时往往忘记刚才的思路,难以保持连贯的对话状态。
使用 GodMode 后
- 一键唤起,专注核心创作:通过
Cmd+Shift+G快捷键,GodMode 作为一个独立的轻量级浏览器瞬间弹出,不占用主工作区,让李明能随时调用 AI 而不离开当前文档。 - 多模型同步响应,高效对比:在底部输入框键入一次提示词,ChatGPT、Claude 和 Perplexity 同时生成回答。李明可以直观地并排比较不同模型的语气和逻辑,快速择优或融合观点。
- 完整保留网页版原生体验:GodMode 直接加载官方 Web 应用,李明可以直接使用各平台最新推出的多模态输入或文件分析功能,无需等待 API 适配,确保工作流始终处于最前沿。
- 独立交互灵活深入:若对 Claude 的回答特别感兴趣,他可以单独在该窗口继续追问,而其他模型窗口保持静止,互不干扰,实现了“广撒网”与“深挖掘”的完美平衡。
GodMode 通过消除多平台切换的摩擦成本,将原本繁琐的交叉验证过程转化为流畅的单点操作,显著提升了专业用户驾驭多种 AI 模型的效率与体验。
运行环境要求
- macOS
- Windows
- Linux
未说明
未说明

快速开始
🐣 GodMode - 迷你AI聊天浏览器
这是一款专用的聊天浏览器,只做一件事:通过一个快捷键(Cmd+Shift+G),帮助你快速访问 ChatGPT、Claude 2、Perplexity、Bing 等多个平台的完整网页应用。

(点击观看视频)
你在底部输入的内容会同时发送到所有网页应用中;不过,如果你希望单独深入探索某个应用,也可以独立操作,因为它们只是简单的网页视图而已。
安装
请从这里下载安装! 然后在任意一个平台上登录 Google 账号,并刷新页面,这样通常就能自动登录其他大部分服务。不过,Google Bard 的认证机制似乎有些特殊,我们目前还没完全搞清楚(相关问题)。暂时来说,先用 Anthropic Claude 登录 Google 账号,再尝试登录 Bard,可能是最可靠的方法。
下载选项:
- Arm64:适用于 Apple Silicon Mac;
- 非 Arm64(通用版):适用于 Intel Mac。
- 我们刚刚增加了对 Windows 和 Linux 的支持(PR #162),但还需要大量完善工作。欢迎贡献代码!
你也可以从源码自行构建,具体步骤见下文。
混合专家模型
如今已广为人知的是,GPT-4 是一种混合专家模型(参见推文),这也解释了它为何能在不牺牲速度的情况下,显著超越 GPT-3。由此推论,如果你能同时运行多个聊天窗口,并从各大闭源和开源模型中获取结果,那么你所得到的答案将会更加多样化,从而更好地满足你的需求。作为附加功能,我们很快将推出可选的数据提交功能,以便收集用户反馈,统计各模型的优劣表现及适用场景,并随时间展示这些数据。
“这就是为什么身边总得有几个哲学家才好。一会儿谈真理与美孰为先,美即是真理吗?森林里一棵树倒下,若无人听见,是否算作有声?正当你觉得他们快要开始胡言乱语时,其中一人却顺口说道:‘顺便一提,在高处架设一个三十英尺长的抛物面反射镜,把阳光聚焦到敌方舰船上,不失为一次极富趣味的光学原理演示。’”
— 特里·普拉切特,《小神》
那这跟 nat.dev 一样吗?
可以说相似,也可以说不同:
- 许多最先进的功能往往不会开放 API(例如:ChatGPT Code Interpreter、Bing 图像生成器、Bard 多模态输入、Claude 多文件上传)。我们坚持使用网页应用,确保你在功能上线的第一天就能完全体验到所有特性。此外,我们还为每个应用添加了浅色/深色模式切换功能,纯粹为了好玩(快捷键:Cmd+Shift+L;注:8 月更新后,GodMode 重写版本中的此功能暂未修复)。
- 这是一个辅助浏览器,可以通过快捷键(Cmd+Shift+G,可自定义)快速调出。相比一直挂在浏览器窗口中,这种方式要快得多,尤其在长时间生成内容时,可以轻松地随时调出或隐藏。
- 支持无需 API 的模型,如 Perplexity 和 Poe,以及本地部署的模型,如 LLaMa 和 Vicuna(通过 OobaBooga 实现)。
- 免费使用,也可自行编译源码。
- 还有一些新奇的功能,比如 PromptCritic(AI 辅助提示优化)。
支持的 LLM 提供商
| 供应商(默认以粗体显示) | 备注 |
|---|---|
| ChatGPT | 默认使用“GPT4.5”! |
| Claude 2 | 表现优秀,上下文长度长,支持多文档处理,模型运行速度快。 |
| Perplexity | 登录过程有些麻烦——先在其他聊天界面登录 Google 账号,然后刷新页面(cmd+R),它就会自动登录。希望未来能变得更直观、更可靠。 |
| Bing | 微软目前最好的选择。它和 GPT-4 并不相同!。我们还需要帮助来统一其样式。 |
| Bard | 谷歌目前最好的选择。Bard 的更新……有点不稳定 |
| Llama2 通过 Perplexity | 简单的模型托管服务。可以运行最新的 CodeLlama 34B 模型!快来试试吧! |
| Llama2 通过 Lepton.ai | 简单的模型托管服务。速度非常快 |
| Quora Poe | 非常擅长回答通用知识类问题 |
| Inflection Pi | 具有非常独特的长记忆、简洁流畅的对话风格 |
| You.com Chat | 搜索与聊天结合得非常好,属于较早推出的产品之一 |
| HuggingChat | 简单的模型托管平台。提供 Llama2 和 OpenAssistant 模型 |
| Vercel Chat | 一个简单的开源聊天封装工具,用于调用 GPT3 API |
| 本地/GGML 模型(通过 OobaBooga) | 需要本地部署,请参阅 oobabooga 的文档 |
| Phind | 面向开发者的聊天工具,搭载了微调过的 CodeLlama |
| Stable Chat | 这是 Stability AI 开源 LLM Stable Beluga 的聊天界面。 |
| OpenRouter | 可以访问 GPT4、Claude、PaLM 以及开源模型 |
| OpenAssistant | 即将上线——提交一个 PR! |
| Claude 1 | 需要获得测试版访问权限 |
| ……还有哪些? | 提交一个新的议题! |
功能与使用说明
快捷键:
- 使用
Cmd+Shift+G快速打开,Cmd+Enter提交。 - 可自定义这些快捷键(感谢 @davej!):
- 快速打开
- 提交可以选择使用
Enter(适合快速回复聊天)或Cmd+Enter(更方便输入多行提示)。
- 快速打开
Cmd+Shift+L切换浅色/深色模式(目前不可自定义)。- 记得你还可以通过源码构建进一步自定义哦!
- 使用
面板调整与重新排列:
- 点击并拖动可调整面板大小。
- 使用
Cmd+1/2/3可单独弹出每个 WebView。 - 使用
Cmd +/-全局缩放。 - 打开右下角的面板可重新排序或恢复默认布局。
Cmd p可将窗口置顶/取消置顶。
模型切换:
- 通过右键菜单启用或禁用不同提供商。设置会保存以供下次使用。
- 支持的模型:ChatGPT、Bing、Bard、Claude 1/2 等(详见上方“支持的 LLM 提供商”)。
支持 oobabooga/text-generation-webui:
- 已添加对 oobabooga/text-generation-webui 的初步支持。
- 用户需按照 text-generation-webui 仓库中的说明操作,包括下载模型(如 LLaMa-13B-GGML 或 GPT4-x-alpaca)。
- 在 smol GodMode 浏览器中运行前,请先在
http://127.0.0.1:7860/上运行该模型。 - 当前 UI 仅支持一种提示模板。欢迎贡献代码以实现模板的可定制化(参见 Oobabooga.js 提供商)。
开始新对话:
- 使用
Cmd+R即可通过简单刷新页面开始新对话。
- 使用
Prompt Critic:利用 Llama 2 在你需要时优化你的提示词!
视频演示
- 原始版本 https://youtu.be/jrlxT1K4LEU
- 6月1日版本 https://youtu.be/ThfFFgG-AzE
- https://twitter.com/swyx/status/1658403625717338112
- https://twitter.com/swyx/status/1663290955804360728?s=20
- 7月11日版本 https://twitter.com/swyx/status/1678944036135260160
- 8月19日 GodMode 重写版 https://twitter.com/swyx/status/1692988634364871032
下载与设置
你可以:
- 下载预编译的二进制文件:https://github.com/smol-ai/GodMode/releases/latest(有时 Apple/Windows 会将其标记为不受信任或损坏,只需在应用程序中右键打开即可运行)。
- 对于 Mac,可以使用
-universal.dmg版本,它会自动选择 Apple Silicon 或 Intel 架构。我们推荐安装此版本,但请注意:- Apple Silicon M1/M2 Mac 使用 “arm64” 版本。
- Intel Mac 使用不带 “arm64” 的
.dmg版本。
- 对于 Windows,使用
.exe版本。由于尚未进行 Windows 代码签名,当前可能会被标记为不受信任。 - 对于 Linux,使用
.AppImage。 - 对于 Arch Linux,有一个 第三方 AUR 包:aur.archlinux.org/packages/godmode。
- 对于 Mac,可以使用
- 或者从源码运行(下方有说明)。
首次运行应用时:
- 登录你的 Google 账号(一旦登录 ChatGPT 的 Google 账号,你也会同时登录 Bard、Perplexity、Anthropic 等)。目前,在我们摸索过程中,似乎先通过 Anthropic Claude 登录 Google 是最可靠的。
- 对于 Bing,登录 Microsoft 账号后,需要刷新页面才能进入 Bing Chat 界面。初次尝试可能稍显麻烦,但最终是可以成功的。
可选:你可以在登录时让 GodMode 自动启动——只需前往设置并开启该选项。感谢 @leeknowlton!

招募贡献者!
请参阅 https://github.com/smol-ai/GodMode/blob/main/CONTRIBUTING.md
从源码构建
如果你想从源码构建,需要克隆仓库并打开项目文件夹:
克隆仓库并进入项目文件夹:
git clone https://github.com/smol-ai/GodMode.git cd GodMode npm install --force npm run start # 用于本地开发环境运行生成二进制文件:
npm run package # https://electron-react-boilerplate.js.org/docs/packaging # ts-node scripts/clean.js dist 清除 webpackPaths.distPath、webpackPaths.buildPath 和 webpackPaths.dllPath # npm run build 输出到 /release/app/dist/main # electron-builder build --publish never 构建并为应用进行代码签名。 # 这主要是为了让 swyx 发布官方已签名和公证的版本生成的文件将位于
/release/build目录下。
相关项目
我后来才了解到 https://github.com/sunner/ChatALL,这个项目也很棒,但我认为默认采用菜单栏/WebView 的体验更好——这样你可以在 Code Interpreter 和 Claude 2 文件上传等功能推出时立即使用,而无需等待 API 接口。
版本历史
v1.0.0-beta.102023/11/17v1.0.0-beta.92023/10/05v1.0.0-beta.82023/09/06v1.0.0-beta.72023/09/06v1.0.0-beta.62023/08/30v1.0.0-beta.52023/08/29v1.0.0-beta.42023/08/25v1.0.0-beta.32023/08/21v1.0.0-beta.22023/08/19v1.0.0-beta.12023/08/18v1.0.0-beta.02023/08/16v0.0.172023/08/08v0.0.162023/07/31v0.0.152023/07/27v0.0.142023/07/25v0.0.132023/07/20v0.0.122023/07/14v0.0.112023/07/11v0.0.102023/07/04v0.0.92023/06/15常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。
