AI-Gist
AI-Gist 是一款专注隐私安全的 AI 提示词(Prompt)管理工具,旨在帮助用户高效地创建、组织和优化个人提示词库,让收藏的灵感真正转化为生产力。它解决了用户在面对大量零散提示词时难以复用、版本混乱以及担心数据泄露的痛点。
无论是经常与 AI 对话的普通用户,还是需要精细化管理工作流的开发者、研究人员及设计师,都能通过 AI-Gist 获得极大的便利。其核心亮点在于“本地优先”的架构,所有数据默认存储于本地,无需联网即可使用,从根源上保障隐私;同时支持 WebDAV 和 iCloud 云端备份,方便多设备同步。在功能上,AI-Gist 不仅支持灵活的 Jinja 模板和动态变量替换,还深度集成了多种 AI 模型(包括本地部署的 Ollama、LM Studio 及在线模型)。用户可以利用 AI 自动生成新提示词、智能润色现有内容,甚至自动提取变量,大幅降低编写门槛。此外,它还提供了卡片、表格等多种视图管理及完整的历史版本记录,让提示词的迭代过程清晰可溯。这是一款兼顾数据安全与智能效率的得力助手,适合所有希望系统化提升 AI 使用体验的人群。
使用场景
资深内容运营小林每天需为不同产品线撰写数十条社交媒体文案,他习惯利用 AI 生成初稿,但面对大量重复且微调频繁的提示词,工作流程显得杂乱无章。
没有 AI-Gist 时
- 模板管理混乱:提示词散落在记事本、浏览器书签和聊天记录中,查找特定风格的文案模板如同大海捞针。
- 手动替换低效:每次复用模板时,需人工查找并替换“产品名称”、“目标受众”等变量,极易因遗漏导致生成内容出错。
- 优化迭代困难:想要优化某个提示词的效果时,无法回溯历史版本,往往改坏了也无法还原,只能凭记忆重写。
- 隐私安全担忧:将包含内部产品数据的提示词存储在云端笔记或公共平台,时刻担心敏感信息泄露。
- 多设备同步割裂:在公司电脑整理的优质模板,回家无法直接使用,数据孤岛严重阻碍创作连续性。
使用 AI-Gist 后
- 集中可视管理:利用卡片与表格视图统一收纳所有文案模板,通过标签和评分快速定位“小红书风格”或“技术博客”类提示词。
- 智能变量填充:基于 Jinja 模板技术,只需输入一次变量值,AI-Gist 自动完成全文替换,结构清晰且零误差。
- AI 辅助调优:内置 AI 模型可一键“润色”提示词使其更具体,或自动“提取变量”,同时完整记录历史版本,随时回溯对比。
- 本地隐私优先:所有数据默认 100% 存储于本地,无需联网即可运行,彻底杜绝核心创作逻辑外泄风险。
- 无缝云端同步:通过 WebDAV 或 iCloud 实现多设备间安全备份与同步,确保在任何终端都能即时调用最新模板库。
AI-Gist 将零散的提示词转化为可复用、可进化且安全的个人资产,让创作者从繁琐的复制粘贴中解放,专注于内容本身的价值创造。
运行环境要求
- Windows
- macOS
- Linux
未说明
未说明

快速开始

AI Gist
✨ AI Gist 是一款隐私优先的 AI 提示词管理工具,致力于让个人收藏的 AI 提示词能够发挥最大价值。支持变量替换、Jinja 模板、AI 生成与调优、历史版本记录、云端备份等核心功能。

📌 特点
AI Gist 提供基础的 AI 提示词管理功能,旨在帮助用户高效地创建、组织和使用 AI 提示词。支持 Jinja 模板。
- 变量填充:调用模板时动态填入变量,结构清晰灵活,支持 Jinja 模板。
- 多视图管理:集中管理提示词模板,支持卡片视图、表格视图、分类视图。
- 筛选分类:快速筛选、查找、组织提示词,支持标签、分类、评分、收藏等功能。
- 多种历史记录:便于重复调用与持续优化,事后可回溯。

AI Gist 还集成了 AI 模型,支持自动生成和调整提示词,提升管理效率。用之前,改一改。
- 接入多种 AI 模型:支持接入多种 AI 模型(包括本地模型 Ollama、LM Studio,以及 OpenAI 等多种常见在线模型)。
- AI 生成:使用 AI 快捷生成提示词,支持自定义系统提示词。
- AI 调优:使用 AI 改写提示词,快速让提示词更具体、更丰富,同样支持自定义。
- AI 提取变量:无需手动挖空,使用 AI 自动提取可能的变量。

AI Gist 关注隐私和数据安全,所有数据都存储在本地,并支持云备份功能,方便在不同设备间同步。
- 本地优先:所有数据存储在本地,默认情况无需联网,确保隐私和安全。
- 掌控数据:拥有完整的数据控制,支持完整导出和导入,通用格式 CSV 导出。
- 云端备份:支持 WebDAV、iCloud 备份与恢复,方便在多设备间共享数据。

- 多平台支持:支持 Windows / macOS / Linux。
- 多语言支持:支持简体中文、繁体中文、英文、日语。
⬇️ 下载
| 平台 | 下载链接 | 说明 |
|---|---|---|
![]() |
Windows Setup | Windows 安装程序 |
| macOS (Apple Silicon) | 适用于 Apple 芯片 | |
| macOS (Intel) | 适用于 Intel 芯片 | |
| Linux AppImage | 通用 Linux 应用 |
如果 Github 下载较慢,可以尝试通过百度网盘、SourceForge 进行下载。
| 镜像源 | 下载链接 | 说明 |
|---|---|---|
| 百度网盘 | 中国用户推荐 提取码:4321 | |
| SourceForge | 国际用户推荐 |
🚀 安装说明
- Windows: 下载
.exe文件后双击运行安装 - macOS: 下载
.dmg文件后打开,将应用拖拽到应用程序文件夹,在终端执行xattr -cr /Applications/AI\ Gist.app以解除“已损坏”报错后启动。 - Linux: 下载
.AppImage文件后添加执行权限:chmod +x ai-gist-linux.AppImage
📒 使用场景
管理提示词
- 点击“新建提示词”
- 输入提示词模板,用
{{变量名}}来插入变量,AI Gist 会自动读取其中的变量。 - 使用时直接选择模板,输入变量值。
- 点击“复制内容”,即可自动记录使用历史。
AI 生成提示词
- 先在应用中添加 AI 模型(支持纯本地 Ollama、LM Studio 模型,以及常见的 OpenAI、DeepSeek 等在线模型)。
- 在首页点击“AI 生成”按钮,可以通过 AI 模型生成提示词。
AI 润色提示词
- 先添加 AI 模型
- 在编辑提示词页面对现有提示词进行快速润色,例如“提取变量”、“更具体”等。也可以自定义润色提示词。
开发说明
安装依赖
yarn install
启动开发环境
yarn dev
其他常用命令
# 开发相关
yarn dev # 启动应用并开启热重载
yarn build # 打包应用,输出目录为 "dist"
# 跨平台构建
yarn build:win # 构建 Windows 安装包
yarn build:mac # 构建 macOS 安装包
yarn build:linux # 构建 Linux 安装包
开发指南
详细的开发指南请参阅 docs 目录:
贡献
本项目主要由个人开发,所有代码完全开源。如果你喜欢这个项目,请点击右上角的 Star ⭐️ 来支持我!这将激励我继续改进和维护这个项目。
如果有问题或建议,欢迎在 GitHub 上提交 Issue 或 Pull Request。
欢迎加入 QQ 群,与开发者和其他用户交流使用心得、反馈问题和获取最新动态。
应用截图

变量填充

编辑提示词

Jinja 模板

AI 模型管理

添加 AI 配置

AI 快速调整

高级筛选

表格视图

文件夹视图

分类管理

数据备份

明亮模式
Star History
许可证
本项目采用 AGPL 许可证,请在使用时遵守相关条款。
版本历史
v1.3.92026/03/15v1.3.82026/02/27v1.3.72025/08/06v1.3.62025/08/05v1.3.52025/07/30v1.3.42025/07/30v1.3.32025/07/29v1.3.22025/07/29v1.3.12025/07/28v1.3.02025/07/16v1.2.42025/07/10v1.2.32025/07/10v1.2.22025/07/04v1.2.12025/07/03v1.2.02025/07/03v1.1.12025/07/02v1.1.02025/07/02v1.0.42025/07/02v1.0.32025/07/02v1.0.22025/07/02常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

