Personal_AI_Infrastructure
Personal_AI_Infrastructure(简称 PAI)是一套旨在放大人类能力的个人智能体基础设施。它的核心理念是让每个人都能轻松拥有并掌控属于自己的顶级 AI 技术栈,从而将人工智能从云端服务转化为真正增强个人效率的本地化伙伴。
该项目主要解决了普通用户在部署和管理复杂 AI 系统时面临的技术门槛高、配置繁琐以及数据隐私难以保障等痛点。通过提供一套标准化的安装流程和模块化组件,PAI 让用户无需深厚的技术背景即可搭建起功能强大的个人 AI 环境,实现从“使用 AI 工具”到“拥有 AI 能力”的转变。
虽然它由开发者 Daniel Miessler 创建并深受技术人员喜爱,但其设计初衷是服务于所有希望提升工作效率的普通用户、创作者及知识工作者。只要对利用 AI 辅助工作或学习感兴趣,无论是否具备编程经验,都能从中受益。
在技术亮点方面,PAI 采用现代技术栈构建,基于 TypeScript 和 Bun 运行时,确保了系统的高效与轻量。项目强调社区驱动与开放性,支持跨平台(包括 Linux)运行,并持续集成社区贡献的修复与功能扩展。它不仅是一个软件包,更是一个倡导"AI 应赋能每一个人”的开放生态,帮助用户构建安全、可控且高度个性化的智能助手系统。
使用场景
资深安全研究员李明需要每天从数十个分散的安全博客、GitHub 仓库和威胁情报源中筛选关键漏洞信息,并整理成可执行的防御策略报告。
没有 Personal_AI_Infrastructure 时
- 信息过载与遗漏:手动浏览多个来源效率极低,容易错过隐蔽但高危的最新漏洞情报。
- 上下文割裂:不同来源的数据格式杂乱,难以将碎片化信息与李明现有的知识库自动关联。
- 响应滞后:从发现威胁到形成结构化报告耗时数小时,无法在攻击窗口期内及时部署防御。
- 重复劳动:每次都需要重新编写提示词来格式化数据,无法沉淀个性化的分析逻辑。
- 能力受限:单靠人力难以同时监控全球多语言源,导致防御视野存在盲区。
使用 Personal_AI_Infrastructure 后
- 智能聚合过滤:PAI 自动抓取并预筛选全网情报,仅推送与李明关注领域相关的高价值告警。
- 知识自动增强:PAI 将新情报与李明的本地笔记和过往案例自动关联,生成带有上下文的深度分析。
- 实时策略生成:分钟级输出包含具体修复命令和检测规则的防御报告,大幅缩短响应时间。
- 个性化代理进化:PAI 记住李明的分析偏好和报告模板,越用越懂他的思维模式,无需重复指令。
- 能力无限延伸:7x24 小时不间断监控多语言源,相当于为李明配备了一支全天候的全球情报团队。
Personal_AI_Infrastructure 将李明从繁琐的信息搬运工转变为战略决策者,真正实现了用 AI 架构放大人类专业能力的愿景。
运行环境要求
- Linux
- macOS
未说明
未说明

快速开始
[!IMPORTANT] PAI v4.0.3发布 — 自v4.0.0以来已发布3个补丁更新,包含30多项社区贡献的修复:Linux兼容性、JSON解析、安装程序改进、可移植性以及升级迁移。
AI 应该赋能每一个人——而不仅仅是前1%的人。
项目的宗旨
PAI的存在旨在解决我认为世界上存在的P0问题:
地球上只有极小一部分人类的创造潜力被激发出来。
大多数人并不相信自己能够做出有价值的贡献。他们认为世界上有“特殊”的人——而自己并不是其中之一。他们从未真正问过自己是谁、想要什么,也从未将这些思考清晰地表达或记录下来。这使得他们在面对AI带来的冲击时显得格外脆弱。如果没有自我激活,就无法拥有高度的自主能动性。
因此,我们通过PAI的目标就是帮助人们实现自我激活。
PAI的使命是双重的:
- 尽可能多地激活人们 — 借助AI增强的自我发现能力,帮助人们识别、表达并追求自己的人生目标。
- 让世界上最好的AI技术惠及所有人 — 确保这种高质量的AI基础设施不会仅仅局限于富人或技术精英群体。
这就是为什么这是一个开源项目,而非私有项目。
新手入门?从这里开始
你可能已经用过ChatGPT或Claude。输入一个问题,就能得到答案。很简单。
你可以把AI系统看作是三个层次:
聊天机器人
ChatGPT、Claude、Gemini——你提出一个问题,它会回答,然后就把之前的一切都忘记了。下一次对话又会从头开始。它对你、你的偏好,或者昨天聊过的内容一无所知。
模式: 提问 → 回答 → 忘记
主体型平台
像Claude Code这样的工具。AI可以真正“做”事情——编写代码、浏览网页、编辑文件、执行命令。
模式: 提问 → 使用工具 → 得到结果
虽然功能更强大了,但它仍然不了解“你”——你的目标、偏好和过往经历。
PAI(个人AI基础设施)
现在,你的DA会不断学习和改进:
- 捕捉每一个信号 — 评分、情感反馈、验证结果
- 从错误中学习 — 失败会被分析并修正
- 随着时间推移变得更好 — 成功的模式会被强化
- 自我升级 — 技能、工作流程,甚至核心行为都会进化
此外,它还了解:
- 你的目标 — 你在努力实现什么
- 你的偏好 — 你喜欢怎样的方式
- 你的历史 — 过去的决策和经验
模式: 观察 → 思考 → 计划 → 执行 → 验证 → 学习 → 改进
关键区别在于:PAI会根据反馈不断学习。每一次互动都会让它更好地为你提供帮助。
什么是 PAI?
PAI 是一个个性化 AI 平台,旨在放大您的能力。
它首先也是最重要的是为个人设计的,但同样适用于希望成为更好版本的自己的人团队、公司,甚至是星际联邦。
无论规模大小,PAI 都是一个系统:它利用功能齐全的代理式 AI 平台,帮助用户理解、明确并实现自己的目标。
PAI 适合哪些人?
所有人,仅此而已。 它是一个反对准入门槛的 AI 项目。
- 非技术背景的小企业主,希望借助 AI 处理开票、日程安排、客户跟进和市场营销等事务。
- 企业,希望更好地理解自身数据、优化运营并做出更明智的决策。
- 管理者,希望更高效地管理团队——跟踪项目进展、准备绩效评估并清晰沟通。
- 艺术家和创意工作者,希望找到本地活动、画廊以及展示作品的机会。
- 普通大众,希望改善生活——制定更好的健身计划、建立更牢固的人际关系、管理个人财务,或只是让自己更有条理。
- 开发者,使用 AI 编码助手时,需要持久记忆和自定义工作流。
- 高级用户,希望自己的 AI 能够了解他们的目标、偏好和上下文。
- 团队,构建具备一致能力的共享 AI 基础设施。
- 对 AI 系统设计和个人化 AI 模式感兴趣的实验者。
PAI 有何不同?
人们最常问的问题是:
这与 Claude Code 或其他代理式系统有什么不同?
大多数代理式系统都是围绕工具构建的,而用户往往被放在次要位置。此外,这些系统大多以任务为导向,而非基于目标,并且很少充分利用所有可用的上下文信息。而 PAI 则恰恰相反。
三大核心差异:
目标导向 — PAI 的首要关注点是运行它的用户及其在现实世界中想要达成的目标,而不是技术本身。这一点贯穿于系统的每一个执行环节。
追求最优输出 — 系统的外层循环以及所有操作,都致力于根据当前情境及周边环境,生成完全符合需求的输出结果。
持续学习 — 系统会不断记录每次请求的执行情况、所做的调整、产生的结果,以及您对这些结果的反馈(满意或不满意),从而持续优化自身表现。
PAI 原则
这些原则指导着 PAI 系统的设计与构建。完整解读 →
| 序号 | 原则 | 概述 |
|---|---|---|
| 1 | 以用户为中心 | PAI 是围绕您构建的,而非围绕工具。您的目标、偏好和上下文始终放在首位——基础设施的存在是为了服务于它们。 |
| 2 | 基础算法 | 科学方法作为通用的问题解决循环:观察 → 思考 → 计划 → 构建 → 执行 → 验证 → 学习。明确理想状态,反复迭代直至达成。 |
| 3 | 清晰思考优先 | 优质的提示词源于清晰的思考。在编写提示词之前,先明确问题。 |
| 4 | 架构优先于模型 | 系统架构的重要性远胜于所使用的具体模型。 |
| 5 | 确定性基础设施 | AI 具有概率性;而您的基础设施不应如此。应使用模板和模式。 |
| 6 | 代码优先于提示词 | 如果可以用 Bash 脚本解决的问题,就不要使用 AI。 |
| 7 | 先规范、再测试、后评估 | 在构建之前先编写规范和测试用例。通过测量来判断系统是否有效。 |
| 8 | UNIX 哲学 | 一件事做到最好。让工具可组合。使用文本界面。 |
| 9 | 软件工程与 SRE 原则 | 将 AI 基础设施视为生产级软件:版本控制、自动化、监控。 |
| 10 | 命令行界面优先 | 命令行界面比图形用户界面更快、更易脚本化且更可靠。 |
| 11 | 目标 → 代码 → CLI → 提示词 → 代理 | 决策层次:先明确目标,再写代码,然后使用命令行,接着是提示词,最后才是代理。 |
| 12 | 技能管理 | 模块化的功能可根据上下文智能路由。 |
| 13 | 记忆系统 | 所有值得记住的信息都会被记录下来。历史会为未来的上下文提供支持。 |
| 14 | 代理人格 | 不同的工作需求需要不同的处理方式。专门化的代理拥有独特的“声音”。 |
| 15 | 科学作为元循环 | 假设 → 实验 → 测量 → 迭代。 |
| 16 | 允许失败的权利 | 明确允许说“我不知道”,可以有效防止幻觉现象的发生。 |
PAI 基本组件
如果说原则描述的是 PAI 的哲学,那么基本组件就是其架构——支撑一切运转的核心系统。
这些基本组件协同工作,为您带来一种与真正理解并熟悉您的系统互动的体验,而不是仅仅执行指令的工具集合。
助理与代理式 AI 交互
PAI 将 AI 视为一位持久的助理、朋友、教练和导师,而非只负责执行任务的无状态代理。助理会了解您的目标、记住您的偏好,并随着时间推移不断改进;而代理则只是执行命令后便遗忘一切。
TELOS(深度目标理解)
10 个文件记录了您的身份与目标:MISSION.md、GOALS.md、PROJECTS.md、BELIEFS.md、MODELS.md、STRATEGIES.md、NARRATIVES.md、LEARNED.md、CHALLENGES.md 和 IDEAS.md。您的 DA 清楚您正在努力的方向,因为这一切都被详细记录了下来。
用户/系统分离
您的个性化设置存储在 USER/ 目录下。而 PAI 的基础设施则位于 SYSTEM/ 目录中。当 PAI 升级时,您的文件不会受到影响。实现身份可移植、升级安全。
精细化定制
六层定制选项:身份(姓名、语气、个性)、偏好(技术栈、工具)、工作流程(技能如何执行)、技能(具备哪些能力)、钩子(事件如何处理)以及记忆(记录哪些内容)。您可以从默认设置开始,按需进行个性化调整。
技能系统
高度注重持续稳定的结果。其结构以确定性结果优先,按照 CODE -> 命令行工具 -> 提示词 -> 技能 的顺序进行,而非随意的架构。
记忆系统
专注于持续学习。每次交互都会产生信号——评分、情感、成功或失败——这些信号会反馈回系统,用于不断优化。采用三层架构(热/温/冷),并配备基于阶段的学习目录。
钩子系统
响应生命周期事件——会话开始、工具使用、任务完成等。8种事件类型支持语音通知、自动加载上下文、会话捕获、安全验证和可观性等功能。
安全系统
默认定义了系统级和用户级的安全策略。您无需使用 --dangerously-skip-permissions 参数即可获得顺畅的体验。PAI 的安全钩子会在命令执行前进行验证,阻止危险操作,同时确保正常工作流程顺利进行。
基于AI的安装
GUI 安装程序负责处理所有内容——包括先决条件、配置和设置。无需手动配置,也无需猜测。
通知系统
在不打扰您的情况下保持信息畅通。通过 ntfy 发送移动设备提醒,集成 Discord 进行团队更新,并根据任务持续时间智能路由,对于长时间运行的任务会自动升级通知级别。一次性触发的设计意味着通知绝不会阻塞您的工作流。
语音系统
由 ElevenLabs TTS 提供支持。您可以听到任务完成、会话摘要以及重要更新的语音播报。韵律增强功能使语音听起来更加自然。您的 AI 现在有了声音。
终端界面
丰富的标签标题和窗格管理功能。动态状态栏显示学习信号、上下文使用情况以及当前任务状态。您的终端现在就是一个指挥中心。
🚀 安装
[!CAUTION] 项目处于积极开发中 — PAI 正在快速演进。请预期会出现破坏性变更、结构调整以及频繁的更新。我们正在维护稳定分支和开发分支,但目前两者尚未分离。
全新安装
# 克隆仓库
git clone https://github.com/danielmiessler/Personal_AI_Infrastructure.git
cd Personal_AI_Infrastructure/Releases/v4.0.3
# 复制发布版本并运行安装程序
cp -r .claude ~/ && cd ~/.claude && bash install.sh
安装程序将:
- 检测您的系统并安装先决条件(Bun、Git、Claude Code)
- 询问您的姓名、AI 助手名称、时区及温度单位偏好
- 将 PAI 仓库克隆并配置到
~/.claude/ - 设置 ElevenLabs 语音功能(可选)
- 配置您的 shell 别名并验证安装
安装完成后: 运行 source ~/.zshrc && pai 启动 PAI。
从旧版本升级
# 1. 备份当前安装
cp -r ~/.claude ~/.claude-backup-$(date +%Y%m%d)
# 2. 克隆并覆盖现有安装
git clone https://github.com/danielmiessler/Personal_AI_Infrastructure.git
cd Personal_AI_Infrastructure/Releases/v4.0.3
cp -r .claude ~/
# 3. 运行安装程序(检测现有安装,保留您的数据)
cd ~/.claude && bash install.sh
# 4. 重新构建 CLAUDE.md
bun ~/.claude/PAI/Tools/BuildCLAUDE.ts
[!TIP] 安装程序会自动检测现有安装。它会保留您的
USER/文件,合并settings.json(仅更新安装程序管理的字段,如身份和版本),并且绝不会覆盖您的钩子、状态栏或自定义配置。
升级后检查清单:
- 在
settings.json中确认您的身份信息(姓名、AI 名称、时区) - 确认状态栏显示正确
- 测试语音通知(如果已启用)
- 运行一个简单提示,确认 PAI 响应正常
📦 PAI 套件
不想安装整个 PAI?套件是可独立安装的 AI 能力模块,您可以一次添加一个。每个套件都是自包含的——您的 AI 会读取安装指南并为您完成所有设置。无需安装完整的 PAI 系统。
只需让您的 AI 指向任意套件并说“安装这个”:
“从 PAI/Packs/Research/ 安装 Research 套件”
您的 AI 会引导您完成一个五阶段向导:系统分析、用户提问、备份、安装和验证。
可用套件
| 套件 | 功能描述 |
|---|---|
| ContextSearch | /context-search 和 /cs — 快速调用之前的工作会话 |
| Agents | 根据特质、声音和个性定制代理 |
| ContentAnalysis | 从视频、播客、文章和 YouTube 中提取智慧 |
| Investigation | OSINT 和调查——公司情报、人员搜索、域名查询 |
| Media | AI 图像生成、图表、信息图以及 Remotion 视频 |
| Research | 多代理研究——快速、标准、广泛和深度模式 |
| Scraping | 使用 Bright Data 代理和 Apify 社交媒体机器人进行网页抓取 |
| Security | 情报收集、Web 应用测试、提示注入测试以及安全新闻 |
| Telos | 生活操作系统——目标、信念、智慧、项目仪表盘和麦肯锡报告 |
| Thinking | 第一原理、议会辩论、红队演练、头脑风暴和科学研究 |
| USMetrics | 来自 FRED、EIA、美国财政部、BLS 和人口普查局的 68 个美国经济指标 |
| Utilities | CLI 生成、技能搭建、Fabric 模式、Cloudflare 以及浏览器自动化 |
每个套件都可以独立使用——您可以只安装一个,也可以全部安装。它们旨在为您提供 PAI 级别的能力,无论您是否运行完整的 PAI 系统。
❓ 常见问题
PAI 与单纯使用 Claude Code 有何不同?
PAI 原生构建于 Claude Code 之上,并且设计初衷就是保持这种关系。我们选择 Claude Code,是因为它的钩子系统、上下文管理和智能体架构,为个人 AI 基础设施提供了最佳的底层支持。
PAI 并不是 Claude Code 的替代品——它是位于 Claude Code 之上的那一层,让 Claude Code 真正“属于你”:
- 持久化记忆——你的 DA 能够记住过去的会话、决策和学习成果。
- 自定义技能——针对你最常做的事情,提供专业化的功能。
- 你的上下文——目标、联系人、偏好等信息,无需重复说明即可随时调用。
- 智能路由——只需说一句“研究一下这个”,相应的流程就会自动触发。
- 自我改进——系统会根据自身学到的内容不断优化。
可以这样理解:Claude Code 是引擎,而 PAI 则是让这台“车”真正成为“你的车”的其他所有部件。
PAI 与 Claude Code 自带功能有何区别?
Claude Code 提供了强大的基础组件——钩子、斜杠命令、MCP 服务器、上下文文件等。这些都只是独立的构建模块。
而 PAI 是基于这些基础组件构建的完整系统。它将所有部分有机地连接起来:你的目标指导技能的选择,技能生成记忆,记忆又反过来提升未来的响应质量。PAI 把 Claude Code 的各个构建模块整合成一个连贯的个人 AI 平台。
PAI 是否仅适用于 Claude Code?
PAI 是 Claude Code 的原生应用。我们认为,Claude Code 的钩子系统、上下文管理和智能体能力使其成为构建个人 AI 基础设施的最佳平台,而 PAI 正是充分利用这些特性的产物。
不过,PAI 的核心概念(技能、记忆、算法)具有普适性,其代码采用 TypeScript 和 Bash 编写,因此欢迎社区成员将其移植到其他平台上。
这与 Fabric 有何不同?
Fabric 是一系列用于特定任务的 AI 提示词(模式),专注于“应该向 AI 提出什么问题”。
而 PAI 则是关于“你的 DA 如何运作”的基础设施——包括记忆、技能、路由、上下文和自我改进机制。两者相辅相成。许多 PAI 用户会将 Fabric 的模式集成到自己的技能中。
如果我弄坏了怎么办?
恢复过程非常简单:
- 先备份——在任何升级之前,请执行:
cp -r ~/.claude ~/.claude-backup-$(date +%Y%m%d) - USER/ 目录安全——你在
USER/中的自定义配置不会被安装程序或升级所触及。 - 设置合并而非覆盖——安装程序只会更新身份和版本字段,你的钩子、状态栏以及自定义配置都会保留。
- Git 版本控制——对所有内容进行版本管理,必要时可回滚。
- 历史记录保留——即使出现错误,你的 DA 的记忆也不会丢失。
- DA 可以修复——既然你的 DA 参与了构建过程,它同样可以帮助修复问题。
- 重新安装——再次运行安装程序;它会检测现有安装并智能合并。
🎯 路线图
| 功能 | 描述 |
|---|---|
| 本地模型支持 | 使用本地模型(Ollama、llama.cpp)运行 PAI,以保障隐私并控制成本 |
| 精细化模型路由 | 根据任务复杂度,将不同任务分配给不同的模型处理 |
| 远程访问 | 从任何地方访问你的 PAI——手机、网页或其他设备 |
| 外呼电话功能 | 支持语音外呼的能力 |
| 外部通知 | 强大的通知系统,支持邮件、Discord、Telegram 和 Slack |
🌐 社区
GitHub 讨论区: 加入讨论
社区 Discord: PAI 与其他 AI 项目一同在 社区 Discord 中讨论。
Twitter/X: @danielmiessler
星标历史
🤝 贡献
我们欢迎任何形式的贡献!请查看我们的 GitHub Issues 获取当前开放的任务。
- Fork 仓库
- 进行修改——修复 bug、新增技能、改进文档
- 充分测试——在全新系统上安装并验证
- 提交 PR,附上示例和测试证据
📜 许可证
MIT 许可证——详情请参阅 LICENSE 文件。
🙏 致谢
Anthropic 和 Claude Code 团队——首先也是最重要的感谢对象。你们正在以无人能及的速度推动 AI 的发展。Claude Code 是这一切得以实现的基础。
IndyDevDan——他关于元提示和自定义智能体的精彩视频,启发了 PAI 的部分设计思路。
贡献者
fayerman-source——为语音系统集成了 Google Cloud TTS 提供商,并添加了 Linux 音频支持。
Matt Espinoza——对 PAI 2.3 版本进行了大量测试、提出了许多创意和反馈,并参与了路线图的制定。
💜 支持本项目
PAI 永远免费且开源。如果你觉得它有价值,可以通过 赞助该项目 来支持我们。
📚 相关阅读
- 真正的物联网 — PAI 背后的愿景
- AI 的可预测路径:7 大组件 — AI 发展方向的可视化解读
- 构建个人 AI 基础设施 — 包含示例的完整 PAI 操作指南
📜 更新历史
v4.0.3 (2026-03-01) — 社区 PR 修复
- 修复了 Inference.ts 中的 JSON 数组解析问题
- 从 CONTEXT_ROUTING.md 中移除了 29 处无效引用
- 提升了 WorldThreatModelHarness 的 PAI_DIR 可移植性
- 为 v2.5 和 v3.0 用户提供了用户上下文迁移功能
- 发布说明
v4.0.2 (2026-03-01) — 错误修复补丁
- 进行了 13 处针对性修复:包括 Linux 兼容性、安装程序、状态栏及钩子等方面的改进
- 实现了跨平台 OAuth 令牌提取,并修复了 GNU coreutils 中的 tr 命令问题
- 优化了推理保护机制(节省约 15 秒),增强了 lineage 追踪功能,同时移除了冗余代码
- 发布说明
v4.0.1 (2026-02-28) — 升级路径与偏好设置
- 更新了升级文档,增加了备份、合并及升级后检查清单
- 在状态栏和安装程序中新增了可配置的温度单位切换功能(华氏/摄氏)
- 修复了常见问题解答中的过时 Python 引用,并优化了故障恢复指导
- 发布说明
v4.0.0 (2026-02-27) — 精简高效
- 将 38 个扁平化的技能目录整合为 12 个层级化类别(顶级目录减少 68%)
- 移除了已废弃的系统模块:Components/、DocRebuild 和 RebuildSkill
- 引入了基于 CLAUDE.md 的模板系统,配合 BuildCLAUDE.ts 和 SessionStart 钩子
- 算法版本升级至 v3.5.0(原为 v1.4.0)
- 进行了全面的安全清理工作(共清理 33 余份文件)
- 更新了所有版本引用,并修复了 Electron 应用崩溃问题
- 当前包含 63 个技能、21 个钩子、180 条工作流和 14 个智能体
- 发布说明
v3.0.0 (2026-02-15) — 算法逐步成熟
- 算法版本升级至 v1.4.0,新增约束提取与构建漂移预防功能
- 支持持久化 PRD 和并行循环执行
- 完整的图形化安装向导
- 新增 10 个技能、代理团队/蜂群模式以及语音个性系统
- 总计 38 个技能、20 个钩子和 162 条工作流
- 发布说明
v2.5.0 (2026-01-30) — 思考更深入,执行更快
- 两步能力选择流程:在 THINK 阶段根据 ISC 验证钩子提示
- 引入思考工具 Justify-Exclusion:对于 Council、RedTeam、FirstPrinciples 等采用 opt-OUT 而非 opt-IN 方式
- 默认启用并行执行:通过并行启动多个智能体来同时处理独立任务
- 包含 28 个技能、17 个钩子和 356 条工作流
- 发布说明
v2.4.0 (2026-01-23) — 算法系统
- 构建了通用问题解决系统,支持 ISC(理想状态标准)追踪
- 包含 29 个技能、15 个钩子和 331 条工作流
- 以“欣快感”作为结果评估指标
- 加强了安全防护,引入 AllowList 强制执行机制
- 发布说明
v2.3.0 (2026-01-15) — 完整发布回归
- 恢复了完整的
.claude/目录发布方式,并支持持续学习 - 明确记录显性和隐性评分
- 优化了钩子系统,新增 14 个生产级钩子
- 在状态栏中增加了学习信号显示
- 发布说明
v2.1.1 (2026-01-09) — MEMORY 系统迁移
- 将历史系统合并至核心模块,更名为 MEMORY 系统
v2.1.0 (2025-12-31) — 模块化架构
- 源代码从嵌入式 Markdown 中分离出来,存放在实际文件中
v2.0.0 (2025-12-28) — PAI v2 正式发布
- 采用模块化架构,各技能相互独立
- Claude Code 原生设计
由 Daniel Miessler 与 PAI 社区倾情打造
提升自我。
版本历史
v4.0.32026/03/02v4.0.12026/02/28v4.0.02026/02/28v3.0.02026/02/15v2.5.02026/01/31v2.4.02026/01/24v2.3.02026/01/16v2.1.02026/01/08v2.0.02025/12/30v0.9.02025/12/02v0.7.02025/11/26v0.6.02025/10/21v0.4.02025/10/17v0.2.42025/10/07v0.2.32025/09/28v0.2.22025/09/28v0.2.12025/09/27v0.22025/09/22v0.12025/09/21常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

