Memory-Cache

GitHub
562 25 困难 1 次阅读 2天前MPL-2.0插件
AI 解读 由 AI 自动生成,仅供参考

Memory-Cache 是一个实验性开源项目,旨在将用户的本地桌面环境转化为具备记忆能力的端侧 AI 智能体。它主要解决了如何将浏览时的网页内容高效转化为本地大语言模型可理解知识的问题。通过该工具,用户在 Firefox 浏览器中即可一键将当前网页静默保存为 PDF,并自动同步至指定文件夹,进而配合 privateGPT 等本地模型框架,实现对个人浏览历史的即时检索与增强问答,让 AI 能够“记住”你曾经看过的内容。

该项目特别适合关注数据隐私的开发者、AI 研究人员以及热衷于构建个人知识库的技术爱好者使用。其独特的技术亮点在于深度的系统集成能力:一方面需要用户对 Firefox 进行特定补丁修改以实现无感知的自动打印保存;另一方面利用脚本监听文件系统变化,自动触发知识库的更新与摄入流程。虽然目前配置过程涉及一定的动手门槛(如设置软链接、应用代码补丁等),但它为在完全离线且私密的环境下,打造个性化的本地 AI 助手提供了一套极具参考价值的实现方案。

使用场景

一位隐私至上的研究员正在本地构建专属知识库,需要频繁将浏览器中的技术文档转化为可被大模型检索的私有数据。

没有 Memory-Cache 时

  • 手动操作繁琐:每次遇到有价值的网页,必须手动执行“打印 -> 另存为 PDF"流程,打断深度阅读的心流。
  • 文件管理混乱:下载的 PDF 散落在默认下载文件夹中,需要人工分类并重命名才能放入 privateGPT 的源文档目录。
  • 知识更新滞后:新保存的文档无法自动触发索引更新,必须手动运行 ingest 脚本,导致本地 AI 代理无法即时回答最新查阅的内容。
  • 隐私泄露风险:若使用在线转换工具或云同步盘中转,敏感的技术调研数据可能离开本地安全环境。

使用 Memory-Cache 后

  • 一键静默归档:在 Firefox 中点击插件图标即可将当前页面无声转换为 PDF,无需任何弹窗确认,阅读过程零中断。
  • 自动同步链路:借助预设的软链接,保存的文件自动流入 privateGPT 的监听目录,彻底消除人工搬运和整理文件的步骤。
  • 实时知识注入:后台运行的 inotifywait 脚本监测到新文件即刻触发向量化处理,本地大模型秒级掌握新知识。
  • 纯本地闭环:从网页抓取到模型增强的全流程均在桌面完成,确保所有科研数据不出本机,完美契合隐私合规要求。

Memory-Cache 通过将浏览行为与本地 AI 训练流水线无缝打通,让个人桌面瞬间进化为具备持续学习能力的智能代理。

运行环境要求

操作系统
  • Linux
  • macOS
GPU

未说明 (依赖 privateGPT 配置,通常本地 LLM 需要 NVIDIA GPU,但本文档未明确指定)

内存

未说明

依赖
notes1. 核心功能依赖 privateGPT 环境,需自行安装原始版或作者提供的 fork 版本。 2. 必须手动修改 Firefox 浏览器源码以添加 `printerSettings.silentMode` 属性,否则无法静默保存 PDF。 3. 需要在下载文件夹和 privateGPT 的 source_documents 目录之间创建符号链接 (symlink)。 4. 需运行提供的 shell 脚本 (`run_ingest.sh`) 来启动文件监控服务。 5. 该工具主要由 Firefox 扩展和后端脚本组成,具体的 Python、GPU 和内存需求取决于所搭配的 privateGPT 及本地语言模型的选择。
python未说明
Firefox (需修改源码以支持 printerSettings.silentMode)
privateGPT (原始版本或指定 fork 版本)
inotifywait (用于监控目录)
Memory-Cache hero image

快速开始

内存缓存

内存缓存是一个项目,它允许你在使用 Firefox 浏览网页时,将当前页面保存为 PDF,并将其存储到一个同步文件夹中。该文件夹可以与 privateGPT 配合使用,以增强本地语言模型。

⚠️:此设置使用的是 privateGPT 的原始版本。我基于一个分支进行开发,该分支可在此处找到 这里

前提条件

  1. 设置 privateGPT — 可以使用原始检查点,也可以使用我的分支。
  2. 在默认下载文件夹中创建一个名为“MemoryCache”的子目录,并在 /PrivateGPT/source_documents/MemoryCache 内部创建一个同名目录,然后在这两个目录之间建立符号链接。
  3. 对 Firefox 进行补丁,以向 Tabs API 添加 printerSettings.silentMode 属性。请参阅维基页面获取说明
  4. 将 /scripts/run_ingest.sh 复制到你的 privateGPT 目录中,并运行它,以启动 inotifywait 监控你的下载目录中的新内容。

安装扩展程序

  1. 将 Memory-Cache GitHub 仓库克隆到你的本地机器上。
  2. 在 Firefox 中,导航至 about:debugging 并点击“此 Firefox”。
  3. 点击“加载临时附加组件”,然后打开 MemoryCacheExt 目录中的 extension/manifest.json 文件。

使用扩展程序

  1. 在“扩展程序”菜单中,将 Memory Cache 扩展添加到工具栏。
  2. 当你想将页面保存到你的 Memory Cache 时,点击图标并选择“保存”按钮。如果你使用的 Firefox 版本已添加了 printerSettings.silentMode 属性,则文件会以静默方式保存为 PDF。

常见问题

相似工具推荐

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|今天
Agent插件

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|6天前
图像数据工具视频

codex

Codex 是 OpenAI 推出的一款轻量级编程智能体,专为在终端环境中高效运行而设计。它允许开发者直接在命令行界面与 AI 交互,完成代码生成、调试、重构及项目维护等任务,无需频繁切换至浏览器或集成开发环境,从而显著提升了编码流程的连贯性与专注度。 这款工具主要解决了传统 AI 辅助编程中上下文割裂的问题。通过将智能体本地化运行,Codex 能够更紧密地结合当前工作目录的文件结构,提供更具针对性的代码建议,同时支持以自然语言指令驱动复杂的开发操作,让“对话即编码”成为现实。 Codex 非常适合习惯使用命令行的软件工程师、全栈开发者以及技术研究人员。对于追求极致效率、偏好键盘操作胜过图形界面的极客用户而言,它更是理想的结对编程伙伴。 其独特亮点在于灵活的部署方式:既可作为全局命令行工具通过 npm 或 Homebrew 一键安装,也能无缝对接现有的 ChatGPT 订阅计划(如 Plus 或 Pro),直接复用账户权益。此外,它还提供了从纯文本终端到桌面应用的多形态体验,并支持基于 API 密钥的深度定制,充分满足不同场景下的开发需求。

75.2k|★☆☆☆☆|2天前
语言模型Agent插件

gstack

gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。

73.6k|★★☆☆☆|今天
Agent插件