[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-apirrone--Memento":3,"tool-apirrone--Memento":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74963,"2026-04-06T11:16:39",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":82,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":145},4575,"apirrone\u002FMemento","Memento","Memento is a Python app that records everything you do on your computer and lets you go back in time, search, and chat with a LLM (Large Language Model) to find back information about what you did.","Memento 是一款专为个人电脑设计的 Python 开源应用，旨在成为你的“数字记忆外挂”。它通过每两秒自动截取屏幕画面，并利用 OCR 技术提取其中的文字信息，将你的操作历史转化为可搜索、可回溯的视频流与文本数据库。\n\n在信息爆炸的今天，我们常面临“刚才在哪看过那个资料”或“之前讨论了什么细节”的记忆断层问题。Memento 正是为了解决这一痛点而生，它不仅支持基于时间轴的可视化回溯和全文检索，更创新地接入了大语言模型（LLM）。你可以像与助手聊天一样，直接询问 Memento 关于过去操作的细节，它能智能定位并总结你曾经浏览的内容或执行的任务。\n\n技术上，Memento 采用高效的 H.264 视频编码存储截图以节省空间，结合 SQLite 与向量数据库进行双重索引，确保了检索的速度与精度。虽然其灵感来源于商业软件 Rewind.ai，但 Memento 以开源形式提供了更高的透明度和自定义空间。\n\n这款工具特别适合需要频繁切换上下文的研究人员、开发者、设计师，以及任何希望提升个人知识管理效率的普通用户。只需简单的配置，Memento 就能帮你轻松找回那些稍纵即逝的数字足迹，让","Memento 是一款专为个人电脑设计的 Python 开源应用，旨在成为你的“数字记忆外挂”。它通过每两秒自动截取屏幕画面，并利用 OCR 技术提取其中的文字信息，将你的操作历史转化为可搜索、可回溯的视频流与文本数据库。\n\n在信息爆炸的今天，我们常面临“刚才在哪看过那个资料”或“之前讨论了什么细节”的记忆断层问题。Memento 正是为了解决这一痛点而生，它不仅支持基于时间轴的可视化回溯和全文检索，更创新地接入了大语言模型（LLM）。你可以像与助手聊天一样，直接询问 Memento 关于过去操作的细节，它能智能定位并总结你曾经浏览的内容或执行的任务。\n\n技术上，Memento 采用高效的 H.264 视频编码存储截图以节省空间，结合 SQLite 与向量数据库进行双重索引，确保了检索的速度与精度。虽然其灵感来源于商业软件 Rewind.ai，但 Memento 以开源形式提供了更高的透明度和自定义空间。\n\n这款工具特别适合需要频繁切换上下文的研究人员、开发者、设计师，以及任何希望提升个人知识管理效率的普通用户。只需简单的配置，Memento 就能帮你轻松找回那些稍纵即逝的数字足迹，让电脑真正记住你所做的一切。","# Memento\n\nMemento is a Python app that records everything you do on your computer and lets you go back in time, search, and chat with a LLM (Large Language Model) to find back information about what you did.\n\nhttps:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fassets\u002F6552564\u002Fd256a3a9-fa44-4b73-8b8e-b02a5473540b\n\nThis project is heavily inspired by [rewind.ai](https:\u002F\u002Frewind.ai\u002F)\n\n## How it works:\n- The app takes a screenshot every 2 seconds\n- It compiles the screenshots into h264 video segments for storage efficiency\n- It uses OCR to extract text from the images\n- It indexes the text in a sqlite3 database and a vectordb\n- It uses FTS5 to search the text\n- It uses a LLM (GPT through OpenAI's API) to chat with the timeline\n\n## Branches :\n- The `main` branch is the latest release\n- The `dev` branch contains the latest \"stable\" improvements that will be merged into main periodically\n- Any other branch is a feature currently being developed\n\n## Disk space and performance considerations\n- Right now, Memento produces about **120MB** of data per hour\n- We are working on ways to reduce this number\n- **TODO** profile cpu usage of Memento\n\n\n## Installation\n\nThis project was tested on Ubuntu 22.04.\n\n```console\n$ pip install -e .\n```\n\nYou also need to install `tesseract-ocr` on your system. To install latest version (tesseract 5.x.x):\n\n```console\n$ sudo apt update\n$ sudo add-apt-repository ppa:alex-p\u002Ftesseract-ocr-devel\n$ sudo apt install tesseract-ocr\n```\nThen install the language packs you need, for example:\n\n```console\n$ sudo apt install tesseract-ocr-eng\n$ sudo apt install tesseract-ocr-fra\n```\n\nYou also need to set an environment variable :\n(This is the path on my system, it may be different on yours)\n```console\nexport TESSDATA_PREFIX=\u002Fusr\u002Fshare\u002Ftesseract-ocr\u002F5\u002Ftessdata\u002F\n```\n\nIf you want to chat with the timeline through a llm, you need an openai api key in your env as `OPENAI_API_KEY`.\n\n## Usage\n### Run the background process :\n\n```console\n$ memento-bg\n```\n\n### Run the timeline :\n\n```console\n$ memento-timeline\n```\n\n#### Controls :\n- Scroll horizontally or vertically to navigate the timeline. \n- `ctrl+scroll` to zoom the timeline in and out.\n- Hover the timeline to see a preview of the screenshot at that time, `click` to navigate there.\n- Press `d` for debug mode (useful for development)\n- `ctrl+f` to open search sidebar.\n- `ctrl+t` to open chat sidebar.\n- `click+drag` on a screenshot to select text, `ctrl+c` to copy it to clipboard.\n\n\n## Contributing: \nFeel free to contribute ! \n\nFork the repo, and submit a PR to the `dev` branch.\n","# 记忆\n\nMemento 是一款 Python 应用程序，它可以记录你在电脑上执行的所有操作，并允许你回溯时间、搜索内容，以及与大型语言模型（LLM）对话，以找回关于你之前所做事情的信息。\n\nhttps:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fassets\u002F6552564\u002Fd256a3a9-fa44-4b73-8b8e-b02a5473540b\n\n该项目深受 [rewind.ai](https:\u002F\u002Frewind.ai\u002F) 的启发。\n\n## 工作原理：\n- 应用程序每 2 秒截取一次屏幕截图。\n- 为了存储效率，它会将这些截图编译成 h264 视频片段。\n- 使用 OCR 从图像中提取文本。\n- 将提取的文本索引到 sqlite3 数据库和向量数据库中。\n- 利用 FTS5 对文本进行搜索。\n- 通过 OpenAI 的 API 调用 GPT 等 LLM，实现与时间线的对话交互。\n\n## 分支说明：\n- `main` 分支为最新发布版本。\n- `dev` 分支包含最新的“稳定”改进，这些改进会定期合并到 `main` 分支。\n- 其他分支均为正在开发中的功能分支。\n\n## 磁盘空间与性能考量\n- 目前，Memento 每小时大约会产生 **120MB** 的数据。\n- 我们正在研究如何进一步减少这一数据量。\n- **待办事项**：对 Memento 的 CPU 使用情况进行性能分析。\n\n## 安装\n本项目已在 Ubuntu 22.04 上测试通过。\n\n```console\n$ pip install -e .\n```\n\n此外，您还需要在系统上安装 `tesseract-ocr`。要安装最新版本（Tesseract 5.x.x），请执行以下命令：\n\n```console\n$ sudo apt update\n$ sudo add-apt-repository ppa:alex-p\u002Ftesseract-ocr-devel\n$ sudo apt install tesseract-ocr\n```\n\n然后根据需要安装相应的语言包，例如：\n\n```console\n$ sudo apt install tesseract-ocr-eng\n$ sudo apt install tesseract-ocr-fra\n```\n\n同时，您还需要设置一个环境变量：\n（这是我系统上的路径，您的可能不同）\n```console\nexport TESSDATA_PREFIX=\u002Fusr\u002Fshare\u002Ftesseract-ocr\u002F5\u002Ftessdata\u002F\n```\n\n如果您希望通过 LLM 与时间线进行对话，还需在环境变量中设置 OpenAI API 密钥，键名为 `OPENAI_API_KEY`。\n\n## 使用方法\n### 启动后台进程：\n\n```console\n$ memento-bg\n```\n\n### 启动时间线界面：\n\n```console\n$ memento-timeline\n```\n\n#### 控制方式：\n- 水平或垂直滚动以浏览时间线。\n- 使用 `Ctrl+滚轮` 缩放时间线。\n- 将鼠标悬停在时间线上可预览该时刻的截图，单击即可跳转至该时间点。\n- 按下 `d` 键进入调试模式（适用于开发）。\n- 使用 `Ctrl+F` 打开搜索侧边栏。\n- 使用 `Ctrl+T` 打开聊天侧边栏。\n- 在截图上点击并拖动以选择文本，然后按 `Ctrl+C` 将其复制到剪贴板。\n\n## 贡献\n欢迎贡献代码！\n\n请先 fork 仓库，然后向 `dev` 分支提交 Pull Request。","# Memento 快速上手指南\n\nMemento 是一款 Python 应用，能够自动记录你在电脑上的所有操作（每 2 秒截图），并通过 OCR 提取文字建立索引。你可以像“时间机器”一样回溯历史、搜索内容，甚至通过 LLM（大语言模型）对话来查找过去的操作记录。该项目灵感来源于 rewind.ai。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：已在 Ubuntu 22.04 上测试通过（其他 Linux 发行版可能需要调整依赖安装命令）。\n- **磁盘空间**：目前每小时约产生 **120MB** 数据，请确保有足够的存储空间。\n- **API Key**：若需使用 AI 对话功能，需准备 OpenAI API Key。\n\n### 前置依赖\n你需要安装 `tesseract-ocr` 及其语言包。\n\n1. **更新源并添加 Tesseract 开发源**（以获取最新版 5.x）：\n   ```console\n   $ sudo apt update\n   $ sudo add-apt-repository ppa:alex-p\u002Ftesseract-ocr-devel\n   $ sudo apt install tesseract-ocr\n   ```\n\n2. **安装所需语言包**（根据需求选择，例如英文和法文）：\n   ```console\n   $ sudo apt install tesseract-ocr-eng\n   $ sudo apt install tesseract-ocr-fra\n   ```\n   > **提示**：中文用户建议额外安装 `tesseract-ocr-chi-sim` (简体中文) 或 `tesseract-ocr-chi-tra` (繁体中文)。\n\n3. **配置环境变量**：\n   设置 `TESSDATA_PREFIX` 指向 tessdata 目录（路径可能因系统而异，请根据实际情况调整）：\n   ```console\n   export TESSDATA_PREFIX=\u002Fusr\u002Fshare\u002Ftesseract-ocr\u002F5\u002Ftessdata\u002F\n   ```\n\n4. **配置 OpenAI Key**（可选，用于聊天功能）：\n   ```console\n   export OPENAI_API_KEY=your_openai_api_key_here\n   ```\n\n## 安装步骤\n\n克隆项目后，进入目录并使用 pip 进行可编辑安装：\n\n```console\n$ pip install -e .\n```\n\n> **国内加速提示**：如果下载缓慢，建议使用国内镜像源：\n> ```console\n> $ pip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\nMemento 包含两个主要进程：后台录制进程和时间轴查看器。\n\n### 1. 启动后台录制\n在终端运行以下命令开始记录屏幕活动（截图、OCR 处理及索引）：\n```console\n$ memento-bg\n```\n*保持该终端窗口运行，或使用 nohup\u002Fscreen 将其置于后台。*\n\n### 2. 打开时间轴界面\n新开一个终端窗口，运行以下命令启动图形化时间轴：\n```console\n$ memento-timeline\n```\n\n### 3. 核心操作控制\n在时间轴界面中，你可以使用以下快捷键：\n\n- **导航**：水平或垂直滚动浏览时间线。\n- **缩放**：`ctrl` + `滚轮` 放大或缩小时间线。\n- **预览与跳转**：鼠标悬停查看截图预览，点击即可跳转到该时刻。\n- **搜索**：`ctrl` + `f` 打开搜索侧边栏（基于 FTS5 全文检索）。\n- **AI 对话**：`ctrl` + `t` 打开聊天侧边栏，询问关于过去操作的问题。\n- **文本复制**：在截图上 `点击并拖拽` 选择文字，按 `ctrl` + `c` 复制到剪贴板。\n- **调试模式**：按 `d` 键开启（开发用途）。\n\n---\n*贡献代码请 Fork 仓库并向 `dev` 分支提交 PR。*","资深数据分析师李明正在处理一个跨越多天的复杂项目，期间他查阅了数十篇技术文档、修改了多版代码并参与了多次线上会议。\n\n### 没有 Memento 时\n- **记忆断层严重**：三天前参考过的某个关键 API 参数配置，因为当时未做笔记，现在完全想不起是在哪个网页看到的。\n- **检索效率低下**：为了找回一段复制过的 SQL 查询语句，不得不手动翻阅浏览器历史记录和几十个分散的文档文件，耗时半小时一无所获。\n- **上下文丢失**：在复现一个偶发 Bug 时，忘记了报错前具体操作了哪些步骤序列，导致无法定位问题根源。\n- **知识复用困难**：上周会议中白板上画出的架构草图仅存在于截图中，未被整理归档，现在需要重新沟通确认细节。\n\n### 使用 Memento 后\n- **智能回溯记忆**：直接向 Memento 提问“三天前我查看的那个关于异步处理的 API 文档”，它通过 OCR 识别和向量检索，瞬间定位并展示了当时的屏幕画面及文字内容。\n- **自然语言搜索**：只需在聊天侧边栏输入“找出上周用过的包含 JOIN 的 SQL 语句”，Memento 立即从历史录屏中提取出准确代码片段并支持一键复制。\n- **完整行为还原**：通过时间轴功能精确回放到报错前的两分钟，清晰看到操作序列和系统状态变化，快速锁定了触发条件。\n- **隐性知识显性化**：输入“显示周二会议中的架构图”，Memento 直接从录屏视频中提取出白板草图的高清截图，无需人工翻找原始文件。\n\nMemento 将原本碎片化、易流失的操作记录转化为可交互的个人知识库，让开发者能随时“时光倒流”精准找回任何工作细节。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fapirrone_Memento_5f374f19.png","apirrone","Antoine Pirrone","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fapirrone_f32bd024.jpg","PhD. in computer science, specialized in Computer Vision and Deep Learning.\r\n\r\nR&D Engineer at @pollen-robotics \r\n\r\nMember of team @Rhoban ","Pollen Robotics","Bordeaux",null,"https:\u002F\u002Fgithub.com\u002Fapirrone",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,651,59,"2026-04-03T13:25:21","MIT","Linux","未说明",{"notes":96,"python":94,"dependencies":97},"目前仅在 Ubuntu 22.04 上经过测试。必须安装系统级依赖 Tesseract OCR 及其语言包，并配置 TESSDATA_PREFIX 环境变量。若需使用 LLM 聊天功能，需设置 OPENAI_API_KEY 环境变量。程序运行时每小时约产生 120MB 数据。",[98,99,100],"tesseract-ocr (5.x.x)","sqlite3","OpenAI API",[15],[103,104,105,106],"llms","productivity","pygame","python","2026-03-27T02:49:30.150509","2026-04-07T04:00:18.488642",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},20813,"在 Linux 上运行 memento-bg 时遇到 'libXrandr.so.2: cannot open shared object file' 错误怎么办？","该问题通常与使用 Linuxbrew 安装 Python 环境有关。解决方案是卸载 homebrew\u002Flinuxbrew：使用 homebrew GitHub 仓库提供的脚本进行卸载，并重命名或删除 linuxbrew 目录。之后建议使用系统原生的 Python 环境重新安装项目。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F76",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},20814,"如何在 Ubuntu 22.04 虚拟机或实体机上正确安装 Memento 及其依赖（特别是 Tesseract OCR）？","请按照以下步骤安装：\n1. 更新源并安装基础工具：\n   sudo add-apt-repository universe\n   sudo apt update\n   sudo apt install python3-pip git\n2. 克隆项目并安装：\n   git clone https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento.git\n   pip install -e .\n3. 安装 Tesseract OCR（推荐使用 PPA 源以获取最新版本）：\n   sudo add-apt-repository ppa:alex-p\u002Ftesseract-ocr-devel\n   sudo apt install tesseract-ocr tesseract-ocr-eng tesseract-ocr-fra\n   sudo apt install libtesseract-dev libleptonica-dev pkg-config\n4. 设置环境变量（如果需要）：\n   export TESSDATA_PREFIX=\u002Fusr\u002Fshare\u002Ftesseract-ocr\u002F5\u002Ftessdata\u002F","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F80",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},20815,"后台进程 CPU 占用过高，如何优化或限制其资源使用？","目前开发阶段的高 CPU 占用被视为可接受状态，主要由 ChromaDB 和 Tesseract 引起。如果必须限制，可以在 Linux 上使用 taskset 命令强制指定 CPU 核心，例如：\ntaskset --cpu-list 1,2 pmr-bg\n但请注意，限制 CPU 可能会导致 Tesseract 的处理时间显著变长。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F13",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},20816,"Memento 是如何优化存储和计算以避免重复处理相似帧的？","项目已实现了一种简单的差异检测（naive diff）机制，用于识别并跳过非常相似的图像，从而减少计算量。在视频存储方面，主要依赖 H264 编码来处理帧间差异以节省空间。虽然仍会保存每一帧，但 H264 能有效压缩相似内容。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F11",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},20817,"为了提高性能，Memento 是否使用了比 pytesseract 更好的 OCR 封装库？","是的，为了获得更好的性能，项目已经从 pytesseract 切换到了 tesserocr（一个更高效的 Tesseract 封装库）。相关优化已在 tesseract_5 分支及后续版本中完成。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F24",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},20818,"Memento 的语义搜索策略是怎样的？是按单词还是按段落检索？","目前的策略是按帧（frame）进行检索。系统先使用 ChromaDB 检索出相关的视频帧，然后对每个检索到的帧运行 OCR 搜索以获取精确的单词或文本内容。这种“先检索帧，再在该帧内进行 OCR 搜索”的方法比单独索引大量独立单词更高效。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F6",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},20819,"时间轴窗口中的文本选择功能失效了，如何解决？","该问题之前是由于更改窗口大小导致的，已在后续的更新（PR #69）中修复。如果您遇到此问题，请确保将项目更新到最新版本。","https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fissues\u002F65",[146,151,156],{"id":147,"version":148,"summary_zh":149,"released_at":150},126823,"v0.1.2","## 变更内容\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F54 中将 pillow 从 10.0.0 升级至 10.0.1\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F56 中将 langchain 从 0.0.253 升级至 0.0.312\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F57 中进行安全更新\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F59 中更新 README\n* 由 @wuup 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F62 中更新 timeline.py，使其能够动态设置显示分辨率\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F64 中实现无需 OpenAI API 密钥即可运行 Memento\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F58 中添加上下文片段功能\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F68 中将时间线窗口大小缩小 1.05 倍\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F69 中修复区域选择器\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F70 中将 langchain 从 0.0.312 升级至 0.0.325\n* 由 @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F71 中将 dev 分支合并至 main 分支，以准备新版本发布\n\n## 新贡献者\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F54 中完成了首次贡献\n* @wuup 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F62 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fcompare\u002Fv0.1.1...v0.1.2","2023-11-04T14:12:47",{"id":152,"version":153,"summary_zh":154,"released_at":155},126824,"v0.1.1","## 变更内容\n* @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F43 中降低了比特率\n* @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F47 中重构了搜索功能\n* @apirrone 在 https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fpull\u002F48 中为解码 LLM 的 JSON 输出添加了 try-catch 语句，并对提示词进行了一点调整\n* @apirrone 优化了时间线的加载速度\n* @apirrone 进行了通用的健壮性改进\n* @apirrone 移除了重复代码\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fapirrone\u002FMemento\u002Fcompare\u002Fv0.1.0...v0.1.1","2023-10-04T11:50:37",{"id":157,"version":158,"summary_zh":159,"released_at":160},126825,"v0.1.0","首个 Alpha 版本！","2023-09-07T20:26:11"]