[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pfrankov--obsidian-local-gpt":3,"tool-pfrankov--obsidian-local-gpt":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":116,"github_topics":78,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":150},3431,"pfrankov\u002Fobsidian-local-gpt","obsidian-local-gpt","Local Ollama and OpenAI-like GPT's assistance for maximum privacy and offline access","obsidian-local-gpt 是一款专为 Obsidian 笔记软件设计的开源插件，旨在为用户提供完全本地化、高隐私保护的 AI 写作助手。它通过集成 Ollama 等本地大模型，让用户在无需联网的情况下，即可对选中的文本进行续写、总结、语法修正或提取待办事项等操作，有效解决了云端 AI 服务存在的数据隐私泄露风险及离线无法使用的痛点。\n\n这款工具特别适合注重数据安全的知识工作者、研究人员以及普通笔记用户。其核心技术亮点在于支持多模态交互，不仅能处理文字，还能直接“看懂”笔记中的图片；同时具备强大的 RAG（检索增强生成）能力，可自动结合双向链接、反向链接甚至 PDF 文件中的上下文信息，让 AI 的回答更贴合用户的知识库语境。此外，obsidian-local-gpt 拥有灵活的社区动作市场，支持多语言界面，并允许用户自定义系统提示词来创建专属功能。只需搭配免费的 AI Providers 插件完成简单配置，你就能在本地构建一个既智能又安全的个人 AI 协作环境。","# Local GPT plugin for Obsidian\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_c0b8543e5177.png)  \n_No speedup. MacBook Pro 13, M1, 16GB, Ollama, orca-mini._ \n\nThe plugin allows you to open a context menu on selected text to pick an AI assistant action or open the Action Palette to run a one-time action.\nThe most casual AI assistant for Obsidian.\n\n\u003Cimg width=\"600\" alt=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_e3717a2f89e5.png\">  \n\n_Action Palette_\n\n## Features\n### Works with images  \n\u003Cimg width=\"400\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_774cba8c196a.png\">  \n\n_No speedup. MacBook Pro 13, M1, 16GB, Ollama, bakllava._\n\n### Can use context from links, backlinks, and even PDF files (RAG)\n\u003Cimg width=\"450\" alt=\"Enhanced Actions\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_8d9115716bf9.png\">\n\u003Cdetails>\n  \u003Csummary>How to use (Ollama)\u003C\u002Fsummary>\n  \u003Cp>\n    1. Install Embedding model:\n  \u003C\u002Fp>\n  \u003Cul>\n    \u003Cli>For English: \u003Ccode>ollama pull nomic-embed-text\u003C\u002Fcode> (fastest)\u003C\u002Fli>\n    \u003Cli>For other languages: \u003Ccode>ollama pull bge-m3\u003C\u002Fcode> (slower, but more accurate)\u003C\u002Fli>\n  \u003C\u002Ful>\n  \u003Cp>\n    2. Select Embedding provider in plugin's settings and try to use the largest model with largest context window.\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n### Default actions\n- Continue writing\n- Summarize text\n- Fix spelling and grammar\n- Find action items in text\n- General help (just use selected text as a prompt for any purpose)\n- New System Prompt to create actions for your needs\n\n### Community Actions\nYou can browse and install community actions directly from the plugin settings.\n\n**Automatic Updates:**\nCommunity actions are automatically updated to the latest version.\nTo stick with a specific version or preserve your changes, simply **modify the Prompt or System Prompt**. This will disable auto-updates for that action.\nNote: Changing the **Name** of the action does *not* disable auto-updates.\n\n\u003Cimg width=\"479\" alt=\"Settings\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_d7a8d0ab0fb0.png\" \u002F>\n\n### Supported languages\n- English\n- Chinese\n- Dutch\n- French\n- German\n- Italian\n- Japanese\n- Korean\n- Portuguese\n- Russian\n- Spanish\n\n## Installation\n### 1. Install Plugin\n#### Obsidian plugin store (recommended)\nThis plugin is available in the Obsidian community plugin store https:\u002F\u002Fobsidian.md\u002Fplugins?id=local-gpt\n\n#### BRAT\nYou can also install this plugin via [BRAT](https:\u002F\u002Fobsidian.md\u002Fplugins?id=obsidian42-brat): `pfrankov\u002Fobsidian-local-gpt`\n\n### 2. Install AI Providers Plugin\nYou also need to install the AI Providers plugin from the plugin store to configure AI providers: https:\u002F\u002Fobsidian.md\u002Fplugins?id=ai-providers\n\n### 3. Configure AI Providers\nFollow the instructions in [AI Providers](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers#create-ai-provider) plugin.\n\n### Configure Obsidian hotkeys\n1. Open Obsidian Settings\n2. Go to Hotkeys\n3. Filter \"Local\" and you should see \"Local GPT: Show context menu\"\n4. Click on `+` icon and press hotkey (e.g. `⌘ + M`)\n5. Filter \"Local\" again and you should see \"Local GPT: Action Palette\"\n6. Click on `+` icon and press hotkey (e.g. `⌘ + J`)\n\n## My other Obsidian plugins\n- [Colored Tags](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-colored-tags) that colorizes tags in distinguishable colors. \n- [Obsidian AI Providers](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers) is a hub for AI providers.\n\n## Inspired by\n- [Obsidian Ollama](https:\u002F\u002Fgithub.com\u002Fhinterdupfinger\u002Fobsidian-ollama).\n","# Obsidian 本地 GPT 插件\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_c0b8543e5177.png)  \n_无加速。MacBook Pro 13 英寸，M1 芯片，16GB 内存，Ollama，orca-mini。_\n\n该插件允许您在选中文本时打开上下文菜单，以选择 AI 助手操作，或打开操作面板来执行一次性操作。\nObsidian 最为轻便的 AI 助手。\n\n\u003Cimg width=\"600\" alt=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_e3717a2f89e5.png\">  \n\n*操作面板*\n\n## 特性\n### 支持图片  \n\u003Cimg width=\"400\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_774cba8c196a.png\">  \n\n_无加速。MacBook Pro 13 英寸，M1 芯片，16GB 内存，Ollama，bakllava。_\n\n### 可利用链接、反向链接，甚至 PDF 文件中的上下文（RAG）\n\u003Cimg width=\"450\" alt=\"增强型操作\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_8d9115716bf9.png\">\n\u003Cdetails>\n  \u003Csummary>使用方法（Ollama）\u003C\u002Fsummary>\n  \u003Cp>\n    1. 安装嵌入模型：\n  \u003C\u002Fp>\n  \u003Cul>\n    \u003Cli>英文：`ollama pull nomic-embed-text`（最快）\u003C\u002Fli>\n    \u003Cli>其他语言：`ollama pull bge-m3`（较慢，但更准确）\u003C\u002Fli>\n  \u003C\u002Ful>\n  \u003Cp>\n    2. 在插件设置中选择嵌入提供商，并尽量使用具有最大上下文窗口的最大模型。\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n### 默认操作\n- 继续写作\n- 总结文本\n- 拼写和语法修正\n- 在文本中查找待办事项\n- 通用帮助（直接将选中文本作为提示用于任何目的）\n- 新建系统提示，以创建符合您需求的操作\n\n### 社区操作\n您可以直接从插件设置中浏览并安装社区提供的操作。\n\n**自动更新：**\n社区操作会自动更新到最新版本。若希望保留特定版本或您的修改，只需 **修改提示或系统提示** 即可禁用该操作的自动更新。请注意：仅更改操作的 **名称** 并不会禁用自动更新。\n\n\u003Cimg width=\"479\" alt=\"设置\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_readme_d7a8d0ab0fb0.png\" \u002F>\n\n### 支持的语言\n- 英语\n- 中文\n- 荷兰语\n- 法语\n- 德语\n- 意大利语\n- 日语\n- 韩语\n- 葡萄牙语\n- 俄语\n- 西班牙语\n\n## 安装\n### 1. 安装插件\n#### Obsidian 插件商店（推荐）\n此插件可在 Obsidian 社区插件商店中找到：https:\u002F\u002Fobsidian.md\u002Fplugins?id=local-gpt\n\n#### BRAT\n您也可以通过 [BRAT](https:\u002F\u002Fobsidian.md\u002Fplugins?id=obsidian42-brat) 安装此插件：`pfrankov\u002Fobsidian-local-gpt`\n\n### 2. 安装 AI 提供商插件\n您还需要从插件商店安装 AI 提供商插件，以便配置 AI 提供商：https:\u002F\u002Fobsidian.md\u002Fplugins?id=ai-providers\n\n### 3. 配置 AI 提供商\n请按照 [AI 提供商](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers#create-ai-provider) 插件中的说明进行操作。\n\n### 配置 Obsidian 快捷键\n1. 打开 Obsidian 设置\n2. 进入快捷键设置\n3. 搜索“Local”，您应看到“Local GPT：显示上下文菜单”\n4. 点击“+”图标并按下快捷键（例如 `⌘ + M`）\n5. 再次搜索“Local”，您应看到“Local GPT：操作面板”\n6. 点击“+”图标并按下快捷键（例如 `⌘ + J`）\n\n## 我的其他 Obsidian 插件\n- [彩色标签](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-colored-tags)，可将标签以不同颜色区分。\n- [Obsidian AI 提供商](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers)，是 AI 提供商的集中管理平台。\n\n## 灵感来源\n- [Obsidian Ollama](https:\u002F\u002Fgithub.com\u002Fhinterdupfinger\u002Fobsidian-ollama)。","# Obsidian Local GPT 快速上手指南\n\nObsidian Local GPT 是一款专为 Obsidian 设计的本地 AI 助手插件，支持在选中文本上通过右键菜单或快捷键调用 AI 功能。它支持图像识别、基于链接\u002F反向链接\u002FPDF 的上下文检索（RAG），并允许用户自定义或安装社区动作。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：macOS, Windows, Linux\n- **硬件建议**：推荐配备 Apple Silicon (M1\u002FM2\u002FM3) 或具备独立显卡的设备，内存建议 16GB 及以上以获得更佳体验。\n- **核心依赖**：必须安装并运行本地大模型后端，推荐使用 **Ollama**。\n\n### 前置依赖安装\n请确保已安装 [Ollama](https:\u002F\u002Follama.com\u002F)。若需使用图像识别或高级上下文检索，需提前拉取对应模型：\n\n```bash\n# 拉取基础对话模型 (示例：orca-mini)\nollama pull orca-mini\n\n# 拉取图像识别模型 (如需图片功能)\nollama pull bakllava\n\n# 拉取嵌入模型 (用于 RAG 上下文检索)\n# 英文环境推荐 (速度快):\nollama pull nomic-embed-text\n# 多语言\u002F中文环境推荐 (精度高):\nollama pull bge-m3\n```\n\n> **国内加速提示**：如果拉取模型速度慢，可配置 Ollama 镜像源或使用国内网络加速工具。\n\n## 安装步骤\n\n### 1. 安装核心插件\n在 Obsidian 中通过以下任一方式安装：\n\n*   **方式 A：官方社区插件市场（推荐）**\n    1. 打开 Obsidian `设置` > `第三方插件`。\n    2. 关闭“安全模式”（如未关闭）。\n    3. 点击 `浏览`，搜索 `Local GPT`。\n    4. 点击 `安装` 并启用。\n\n*   **方式 B：通过 BRAT 插件安装**\n    如果你需要测试最新版本，可先安装 [BRAT](https:\u002F\u002Fobsidian.md\u002Fplugins?id=obsidian42-brat) 插件，然后在 BRAT 设置中添加仓库：\n    ```text\n    pfrankov\u002Fobsidian-local-gpt\n    ```\n\n### 2. 安装 AI 提供商插件\n本插件依赖 **AI Providers** 插件来管理模型连接：\n1. 在 Obsidian 社区插件市场中搜索 `AI Providers`。\n2. 安装并启用该插件。\n\n### 3. 配置 AI 提供商\n1. 打开 Obsidian `设置` > `AI Providers`。\n2. 点击 `Create AI Provider`，选择 `Ollama`。\n3. 按照指引配置模型名称（需与 `ollama pull` 下载的模型一致）及上下文窗口大小。\n4. 保存配置。\n\n### 4. 配置快捷键（可选但推荐）\n为了快速唤起功能，建议设置热键：\n1. 打开 Obsidian `设置` > `热键`。\n2. 搜索 `Local`。\n3. 为 `Local GPT: Show context menu` 设置快捷键（例如 `Cmd\u002FCtrl + M`）。\n4. 为 `Local GPT: Action Palette` 设置快捷键（例如 `Cmd\u002FCtrl + J`）。\n\n## 基本使用\n\n### 方法一：右键菜单（最常用）\n1. 在笔记中选中一段文本（或点击图片）。\n2. 点击鼠标右键，选择 `Local GPT` 菜单。\n3. 从列表中选择预设动作，例如：\n   - **Continue writing**：续写内容。\n   - **Summarize text**：总结选中段落。\n   - **Fix spelling and grammar**：修正拼写和语法。\n   - **Find action items**：提取待办事项。\n   - **General help**：将选中文本作为提示词进行通用问答。\n\n### 方法二：动作面板 (Action Palette)\n1. 按下设置的快捷键（如 `Cmd\u002FCtrl + J`）打开动作面板。\n2. 输入指令或直接选择预设动作执行一次性任务。\n\n### 进阶：启用上下文检索 (RAG)\n若需让 AI 参考当前笔记的反向链接、关联笔记或 PDF 内容：\n1. 确保已按“环境准备”步骤安装了嵌入模型（如 `bge-m3`）。\n2. 进入插件设置，在 **Embedding provider** 中选择已配置的 Ollama 嵌入模型。\n3. 在执行动作时，插件会自动抓取相关上下文增强回答质量。\n\n### 自定义与社区动作\n- **新建动作**：在设置中创建新的 System Prompt 以满足特定需求。\n- **社区动作**：在插件设置的 \"Community Actions\" 标签页中浏览并一键安装他人分享的动作模板。修改动作的 Prompt 内容即可锁定版本，防止自动更新覆盖你的定制。","一位隐私意识极强的安全研究员正在本地离线环境中整理敏感的渗透测试笔记，需要频繁对大量技术文档进行摘要、纠错和关键信息提取。\n\n### 没有 obsidian-local-gpt 时\n- **数据泄露风险高**：为了使用云端 AI 辅助写作，不得不将包含漏洞细节的敏感笔记复制到外部网页，违反保密协议。\n- **工作流频繁中断**：需要在浏览器、API 调试工具和 Obsidian 之间反复切换，手动复制粘贴文本，打断深度思考的心流。\n- **上下文关联弱**：AI 无法自动读取笔记中的双向链接或关联的 PDF 参考文献，导致生成的总结缺乏项目特有的背景信息。\n- **离线无法作业**：在无网络的隔离内网或出差途中，完全失去 AI 辅助能力，只能依靠人工逐字校对和梳理。\n\n### 使用 obsidian-local-gpt 后\n- **极致隐私保护**：直接调用本地 Ollama 模型（如 orca-mini），所有数据处理均在本机完成，确保敏感测试数据永不上传云端。\n- **无缝原生体验**：选中文字即可通过快捷键唤起上下文菜单，直接在笔记界面完成“续写”、“查找行动项”或“语法修正”，无需离开编辑器。\n- **智能知识增强**：利用 RAG 技术自动整合当前笔记的反向链接及附带的 PDF 内容，让 AI 基于完整的项目背景生成更精准的分析报告。\n- **全天候离线可用**：无论网络状况如何，只要本地模型运行正常，即可随时对截图进行视觉分析或对长文进行快速摘要。\n\nobsidian-local-gpt 通过将强大的本地大模型能力无缝融入笔记工作流，让用户在绝对安全且离线的环境下，也能享受高效智能的写作辅助。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpfrankov_obsidian-local-gpt_ab25b40b.png","pfrankov","Pavel Frankov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpfrankov_daf39471.jpg",null,"https:\u002F\u002Fboosty.to\u002Fpfrankov","https:\u002F\u002Fgithub.com\u002Fpfrankov",[82,86,90,94],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",77.9,{"name":87,"color":88,"percentage":89},"Svelte","#ff3e00",12.7,{"name":91,"color":92,"percentage":93},"CSS","#663399",8.6,{"name":95,"color":96,"percentage":97},"JavaScript","#f1e05a",0.8,627,49,"2026-04-04T08:15:14","MIT","未说明 (作为 Obsidian 插件，理论上支持 Windows, macOS, Linux)","非必需 (依赖外部提供者如 Ollama)。示例显示在 MacBook Pro M1 (无独立 NVIDIA GPU) 上运行。若使用本地大模型，显存需求取决于所选模型大小。","最低 16GB (基于示例设备 MacBook Pro 16GB)，推荐视模型大小而定",{"notes":106,"python":107,"dependencies":108},"1. 这是一个 Obsidian 社区插件，必须先安装 'AI Providers' 插件才能配置 AI 后端。\n2. 本身不包含模型，需自行安装并运行本地推理工具（如 Ollama）或配置云端 API。\n3. 若要使用 RAG（检索增强生成）功能处理链接、反向链接及 PDF 文件，需在 Ollama 中拉取嵌入模型（英文推荐 nomic-embed-text，多语言推荐 bge-m3）。\n4. 示例演示表明该插件可在 Apple Silicon (M1) 芯片的 Mac 上流畅运行本地模型。","未说明 (作为 Obsidian 插件运行，不直接暴露 Python 环境要求)",[109,110,111,112,113,114,115],"Obsidian","AI Providers Plugin (obsidian-ai-providers)","Ollama (推荐用于本地运行)","nomic-embed-text (嵌入模型，可选)","bge-m3 (嵌入模型，可选)","orca-mini (LLM 模型示例)","bakllava (多模态模型示例)",[15,36],"2026-03-27T02:49:30.150509","2026-04-06T05:44:05.357989",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},15747,"如何在移动端解决使用 OpenAI 格式提供商时出现的 401 错误？","该问题主要出现在移动端（版本 1.12.0 和 1.13.0）。维护者确认这是一个已知问题并计划修复。在修复版本发布前，建议移动端用户暂时回退到 1.11.0 版本以正常使用插件。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F35",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},15748,"为什么我的操作会触发多次 API 调用，导致费用增加？","在旧版本中曾存在每个操作触发两次 API 调用的问题。该问题已在 Local GPT v1.12.0 版本中修复。如果您仍遇到此问题，请确保已升级到 v1.12.0 或更高版本，升级后每个操作将只执行一次 API 请求。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F26",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},15749,"如何为不同的操作指定不同的模型？","现在可以通过引入的“操作面板（Action Palette）”功能来实现为不同操作选择不同模型。此外，利用提供商的别名功能（如设置 \"large\", \"fast\", \"reasoning\" 等别名）也是一种有效方法。对于 Ollama 用户，可以使用命令 `ollama cp name_of_model name_of_alias` 创建模型别名，从而在插件中通过别名灵活调用最新或特定的模型。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F67",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},15750,"如何通过外部服务器（如使用 ngrok 隧道）连接本地部署的 LLM（如 Ollama）？","建议放弃对原生 Ollama 协议的支持，转而使用 OpenAI 兼容模式。几乎所有本地部署引擎（包括 Ollama、Exllama\u002FTabbyAPI、Aphrodite 和 llama.cpp）都支持 OpenAI 兼容模式。在这种模式下，SSH 隧道可以正常工作。如果遇到 ngrok 相关的浏览器警告问题，可以尝试直接访问 `GET api\u002Ftags` 接口，或在请求头中添加 `ngrok-skip-browser-warning` 来绕过验证。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F11",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},15751,"条件上下文提示（Conditional Context Prompting）为什么不生效，上下文没有正确插入？","如果在使用 `{{=CONTEXT_START=}}` 和 `{{=CONTEXT_END=}}` 标签时上下文未出现，通常是因为 RAG（检索增强生成）未能从仓库中提取到相关上下文内容。如果没有提取到内容，插件不会插入空白的上下文块，这是符合预期的行为。请检查您的文档是否包含可被检索到的相关信息，或者确认 RAG 配置是否正确。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F61",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},15752,"遇到生成文本错误显示为 'undefined' 该怎么办？","当出现 'undefined' 错误时，首先应检查 API 密钥是否有效以及账户余额是否充足。尝试更换不同的模型（例如从 gpt-4o 切换到其他可用模型）有时也能解决问题。如果问题依旧，请检查服务器 URL 配置是否正确（例如 https:\u002F\u002Fapi.openai.com），并确认网络连接正常。","https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-local-gpt\u002Fissues\u002F19",[151,156,161,166,171,176,181,186,191,196,201,206,211,216,221,226,231,236,241,246],{"id":152,"version":153,"summary_zh":154,"released_at":155},90446,"4.2.0","### 操作面板现在会在会话之间记住已选择的 `\u002Fsystem` 提示\n\u003Cimg width=\"475\" height=\"98\" alt=\"image\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fb2432c5e-ca69-4d22-940f-5e5045fa66e2\" \u002F>\n\n您可以直接从 `\u002Fsystem` 菜单中清除当前的系统提示。\n\n### 稳定的操作 ID\n操作现在具有生成的内部 ID。","2026-03-29T18:21:31",{"id":157,"version":158,"summary_zh":159,"released_at":160},90447,"4.1.0","### 向操作面板添加了提示和工具提示\r\n\u003Cimg width=\"507\" height=\"88\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F24c6c5b4-e9b6-406a-aa60-634423364e84\" \u002F>\r\n","2026-03-06T19:24:02",{"id":162,"version":163,"summary_zh":164,"released_at":165},90448,"4.0.0","### 🎉 社区动作\n您可以直接从插件设置中浏览和安装社区动作。\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F11e1038a-986c-4d9a-9733-c9d5cf94ddd6\"\u002F>\n\n\n\n\n\n**自动更新：**\n社区动作会自动更新到最新版本。  \n如果您想保留特定版本或您的修改，只需**修改提示词或系统提示词**即可。这样做会禁用该动作的自动更新。  \n注意：仅更改动作的**名称**并不会禁用自动更新。","2026-01-25T21:04:48",{"id":167,"version":168,"summary_zh":169,"released_at":170},90449,"3.7.1","### 新增对7种语言的支持\n- 西班牙语\n- 意大利语\n- 法语\n- 荷兰语\n- 葡萄牙语\n- 日语\n- 韩语","2026-01-18T21:34:11",{"id":172,"version":173,"summary_zh":174,"released_at":175},90450,"3.7.0","### 原地编辑操作\n现在您可以在设置选项卡中直接编辑操作，无需离开页面或打开单独的对话框。\n\u003Cimg width=\"500\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F67d631b7-5add-4435-84e6-4a906fc21838\"\u002F>\n\n\n### “思考中…”块支持\n新增对“思考中…”块的可视化支持，以便更好地展示支持该功能的模型的推理过程。解决 #72 问题。\n\u003Cimg width=\"400\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Feccebd0a-4930-4c40-a0e9-00fec3eb0091\"\u002F>\n\n### 异步并行执行\n操作现在可以异步并行运行，在同时执行多项任务时显著提升性能（解决 #75 问题）。\n\n### 操作面板界面\n提升了对比度，以增强可见性和可访问性。\n\n### 界面分隔线\n优化了分隔线的创建与渲染（固定宽度并新增支持），从而更好地组织列表。解决 #88 问题。\n\u003Cimg width=\"500\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd971029a-20bb-4953-a800-540a14beaf3f\"\u002F>","2026-01-18T21:12:00",{"id":177,"version":178,"summary_zh":179,"released_at":180},90451,"3.6.0","### 操作面板的提示历史\n\u003Cimg width=\"400\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F3865282c-f85b-4d01-b71e-5bf7e135be11\"\u002F>\n\n按 ↑ 或 ↓ 键浏览历史记录。\n按 **Shift** 键可输入多行。","2025-12-08T20:16:35",{"id":182,"version":183,"summary_zh":184,"released_at":185},90452,"3.5.0","### 从操作中添加系统提示到操作面板\n![Kapture 2025-11-30 at 23 02 56](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fc3a44e44-5ebb-4ea6-a0ee-062a6aa59341)\n以 `\u002Fsystem` 开始\n","2025-11-30T20:06:10",{"id":187,"version":188,"summary_zh":189,"released_at":190},90453,"3.4.0","### 操作面板新增命令\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ffdd932ee-dff2-4668-aa02-a348989e5dda\" width=\"400\"\u002F>\u003Cbr\u002F>\n\n在操作面板的任意位置输入 `\u002F`，即可更改：\n- 供应商\n- 所选供应商的模型\n- 创意度（LLM 温度预设）\n\n### 操作面板中的文档提及功能\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7be8dfdb-53ee-4224-9a8a-c998af824ade\" width=\"400\"\u002F>\u003Cbr\u002F>\n输入 `@` 即可将任意文档附加到问题中。\n\n### 通过拖放对操作进行排序\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F1032b243-6702-498b-be15-d1edcdfc306a\" width=\"400\"\u002F>\n\n","2025-09-10T21:36:58",{"id":192,"version":193,"summary_zh":194,"released_at":195},90454,"3.2.2","修复了操作面板在任务\u002F列表第76行的水平错位问题。","2025-08-27T20:44:01",{"id":197,"version":198,"summary_zh":199,"released_at":200},90455,"3.2.1","### 🎉 操作面板\n\u003Cimg width=\"600\" alt=\"\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fac8a52a6-b424-4af8-ad34-a07d7f17d8e3\" \u002F>\n\n现在你可以使用操作面板编写一次性操作。只需选中文本，然后使用“Local GPT：操作面板”命令即可。\n\n#### 设置快捷键\n1. 打开 Obsidian 设置\n2. 进入快捷键选项\n3. 再次筛选“Local”，你应该会看到“Local GPT：操作面板”\n4. 点击 + 图标，并按下你想要设置的快捷键（例如 ⌘ + J）","2025-08-26T21:57:09",{"id":202,"version":203,"summary_zh":204,"released_at":205},90456,"3.1.0","### Advanced settings with RAG context size\r\n\u003Cimg width=\"719\" height=\"399\" alt=\"image\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fbdc84c09-3960-48bd-aea5-26fc004a71d8\" \u002F>","2025-08-23T16:41:51",{"id":207,"version":208,"summary_zh":209,"released_at":210},90457,"3.0.1","Tiny change: removed `...` from Enhanced Actions","2025-08-12T21:01:25",{"id":212,"version":213,"summary_zh":214,"released_at":215},90458,"3.0.0","### 🚨 Requires API v3 of AI Providers\r\nYou need to update your [AI Providers plugin](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers\u002F) to the latest version to use this version of the plugin.\r\n\r\n### Added multilingual support\r\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F5e5db60e-c4b7-4335-a4cd-6385ebe9c89c\" width=\"450\" alt=\"Languages Demo\"\u002F>\r\n\r\n- English\r\n- Chinese\r\n- German\r\n- Russian\r\n\r\nCreate PR if it's not translated correctly to your language or you want to add a new one.\r\n\r\n### Moved ✨ Enhanced Action (RAG) to AI Providers\r\n- Means that embeddings will now be calculated only once for every provider\u002Fmodel pair and then will be shared between the plugins that use [AI Providers](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers\u002F).\r\n- 🚨 It also means that old embeddings created before this update must be recalculated.","2025-08-12T20:37:55",{"id":217,"version":218,"summary_zh":219,"released_at":220},90459,"2.1.0","Added \"Thinking\" state. Closes #64\r\n\u003Cimg width=\"400\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F77963fa1-d3a0-447d-b360-c43f04aef78f\"\u002F>\r\n","2025-03-05T19:59:04",{"id":222,"version":223,"summary_zh":224,"released_at":225},90460,"2.0.1","Minor visual updates","2025-02-20T19:53:59",{"id":227,"version":228,"summary_zh":229,"released_at":230},90461,"2.0.0","## 🔥 Biggest update ever!\r\nMoved configuration to [AI Providers](https:\u002F\u002Fgithub.com\u002Fpfrankov\u002Fobsidian-ai-providers) — this allows to use only one plugin to setup any AI providers for all plugins at once (someday).\r\nAll existing providers must be semi-automatically migrated after AI Providers installation. If it's not — try to restart Obsidian and create an issue.","2025-02-19T22:20:57",{"id":232,"version":233,"summary_zh":234,"released_at":235},90462,"1.14.7","Fixed mime types for images, removed context optimizations for Ollama provider when it's an image in the selected text.","2024-12-05T22:30:50",{"id":237,"version":238,"summary_zh":239,"released_at":240},90463,"1.14.6","Fixed issue with parsing OpenRouter's requests.","2024-12-05T21:26:01",{"id":242,"version":243,"summary_zh":244,"released_at":245},90464,"1.14.5","Increased threshold when in next call context size can be deoptimized in order to reduce VRAM consumption. Closes #54","2024-12-02T20:35:00",{"id":247,"version":248,"summary_zh":249,"released_at":250},90465,"1.14.4","Changed default URL for OpenAI like providers to v1\u002F\r\nAdded necessary headers to embeddings request","2024-11-16T22:23:54"]