obsidian-ollama

GitHub
1k 86 简单 1 次阅读 2天前MIT语言模型插件
AI 解读 由 AI 自动生成,仅供参考

obsidian-ollama 是一款专为 Obsidian 笔记软件设计的插件,它让用户能够直接在笔记中调用本地部署的 Ollama 大语言模型。通过该插件,用户无需离开编辑界面,即可对选中的文本或整篇笔记进行智能处理,包括自动生成摘要、解释复杂概念、扩写内容、调整语气风格(如正式或随意)、转换语态、提炼要点以及为内容添加标题等。

它主要解决了用户在知识管理过程中频繁切换应用、手动复制粘贴文本以获取 AI 辅助的低效问题,将人工智能能力无缝融入写作与思考流中。无论是需要快速整理会议记录的研究人员、希望润色技术文档的开发者,还是单纯想提升笔记质量的普通用户,都能从中受益。

其独特亮点在于高度的可定制性:除了内置多种预设指令外,用户还可以自定义提示词(Prompt),并针对每个指令单独指定使用的模型和温度参数,从而精准控制输出结果。此外,插件默认连接本地运行的 Ollama 服务,数据无需上传云端,充分保障了隐私安全。只要你在本地安装了 Ollama,obsidian-ollama 就能立即成为你第二大脑的智能助手,让笔记创作更加流畅高效。

使用场景

一位技术文档工程师正在 Obsidian 中整理杂乱的开发会议记录,急需将其转化为结构清晰、语气专业的正式文档。

没有 obsidian-ollama 时

  • 流程割裂效率低:必须手动复制笔记内容,切换到浏览器打开外部 AI 网站,粘贴后再将结果复制回 Obsidian,频繁切换窗口打断心流。
  • 上下文易丢失:在处理长篇幅会议记录时,外部工具往往难以直接关联当前笔记的元数据或前后文,导致生成的总结缺乏针对性。
  • 风格调整繁琐:若需将口语化的讨论记录改为“正式语气”或“主动语态”,需要反复修改提示词并多次尝试,无法一键复用预设模板。
  • 隐私与成本顾虑:依赖云端大模型处理内部会议纪要存在数据泄露风险,且高频调用可能产生额外的 API 费用。

使用 obsidian-ollama 后

  • 原地闭环操作:直接在选中文本上右键调用本地 Ollama 模型,利用"Rewrite selection (formal)"预设指令,结果即时插入光标处,无需离开笔记界面。
  • 智能语境感知:插件自动将选中段落或整篇笔记作为上下文传递给本地模型,确保生成的摘要和解释紧密贴合当前项目背景。
  • 一键风格转换:通过预配置的"Bullet points"或"Active voice"等指令,瞬间将冗长的对话记录重构为条理清晰的行动清单,大幅减少编辑时间。
  • 数据完全私有:所有推理过程均在本地运行,敏感的技术讨论内容不出本机,既保障了信息安全又节省了云端算力成本。

obsidian-ollama 通过将本地大模型能力无缝嵌入笔记工作流,让知识整理从繁琐的“搬运工”模式升级为高效的“原地智造”模式。

运行环境要求

操作系统
  • macOS
GPU

未说明

内存

未说明

依赖
notes该工具是 Obsidian 插件,需本地安装 Ollama。默认连接本地端口 http://localhost:11434。README 仅明确提及支持 macOS 应用,未提及 Linux 或 Windows 支持及具体硬件配置需求。
python未说明
Obsidian
Ollama
obsidian-ollama hero image

快速开始

🦙 Obsidian Ollama

这是一个适用于 Obsidian 的插件,允许你在笔记中使用 Ollama

插件预设了多种提示模板:

  • 摘要选区
  • 解释选区
  • 扩展选区
  • 重写选区(正式语气)
  • 重写选区(随意语气)
  • 重写选区(主动语态)
  • 重写选区(项目符号列表)
  • 为选区添加说明文字

你也可以自定义提示模板,并指定使用的模型和温度参数。插件会将提示以及当前选中的文本或整篇笔记发送给 Ollama,然后将生成的结果插入到光标所在位置。

此插件需要本地安装 Ollama,目前可通过 MacOS 应用程序 进行安装。默认情况下,插件会连接到 http://localhost:11434——即 MacOS 应用程序的端口。

版本历史

0.0.12023/09/19

相似工具推荐

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|昨天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.7k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|4天前
Agent插件

llama.cpp

llama.cpp 是一个用纯 C/C++ 编写的大语言模型(LLM)推理引擎,旨在让任何人都能在本地轻松运行强大的 AI 模型。它主要解决了大模型对硬件要求高、部署复杂的问题,让用户无需依赖庞大的 Python 环境或昂贵的云端服务器,即可在个人电脑甚至树莓派上高效运行模型。 无论是希望保护数据隐私的开发者、需要离线测试算法的研究人员,还是想在自己设备上体验 AI 的普通用户,都能从中受益。llama.cpp 对苹果 Silicon 芯片进行了深度优化,同时广泛支持 x86、RISC-V 架构以及 NVIDIA、AMD 等主流显卡。其核心亮点在于先进的量化技术,能将模型压缩至 2-bit 到 8-bit 等多种精度,在大幅降低内存占用的同时保持出色的推理速度。此外,它还提供了兼容 OpenAI 格式的 API 服务和简洁的 Web 界面,方便集成与调用。如果你想在本地以最低的资源消耗获得顶级的模型运行体验,llama.cpp 是极佳的选择。

105.2k|★★☆☆☆|今天
语言模型开发框架

DeepSeek-V3

DeepSeek-V3 是一款由深度求索推出的开源混合专家(MoE)大语言模型,旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数,但在处理每个 token 时仅激活 370 亿参数,这种设计巧妙解决了大规模模型推理成本高、速度慢的难题,让高性能 AI 更易于部署和应用。 这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发,DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标,前者在提升计算效率的同时避免了性能损耗,后者则显著增强了模型表现并加速了推理过程。此外,模型在 14.8 万亿高质量令牌上完成预训练,且整个训练过程异常稳定,未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性,DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。

102.7k|★★★★★|今天
语言模型