[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-longy2k--obsidian-bmo-chatbot":3,"tool-longy2k--obsidian-bmo-chatbot":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74963,"2026-04-06T11:16:39",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":10,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":108,"github_topics":109,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":147},4399,"longy2k\u002Fobsidian-bmo-chatbot","obsidian-bmo-chatbot","Generate and brainstorm ideas while creating your notes using Large Language Models (LLMs) from Ollama, LM Studio, Anthropic, Google Gemini, Mistral AI, OpenAI, and more for Obsidian.","obsidian-bmo-chatbot 是一款专为 Obsidian 笔记软件设计的智能助手插件，旨在让用户在撰写笔记时，能够无缝调用各类大语言模型（LLM）来激发灵感、生成内容或进行头脑风暴。它有效解决了传统写作中思路卡顿、资料整理耗时以及难以即时获取 AI 辅助的痛点，将对话式 AI 深度融入用户的知识管理流程。\n\n这款工具非常适合依赖 Obsidian 构建第二大脑的知识工作者、研究人员、学生以及任何希望提升笔记效率的用户。其独特亮点在于极高的兼容性与灵活性：不仅支持 OpenAI、Anthropic、Google Gemini 等主流云端模型，还能通过本地部署的 Ollama 或 LM Studio 连接私有化模型，充分保障数据隐私。此外，obsidian-bmo-chatbot 允许用户自定义具有特定人设与专业知识的机器人角色，并能在聊天窗口中直接渲染 Obsidian 特有的 Markdown 格式（如 Dataview 代码块），确保生成的内容与现有笔记风格完美统一。无论是从当前笔记上下文发起对话，还是选中特定文本进行针对性生成，它都能提供流畅且高度定制化的智能体验。","# BMO Chatbot for Obsidian\n\nGenerate and brainstorm ideas while creating your notes using Large Language Models (LLMs) from Ollama, LM Studio, Anthropic, Google Gemini, Mistral AI, OpenAI, and more for Obsidian.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_0bc22344f3b7.png\" alt=\"original_example\">\n\u003C\u002Fp>\n\n## Features\n\n### Profiles\n\nCreate chatbots with specific knowledge, personalities, and presets.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_aa20f2c38cb0.gif\" alt=\"profiles_example\">\n\u003C\u002Fp>\n\n### BMO Generate\n\nGenerate a response from the editor using your connected LLMs.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_d3593b666fe9.gif\" alt=\"bmo_generate_example\">\n\u003C\u002Fp>\n\n### 'Prompt Select Generate' Command\n\nPrompt, select, and generate within your editor.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_427d7db657b0.gif\" alt=\"prompt_select_generate_example\">\n\u003C\u002Fp>\n\n### Obsidian Markdown Rendering\n\nRender codeblocks (e.g. Dataview) that can be displayed in your chat view. Use the system prompt to customize your chatbot responses.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_3c2ffa4ea3dc.png\" alt=\"dataview_example\">\n\u003C\u002Fp>\n\n### And More!\n\n-   **Interact with self-hosted Large Language Models (LLMs):** Use the REST API URLs provided to interact with self-hosted Large Language Models (LLMs) using [Ollama](https:\u002F\u002Follama.ai) or [LM Studio](https:\u002F\u002Flmstudio.ai\u002F).\n-   **Chat with current note:** Use your chatbot to reference and engage within your current note.\n-   **Chat from anywhere in Obsidian:** Chat with your bot from anywhere within Obsidian.\n-   **Customizable bot name:** Personalize the chatbot's name.\n-   **Chatbot renders in Obsidian Markdown:** Receive formatted responses in Obsidian Markdown for consistency.\n-   **Save and load a chat history as markdown:** Use the `\u002Fsave` command in chat to save current conversation and `\u002Fload` to load a chat history.\n\n## Requirements\n\nIf you want to interact with self-hosted Large Language Models (LLMs) using [Ollama](https:\u002F\u002Follama.ai) or [LM Studio](https:\u002F\u002Flmstudio.ai\u002F), you will need to have the self-hosted API set up and running. You can follow the instructions provided by the self-hosted API provider to get it up and running. Once you have the REST API URL for your self-hosted API, you can use it with this plugin to interact with your models.\n\nAccess to other models may require an API key.\n\nPlease see [instructions](https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fwiki) to setup with other LLMs providers.\n\nExplore some models at [GPT4ALL](https:\u002F\u002Fgpt4all.io\u002Findex.html) under the \"Model Explorer\" section or [Ollama's Library](https:\u002F\u002Follama.ai\u002Flibrary).\n\n## How to activate the plugin\n\nThree methods:\n\nObsidian Community plugins (**Recommended**):\n\n1. Search for \"BMO Chatbot\" in the Obsidian Community plugins.\n2. Enable \"BMO Chatbot\" in the settings.\n\nTo activate the plugin from this repo:\n\n1. Navigate to the plugin's folder in your terminal.\n2. Run `npm install` to install any necessary dependencies for the plugin.\n3. Once the dependencies have been installed, run `npm run build` to build the plugin.\n4. Once the plugin has been built, it should be ready to activate.\n\nInstall using Beta Reviewers Auto-update Tester ([BRAT](https:\u002F\u002Fgithub.com\u002FTfTHacker\u002Fobsidian42-brat)) - [Quick guide for using BRAT](https:\u002F\u002Ftfthacker.com\u002FObsidian+Plugins+by+TfTHacker\u002FBRAT+-+Beta+Reviewer's+Auto-update+Tool\u002FQuick+guide+for+using+BRAT)\n\n1. Search for \"Obsidian42 - BRAT\" in the Obsidian Community plugins.\n2. Open the command palette and run the command `BRAT: Add a beta plugin for testing` (If you want the plugin version to be frozen, use the command `BRAT: Add a beta plugin with frozen version based on a release tag`.)\n3. Paste \"https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\".\n4. Click on \"Add Plugin\".\n5. After BRAT confirms the installation, in Settings go to the Community plugins tab.\n6. Refresh the list of plugins.\n7. Find the beta plugin you just installed and enable it.\n\n## Getting Started\n\nTo start using the plugin, enable it in your settings menu and insert an API key or REST API URL from a provider. After completing these steps, you can access the bot panel by clicking on the bot icon in the left sidebar.\n\n## Commands\n\n-   `\u002Fhelp` - Show help commands.\n-   `\u002Fmodel` - List or change model.\n    -   `\u002Fmodel 1` or `\u002Fmodel \"llama2\"`\n        -   ...\n-   `\u002Fprofile` - List or change profiles.\n    -   `\u002Fprofile 1` or `\u002Fprofile [PROFILE-NAME]`\n-   `\u002Fprompt` - List or change prompts.\n    -   `\u002Fprompt 1` or `\u002Fprompt [PROMPT-NAME]`\n-   `\u002Fmaxtokens [VALUE]` - Set max tokens.\n-   `\u002Ftemp [VALUE]` - Change temperature range from 0 to 2.\n-   `\u002Fref on | off` - Turn on or off reference current note.\n-   `\u002Fappend` - Append current chat history to current active note.\n-   `\u002Fsave` - Save current chat history to a note.\n-   `\u002Fload` - List or load a chat history.\n-   `\u002Fclear` or `\u002Fc` - Clear chat history.\n-   `\u002Fstop` or `\u002Fs` - Stop fetching response.\n\n## Supported Models\n\n-   Any self-hosted models using [Ollama](https:\u002F\u002Follama.ai).\n    -   See [instructions](https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fwiki) to setup Ollama with Obsidian.\n-   Any self-hosted models using OpenAI-based endpoints.\n    -   [LM Studio](https:\u002F\u002Flmstudio.ai\u002F)\n    -   [LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)\n-   Anthropic (Warning: Anthropric models cannot be aborted. Please use with caution. Reload plugin if necessary.)\n    -   claude-instant-1.2\n    -   claude-2.0\n    -   claude-2.1\n    -   claude-3-haiku-20240307\n    -   claude-3-sonnet-20240229\n    -   claude-3-5-sonnet-20240620\n    -   claude-3-opus-20240229\n-   Mistral AI's models\n-   Google Gemini Models\n-   OpenAI\n    -   gpt-3.5-turbo\n    -   gpt-4\n    -   gpt-4-turbo\n    -   gpt-4o\n    -   gpt-4o-mini\n-   Any Openrouter provided models.\n\n## Other Notes\n\n\"BMO\" is a tag name for this project. Inspired by the character \"BMO\" from Adventure Time.\n\nBe MOre!\n\n## Contributing\n\nAny ideas or support is highly appreciated!\n\nI am currently too busy to update the project. Feel free to submit pull requests! :)\n\nIf you have any bugs or improvements, please create an issue.\n\nIf you like to share your ideas, profiles, or anything else, please join or create a discussion.\n\n\u003Ca href='https:\u002F\u002Fko-fi.com\u002FK3K8PNYT8' target='_blank'>\u003Cimg height='36' style='border:0px;height:36px;' src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_769417f99ed2.png' border='0' alt='Buy Me a Coffee at ko-fi.com' \u002F>\u003C\u002Fa>\n","# BMO 聊天机器人 for Obsidian\n\n使用来自 Ollama、LM Studio、Anthropic、Google Gemini、Mistral AI、OpenAI 等的大型语言模型 (LLMs)，在创建笔记时生成内容并进行头脑风暴。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_0bc22344f3b7.png\" alt=\"original_example\">\n\u003C\u002Fp>\n\n## 功能\n\n### 个人资料\n\n创建具有特定知识、个性和预设的聊天机器人。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_aa20f2c38cb0.gif\" alt=\"profiles_example\">\n\u003C\u002Fp>\n\n### BMO 生成\n\n使用您连接的 LLM 在编辑器中生成回复。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_d3593b666fe9.gif\" alt=\"bmo_generate_example\">\n\u003C\u002Fp>\n\n### “提示选择生成”命令\n\n在编辑器中提示、选择并生成内容。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_427d7db657b0.gif\" alt=\"prompt_select_generate_example\">\n\u003C\u002Fp>\n\n### Obsidian Markdown 渲染\n\n渲染代码块（例如 Dataview），这些代码块可以在您的聊天视图中显示。使用系统提示自定义您的聊天机器人回复。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_3c2ffa4ea3dc.png\" alt=\"dataview_example\">\n\u003C\u002Fp>\n\n### 更多功能！\n\n-   **与自托管大型语言模型 (LLMs) 交互：** 使用提供的 REST API URL，通过 [Ollama](https:\u002F\u002Follama.ai) 或 [LM Studio](https:\u002F\u002Flmstudio.ai\u002F) 与自托管大型语言模型 (LLMs) 交互。\n-   **与当前笔记对话：** 使用您的聊天机器人引用并参与当前笔记的内容。\n-   **在 Obsidian 的任何位置聊天：** 您可以在 Obsidian 的任何地方与机器人对话。\n-   **可自定义的机器人名称：** 个性化聊天机器人的名称。\n-   **聊天机器人以 Obsidian Markdown 格式渲染：** 接收格式化的回复，保持一致性。\n-   **将聊天记录保存为 Markdown 并加载：** 在聊天中使用 `\u002Fsave` 命令保存当前对话，使用 `\u002Fload` 加载聊天历史。\n\n## 需求\n\n如果您想通过 [Ollama](https:\u002F\u002Follama.ai) 或 [LM Studio](https:\u002F\u002Flmstudio.ai\u002F) 与自托管大型语言模型 (LLMs) 交互，您需要先设置并运行自托管 API。您可以按照自托管 API 提供商的说明来启动和运行它。一旦您获得了自托管 API 的 REST API URL，就可以将其与本插件一起使用，与您的模型进行交互。\n\n访问其他模型可能需要 API 密钥。\n\n请参阅 [说明](https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fwiki) 以设置与其他 LLM 提供商的连接。\n\n您可以在 [GPT4ALL](https:\u002F\u002Fgpt4all.io\u002Findex.html) 的“模型探索”部分或 [Ollama 的库](https:\u002F\u002Follama.ai\u002Flibrary) 中探索一些模型。\n\n## 如何激活插件\n\n三种方法：\n\nObsidian 社区插件（**推荐**）：\n\n1. 在 Obsidian 社区插件中搜索“BMO Chatbot”。\n2. 在设置中启用“BMO Chatbot”。\n\n从本仓库激活插件：\n\n1. 在终端中导航到插件文件夹。\n2. 运行 `npm install` 以安装插件所需的任何依赖项。\n3. 安装完依赖项后，运行 `npm run build` 来构建插件。\n4. 插件构建完成后，即可激活。\n\n使用 Beta Reviewers Auto-update Tester ([BRAT](https:\u002F\u002Fgithub.com\u002FTfTHacker\u002Fobsidian42-brat)) 安装 - [使用 BRAT 的快速指南](https:\u002F\u002Ftfthacker.com\u002FObsidian+Plugins+by+TfTHacker\u002FBRAT+-+Beta+Reviewer's+Auto-update+Tool\u002FQuick+guide+for+using+BRAT)\n\n1. 在 Obsidian 社区插件中搜索“Obsidian42 - BRAT”。\n2. 打开命令面板，运行命令 `BRAT: 添加一个用于测试的测试版插件`（如果您希望插件版本冻结，请使用命令 `BRAT: 添加一个基于发布标签的冻结版本的测试版插件`）。\n3. 粘贴“https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot”。\n4. 单击“添加插件”。\n5. 在 BRAT 确认安装后，在设置中转到社区插件选项卡。\n6. 刷新插件列表。\n7. 找到您刚刚安装的测试版插件并启用它。\n\n## 开始使用\n\n要开始使用该插件，请在设置菜单中启用它，并插入来自提供商的 API 密钥或 REST API URL。完成这些步骤后，您可以通过单击左侧边栏中的机器人图标来访问机器人面板。\n\n## 命令\n\n-   `\u002Fhelp` - 显示帮助命令。\n-   `\u002Fmodel` - 列出或更改模型。\n    -   `\u002Fmodel 1` 或 `\u002Fmodel \"llama2\"`\n        -   ...\n-   `\u002Fprofile` - 列出或更改个人资料。\n    -   `\u002Fprofile 1` 或 `\u002Fprofile [PROFILE-NAME]`\n-   `\u002Fprompt` - 列出或更改提示。\n    -   `\u002Fprompt 1` 或 `\u002Fprompt [PROMPT-NAME]`\n-   `\u002Fmaxtokens [VALUE]` - 设置最大 token 数。\n-   `\u002Ftemp [VALUE]` - 更改温度范围，从 0 到 2。\n-   `\u002Fref on | off` - 开启或关闭引用当前笔记的功能。\n-   `\u002Fappend` - 将当前聊天历史附加到当前活动笔记。\n-   `\u002Fsave` - 将当前聊天历史保存到笔记中。\n-   `\u002Fload` - 列出或加载聊天历史。\n-   `\u002Fclear` 或 `\u002Fc` - 清除聊天历史。\n-   `\u002Fstop` 或 `\u002Fs` - 停止获取回复。\n\n## 支持的模型\n\n-   使用 [Ollama](https:\u002F\u002Follama.ai) 的任何自托管模型。\n    -   请参阅 [说明](https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fwiki) 以将 Ollama 与 Obsidian 配合使用。\n-   使用基于 OpenAI 端点的任何自托管模型。\n    -   [LM Studio](https:\u002F\u002Flmstudio.ai\u002F)\n    -   [LocalAI](https:\u002F\u002Fgithub.com\u002Fmudler\u002FLocalAI)\n-   Anthropic（警告：Anthropic 模型无法中断。请谨慎使用。如有必要，请重新加载插件。）\n    -   claude-instant-1.2\n    -   claude-2.0\n    -   claude-2.1\n    -   claude-3-haiku-20240307\n    -   claude-3-sonnet-20240229\n    -   claude-3-5-sonnet-20240620\n    -   claude-3-opus-20240229\n-   Mistral AI 的模型\n-   Google Gemini 模型\n-   OpenAI\n    -   gpt-3.5-turbo\n    -   gpt-4\n    -   gpt-4-turbo\n    -   gpt-4o\n    -   gpt-4o-mini\n-   任何 Openrouter 提供的模型。\n\n## 其他说明\n\n“BMO”是该项目的标签名。灵感来源于《探险活宝》中的角色“BMO”。\n\nBe MOre!\n\n## 贡献\n\n任何想法或支持都将不胜感激！\n\n目前我太忙了，无法更新项目。欢迎提交拉取请求！ :)\n\n如果您发现任何错误或有改进建议，请创建一个问题。\n\n如果您想分享您的想法、个人资料或其他内容，请加入或创建讨论。\n\n\u003Ca href='https:\u002F\u002Fko-fi.com\u002FK3K8PNYT8' target='_blank'>\u003Cimg height='36' style='border:0px;height:36px;' src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_readme_769417f99ed2.png' border='0' alt='Buy Me a Coffee at ko-fi.com' \u002F>\u003C\u002Fa>","# Obsidian BMO Chatbot 快速上手指南\n\nBMO Chatbot 是一款强大的 Obsidian 插件，允许你在笔记创作过程中直接调用大语言模型（LLM）进行灵感生成、头脑风暴和对话。它支持 Ollama、LM Studio、OpenAI、Anthropic、Google Gemini 等多种模型提供商。\n\n## 环境准备\n\n在开始之前，请确保满足以下条件：\n\n1.  **Obsidian 客户端**：已安装最新版本的 Obsidian。\n2.  **大语言模型服务**（二选一）：\n    *   **本地部署（推荐）**：安装并运行 [Ollama](https:\u002F\u002Follama.ai) 或 [LM Studio](https:\u002F\u002Flmstudio.ai)。确保对应的 REST API 服务正在运行（通常 Ollama 默认地址为 `http:\u002F\u002Flocalhost:11434`）。\n    *   **云端 API**：拥有 OpenAI、Anthropic、Google Gemini 等服务的 API Key。\n3.  **网络环境**：若使用国内网络访问海外模型服务（如 OpenAI），请确保网络通畅或配置好代理；若使用本地模型（Ollama\u002FLM Studio），则无需额外网络配置。\n\n## 安装步骤\n\n### 方法一：通过社区插件安装（推荐）\n\n这是最简单且稳定的安装方式：\n\n1.  打开 Obsidian，进入 **设置 (Settings)** > **社区插件 (Community plugins)**。\n2.  关闭“安全模式”（如果尚未关闭），点击 **浏览 (Browse)**。\n3.  在搜索框中输入 `BMO Chatbot`。\n4.  找到插件后点击 **安装 (Install)**，安装完成后点击 **启用 (Enable)**。\n\n### 方法二：手动构建安装（适用于开发者）\n\n如果你需要从源码构建最新版本：\n\n1.  在终端中克隆仓库或进入插件文件夹：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot.git\n    cd obsidian-bmo-chatbot\n    ```\n2.  安装依赖项：\n    ```bash\n    npm install\n    ```\n3.  构建插件：\n    ```bash\n    npm run build\n    ```\n4.  将生成的 `main.js`、`manifest.json` 和 `styles.css` 文件复制到你的 Obsidian 仓库下的 `.obsidian\u002Fplugins\u002Fobsidian-bmo-chatbot\u002F` 目录中。\n5.  在 Obsidian 设置中启用该插件。\n\n### 方法三：使用 BRAT 插件安装（测试版）\n\n如果你想体验最新的测试版本：\n\n1.  在社区插件中搜索并安装 `Obsidian42 - BRAT`。\n2.  打开命令面板 (`Ctrl\u002FCmd + P`)，运行 `BRAT: Add a beta plugin for testing`。\n3.  粘贴仓库地址：`https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot`。\n4.  点击 **Add Plugin**，确认后在 community plugins 列表中刷新并启用。\n\n## 基本使用\n\n### 1. 配置模型连接\n\n1.  启用插件后，点击左侧侧边栏的 **机器人图标** 打开聊天面板。\n2.  首次使用时，插件会提示配置。\n    *   **本地模型**：选择 Provider 为 `Ollama` 或 `LocalAI`，输入 API URL（例如 `http:\u002F\u002Flocalhost:11434`）。\n    *   **云端模型**：选择对应的提供商（如 `OpenAI`），并在设置中填入你的 `API Key`。\n3.  在聊天窗口中使用 `\u002Fmodel` 命令切换或确认当前模型：\n    ```text\n    \u002Fmodel llama2\n    ```\n    或者通过图形界面选择已加载的模型。\n\n### 2. 开始对话与生成\n\n*   **开启新对话**：直接在聊天输入框输入问题，例如：“帮我总结这篇笔记的核心观点”。\n*   **引用当前笔记**：输入 `\u002Fref on` 开启上下文引用，Bot 将自动读取当前打开的笔记内容作为背景知识。\n*   **选中生成**：在编辑器中选中一段文字，打开命令面板运行 `BMO: Prompt Select Generate`，可针对选中内容进行扩写或润色。\n\n### 3. 常用命令速查\n\n在聊天输入框中输入以下命令来控制行为：\n\n*   `\u002Fhelp`：查看所有可用命令。\n*   `\u002Fprofile [名称]`：切换预设的角色人设（如“专业作家”、“代码助手”）。\n*   `\u002Fsave`：将当前聊天记录保存为一个新的 Markdown 笔记。\n*   `\u002Fload`：加载历史聊天记录。\n*   `\u002Fappend`：将当前对话内容追加到当前激活的笔记末尾。\n*   `\u002Fclear` 或 `\u002Fc`：清空当前聊天历史。\n*   `\u002Fstop` 或 `\u002Fs`：停止当前正在生成的回复。\n\n### 4. 高级功能：Markdown 渲染\n\nBMO Chatbot 支持在聊天窗口中直接渲染 Obsidian Markdown 语法，包括代码块和 Dataview 查询结果。你可以通过系统提示词（System Prompt）定制 Bot 的输出格式，使其完美融入你的笔记工作流。","一位知识管理博主正在 Obsidian 中撰写关于\"2024 年 AI 技术趋势”的深度文章，需要整合大量碎片化笔记并生成结构化大纲。\n\n### 没有 obsidian-bmo-chatbot 时\n- **思维断层严重**：在写作卡壳时，必须切换浏览器去外部网页版 AI 提问，打断心流，回来后再手动复制粘贴内容，效率极低。\n- **上下文割裂**：外部 AI 无法直接读取当前笔记中的私有数据和前文逻辑，每次都需要重新输入背景信息，导致生成的建议缺乏针对性。\n- **格式整理繁琐**：从外部获取的回答通常是纯文本或通用 Markdown，插入 Obsidian 后往往丢失双链引用或 Dataview 代码块样式，需二次手工调整。\n- **角色单一固定**：难以快速切换“批判性审稿人”或“创意发散者”等不同视角来打磨同一篇笔记，只能依赖通用默认回复。\n\n### 使用 obsidian-bmo-chatbot 后\n- **沉浸式创作**：直接在编辑器内调用本地 Ollama 或云端模型进行头脑风暴，选中段落即可通过\"Prompt Select Generate\"即时获得灵感，全程无需离开界面。\n- **深度上下文感知**：插件自动关联当前笔记内容，AI 能基于已有的笔记素材和前文逻辑提供连贯的续写建议或反驳观点，真正实现“与笔记对话”。\n- **原生渲染兼容**：生成的回复直接以 Obsidian 标准 Markdown 格式呈现，完美保留内部双链、Dataview 查询块及自定义样式，无需任何格式清洗。\n- **个性化角色预设**：通过 Profiles 功能一键切换不同人设（如“严谨的技术顾问”或“活泼的创意伙伴”），针对同一主题获取多维度的差异化洞察。\n\nobsidian-bmo-chatbot 将大语言模型无缝嵌入笔记工作流，让 AI 从“外部搜索工具”转变为懂你上下文的“内在创作搭档”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongy2k_obsidian-bmo-chatbot_0bc22344.png","longy2k","Long Huynh","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flongy2k_ff85eaf7.png",null,"longy2k.com","https:\u002F\u002Fgithub.com\u002Flongy2k",[82,86,90],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",97.6,{"name":87,"color":88,"percentage":89},"CSS","#663399",2.1,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",0.3,527,61,"2026-04-04T13:39:56","MIT","Windows, macOS, Linux","非必需（取决于所选 LLM 后端；若使用本地 Ollama 或 LM Studio，需参考对应模型的 GPU 要求）","未说明（取决于所选 LLM 模型的大小）",{"notes":102,"python":103,"dependencies":104},"该工具是 Obsidian 社区插件，并非独立的 Python 应用程序。运行环境主要依赖 Obsidian 客户端。若使用本地大模型，需单独安装并运行 Ollama、LM Studio 等服务并提供 REST API 地址；若使用云端模型（如 OpenAI、Anthropic），则仅需配置 API Key。插件本身通过 npm install 和 npm run build 进行构建。","未说明",[105,106,107],"Node.js\u002Fnpm (用于构建插件)","Ollama 或 LM Studio (可选，用于本地模型)","有效的 LLM API Key (用于云端模型)",[45,15],[110,111,112,113,114],"obsidian-plugin","ollama","openai-api","mistralai","anthropic-claude","2026-03-27T02:49:30.150509","2026-04-06T21:12:41.291758",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},20004,"为什么 BMO 会出现自言自语或重复回复的现象？","这通常是由于模型输出格式解析错误或流式响应处理不当导致的。建议尝试以下解决方案：1. 更新 Ollama 到最新版本；2. 检查 Modelfile 配置，尝试移除 `num_gqa` 设置行或确保模型来源正确（如 `FROM llama-3:latest`）；3. 如果是流式 JSON 解析问题，可能需要等待插件更新以更好地处理分块数据。","https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fissues\u002F72",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},20005,"连接 Ollama 后发送提示词但没有收到任何回复怎么办？","这个问题通常与 Ollama 的流式响应处理有关。Ollama 的最后一条流式消息包含一个大 JSON，常被分割成多个块，导致解析失败。解决方案：1. 确保插件已更新至支持 `\u002Fapi\u002Fchat` 接口的最新版本；2. 开发者已在代码中增加了 try\u002Fcatch 来处理此类错误；3. 如果仍有缺失 token 的情况，请确认是否只发生在首次响应，并关注后续插件更新以修复循环遍历所有分片的问题。","https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fissues\u002F15",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},20006,"升级插件后 Ollama API 停止工作，显示“未找到连接”且模型列表为空？","这是因为插件忽略了用户在设置中自定义的 Ollama REST API URL，回退到了默认值 (http:\u002F\u002F127.0.0.1:11434)。解决方法：1. 将插件升级到 v2.1.1 或更高版本，该版本已修复此问题，允许使用自定义 URL；2. 临时解决方法是手动修改插件源码 `.obsidian\u002Fplugins\u002Fbmo-chatbot\u002Fmain.js` 第 1644 行，将默认 host 改为你实际的远程服务器地址；3. 如果使用 SSH 隧道，确保端口映射正确，目前插件可能强制使用 11434 端口。","https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fissues\u002F83",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},20007,"本地部署的 llama.cpp 或 Jan.ai 突然无法连接或获取模型？","这可能是由于 REST API URL 配置冲突或插件缓存问题。建议尝试：1. 删除插件并重新安装以清除潜在的配置错误；2. 检查是否填写了 REST API URL，有时填写该项会阻止 OpenRouter 拉取模型，可尝试清空该项测试；3. 确保后端服务（如 llama.cpp server 或 Jan.ai）正在运行且端口未被占用；4. 等待插件新版本（如 v2.1.0+）修复相关的连接逻辑。","https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fissues\u002F58",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},20008,"聊天消息顺序错乱、消失或删除功能误删消息怎么办？","这通常发生在使用某些模型（如 Llama 3）返回空响应时，导致插件索引混乱。解决方案：1. 务必将 Ollama 更新到最新版本，旧版本对空响应的处理存在缺陷；2. 利用插件新的“编辑”功能来修正空回复，避免触发删除逻辑错误；3. 如果问题持续，尝试新建一个干净的 Obsidian 仓库（Vault）测试是否正常，以排除本地配置干扰。","https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fissues\u002F71",{"id":144,"question_zh":145,"answer_zh":146,"source_url":132},20009,"Mac 用户如何正确配置 Ollama 以避免端口冲突并成功加载模型？","在 Mac 上，如果 Ollama 应用程序正在运行可能会占用默认端口。解决方法：1. 停止运行 Ollama 桌面应用程序；2. 通过终端设置环境变量启动 Ollama，指定 Host 和允许的源：`OLLAMA_ORIGINS=app:\u002F\u002Fobsidian.md* OLLAMA_HOST=127.0.0.1:11434 ollama serve`；3. 确保插件设置中的端口为默认的 11434，目前非默认端口可能导致无法检索模型列表。",[148,153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243],{"id":149,"version":150,"summary_zh":151,"released_at":152},118020,"2.3.3","# 修复\n- 恢复对自定义 OpenAI API URL 的支持 (#103)，由 [QAbot-zh](https:\u002F\u002Fgithub.com\u002FQAbot-zh) 提供","2024-07-25T00:07:32",{"id":154,"version":155,"summary_zh":156,"released_at":157},118021,"2.3.2","# 新增功能\n\n- 来自 OpenAI 的 `gpt-4o-mini` 模型 #100，由 [BeeLeDev](https:\u002F\u002Fgithub.com\u002FBeeLeDev) 提供\n\n# 修复\n- 每次删除文件时，聊天机器人视图都会重新获得焦点。","2024-07-21T02:49:12",{"id":159,"version":160,"summary_zh":161,"released_at":162},118022,"2.3.1","# 修复\n- 安装问题","2024-07-14T10:43:54",{"id":164,"version":165,"summary_zh":166,"released_at":167},118023,"2.3.0","# 重要变更\n\n您可能需要重置设置，才能使用 `\u002Fload` 命令的功能。\n\n# 新增功能\n- `\u002Fload` 命令用于列出所有聊天记录。\n  - 输入 `\u002Fload [文件名] 或 [值]` 即可加载聊天记录。\n  - 聊天记录的格式必须至少包含两个 h6 标题，才能成功加载并显示。\n\n# 改进\n- `\u002Fsave` 命令现在会保存到已加载的聊天记录中。\n\n# 修复\n- 修复 BMO Generate 中将温度参数由整数改为浮点数的问题。\n- 修复 BMO Generate 在中断时生成多个反引号的问题。","2024-07-13T02:03:41",{"id":169,"version":170,"summary_zh":171,"released_at":172},118024,"2.2.0","# 新功能\n- “BMO Generate” 是一种代码块，可以根据自定义提示生成内容，并在 Obsidian 编辑器中显示响应。\n  - 支持在代码块中使用 `MODEL`、`TEMPERATURE` 和 `MAX_TOKENS` 参数。\n  - 在配置文件的 frontmatter 中新增了 `bmo_generate_background_color`。\n  - 在配置文件的 frontmatter 中新增了 `bmo_generate_font_color`。\n- 添加了所有 Google Gemini 模型（例如 `gemini-1.0-pro` 和 `gemini-1.5-flash`）。\n# 改进\n- Google Gemini 模型支持流式输出和中断。\n- 实现了模型响应的获取与中断功能。\n- 在模型下拉菜单中新增了“无模型”选项。","2024-07-08T03:52:57",{"id":174,"version":175,"summary_zh":176,"released_at":177},118025,"2.1.2","##### 新增功能\n- 新增 Anthropic 的 `claude-3-5-sonnet-20240620` 模型。\n\n##### 改进\n- 在聊天机器人视图中切换模型。\n- 将模型下拉菜单分组。\n- 增加了聊天机器人视图的高度。\n\n##### 修复\n- 修复了编辑机器人消息时段落换行的问题。","2024-07-03T18:35:32",{"id":179,"version":180,"summary_zh":181,"released_at":182},118026,"2.1.1","## 修复\r\n- 修复：Ollama 自定义客户端。","2024-05-24T15:35:06",{"id":184,"version":185,"summary_zh":186,"released_at":187},118027,"2.1.0","## 重要变更\n- Ollama 现在需要额外的设置！\n    - [如何使用 Ollama 进行设置 · longy2k\u002Fobsidian-bmo-chatbot Wiki](https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fwiki\u002FHow-to-setup-with-Ollama)\n- 请更新您的 Frontmatter 属性。\n    - `allow_header` 已更改为 `enable_header`\n    - `reference_current_note` 已更改为 `enable_reference_current_note`\n\n## 新功能\n- 用户可以插入诸如 `[[example]]`、`![[example]]` 和 `[[example#Heading]]` 等链接，供模型读取。\n- 模型能够读取 Obsidian 的数据视图、Obsidian Tracker 等语言块。\n- 当模型以 `![[]]` 或 `[[]]` 的形式响应时，模型可以读取笔记。\n- 支持 Ollama Vision 模型。请使用 Ollama 库中的 `LLaVA` 模型。\n- 发送按钮。移动端友好。\n- 流式模型的停止按钮。\n- 在聊天框中启用或禁用滚动条的外观选项。\n- Ollama 的 `min_p` 参数。\n- 新增 Anthropic 的 `claude-3-haiku-20240307` 模型。\n- 新增 OpenAI 的 `gpt-4-turbo` 模型。\n- 新增 OpenAI 的 `gpt-4o` 模型。\n\n## 改进\n- 在移动设备上，回车键将添加换行符而不是提交表单。\n- 部分命令现在会显示新的提示信息，而非直接回复。\n- 在常规设置中为模型下拉菜单添加了重新加载按钮。\n- “Prompt Select Generate” 命令会在响应完成之前显示“正在生成…”的提示。\n- 对模型响应的输出进行裁剪。\n\n## 变更\n- 移除了 OpenAI 的 `gpt-4-turbo-preview` 模型，替换为 `gpt-4-turbo`。\n- 移除了 OpenAI 的 `gpt-3.5-turbo-1106` 模型，替换为 `gpt-3.5-turbo`。\n- 文本区域的滚动条现在默认隐藏。\n- 设置中的“REST API URL 连接”已更改为“REST API 连接”。\n- 用户名“USER”已更改为“YOU”。\n\n## 修复\n- 修复斜杠（‘\u002F’）相关问题。\n- 修复 `\u002Fsave` 命令因移除聊天回复而导致的消息顺序问题。\n- 删除默认配置文件后，将重置为默认设置。","2024-05-23T21:01:54",{"id":189,"version":190,"summary_zh":191,"released_at":192},118028,"2.0.0","## 重要变更\n更正——语义化版本控制：破坏性变更 v1.8.9 → v2.0.0（v1.9.0）\n\n### 如果您使用的是 \u003Cv2.0.0 版本，请按照以下步骤操作：\n\n1. 前往 `设置 > 社区插件 > BMO Chatbot`，卸载该插件。\n2. 重新安装“BMO Chatbot”插件。\n3. 重启 Obsidian，或切换插件的启用\u002F禁用状态以刷新。\n\n或者，\n\n1. 前往 `设置 > 社区插件`，点击文件夹图标：\n\n \u003Cimg width=\"775\" alt=\"Screenshot 2024-03-10 at 9 28 38 PM\" src=\"https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fassets\u002F40724177\u002F62882d8d-77d9-4a46-88fc-4e6a9b1215fc\">\n\n2. 完全关闭 Obsidian。\n3. 找到 `bmo-chatbot` 文件夹，删除 `data.json` 文件。\n4. 重启 Obsidian。\n\n## 新功能\n- 重新实现了提示词功能\n## 改进\n- `\u002Fprompt [PROMPT-NAME]` 现在不区分大小写。\n## 变更\n- 将“允许标题”移至外观设置的顶部。\n- 当前笔记的引用会前置“附加笔记：”字样。\n## 修复\n- 语义化版本控制：破坏性变更 v1.8.9 → v2.0.0（v1.9.0）\n- Gemini Pro 不支持系统提示词。已采用 @gerardsans 的[解决方案](https:\u002F\u002Fwww.googlecloudcommunity.com\u002Fgc\u002FAI-ML\u002FGemini-Pro-Context-Option\u002Fm-p\u002F684704\u002Fhighlight\u002Ftrue#M4159)解决。\n- 修复了“聊天框背景颜色”的 frontmatter。重置为默认值时，聊天机器人视图未更新。\n- 修复了帮助命令中的拼写错误。","2024-03-18T04:03:46",{"id":194,"version":195,"summary_zh":196,"released_at":197},118029,"1.9.0","# 重大变更\n- BMO 聊天机器人的数据结构已修改，可能导致错误。请使用设置选项卡底部的“重置设置”选项来刷新您的设置数据。\n\n### 如果您使用的是 \u003Cv1.9.0 版本，请按照以下步骤操作：\n\n1. 前往 `选项 > 社区插件`，点击文件夹图标：\n\n    \u003Cimg width=\"775\" alt=\"Screenshot 2024-03-10 at 9 28 38 PM\" src=\"https:\u002F\u002Fgithub.com\u002Flongy2k\u002Fobsidian-bmo-chatbot\u002Fassets\u002F40724177\u002F62882d8d-77d9-4a46-88fc-4e6a9b1215fc\">\n\n2. 完全关闭 Obsidian。\n\n3. 找到 `bmo-chatbot` 文件夹，并删除 `data.json` 文件。\n\n4. 重新启动 Obsidian。\n\n\n# 新功能\n- 个人资料 - 创建具有特定知识、个性及预设的聊天机器人。\n\t- 每个个人资料拥有独立的消息历史记录。\n\t- 可通过设置或命令切换个人资料。尝试输入 `\u002Fp` 列出所有个人资料。\n- 更多聊天机器人样式自定义选项，例如修改聊天机器人容器、消息容器的背景颜色以及字体颜色。\n- OpenRouter 现已在 `BMO 设置 > API 连接` 下设有独立部分。\n- 新增“重置设置”选项。为获得更好的使用体验，请在本次更新后重置您的设置。\n\n# 改进\n- 命令别名\n\t- 帮助（如手册、命令）：`\u002Fcommands`、`\u002Fmanual`、`\u002Fman`、`\u002Fhelp`、`\u002Fh`\n\t- 模型：`\u002Fmodels`、`\u002Fm`\n\t- 个人资料：`\u002Fprofiles`、`\u002Fprof`、`\u002Fp`\n\t- 引用当前笔记：`\u002Freference`、`\u002Fref`\n\t- 温度：`\u002Ftemperature`、`\u002Ftemp`\n\t- 最大 token 数：`\u002Fmaxtokens`\n\t- 将当前消息历史追加到笔记：`\u002Fappend`\n\t- 保存消息历史：`\u002Fsave`\n\t- 清除消息历史：`\u002Fclear`、`\u002Fc`\n\t- 停止流式输出：`\u002Fstop`、`\u002Fs`\n- 通过命令切换模型和个人资料时，不再区分大小写。\n\n# 变更\n- 提示选择生成系统角色的默认值由“你是一个乐于助人的助手”改为“输出用户请求”。\n- 将“聊天框边框颜色”与“聊天框背景颜色”合并。\n- 聊天机器人视图中恢复滚动条。\n- “用户名”和“聊天机器人名称”现在可以使用大写或小写字母。\n- 默认的“聊天历史文件夹路径”由 `BMO` 改为 `BMO\u002FHistory`。\n- 从外观设置中移除了“聊天机器人名称”。创建和重命名聊天机器人现位于 `个人资料 > 个人资料文件夹路径`。\n- 从设置选项卡中移除了“系统”（系统角色提示）。此举旨在鼓励用户从个人资料中查找系统角色提示，从而创建更复杂的提示内容。\n\n# 修复\n- 修复了 Anthropic 的重命名标题生成器问题。\n- 修复了刷新聊天机器人视图时出现的段落断行问题。","2024-03-16T19:04:57",{"id":199,"version":200,"summary_zh":201,"released_at":202},118030,"1.8.9","## Important Changes\r\n- REST API URL uses `\u002Fchat\u002Fcompletions` endpoints. Make sure you add the correct urls that lead to `\u002Fchat\u002Fcompletions`. For example, inserting `https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1` will fetch `https:\u002F\u002Fopenrouter.ai\u002Fapi\u002Fv1\u002Fchat\u002Fcompletions`.  If you are using the default LM Studio url, you can insert the REST API URL as `http:\u002F\u002Flocalhost:1234\u002Fv1`.\r\n\r\n## Features\r\n- Replaced `marked` for Obsidian Markdown rendering. This allows BMO Chatbot to render links, images, and other rich text elements (e.g. Obsidian Dataview, iframe, ...).\r\n- Added Anthropic models: `claude-3-sonnet-20240229` and `claude-3-sonnet-20240229`.\r\n\r\n## Refactor\r\n- The model list will fetch for models every time the user open BMO Settings.\r\n- Anthropic API's Text Completion -> Anthropic API's Messages\r\n\r\n## Fixes\r\n- 'Prompt Select Generate' and Title Rename are updated for Anthropic Models.\r\n- Anthropic's user response no longer removes the first word.\r\n","2024-03-04T17:56:19",{"id":204,"version":205,"summary_zh":206,"released_at":207},118031,"1.8.8","## Feat\r\n- Customizable chatbox\r\n\r\n## Improvements\r\n- Changed temperature slider to a textfield. \r\n   - More precise values for temperature.\r\n- Better error handling (e.g. API connections errors will display as a bot message).\r\n- Better command response (e.g. `\u002Fprompt` will display a bot message if prompt path is not set).\r\n\r\n## Fixes\r\n- Append button will no longer go to the first file that is opened when restarting Obsidian.\r\n- \"handle responses.json when it is an array\" by @keriati in (#51) ","2024-02-26T00:11:20",{"id":209,"version":210,"summary_zh":211,"released_at":212},118032,"1.8.7","## Add\r\n- Bot Message now contains an Edit button.\r\n- Google Gemini Pro's API Key.\r\n- Mistral AI's API Key.\r\n- Anthropic's API Key.\r\n\r\n## Changes\r\n- The 'Prompt Select Generate' hotkey default is now `CMD+Shift+=`\r\n\r\n## Fixes\r\n- Clear reference current note each time before getting the new reference note.\r\n- Temperature max range is now set to 2.\r\n- `\u002Fsave` and `\u002Fappend` now responds with a bot message when the commands are executed. This also fixes the issue where users cannot continue a conversation after `\u002Fsave` or `\u002Fappend`.\r\n- Set max_tokens default to 4096 for REST API URLs, Mistral AI, and Google Gemini Pro.","2024-02-11T14:33:28",{"id":214,"version":215,"summary_zh":216,"released_at":217},118033,"1.8.6","## Add\r\n- Ollama: `keep_alive` parameter\r\n- Editor Settings section\r\n    - `Prompt Select Generate System` textfield\r\n\r\n## Changes\r\n- New loading animation.\r\n- Refactor 'Reference Current Note' to better detect active file.","2024-02-05T18:09:10",{"id":219,"version":220,"summary_zh":221,"released_at":222},118034,"1.8.5","## Fixes\r\n- Ollama: Cleared default seed parameter to avoid repetitive response","2024-02-04T05:08:13",{"id":224,"version":225,"summary_zh":226,"released_at":227},118035,"1.8.4","## Added\r\n- Ollama parameters \r\n- Better light theme support\r\n- Setting tabs has toggle features\r\n\r\n## Changes\r\n- Removed gpt-4-1106-preview and replaced with gpt-4-turbo-preview\r\n\r\n## Fixes\r\n- Persistent 'undefined' response via prompt function","2024-02-03T23:13:11",{"id":229,"version":230,"summary_zh":231,"released_at":232},118036,"1.8.3","## Added\r\n- Edit and regen button for all user messages (Excluding commands).","2024-01-18T01:54:31",{"id":234,"version":235,"summary_zh":236,"released_at":237},118037,"1.8.2","## Fix\r\n- Pulling models","2024-01-16T01:09:58",{"id":239,"version":240,"summary_zh":241,"released_at":242},118038,"1.8.1","## Added\r\n- Allow header option to display chabot name and model name.\r\n\r\n## Refactor\r\n- Added a new notice `generating...` for 'Prompt Select Generate' command.\r\n- LOCALAI REST API URL is now OPENAI REST API URL. This should support other LLM providers with OpenAI's endpoints such as LM Studio.\r\n\r\n## Fixes\r\n- Ollama default url is set to empty to prevent repeating connection error.\r\n- `\u002Fprompt` will send a new notice if folder path is not set.\r\n- Reference current notes clears before each response.\r\n","2024-01-16T00:50:16",{"id":244,"version":245,"summary_zh":246,"released_at":247},118039,"1.8.0","## Features\r\n- Append model's response button\r\n- Regenerate model's response button\r\n- Generate new title command\r\n- 'Prompt Select Generate' command\r\n    - Ability to generate response in editor by creating a prompt, selecting the prompt, and running the command.\r\n - Prompt option\r\n\r\n## Fixes\r\n- Openai-based url will list the proper models in dropdown.\r\n \r\n## Deprecated\r\n- `\u002Flist`\r\n    - Use `\u002Fmodel` or `\u002Fmodels` to display model list.\r\n    - Use `\u002Fprompt` or `\u002Fprompts` to display prompt list.","2023-12-30T16:40:31"]