[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lmg-anon--mikupad":3,"tool-lmg-anon--mikupad":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":75,"languages":76,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":100,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":110,"github_topics":111,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":151},7812,"lmg-anon\u002Fmikupad","mikupad","LLM Frontend in a single html file","mikupad 是一款基于浏览器的轻量级大语言模型前端，其核心特色是仅需一个 HTML 文件即可运行。它旨在解决用户在不同 AI 后端之间切换繁琐、本地部署门槛高以及会话管理不便的痛点，让用户无需复杂安装就能立即开始与各类语言模型交互。\n\n无论是希望快速体验本地模型的普通用户，还是需要精细调控生成效果的研究者或开发者，mikupad 都能提供极佳的支持。它广泛兼容 llama.cpp、koboldcpp、AI Horde 及任何 OpenAI 兼容接口，打破了后端限制。\n\n在技术亮点方面，mikupad 不仅支持会话自动保存与导入导出，确保工作流无缝衔接，还提供了深度的上下文控制功能，如“记忆”注入、“作者注”动态调整及基于关键词的“世界信息”触发。此外，它具备独特的令牌概率可视化功能，用户悬停即可查看预测概率并直接重生成特定片段，配合日志偏置（Logit Bias）微调，能极大提升对生成内容的掌控力。界面支持多种主题，并智能适配续写与聊天两种模式，自动处理指令模板分隔符。只需在浏览器打开文件或部署简易本地服务，即可享受专业且灵活的 AI 交互体验。","# mikupad\n\n**mikupad** is a user-friendly, browser-based interface for interacting with language models. It's built with ReactJS and supports various text generation backends, all within a single HTML file.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmg-anon_mikupad_readme_86fcc9e60fb0.png)\n\n## Features\n\n* **Multiple Backends**: Supports **llama.cpp**, **koboldcpp**, **AI Horde**, and any **OpenAI Compatible** API.\n* **Session Persistence**: Your prompt is automatically saved and restored, allowing you to continue seamlessly across multiple sessions. Import and export sessions for sharing or maintaining backups.\n* **Optional Server**: Can be hosted on a local Node.js server, enabling database access remotely or across your local network.\n* **Persistent Context**:\n  * **Memory**: Seamlessly inject a text of your choice at the beginning of the context.\n  * **Author's Note**: Seamlessly inject a text of your choice at the end of the context, with adjustable depth.\n  * **World Info**: Dynamically include extra information in the context, triggered by specific keywords.\n* **Prediction Undo\u002FRedo**: Easily experiment and refine your generated text with the ability to undo and redo predictions.\n* **Token Probability**: Hover over any token to reveal the top 10 most probable tokens at that point. Click on a probability to regenerate the text from that specific token.\n  * If you're using oobabooga, make sure to use an \\_HF sampler for this feature to function properly.\n  * If you're using koboldcpp, token probabilities are only available with Token Streaming disabled.\n* **Logit Bias**: Fine-tune the generation process by adjusting the likelihood bias of specific tokens on-the-fly.\n* **Completion\u002FChat Modes**:\n  * **Completion**: Have the language model directly continue your prompt.\n  * **Chat**: Mikupad simplifies using instruct models. It automatically adds the right delimiters when you start or stop generating, based on your selected template. This also structures your prompt into messages, making it compatible with the Chat Completions API (for OpenAI-compatible backends).\n* **Themes**: Customize your environment by choosing from a variety of themes.\n\n## Getting Started\n\nYou can easily run **mikupad** by opening the `mikupad.html` file in your web browser. No additional installation is required. Choose your preferred backend and start generating text!\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad.git\ncd mikupad\nopen mikupad.html\n```\nTo use **mikupad** fully offline, run the provided `compile` script or download the pre-compiled `mikupad_compiled.html` file from [Releases](https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Freleases\u002Flatest).\n\nYou can also [try it on GitHub Pages](https:\u002F\u002Flmg-anon.github.io\u002Fmikupad\u002Fmikupad.html).\n\n## Contributing\n\nContributions from the open-source community are welcome. Whether it's fixing a bug, adding a feature, or improving the documentation, your contributions are greatly appreciated. To contribute to **mikupad**, follow these steps:\n\n1. Fork the repository.\n2. Create a new branch for your changes: `git checkout -b feature\u002Fyour-feature-name`\n3. Make your changes and commit them: `git commit -m 'Add your feature'`\n4. Push your changes to your forked repository: `git push origin feature\u002Fyour-feature-name`\n5. Open a pull request on the main repository, explaining your changes.\n\n## License\n\nThis project is licensed under the GNU Affero General Public License v3.0 - see the [LICENSE](LICENSE) file for details.\n","# mikupad\n\n**mikupad** 是一个用户友好的基于浏览器的界面，用于与语言模型交互。它使用 ReactJS 构建，支持多种文本生成后端，所有功能都集成在一个 HTML 文件中。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmg-anon_mikupad_readme_86fcc9e60fb0.png)\n\n## 功能特性\n\n* **多后端支持**：支持 **llama.cpp**、**koboldcpp**、**AI Horde** 以及任何 **OpenAI 兼容** 的 API。\n* **会话持久化**：您的提示会自动保存并恢复，让您可以在多个会话之间无缝继续。还可以导入和导出会话，方便分享或备份。\n* **可选服务器**：可以托管在本地 Node.js 服务器上，从而实现远程或局域网内的数据库访问。\n* **持久化上下文**：\n  * **记忆**：可在上下文开头无缝插入您选择的文本。\n  * **作者注**：可在上下文结尾无缝插入您选择的文本，并可调整其深度。\n  * **世界信息**：根据特定关键词动态地将额外信息纳入上下文。\n* **预测撤销\u002F重做**：通过撤销和重做预测功能，您可以轻松尝试和优化生成的文本。\n* **标记概率**：将鼠标悬停在任意标记上，即可显示该位置最可能的前 10 个标记。点击某个概率值，即可从该标记重新生成文本。\n  * 如果您使用的是 oobabooga，请确保使用 \\_HF 采样器，以使此功能正常工作。\n  * 如果您使用的是 koboldcpp，标记概率仅在禁用标记流式传输时可用。\n* **逻辑回归偏置**：通过实时调整特定标记的出现概率偏置，精细调控生成过程。\n* **完成模式\u002F聊天模式**：\n  * **完成模式**：让语言模型直接续写您的提示。\n  * **聊天模式**：Mikupad 简化了指令型模型的使用。根据您选择的模板，它会在开始或停止生成时自动添加正确的分隔符。同时，它还会将您的提示组织成消息格式，使其兼容 Chat Completions API（适用于 OpenAI 兼容的后端）。\n* **主题**：您可以通过选择多种主题来自定义界面外观。\n\n## 快速入门\n\n您只需在浏览器中打开 `mikupad.html` 文件，即可轻松运行 **mikupad**。无需任何额外安装。选择您喜欢的后端，即可开始生成文本！\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad.git\ncd mikupad\nopen mikupad.html\n```\n若要完全离线使用 **mikupad**，请运行提供的 `compile` 脚本，或从 [Releases](https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Freleases\u002Flatest) 下载预编译的 `mikupad_compiled.html` 文件。\n\n您也可以在 [GitHub Pages](https:\u002F\u002Flmg-anon.github.io\u002Fmikupad\u002Fmikupad.html) 上试用。\n\n## 参与贡献\n\n我们欢迎开源社区的贡献。无论是修复 bug、添加新功能，还是改进文档，您的贡献都将受到高度赞赏。如需为 **mikupad** 做出贡献，请按照以下步骤操作：\n\n1. Fork 该仓库。\n2. 创建一个新的分支来存放您的更改：`git checkout -b feature\u002Fyour-feature-name`\n3. 进行更改并提交：`git commit -m '添加您的功能'`\n4. 将更改推送到您 fork 的仓库：`git push origin feature\u002Fyour-feature-name`\n5. 在主仓库中打开一个 Pull Request，并详细说明您的更改。\n\n## 许可证\n\n本项目采用 GNU Affero 通用公共许可证 v3.0 许可证授权——详情请参阅 [LICENSE](LICENSE) 文件。","# mikupad 快速上手指南\n\nmikupad 是一个基于浏览器的轻量级语言模型交互界面，无需复杂安装，支持多种后端（如 llama.cpp、koboldcpp、AI Horde 及 OpenAI 兼容接口），单文件即可运行。\n\n## 环境准备\n\n*   **系统要求**：Windows、macOS 或 Linux 均可，只需具备现代网页浏览器（推荐 Chrome、Edge 或 Firefox）。\n*   **前置依赖**：\n    *   **基础模式**：无需安装任何软件或依赖，直接打开 HTML 文件即可使用。\n    *   **离线完整版**：若需完全离线使用（不依赖 CDN 加载资源），需本地安装 **Node.js** 以运行编译脚本，或直接下载预编译文件。\n    *   **后端服务**：需自行部署或连接已有的推理后端（如本地运行的 koboldcpp、llama.cpp server 或远程 API）。\n\n## 安装步骤\n\n你可以通过以下两种方式获取 mikupad：\n\n### 方式一：直接使用（在线\u002F局域网）\n克隆仓库并直接在浏览器中打开主文件：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad.git\ncd mikupad\nopen mikupad.html\n```\n*(注：Windows 用户若 `open` 命令无效，可直接在文件管理器中双击 `mikupad.html`)*\n\n### 方式二：完全离线使用\n若需要在无网络环境下使用，请选择以下任一方法：\n\n1.  **下载预编译版本**（推荐）：\n    访问 [Releases 页面](https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Freleases\u002Flatest) 下载 `mikupad_compiled.html`，直接用浏览器打开即可。\n\n2.  **自行编译**：\n    在项目根目录下运行提供的编译脚本（需已安装 Node.js）：\n    ```shell\n    npm install\n    npm run compile\n    ```\n    编译完成后，使用生成的 `mikupad_compiled.html` 文件。\n\n## 基本使用\n\n1.  **启动界面**：双击打开 `mikupad.html`（或 `mikupad_compiled.html`）。\n2.  **配置后端**：\n    *   点击界面右上角的设置图标（或连接设置区域）。\n    *   在 **Backend** 选项中选择你的推理后端类型（例如 `OpenAI Compatible` 或 `KoboldCPP`）。\n    *   输入后端服务的 API 地址（例如本地运行通常为 `http:\u002F\u002Flocalhost:5001` 或 `http:\u002F\u002F127.0.0.1:8080`）。\n3.  **开始生成**：\n    *   **补全模式 (Completion)**：直接在输入框输入提示词，模型将继续撰写后续内容。\n    *   **聊天模式 (Chat)**：切换至 Chat 模式，输入对话内容。mikupad 会自动根据所选模板添加必要的指令标记（Delimiters）。\n4.  **高级功能**：\n    *   **概率查看**：将鼠标悬停在生成的文字上，可查看该位置概率最高的 10 个令牌；点击特定概率可从此处重新生成。\n    *   **上下文管理**：利用 \"Memory\"（记忆）在上下文开头注入固定文本，或使用 \"Author's Note\"（作者注）在末尾注入引导信息。\n    *   **会话保存**：你的提示词和上下文会自动保存在浏览器本地，刷新页面后可继续之前的对话；也可通过导入\u002F导出功能备份会话。","一位独立游戏开发者需要在本地运行的 llama.cpp 模型上，反复打磨一段具有特定世界观设定的 NPC 对话剧情。\n\n### 没有 mikupad 时\n- **环境配置繁琐**：每次测试不同参数或切换后端（如从 KoboldCPP 换到 OpenAI 兼容接口），都需要重新编写脚本或配置复杂的命令行参数。\n- **上下文管理断裂**：一旦浏览器刷新或意外关闭，精心构造的“世界设定”和“前情提要”全部丢失，必须手动重新粘贴输入。\n- **微调能力缺失**：当模型生成的某个关键词不符合剧情逻辑时，无法查看该位置的 token 概率分布，也不能通过调整 Logit Bias 来强制修正特定词汇的生成倾向。\n- **试错成本高昂**：若对生成结果不满意，只能重新生成整段文本，缺乏“撤销\u002F重做”功能来快速回退到上一个满意的分支进行微调。\n\n### 使用 mikupad 后\n- **即开即用体验**：直接打开单个 HTML 文件即可连接本地 llama.cpp 或远程 API，无需安装任何依赖，瞬间在不同后端间无缝切换。\n- **会话自动持久化**：mikupad 自动保存包含“作者注释”和“世界信息”的完整会话，即使关闭浏览器，下次打开也能立即恢复到现场状态继续创作。\n- **精细化控制生成**：利用 Token 概率悬停预览功能，开发者能精准定位问题词汇，并通过点击高概率词或调整 Logit Bias，实时引导模型输出符合设定的内容。\n- **高效分支实验**：借助预测撤销\u002F重做功能，可以快速对比多种剧情走向，保留最佳版本，极大提升了剧情打磨的迭代效率。\n\nmikupad 将复杂的本地大模型交互简化为流畅的浏览器体验，让创作者能专注于内容本身而非技术调试。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flmg-anon_mikupad_86fcc9e6.png","lmg-anon",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flmg-anon_b3e7f74f.png","https:\u002F\u002Fgithub.com\u002Flmg-anon",[77,81,85,89,92],{"name":78,"color":79,"percentage":80},"HTML","#e34c26",94.1,{"name":82,"color":83,"percentage":84},"JavaScript","#f1e05a",5.4,{"name":86,"color":87,"percentage":88},"Batchfile","#C1F12E",0.2,{"name":90,"color":91,"percentage":88},"Shell","#89e051",{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.1,717,68,"2026-04-09T18:54:09","AGPL-3.0",1,"Linux, macOS, Windows","未说明 (前端工具，本身不直接调用 GPU，依赖的后端如 llama.cpp\u002Fkoboldcpp 需自行配置)","未说明",{"notes":105,"python":106,"dependencies":107},"这是一个基于浏览器的界面工具，核心功能包含在单个 HTML 文件中，直接在浏览器打开即可运行，无需安装 Python 或深度学习库。若需完整离线使用或跨网络访问，可选择部署本地 Node.js 服务器。实际推理性能取决于所连接的后端（如 llama.cpp, koboldcpp, OpenAI API 等），硬件需求由后端决定而非本工具本身。","未说明 (基础版无需安装，可选服务端模式需 Node.js)",[108,109],"ReactJS","Node.js (可选服务端)",[35,15,13,14],[112,113,114],"ai","llm","reactjs","2026-03-27T02:49:30.150509","2026-04-16T01:45:05.003907",[118,123,128,133,138,142,147],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},34989,"如何在 Mikupad 中为 DeepSeek 模型配置“中间填充”（Fill-in-the-Middle, FIM）功能？","要启用 FIM 功能，需要创建一个新的指令模板（Instruct Template），并在 FIM 模板字段中填入以下特定格式代码：`\u003C｜fim▁begin｜>{prefix}\u003C｜fim▁hole｜>{suffix}\u003C｜fim▁end｜>`。DeepSeek 支持此功能，但 Mikupad 默认可能未输出正确的格式，手动配置即可解决。","https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Fissues\u002F125",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},34990,"为什么我无法连接外部托管的 API（如 OpenRouter、KoboldCpp），并收到 CORS 错误？","这通常是因为 API URL 被错误地规范化，导致请求发送到了网页服务器而非 API 端点，从而缺少正确的 CORS 头。请检查您的 API URL 设置，确保其直接指向 API 接口（例如以 `\u002Fv1` 结尾的正确路径），避免被重定向到主页面。对于 OpenRouter，确保 URL 未被自动添加多余的路径前缀。","https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Fissues\u002F38",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},34991,"如何备份 Mikupad 中的会话和模板数据，以防清除浏览器缓存后丢失？","Mikupad 现已在界面中添加了“导入\u002F导出”（Import\u002FExport）按钮，专门用于备份整个浏览器数据库。您可以点击这些按钮将数据保存为文件，或在需要时从文件恢复。这解决了之前依赖 IndexedDB 导致清理缓存即丢失数据的问题。","https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Fissues\u002F118",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},34992,"使用 OpenAI 兼容 API 时，为什么无法获取替代令牌（alternative tokens）及其概率？","这是因为参数名称不匹配。Mikupad 可能尝试传递 `logprobs: 10`，但在某些 OpenAI 兼容实现（如 OpenRouter）中，获取前 N 个令牌概率的正确参数名应为 `top_logprobs`，而 `logprobs` 仅作为布尔开关。该问题已在后续版本修复，如果您仍遇到此问题，请确保使用的是最新版本的 Mikupad，或者检查后端是否支持 `top_logprobs` 参数。","https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Fissues\u002F101",{"id":139,"question_zh":140,"answer_zh":141,"source_url":122},34993,"在 DeepSeek 模型中，系统指令（System\u002FInstruct）的格式标签（如 {sys}, {inst}）会影响生成效果吗？","根据用户测试反馈，在使用 DeepSeek (v3.2-chat) 时，无论是否使用 `{sys}` 和 `{inst}` 等特定标签，模型的输出性能几乎没有差异。您可以自由选择是否包含这些标签，它们对最终生成结果的影响微乎其微。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},34994,"Mikupad 是否支持令牌偏差（Token Bias）或禁止特定令牌的功能？","是的，常规的令牌偏差（Token Bias）功能已经实现。用户可以通过相关设置字段来增加或减少特定令牌生成的概率。如果您需要更复杂的“短语偏差”（Phrase Bias）功能，该项目已将其列为单独的议题进行追踪，但目前基础令牌级偏差已可用。","https:\u002F\u002Fgithub.com\u002Flmg-anon\u002Fmikupad\u002Fissues\u002F9",{"id":148,"question_zh":149,"answer_zh":150,"source_url":132},34995,"Mikupad 的原始 React 源代码是否公开？我想贡献代码或修改持久化层。","Mikupad 最初设计为单文件应用，仓库中主要包含编译后的 `mikupad.html`。虽然曾考虑过发布模块化源码，但维护者表示该项目长期保持单文件结构。不过，由于项目允许分叉（Fork），您可以基于现有 HTML 进行修改，或通过服务器端脚本实现自定义的持久化方案。目前社区主要通过导入\u002F导出功能解决数据持久化需求。",[152,157,162,167,172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247],{"id":153,"version":154,"summary_zh":155,"released_at":156},272315,"release592","生成于 2025-12-27 22:42:42 UTC+0000\n```\n*   b2a2a3e 合并拉取请求 #138，来自 a10r\u002Foptimize_long_prompt\n|\\  \n| * 51158a0 更新 mikupad.html\n| * fe01cf4 优化长提示的 onInput 性能\n|\u002F  \n```\n","2025-12-27T22:42:44",{"id":158,"version":159,"summary_zh":160,"released_at":161},272316,"release589","生成于 2025-12-08 18:49:36 UTC+0000\n```\n* 7395eae 修复导致致命错误的无效选定模板 (#135)\n```\n","2025-12-08T18:49:39",{"id":163,"version":164,"summary_zh":165,"released_at":166},272317,"release588","生成于 2025-11-19 03:03:17 UTC+0000\n```\n*   f2b5610 合并拉取请求 #133，来自 a10r\u002Ffix-ctrl-arrowright\n|\\  \n| * 524ae5d 不在没有预测预览的情况下阻止默认的 Ctrl+向右箭头操作\n|\u002F  \n```\n","2025-11-19T03:03:18",{"id":168,"version":169,"summary_zh":170,"released_at":171},272318,"release586","生成于 2025-11-17 17:15:27 UTC+0000\n```\n* 4e4b21a 修复不使用代理时的 Authorization 头\n```\n","2025-11-17T17:15:28",{"id":173,"version":174,"summary_zh":175,"released_at":176},272319,"release585","生成于 2025-11-17 16:52:02 UTC+0000\n```\n*   0c678ed 合并拉取请求 #117，来自 limdingwen 的 proxy-fix 分支\n|\\  \n| * 69126f4 修复启用密码时代理中的授权问题\n```\n","2025-11-17T16:52:03",{"id":178,"version":179,"summary_zh":180,"released_at":181},272320,"release583","生成于 2025-11-17 16:50:44 UTC+0000\n```\n*   b491e54 合并拉取请求 #116，来自 limdingwen\u002Fdocker\n|\\  \n| * 8fbc69e 将 Docker 文件移至 server 目录，拆分并更新 README\n| * f5e35a1 在 Docker 中添加本地 AI 支持\n| * 4afeeff 为 Docker 添加 HTTPS 支持\n| * 9891242 将服务器容器化\n```\n","2025-11-17T16:50:45",{"id":183,"version":184,"summary_zh":185,"released_at":186},272321,"release578","生成于 2025-11-09 20:53:13 UTC+0000\n```\n* 360ef90 确保概率值始终排序\n```\n","2025-11-09T20:53:14",{"id":188,"version":189,"summary_zh":190,"released_at":191},272322,"release577","生成于 2025-11-09 20:39:41 UTC+0000\n```\n* c465305 使切换完成块的约束稍微宽松一些\n```\n","2025-11-09T20:39:41",{"id":193,"version":194,"summary_zh":195,"released_at":196},272323,"release576","生成于 2025-11-05 23:16:14 UTC+0000\n```\n* 4e5e35b 将预测预览失效逻辑移至输入事件\n```\n","2025-11-05T23:16:15",{"id":198,"version":199,"summary_zh":200,"released_at":201},272324,"release575","生成于 2025-11-05 21:58:55 UTC+0000\n```\n* e0c09bb 修复智能手机上的 AIHorde 模态窗口布局\n```\n","2025-11-05T21:58:56",{"id":203,"version":204,"summary_zh":205,"released_at":206},272325,"release574","Generated 2025-11-05 21:49:05 UTC+0000\n```\n* 57ce7ef Enable word break in the AIHorde model list\n```\n","2025-11-05T21:49:06",{"id":208,"version":209,"summary_zh":210,"released_at":211},272326,"release573","Generated 2025-11-05 21:00:13 UTC+0000\n```\n* 7b7b13b Update to React 19.2.0 and add a crash reporter\n```\n","2025-11-05T21:00:14",{"id":213,"version":214,"summary_zh":215,"released_at":216},272327,"release572","Generated 2025-11-05 19:18:51 UTC+0000\n```\n* 6805484 Disable TTS when it is unavailable\n```\n","2025-11-05T19:18:52",{"id":218,"version":219,"summary_zh":220,"released_at":221},272328,"release571","Generated 2025-11-05 18:50:10 UTC+0000\n```\n*   c95fbed Merge pull request #123 from gapeleon\u002Ffix\u002Fadd-marked-to-package-json\n|\\  \n| * f129c7f Add missing 'marked' dependency to project\u002Fpackage.json\n```\n","2025-11-05T18:50:11",{"id":223,"version":224,"summary_zh":225,"released_at":226},272329,"release569","Generated 2025-11-05 18:47:00 UTC+0000\n```\n* 90eea56 Add semantic variables to style sheet\n* 31317e6 Change license to AGPLv3\n* 6f55246 Make start.sh executable\n```\n","2025-11-05T18:47:01",{"id":228,"version":229,"summary_zh":230,"released_at":231},272330,"release566","Generated 2025-11-01 23:22:38 UTC+0000\n```\n* 2f48701 Fix theme selector on smartphones (for real this time)\n```\n","2025-11-01T23:22:39",{"id":233,"version":234,"summary_zh":235,"released_at":236},272331,"release565","Generated 2025-11-01 23:07:27 UTC+0000\n```\n* a920482 Fix theme selector on smartphones\n```\n","2025-11-01T23:07:28",{"id":238,"version":239,"summary_zh":240,"released_at":241},272332,"release564","Generated 2025-11-01 23:02:16 UTC+0000\n```\n* b0c39ae Fixes to the layout on smartphones\n```\n","2025-11-01T23:02:18",{"id":243,"version":244,"summary_zh":245,"released_at":246},272333,"release563","Generated 2025-11-01 20:38:29 UTC+0000\n```\n* 2a1781a Implement default theme synchronization\n```\n","2025-11-01T20:38:30",{"id":248,"version":249,"summary_zh":250,"released_at":251},272334,"release562","Generated 2025-11-01 19:13:46 UTC+0000\n```\n* 8fe8b9f Add basic markdown preview\n```\n","2025-11-01T19:13:47"]