[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-alexpinel--Dot":3,"tool-alexpinel--Dot":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":77,"languages":78,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":112,"github_topics":114,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":130,"updated_at":131,"faqs":132,"releases":133},6208,"alexpinel\u002FDot","Dot","Text-To-Speech, RAG, and LLMs. All local!","Dot 是一款完全在本地运行的开源应用，旨在让用户无需联网即可轻松与各类文档进行智能对话。它集成了文本转语音（TTS）、检索增强生成（RAG）以及大型语言模型（LLM）功能，默认搭载高效的 Phi-3.5 模型，确保数据隐私安全的同时，提供流畅的交互体验。\n\nDot 主要解决了用户在使用 AI 处理敏感文档时对云端数据泄露的担忧，同时降低了技术门槛。用户可以直接加载 PDF、Word、PPT、Excel 等多种格式文件，针对内容提问或让\"Big Dot\"协助处理通用任务，所有计算均在设备本地完成，无需配置复杂的编程环境。\n\n这款工具特别适合注重数据隐私的普通用户、需要快速分析内部资料的非技术人员，以及希望体验本地大模型应用的开发者。其独特之处在于基于 Electron JS 构建，底层融合了 FAISS 向量数据库、LangChain 和 llama.cpp 等先进技术，将复杂的 RAG 流程封装为简洁直观的图形界面。无论是学生整理文献，还是职场人士分析报表，Dot 都能提供一个简单、安全且高效的本地智能助手方案。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falexpinel_Dot_readme_7ec90b470451.png\" alt=\"Dot App Banner\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-GPL3.0-brightgreen.svg?style=flat-square\" alt=\"License\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Falexpinel\u002FDot?style=flat-square\" alt=\"GitHub release (latest by date)\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommits-since\u002Falexpinel\u002FDot\u002Flatest.svg?style=flat-square\" alt=\"GitHub commits\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Falexpinel\u002FDot.svg?style=social&label=Star&style=flat-square\" alt=\"GitHub stars\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>\u003Ca href=\"https:\u002F\u002Fdotapp.uk\u002F\">Visit the Dot Website\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n---\n\n\n\n## 🚀 About Dot\n\nDot is a standalone, open-source application designed for seamless interaction with documents and files using local LLMs and Retrieval Augmented Generation (RAG). It is inspired by solutions like Nvidia's Chat with RTX, providing a user-friendly interface for those without a programming background. Using the Phi-3.5 LLM by default, Dot ensures accessibility and simplicity right out of the box.\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot\u002Fassets\u002F93524949\u002F28b26128-7bdc-4bf7-99f3-d09bd8431875\n\n\n\n\n### 📜 What does it do?\n\nDot allows you to load multiple documents into an LLM and interact with them in a fully local environment. Supported document types include PDF, DOCX, PPTX, XLSX, and more! Users can also engage with Big Dot for inquiries not directly related to their documents, similar to interacting with ChatGPT.\n\n### 🔧 How does it work?\n\nBuilt with Electron JS, The application uses libraries such as FAISS for creating local vector stores, Langchain, llama.cpp & Huggingface for setting up conversation chains, and additional tools for document management and interaction.\n\n## 📥 Install\n\n**To use Dot:**\n- Visit the [Dot website](https:\u002F\u002Fdotapp.uk\u002F) to download the application for Apple Silicon or Windows.\n\n**For developers:**\n- Clone the repository `$ https:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot.git`\n- Install Node js and then run `npm install` inside the project repository, you can run `npm install --force` if you face any issues at this stage. Once complete, move to `cd aadotllm` and run `npm install` once more!\n\n## 🌟 Future Features I'd Like to Add\n\n- Linux support\n- Choice of LLM - Done!\n- Image file support\n- Enhanced document awareness beyond content\n- Simplified file loading (select individual files, not just folders)\n- Increased security measures for using local LLMs\n- Support for additional document types - Done!\n- Efficient file database management for quicker access to groups of files\n\n## 🤝 Want to Help?\n\nContributions are highly encouraged! As a student managing this project on the side, any help is greatly appreciated. Whether it's coding, documentation, or feature suggestions, please feel free to get involved!\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falexpinel_Dot_readme_cac9d5d95877.png)](https:\u002F\u002Fstar-history.com\u002F#alexpinel\u002Fdot&Date)\n\n---\n\n\u003Cdiv align=\"center\">\n  \u003Cstrong>\u003Ca href=\"#top\">Back to top\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fdiv>\n\n\n\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falexpinel_Dot_readme_7ec90b470451.png\" alt=\"Dot 应用横幅\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-GPL3.0-brightgreen.svg?style=flat-square\" alt=\"许可证\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Falexpinel\u002FDot?style=flat-square\" alt=\"GitHub 发布版本（按日期最新）\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommits-since\u002Falexpinel\u002FDot\u002Flatest.svg?style=flat-square\" alt=\"GitHub 提交次数\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Falexpinel\u002FDot.svg?style=social&label=Star&style=flat-square\" alt=\"GitHub 星标数\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>\u003Ca href=\"https:\u002F\u002Fdotapp.uk\u002F\">访问 Dot 官网\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n---\n\n\n\n## 🚀 关于 Dot\n\nDot 是一款独立的开源应用，旨在通过本地大语言模型和检索增强生成（RAG）技术，实现与文档和文件的无缝交互。它受到 Nvidia 的 Chat with RTX 等解决方案的启发，为没有编程背景的用户提供友好的界面。Dot 默认使用 Phi-3.5 大语言模型，开箱即用，确保易用性和简洁性。\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot\u002Fassets\u002F93524949\u002F28b26128-7bdc-4bf7-99f3-d09bd8431875\n\n\n\n\n### 📜 它能做什么？\n\nDot 允许用户将多个文档加载到大语言模型中，并在完全本地化的环境中与之交互。支持的文档类型包括 PDF、DOCX、PPTX、XLSX 等！此外，用户还可以通过 Big Dot 进行与文档无关的咨询，类似于与 ChatGPT 互动。\n\n### 🔧 它是如何工作的？\n\n该应用基于 Electron JS 构建，使用了 FAISS 等库来创建本地向量存储，Langchain、llama.cpp 和 Huggingface 来搭建对话链，以及其他工具用于文档管理和交互。\n\n## 📥 安装\n\n**对于普通用户：**\n- 请访问 [Dot 官网](https:\u002F\u002Fdotapp.uk\u002F) 下载适用于 Apple Silicon 或 Windows 的应用程序。\n\n**对于开发者：**\n- 克隆仓库 `$ https:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot.git`\n- 安装 Node.js 后，在项目目录内运行 `npm install`。如果在此步骤遇到问题，可以尝试运行 `npm install --force`。完成后，进入 `cd aadotllm` 再次运行 `npm install`！\n\n## 🌟 我希望添加的未来功能\n\n- Linux 支持\n- 多种大语言模型选择 - 已完成！\n- 图像文件支持\n- 在内容之外进一步提升对文档的理解能力\n- 简化文件加载方式（可选择单个文件，而不仅仅是整个文件夹）\n- 加强使用本地大语言模型时的安全措施\n- 支持更多文档类型 - 已完成！\n- 高效的文件数据库管理，以便更快地访问文件组\n\n## 🤝 想要帮忙吗？\n\n非常欢迎各位贡献！作为一位在课余时间维护该项目的学生，任何帮助都将不胜感激。无论是代码编写、文档撰写，还是功能建议，都欢迎积极参与！\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falexpinel_Dot_readme_cac9d5d95877.png)](https:\u002F\u002Fstar-history.com\u002F#alexpinel\u002Fdot&Date)\n\n---\n\n\u003Cdiv align=\"center\">\n  \u003Cstrong>\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fdiv>","# Dot 快速上手指南\n\nDot 是一款独立的开源应用程序，旨在利用本地大语言模型（LLM）和检索增强生成（RAG）技术，让用户能够无缝地与文档和文件进行交互。它无需编程背景即可使用，默认搭载 Phi-3.5 模型，支持 PDF、DOCX、PPTX、XLSX 等多种格式。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Windows 或 macOS (Apple Silicon)\n  - *注：Linux 版本正在开发中，暂不支持。*\n- **硬件建议**：运行本地 LLM 需要一定的 GPU 或 CPU 性能（具体取决于模型大小）。\n\n### 前置依赖（仅针对开发者）\n如果你打算从源码构建或贡献代码，需要安装以下工具：\n- **Node.js**：确保已安装最新 LTS 版本。\n- **Git**：用于克隆仓库。\n\n## 安装步骤\n\n### 方式一：普通用户（推荐）\n直接下载预编译的应用程序，无需配置环境：\n1. 访问 [Dot 官方网站](https:\u002F\u002Fdotapp.uk\u002F)。\n2. 根据你的系统选择 **Apple Silicon** 或 **Windows** 版本下载。\n3. 安装并运行即可。\n\n### 方式二：开发者（源码构建）\n如果你需要自定义开发或调试，请按照以下步骤操作：\n\n1. 克隆项目仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot.git\n   ```\n\n2. 进入项目根目录并安装主依赖：\n   ```bash\n   cd Dot\n   npm install\n   ```\n   *如果遇到依赖冲突问题，可尝试强制安装：*\n   ```bash\n   npm install --force\n   ```\n\n3. 进入子模块 `aadotllm` 并安装其依赖：\n   ```bash\n   cd aadotllm\n   npm install\n   ```\n\n## 基本使用\n\n1. **启动应用**：运行安装好的 Dot 应用程序。\n2. **加载文档**：\n   - 将包含知识的文件夹拖入应用，或通过界面选择文件夹。\n   - 支持格式包括：PDF, DOCX, PPTX, XLSX 等。\n   - 系统会自动使用 FAISS 创建本地向量存储。\n3. **开始对话**：\n   - **文档问答**：在聊天框中输入与文档内容相关的问题，Dot 将基于本地 RAG 技术提供答案。\n   - **通用对话 (Big Dot)**：提出与文档无关的通用问题，系统将切换至通用聊天模式（类似 ChatGPT）。\n4. **切换模型**：在设置中可选择不同的本地 LLM（如果已下载其他模型）。\n\n> **提示**：所有数据处理均在本地完成，无需联网上传文件，确保数据隐私安全。","一位金融分析师需要在完全离线的环境下，快速从数百页的本地 PDF 财报和 Excel 数据表中提取关键指标并生成摘要报告。\n\n### 没有 Dot 时\n- **数据泄露风险高**：处理敏感财务数据时，不得不使用云端大模型，存在核心商业机密外泄的隐患。\n- **操作门槛极高**：若要实现本地化分析，需手动配置 Python 环境、安装 LangChain 及向量数据库，非技术人员难以上手。\n- **多格式处理割裂**：面对 PDF、DOCX 和 XLSX 等多种格式文件，需要分别打开不同软件查找信息，无法进行跨文档关联问答。\n- **响应速度受限**：在网络不稳定或无网环境下，完全无法开展基于 AI 的文档分析工作。\n\n### 使用 Dot 后\n- **极致安全隐私**：Dot 将所有文本转语音（TTS）、检索增强生成（RAG）及大模型推理全部限制在本地运行，确保数据不出本机。\n- **开箱即用体验**：无需编写任何代码或配置复杂环境，直接安装即可加载 Phi-3.5 等模型，像使用普通聊天软件一样简单。\n- **全域文档交互**：一键导入混合格式的文件夹，Dot 自动建立本地向量索引，支持针对多份财报进行交叉提问和数据汇总。\n- **离线高效作业**：无论网络状态如何，均能流畅地进行文档对话与内容生成，大幅提升闭关分析时的效率。\n\nDot 让非技术背景的职场人士也能在绝对安全的前提下，轻松将本地沉睡的文档库转化为可即时对话的智能知识库。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falexpinel_Dot_7ec90b47.png","alexpinel",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Falexpinel_16f0f3d2.jpg","INSTINCT ~ YC W25","Instinct ","https:\u002F\u002Fgithub.com\u002Falexpinel",[79,83,87,91],{"name":80,"color":81,"percentage":82},"JavaScript","#f1e05a",72.9,{"name":84,"color":85,"percentage":86},"HTML","#e34c26",24.3,{"name":88,"color":89,"percentage":90},"CSS","#663399",2.7,{"name":92,"color":93,"percentage":94},"TypeScript","#3178c6",0.1,1902,111,"2026-04-08T16:45:37","GPL-3.0","macOS (Apple Silicon), Windows","未说明 (基于 llama.cpp，通常支持 CPU 推理，也可利用 GPU 加速，具体型号和显存要求未在文档中明确)","未说明",{"notes":103,"python":104,"dependencies":105},"该工具默认使用 Phi-3.5 大语言模型。普通用户建议直接访问官网下载 macOS (Apple Silicon) 或 Windows 的预编译安装包。开发者需先安装 Node.js，克隆仓库后在项目根目录及 'aadotllm' 子目录下分别运行 'npm install' 进行安装。目前官方尚未提供 Linux 版本支持（列为未来计划）。","未说明 (主要运行环境为 Node.js)",[106,107,108,109,110,111],"Electron JS","FAISS","Langchain","llama.cpp","Huggingface","Node.js",[113,14,35],"音频",[115,116,117,118,119,120,121,122,123,124,125,126,127,128,129],"embeddings","llm","local","rag","standalone","standalone-app","document-chat","faiss","langchain","privategpt","llamacpp","self-hosted","phi-3","tts","whisper-cpp","2026-03-27T02:49:30.150509","2026-04-10T20:47:16.940568",[],[134,139,144,149],{"id":135,"version":136,"summary_zh":137,"released_at":138},189041,"v0.9.3","# **你好！**\r\n硕士毕业了，终于可以重新开始开发 Dot 了！这次更新主要集中在修复 bug 和兼容性问题上，其中还包括对后端的全面重构。和往常一样，Dot 可以通过官网安装，也可以直接从本次发布中获取二进制文件。\n\n# **🦔 功能亮点：**\n* 后端全面重构。llama-cpp-python 已被 node-llama-cpp 取代，这应该能解决 Dot 自首发以来一直困扰的兼容性问题。此次重构还带来了许多新功能（以及部分功能的移除）。\n* 文件支持进一步完善。Dot 现在支持以下格式的文件：**.pdf、.docx、.pptx、.md、.js、.py、.ts、.mjs、.c、.cpp、.cs、.java、.go、.rb、.swift、.kt、.php、.html、.css、.xml、.json、.yaml、.yml、.r、.sh、.bat、.pl、.rs、.scala、.sql。**\n* 文本流式输出！生成的 token 将实时流式返回：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa7bcb10d-c9be-4622-8a44-2aab6e3f36b6\n\n* 上传文档时会显示加载进度条：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F12293459-e6db-4482-8267-3c06ae741201\n\n# **🦆 变更内容：**\n* Phi-3.5 现已成为 Dot 的默认 LLM。它不仅非常轻量，而且在 RAG 任务中的表现也出乎意料地出色。\n* 目前，所有文本转语音和语音识别功能已被移除。这是由于后端的改动以及这些功能本身的不稳定性所致。我会尽快将其重新加入！\n\n# **🐝 已知问题：**\n* 当加载包含不支持文件的文件夹时，有时会失败。\n* 即使存在可用的 GPU，程序也会默认使用 CPU。\n* 在使用 BigDot 时，偶尔会出现一些奇怪的 token。这些问题以及上述问题都源于 Dot 当前使用的 node-llama-cpp 版本。我已经在着手集成 3.0.0 版本，该版本将解决这些问题。\n\n# **🐓 接下来的工作：**\n* 实现 node-llama-cpp 3.0.0。\n* 修复各类 bug。\n\n总之，希望大家喜欢这次更新！如果遇到任何问题，请随时告诉我哦 :)","2024-12-09T15:17:50",{"id":140,"version":141,"summary_zh":142,"released_at":143},189042,"v0.9.2","### **你好！**\n\n我们做了一些改动，并新增了几项功能！和往常一样，Dot 可以通过 [官网](https:\u002F\u002Fdotapp.uk\u002F) 安装，也可以直接使用本发布页面提供的二进制文件。**请注意，Windows 版本的更新将在几天后发布。**\n\n### **🦔 功能亮点：**\n- 新增了 [whisper.cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fwhisper.cpp)，现在你可以用语音与 Dot 互动啦！\n- 增加了文本转语音功能！现在可以使用 TTS 模型朗读 LLM 生成的回答。TTS 功能由 [sherpaonnx](https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-onnx) 提供支持，默认的 TTS 音色是这个超酷的 [GLaDOS 音效](https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-onnx\u002Freleases\u002Ftag\u002Ftts-models)。目前更换音色模型的功能尚未完全完善，但如果大家感兴趣，我可以提供具体的操作指南。\n- 全新设置按钮！真后悔之前没早点加入这个功能，现在用户可以通过多种方式调整 LLM 的参数，比如上下文长度、最大 token 数以及默认提示词等，都变得非常方便。\n- LLM 选择功能！现在你可以将 Dot 与自己本地的任意 LLM 搭配使用，只要是 GGUF 格式的模型，基本都能顺利运行！\n\nhttps:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot\u002Fassets\u002F93524949\u002F0b434eae-987b-4b4b-aa59-66d7fb2760eb\n\n\n### **🦆 改动：**\n\n- [Phi-3](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FPhi-3-mini-4k-instruct-gguf) 现已成为 Dot 的默认 LLM，它不仅非常轻量，而且在 RAG 任务中表现得相当出色。\n- 少量界面优化\n\n### **🐝 已知问题：**\n\n- 有时过长的回答根本不会显示出来。这是因为 Python 生成的 JSON 输出因长度过长而被截断，导致后续的 JavaScript 渲染过程无法正确解析这段被截断的 JSON。目前可以通过降低“最大 token 数”设置来避免这个问题。\n- 在发送第一条消息后，LLM 启动可能会显得有些缓慢，不过一旦加载完成，后续运行就一切正常了。\n\n### **🐓 正在进行的工作：**\n\n- Docker 镜像\n- Linux 版本\n- macOS Intel 版本\n- 性能优化\n- 让设备在 8GB 内存下也能流畅运行\n- 文本流式输出\n- 进一步提升速度\n- 现在它会说也会听，那是不是也该让它“看”呢？🤔\n\n总之，希望大家玩得开心！如果遇到任何问题，请随时告诉我哦 :)","2024-05-20T19:49:47",{"id":145,"version":146,"summary_zh":147,"released_at":148},189043,"v0.9.1","### **你好！**\n\n我们做了一些改动，并新增了几项功能！和往常一样，Dot 可以通过[官网](https:\u002F\u002Fdotapp.uk\u002F)安装，也可以直接从本次发布中获取二进制文件。\n\n### **🦔 功能亮点：**\n- Dot 现在会在关闭应用后记住您之前加载过的文档！\n- Doc Dot 现在会显示它用来生成答案的文本内容；对于 PDF 文件，还会直接在正确页面上展示原文！\n\u003Cimg width=\"1242\" alt=\"Screenshot 2024-04-14 at 15 09 47\" src=\"https:\u002F\u002Fgithub.com\u002Falexpinel\u002FDot\u002Fassets\u002F93524949\u002F7d946bdc-fccb-4694-a9ce-ac1bc63d27a3\">\n\n### **🦆 变更：**\n- Dot 不再随安装包一起预装 Mistral 7B 模型，而是在首次打开应用时再进行安装。\n- 将嵌入模型更换为 [BAAI llm-embedder](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002Fllm-embedder)，这将提升 Doc Dot 的语义搜索能力。\n\n### **🐝 已知问题：**\n- 有时过长的回答根本不会显示。这是由于 Python 生成的 JSON 输出因长度过大被截断，导致 JavaScript 渲染过程无法读取被截断的 JSON 数据。\n\n### **🐓 正在推进的工作：**\n- Docker 镜像\n- Linux 版本\n- macOS Intel 版本\n- 性能优化\n- 使软件能够在 8GB 内存设备上正常运行\n\n总之，希望您使用愉快！如果遇到任何问题，请随时告诉我 :)","2024-04-14T16:01:04",{"id":150,"version":151,"summary_zh":152,"released_at":153},189044,"v0.9-beta","嗨！经过一番折腾，我似乎成功修复了 Windows 版本的问题。\n\n新版本（已在网站[这里](https:\u002F\u002Fdotapp.uk\u002F)提供）应该能解决 Windows 用户遇到的“dot 正在输入……”卡住的问题。这个问题的原因是缺少 llama.cpp 正常运行所需的几个依赖项。\n\n另外，我最近才了解到为 Windows 应用进行代码签名的成本非常高昂，而这笔费用目前远远超出了我的预算。这也意味着，Windows Defender 在初次使用时可能会对 Dot 提出警告……\n\n如果您遇到任何问题，请随时告诉我！","2024-04-06T15:07:25"]