[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-marella--chatdocs":3,"tool-marella--chatdocs":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":23,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":106,"github_topics":107,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":112,"updated_at":113,"faqs":114,"releases":144},726,"marella\u002Fchatdocs","chatdocs","Chat with your documents offline using AI.","chatdocs 是一款基于人工智能的本地文档问答工具，支持用户在完全离线的环境下与自己的文件进行对话。它的核心价值在于隐私保护，所有数据处理均在本地完成，无需将敏感资料上传至云端，仅安装和下载模型时需要网络连接。这有效解决了传统在线 AI 助手无法处理保密文档以及数据泄露的风险问题。\n\nchatdocs 适合开发者、研究人员以及任何对数据隐私有要求的普通用户。它支持 PDF、Word、Markdown、邮件等多种常见文件格式，能够轻松整合知识库。技术亮点方面，chatdocs 兼容 GGML、GGUF 及 Hugging Face 等多种模型架构，并提供了直观的 Web 界面和便捷的命令行操作。用户可通过配置文件灵活调整嵌入模型和大语言模型参数，甚至利用 GPU 加速推理。安装仅需一条 pip 命令，后续即可断网运行，是构建私有知识管理系统的理想选择。","# [ChatDocs](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs) [![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchatdocs)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatdocs\u002F) [![tests](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Factions\u002Fworkflows\u002Ftests.yml)\n\nChat with your documents offline using AI. No data leaves your system. Internet connection is only required to install the tool and download the AI models. It is based on [PrivateGPT](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT) but has more features.\n\n![Web UI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarella_chatdocs_readme_fbc3b1f1b82f.png)\n\n**Contents**\n\n- [Features](#features)\n- [Installation](#installation)\n- [Usage](#usage)\n- [Configuration](#configuration)\n- [GPU](#gpu)\n\n## Features\n\n- Supports GGML\u002FGGUF models via [CTransformers](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fctransformers)\n- Supports 🤗 Transformers models\n- Supports GPTQ models\n- Web UI\n- GPU support\n- Highly configurable via `chatdocs.yml`\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Show supported document types\u003C\u002Fstrong>\u003C\u002Fsummary>\u003Cbr>\n\n| Extension       | Format                         |\n| :-------------- | :----------------------------- |\n| `.csv`          | CSV                            |\n| `.docx`, `.doc` | Word Document                  |\n| `.enex`         | EverNote                       |\n| `.eml`          | Email                          |\n| `.epub`         | EPub                           |\n| `.html`         | HTML                           |\n| `.md`           | Markdown                       |\n| `.msg`          | Outlook Message                |\n| `.odt`          | Open Document Text             |\n| `.pdf`          | Portable Document Format (PDF) |\n| `.pptx`, `.ppt` | PowerPoint Document            |\n| `.txt`          | Text file (UTF-8)              |\n\n\u003C\u002Fdetails>\n\n## Installation\n\nInstall the tool using:\n\n```sh\npip install chatdocs\n```\n\nDownload the AI models using:\n\n```sh\nchatdocs download\n```\n\nNow it can be run offline without internet connection.\n\n## Usage\n\nAdd a directory containing documents to chat with using:\n\n```sh\nchatdocs add \u002Fpath\u002Fto\u002Fdocuments\n```\n\n> The processed documents will be stored in `db` directory by default.\n\nChat with your documents using:\n\n```sh\nchatdocs ui\n```\n\nOpen http:\u002F\u002Flocalhost:5000 in your browser to access the web UI.\n\nIt also has a nice command-line interface:\n\n```sh\nchatdocs chat\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Show preview\u003C\u002Fstrong>\u003C\u002Fsummary>\u003Cbr>\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarella_chatdocs_readme_dd0f575f8f1c.png)\n\n\u003C\u002Fdetails>\n\n## Configuration\n\nAll the configuration options can be changed using the `chatdocs.yml` config file. Create a `chatdocs.yml` file in some directory and run all commands from that directory. For reference, see the default [`chatdocs.yml`](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002Fchatdocs\u002Fdata\u002Fchatdocs.yml) file.\n\nYou don't have to copy the entire file, just add the config options you want to change as it will be merged with the default config. For example, see [`tests\u002Ffixtures\u002Fchatdocs.yml`](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002Ftests\u002Ffixtures\u002Fchatdocs.yml) which changes only some of the config options.\n\n### Embeddings\n\nTo change the embeddings model, add and change the following in your `chatdocs.yml`:\n\n```yml\nembeddings:\n  model: hkunlp\u002Finstructor-large\n```\n\n> **Note:** When you change the embeddings model, delete the `db` directory and add documents again.\n\n### CTransformers\n\nTo change the CTransformers (GGML\u002FGGUF) model, add and change the following in your `chatdocs.yml`:\n\n```yml\nctransformers:\n  model: TheBloke\u002FWizard-Vicuna-7B-Uncensored-GGML\n  model_file: Wizard-Vicuna-7B-Uncensored.ggmlv3.q4_0.bin\n  model_type: llama\n```\n\n> **Note:** When you add a new model for the first time, run `chatdocs download` to download the model before using it.\n\nYou can also use an existing local model file:\n\n```yml\nctransformers:\n  model: \u002Fpath\u002Fto\u002Fggml-model.bin\n  model_type: llama\n```\n\n### 🤗 Transformers\n\nTo use 🤗 Transformers models, add the following to your `chatdocs.yml`:\n\n```yml\nllm: huggingface\n```\n\nTo change the 🤗 Transformers model, add and change the following in your `chatdocs.yml`:\n\n```yml\nhuggingface:\n  model: TheBloke\u002FWizard-Vicuna-7B-Uncensored-HF\n```\n\n> **Note:** When you add a new model for the first time, run `chatdocs download` to download the model before using it.\n\nTo use GPTQ models with 🤗 Transformers, install the necessary packages using:\n\n```sh\npip install chatdocs[gptq]\n```\n\n## GPU\n\n### Embeddings\n\nTo enable GPU (CUDA) support for the embeddings model, add the following to your `chatdocs.yml`:\n\n```yml\nembeddings:\n  model_kwargs:\n    device: cuda\n```\n\nYou may have to reinstall PyTorch with CUDA enabled by following the instructions [here](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F).\n\n### CTransformers\n\nTo enable GPU (CUDA) support for the CTransformers (GGML\u002FGGUF) model, add the following to your `chatdocs.yml`:\n\n```yml\nctransformers:\n  config:\n    gpu_layers: 50\n```\n\nYou may have to install the CUDA libraries using:\n\n```sh\npip install ctransformers[cuda]\n```\n\n### 🤗 Transformers\n\nTo enable GPU (CUDA) support for the 🤗 Transformers model, add the following to your `chatdocs.yml`:\n\n```yml\nhuggingface:\n  device: 0\n```\n\nYou may have to reinstall PyTorch with CUDA enabled by following the instructions [here](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F).\n\n## License\n\n[MIT](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002FLICENSE)\n","# [ChatDocs](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs) [![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchatdocs)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatdocs\u002F) [![tests](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Factions\u002Fworkflows\u002Ftests.yml)\n\n使用人工智能 (AI) 离线与您的文档进行对话。数据不会流出您的系统。仅需在安装工具和下载 AI 模型时连接互联网。它基于 [PrivateGPT](https:\u002F\u002Fgithub.com\u002Fimartinez\u002FprivateGPT)，但具有更多功能。\n\n![Web UI](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarella_chatdocs_readme_fbc3b1f1b82f.png)\n\n**目录**\n\n- [功能](#features)\n- [安装](#installation)\n- [用法](#usage)\n- [配置](#configuration)\n- [GPU](#gpu)\n\n## 功能\n\n- 通过 [CTransformers](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fctransformers) 支持 GGML\u002FGGUF 模型\n- 支持 🤗 Transformers (Hugging Face Transformers) 模型\n- 支持 GPTQ 模型\n- Web UI (Web 用户界面)\n- GPU (图形处理器) 支持\n- 可通过 `chatdocs.yml` 高度配置\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>显示支持的文档类型\u003C\u002Fstrong>\u003C\u002Fsummary>\u003Cbr>\n\n| 扩展名       | 格式                         |\n| :-------------- | :----------------------------- |\n| `.csv`          | CSV                            |\n| `.docx`, `.doc` | Word 文档                  |\n| `.enex`         | EverNote                       |\n| `.eml`          | 电子邮件                          |\n| `.epub`         | EPub                           |\n| `.html`         | HTML                           |\n| `.md`           | Markdown                       |\n| `.msg`          | Outlook 邮件                |\n| `.odt`          | 开放文档文本             |\n| `.pdf`          | 便携式文档格式 (PDF) |\n| `.pptx`, `.ppt` | PowerPoint 文档            |\n| `.txt`          | 文本文件 (UTF-8)              |\n\n\u003C\u002Fdetails>\n\n## 安装\n\n使用以下命令安装工具：\n\n```sh\npip install chatdocs\n```\n\n使用以下命令下载 AI 模型：\n\n```sh\nchatdocs download\n```\n\n现在可以在无互联网连接的情况下运行。\n\n## 用法\n\n添加包含要对话的文档的目录：\n\n```sh\nchatdocs add \u002Fpath\u002Fto\u002Fdocuments\n```\n\n> 处理的文档默认将存储在 `db` 目录中。\n\n使用以下命令与文档对话：\n\n```sh\nchatdocs ui\n```\n\n在浏览器中打开 http:\u002F\u002Flocalhost:5000 以访问 Web UI。\n\n它还拥有一个友好的命令行界面 (CLI)：\n\n```sh\nchatdocs chat\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>显示预览\u003C\u002Fstrong>\u003C\u002Fsummary>\u003Cbr>\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarella_chatdocs_readme_dd0f575f8f1c.png)\n\n\u003C\u002Fdetails>\n\n## 配置\n\n所有配置选项均可使用 `chatdocs.yml` 配置文件更改。在某些目录中创建一个 `chatdocs.yml` 文件，并从该目录运行所有命令。参考默认的 [`chatdocs.yml`](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002Fchatdocs\u002Fdata\u002Fchatdocs.yml) 文件。\n\n您不必复制整个文件，只需添加想要更改的配置选项，因为它将与默认配置合并。例如，参见 [`tests\u002Ffixtures\u002Fchatdocs.yml`](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002Ftests\u002Ffixtures\u002Fchatdocs.yml)，它仅更改部分配置选项。\n\n### 嵌入 (Embeddings)\n\n要更改嵌入模型，请在 `chatdocs.yml` 中添加并修改以下内容：\n\n```yml\nembeddings:\n  model: hkunlp\u002Finstructor-large\n```\n\n> **注意：** 当您更改嵌入模型时，请删除 `db` 目录并重新添加文档。\n\n### CTransformers\n\n要更改 CTransformers (GGML\u002FGGUF) 模型，请在 `chatdocs.yml` 中添加并修改以下内容：\n\n```yml\nctransformers:\n  model: TheBloke\u002FWizard-Vicuna-7B-Uncensored-GGML\n  model_file: Wizard-Vicuna-7B-Uncensored.ggmlv3.q4_0.bin\n  model_type: llama\n```\n\n> **注意：** 首次添加新模型时，请先运行 `chatdocs download` 下载模型再使用。\n\n您也可以使用现有的本地模型文件：\n\n```yml\nctransformers:\n  model: \u002Fpath\u002Fto\u002Fggml-model.bin\n  model_type: llama\n```\n\n### 🤗 Transformers\n\n要使用 🤗 Transformers 模型，请在 `chatdocs.yml` 中添加以下内容：\n\n```yml\nllm: huggingface\n```\n\n要更改 🤗 Transformers 模型，请在 `chatdocs.yml` 中添加并修改以下内容：\n\n```yml\nhuggingface:\n  model: TheBloke\u002FWizard-Vicuna-7B-Uncensored-HF\n```\n\n> **注意：** 首次添加新模型时，请先运行 `chatdocs download` 下载模型再使用。\n\n要在 🤗 Transformers 中使用 GPTQ 模型，请使用以下命令安装必要的包：\n\n```sh\npip install chatdocs[gptq]\n```\n\n## GPU\n\n### 嵌入 (Embeddings)\n\n要为嵌入模型启用 GPU (CUDA) 支持，请在 `chatdocs.yml` 中添加以下内容：\n\n```yml\nembeddings:\n  model_kwargs:\n    device: cuda\n```\n\n您可能需要按照 [此处](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 的说明重新安装启用了 CUDA 的 PyTorch。\n\n### CTransformers\n\n要为 CTransformers (GGML\u002FGGUF) 模型启用 GPU (CUDA) 支持，请在 `chatdocs.yml` 中添加以下内容：\n\n```yml\nctransformers:\n  config:\n    gpu_layers: 50\n```\n\n您可能需要使用以下命令安装 CUDA 库：\n\n```sh\npip install ctransformers[cuda]\n```\n\n### 🤗 Transformers\n\n要为 🤗 Transformers 模型启用 GPU (CUDA) 支持，请在 `chatdocs.yml` 中添加以下内容：\n\n```yml\nhuggingface:\n  device: 0\n```\n\n您可能需要按照 [此处](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 的说明重新安装启用了 CUDA 的 PyTorch。\n\n## 许可证\n\n[MIT](https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fblob\u002Fmain\u002FLICENSE)","# ChatDocs 快速上手指南\n\nChatDocs 是一款基于 AI 的本地离线文档聊天工具。它允许你在本地系统内与文档进行对话，数据不会离开你的设备（仅安装和下载模型时需要联网）。该工具基于 PrivateGPT 开发，支持多种文档格式及模型配置。\n\n## 1. 环境准备\n\n*   **操作系统**：支持 Linux、macOS、Windows。\n*   **Python 环境**：需要安装 Python 3.x 环境。\n*   **存储空间**：需预留足够空间用于存储 AI 模型文件（通常数 GB 至数十 GB）。\n*   **网络要求**：仅在首次安装工具和下载模型时需要互联网连接，后续可完全离线使用。\n*   **硬件建议**：推荐使用 NVIDIA GPU 以获得更好的推理速度（可选）。\n\n> 💡 **提示**：在中国大陆地区，建议使用国内镜像源加速 `pip` 安装过程（例如清华源或阿里源）。\n\n## 2. 安装步骤\n\n### 基础安装\n\n使用 pip 安装 ChatDocs 核心包：\n\n```sh\npip install chatdocs\n```\n\n### 下载 AI 模型\n\n安装完成后，运行以下命令下载默认 AI 模型：\n\n```sh\nchatdocs download\n```\n\n执行完毕后，即可在无网络环境下使用。\n\n### 高级功能（可选）\n\n*   **启用 GPTQ 模型支持**：\n    ```sh\n    pip install chatdocs[gptq]\n    ```\n*   **启用 GPU 加速（CTransformers）**：\n    ```sh\n    pip install ctransformers[cuda]\n    ```\n\n## 3. 基本使用\n\n### 添加文档\n\n将包含文档的目录路径添加到 ChatDocs 中（默认处理后的数据库存储在 `db` 目录下）：\n\n```sh\nchatdocs add \u002Fpath\u002Fto\u002Fdocuments\n```\n\n> 支持的文档类型包括：PDF, Word (.docx), Excel (.csv), Markdown (.md), EPub, HTML 等。\n\n### 启动 Web 界面\n\n在终端运行以下命令启动 Web UI：\n\n```sh\nchatdocs ui\n```\n\n随后在浏览器中打开地址访问界面：\n\n```text\nhttp:\u002F\u002Flocalhost:5000\n```\n\n### 命令行交互\n\n如果不使用 Web 界面，也可以直接在终端通过命令行与文档对话：\n\n```sh\nchatdocs chat\n```\n\n### 配置说明\n\n如需自定义模型或参数，可在当前目录创建 `chatdocs.yml` 配置文件。修改后若涉及嵌入模型（Embeddings）变更，请删除 `db` 目录并重新添加文档。","某后端工程师在重构遗留系统前，需要快速理解分散在本地文件夹中的数十份技术文档、API 说明和会议纪要。\n\n### 没有 chatdocs 时\n- 需要手动逐个打开 PDF、Word 和 Markdown 文件搜索关键词，耗时且容易疲劳。\n- 无法跨文档关联知识点，经常忘记不同章节间的逻辑联系导致理解偏差。\n- 担心将包含核心业务逻辑的文档上传到公有云 AI 服务存在数据泄露风险。\n- 出差或内网环境下因无网络连接，无法使用任何在线文档问答助手。\n\n### 使用 chatdocs 后\n- 直接导入整个项目文档目录，通过自然语言提问即可精准定位所需信息。\n- 支持多种格式自动解析，能智能关联不同文档内容，构建完整的知识图谱。\n- 完全离线运行，所有数据处理均在本地完成，彻底消除敏感数据外泄隐患。\n- 提供便捷的 Web 界面和命令行交互，无需联网也能流畅对话，提升查阅效率。\n\nchatdocs 让本地私有文档瞬间变成可交互的智能知识库，在保障数据安全的同时大幅提升了信息检索效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmarella_chatdocs_09f80db8.png","marella","Ravindra Marella","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmarella_c5b134fc.png",null,"https:\u002F\u002Fgithub.com\u002Fmarella",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",80,{"name":86,"color":87,"percentage":88},"HTML","#e34c26",18.8,{"name":90,"color":91,"percentage":92},"Shell","#89e051",1.2,736,105,"2026-04-02T16:11:44","MIT","未说明","需要 NVIDIA GPU 和 CUDA 环境，需安装 ctransformers[cuda] 或 PyTorch CUDA 版，具体型号、显存及 CUDA 版本未说明",{"notes":100,"python":97,"dependencies":101},"首次运行需联网下载 AI 模型，之后可离线使用；配置文件为 chatdocs.yml；处理后的文档索引存储在 db 目录；更改嵌入模型后需删除 db 目录并重新添加文档；支持 Web UI 和命令行界面",[67,102,103,104,105],"ctransformers","torch","transformers","pyyaml",[15,14,26,13],[108,109,102,110,111,104,67],"ai","chroma","langchain","llm","2026-03-27T02:49:30.150509","2026-04-06T06:44:09.424767",[115,120,124,129,134,139],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},3066,"GPTQ 模型速度较慢且提示“CUDA 扩展未安装”如何解决？","这通常与环境配置有关。建议创建新的虚拟环境并重新安装所有依赖。确保下载的 CUDA 版本与本地的 nvcc 安装版本一致（例如 CUDA 11.8），并在完成配置后重启电脑。重启后\"CUDA extension not installed\"消息通常会消失，速度也会恢复正常。","https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fissues\u002F49",{"id":121,"question_zh":122,"answer_zh":123,"source_url":119},3067,"启动时提示 \"skip module injection for FusedLlamaMLP... not support integrate without triton yet\" 是否影响性能？","这是关于 Triton 集成模块的警告信息。虽然您已安装 Triton 包，但这通常不影响基本运行。如果遇到此提示，建议优先检查 CUDA 扩展是否正确安装（参考 Issue #49 的其他解决方案），并确保环境配置无误。",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},3068,"运行 `chatdocs download` 时提示找不到 `ctransformers.dll` 或模型加载失败怎么办？","这是因为使用了旧版本的 ctransformers 或未安装 CUDA 库。请在安装 chatdocs 的正确环境中运行以下命令更新：`pip install 'ctransformers>=0.2.24'` 和 `pip install ctransformers[cuda]`。","https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fissues\u002F51",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},3069,"使用 `chatdocs add` 命令无法导入 PDF 文档是什么原因？","命令中的 `\u002Fpath\u002Fto\u002Fdocuments` 只是示例，必须替换为您实际的文档文件夹路径。例如，如果文档在 `examples` 文件夹下，请运行 `chatdocs add examples`。您可以直接在文件资源管理器中选中文件夹按 Ctrl+C 复制路径，然后在命令行粘贴。","https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fissues\u002F9",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},3070,"在树莓派（ARM 架构）上运行项目出现错误如何处理？","`ctransformers` 包没有针对 ARM 处理器的预编译二进制文件。您需要从源码构建：先运行 `pip uninstall ctransformers --yes` 卸载现有版本，然后运行 `pip install ctransformers --no-binary ctransformers` 进行本地编译安装。","https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fissues\u002F61",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},3071,"能否像 LocalAI 一样配置 API 服务器以便在不同模型之间切换？","该项目目前基于 WebSockets 通信，不支持 REST API。此外，由于每个加载的模型都需要更多内存，切换模型可能不可行。建议查看项目的后端和前端代码以了解具体实现细节。","https:\u002F\u002Fgithub.com\u002Fmarella\u002Fchatdocs\u002Fissues\u002F18",[145,150,155,160,165,170,175,180,185],{"id":146,"version":147,"summary_zh":148,"released_at":149},102584,"v0.2.6","### Changes\r\n\r\n- Deprecate using `llm: gptq` in `chatdocs.yml`. Use `llm: huggingface` instead as 🤗 Transformers supports GPTQ models.\r\n- Update dependencies","2023-09-03T08:02:58",{"id":151,"version":152,"summary_zh":153,"released_at":154},102585,"v0.2.5","### Changes\r\n\r\n- Add `host` and `auth` options to `chatdocs.yml`","2023-07-15T19:55:45",{"id":156,"version":157,"summary_zh":158,"released_at":159},102586,"v0.2.4","### Changes\r\n\r\n- Add a default `ctransformers.model_file` to `chatdocs.yml`","2023-06-10T21:51:05",{"id":161,"version":162,"summary_zh":163,"released_at":164},102587,"v0.2.3","### Changes\r\n\r\n- Add UTF-8 support to CSV loader","2023-06-10T08:53:19",{"id":166,"version":167,"summary_zh":168,"released_at":169},102588,"v0.2.2","### Changes\r\n\r\n- Add support for GPTQ models","2023-06-07T20:44:58",{"id":171,"version":172,"summary_zh":173,"released_at":174},102589,"v0.2.1","### Changes\r\n\r\n- Add web UI","2023-06-04T21:23:47",{"id":176,"version":177,"summary_zh":178,"released_at":179},102590,"v0.2.0","### Changes\r\n\r\n- Add `chatdocs.yml` configuration file\r\n- Add GPU support\r\n\r\n### Breaking Changes\r\n\r\n- Replace all command-line options with the new `chatdocs.yml` config\r\n","2023-06-04T09:42:29",{"id":181,"version":182,"summary_zh":183,"released_at":184},102591,"v0.1.1","### Changes\r\n\r\n- Escape text when printing","2023-06-03T12:56:25",{"id":186,"version":187,"summary_zh":78,"released_at":188},102592,"v0.1.0","2023-06-02T21:31:04"]