[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-e-johnstonn--BriefGPT":3,"tool-e-johnstonn--BriefGPT":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":75,"owner_twitter":78,"owner_website":75,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":100,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":134},9175,"e-johnstonn\u002FBriefGPT","BriefGPT","Locally hosted tool that connects documents to LLMs for summarization and querying, with a simple GUI.","BriefGPT 是一款支持本地部署的文档智能助手，旨在帮助用户高效地对长文档进行摘要生成和内容问答。它解决了用户在处理大量 PDF、文本文件或 YouTube 视频时，难以快速提取核心信息以及担心云端处理泄露隐私的痛点。通过简单的图形界面，用户既能调用 OpenAI 模型，也能完全在本地运行 Llama 或 GPT4ALL 等大语言模型，确保数据与密钥始终掌握在自己手中。\n\n这款工具特别适合注重数据隐私的研究人员、需要快速梳理文献的学生，以及希望在不依赖云服务的前提下探索大模型应用的开发者。其技术亮点在于结合了多种先进策略：在问答场景中，它不仅利用向量检索，还引入了去停用词和模糊匹配的重排序机制，显著提升了回答的精准度；在摘要任务中，则采用 K-means 聚类算法将文档按主题分组，先并行生成各部分摘要再汇总，从而更准确地捕捉全文脉络。虽然部分本地功能尚处于实验阶段，但 BriefGPT 凭借基于 LangChain 的灵活架构，为用户提供了一个安全、可控且功能强大的文档分析方案。","# BriefGPT\n\nBriefGPT is a powerful, locally-run tool for document summarization and querying using OpenAI's models. You retain control over your documents and API keys, ensuring privacy and security.\n\n## Update\nAdded support for fully local use! Instructor is used to embed documents, and the LLM can be either LlamaCpp or GPT4ALL, ggml formatted. Put your model in the 'models' folder, set up your environmental variables (model type and path), and run ```streamlit run local_app.py``` to get started. Tested with the following models: [Llama](https:\u002F\u002Fhuggingface.co\u002Feachadea\u002Fggml-vicuna-13b-1.1\u002Fblob\u002Fmain\u002Fggml-vic13b-q5_1.bin), [GPT4ALL](https:\u002F\u002Fgpt4all.io\u002Fmodels\u002Fggml-gpt4all-j-v1.3-groovy.bin). \n\nPlease note this is experimental - it will be significantly slower and the quality may vary. PR's welcome!\n\n# Example (using the \"Sparks of AGI\" paper, sped up)\n![chat](https:\u002F\u002Fi.imgur.com\u002Fipgvsgb.gif)\n\n\n\n\n# Setup\n1. Clone the repository\n2. Download all requirements\n``pip install -r requirements.txt``\n3. Set your API key in test.env\n4. Navigate to the project directory and run\n```streamlit run main.py```\n5. Add your PDF's or .txt's to the documents folder in the project directory\n6. If using epubs, ensure you have pandoc installed and added to PATH\n\n\n\n\n# How it works\n## Chat\n1. Creating and saving embeddings - once you load a file, it is broken into chunks and stored as a FAISS index in the 'embeddings' folder. These embeddings will be used if you load the document into the chat again.\n2. Retrieving, ranking, and processing results - a similarity search is performed on the index to get the top n results. These results are then re-ranked by a function that strips the original query of stopwords and uses fuzzy matching to find the similarity in exact words between the query and the retrieved results. This gets better results than solely doing a similarity search.\n3. Output - the re-ranked results and the user query are passed to the llm, and the response is displayed.\n\n\n\n\n## Summarization\n1. Input - can handle both documents and YouTube URL's - will find the transcript and generate a summary based off of that.\n2.  Processing and embedding - before embedding, documents are stripped of any special tokens that might cause errors. Documents are embedded in chunks of varying size, depending on the overall document's size. \n3. Clustering - once the documents are embedded, they are grouped into clusters using the K-means algorithm. The number of clusters can be predetermined (10) or variable (finds optimal number based on the elbow method). The embedding closest to each cluster centroid is retrieved - each cluster might represent a different theme or idea, and the retrieved embeddings are those that best encapsulate that theme or idea - that's the goal, at least.\n4. Summarization - summarization is performed in two steps. First, each retrieved embedding is matched with its corresponding text chunk. Each chunk is passed to GPT-3.5 in an individual call to the API - these calls are made in parallel. Once we have accumulated a summary for each chunk, the summaries are passed to GPT-3.5 or GPT-4 for the final summary.\n5. Output - the summary is displayed on the page and saved as a text file. \n![summary](https:\u002F\u002Fi.imgur.com\u002FsUcay6a.gif)\n\n\n\nImproved support for locally run LLM's is coming. \n\nBuilt using Langchain! This is project was made for fun, and is likely full of bugs. It is not fully optimized. Contributions or bug reports are welcomed!\n\ntodo: keep summary in session state, save transcripts when loaded to summarize\n","# BriefGPT\n\nBriefGPT 是一款功能强大的本地运行工具，利用 OpenAI 的模型实现文档摘要和查询功能。您完全掌控自己的文档和 API 密钥，确保隐私与安全。\n\n## 更新\n现已支持完全本地使用！我们使用 Instructor 对文档进行嵌入，而大语言模型可以是 LlamaCpp 或 GPT4ALL，格式为 ggml。只需将您的模型文件放入 `models` 文件夹，设置好环境变量（指定模型类型和路径），然后运行 `streamlit run local_app.py` 即可开始使用。经测试的模型包括：[Llama](https:\u002F\u002Fhuggingface.co\u002Feachadea\u002Fggml-vicuna-13b-1.1\u002Fblob\u002Fmain\u002Fggml-vic13b-q5_1.bin) 和 [GPT4ALL](https:\u002F\u002Fgpt4all.io\u002Fmodels\u002Fggml-gpt4all-j-v1.3-groovy.bin)。\n\n请注意，此功能目前仍处于实验阶段——运行速度会显著变慢，且效果可能有所波动。欢迎提交 Pull Request！\n\n# 示例（以“AGI 的火花”论文为例，已加速）\n![聊天](https:\u002F\u002Fi.imgur.com\u002Fipgvsgb.gif)\n\n\n\n# 设置步骤\n1. 克隆仓库  \n2. 安装所有依赖项  \n   ```\n   pip install -r requirements.txt\n   ```\n3. 在 `test.env` 文件中设置您的 API 密钥  \n4. 进入项目目录并运行  \n   ```\n   streamlit run main.py\n   ```\n5. 将您的 PDF 或 .txt 文件添加到项目目录下的 `documents` 文件夹中  \n6. 如果使用 EPUB 文件，请确保已安装 Pandoc 并将其添加到系统 PATH 中  \n\n\n\n# 工作原理\n## 聊天功能\n1. 创建并保存嵌入——当您上传文件后，文件会被分割成多个块，并以 FAISS 索引的形式存储在 `embeddings` 文件夹中。下次再次将该文档加载到聊天界面时，这些嵌入将被直接使用。\n2. 检索、排序与处理结果——系统会在索引中执行相似度搜索，获取前 n 个最相关的结果。随后，通过一个函数对这些结果重新排序：该函数会去除原始查询中的停用词，并采用模糊匹配技术计算查询与检索结果之间精确词语的相似度。这种方法比单纯进行相似度搜索的效果更好。\n3. 输出——经过重新排序的结果连同用户查询一起输入大语言模型，最终生成回复并显示出来。\n\n\n\n## 文档摘要\n1. 输入——支持文档和 YouTube 视频链接两种形式：对于视频，系统会提取其字幕并基于字幕生成摘要；对于文档，则直接处理。\n2. 处理与嵌入——在嵌入之前，文档会被清理掉可能导致错误的特殊标记。根据文档的整体大小，嵌入过程会采用不同大小的分块方式。\n3. 聚类——完成嵌入后，系统会使用 K-means 算法将文档划分为若干簇。簇的数量可以预先设定为 10 个，也可以通过肘部法则自动确定最优数量。随后，系统会选取每个簇质心最近的嵌入作为代表——每个簇通常对应一个主题或核心思想，所选嵌入旨在最好地概括该主题或思想，至少这是我们的目标。\n4. 摘要生成——摘要生成分为两个步骤：首先，将每个选定的嵌入与其对应的文本片段进行匹配；然后，将每个片段单独发送至 GPT-3.5 API 进行处理，这些请求会并行执行。待各片段的摘要收集齐备后，再将它们汇总并提交给 GPT-3.5 或 GPT-4 生成最终摘要。\n5. 输出——最终摘要会显示在页面上，并保存为文本文件。\n![摘要](https:\u002F\u002Fi.imgur.com\u002FsUcay6a.gif)\n\n\n\n针对本地运行的大语言模型的支持正在进一步完善中。\n\n本项目基于 Langchain 构建！这是一个纯粹出于兴趣开发的项目，可能存在诸多 bug，尚未完全优化。欢迎贡献代码或报告问题！\n\n待办事项：将摘要保存在会话状态中；加载视频时保存字幕以便后续摘要生成。","# BriefGPT 快速上手指南\n\nBriefGPT 是一款强大的本地文档摘要与问答工具，支持使用 OpenAI 模型或完全本地运行的大语言模型（如 LlamaCpp、GPT4ALL）。它能确保您的文档数据和 API 密钥完全掌握在自己手中，保障隐私与安全。\n\n## 环境准备\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux\n*   **Python 版本**：建议 Python 3.8 及以上\n*   **前置依赖**：\n    *   `pip` 包管理工具\n    *   **Pandoc**（可选）：如果您需要处理 `.epub` 格式电子书，必须安装 Pandoc 并将其添加到系统环境变量 PATH 中。\n    *   **本地模型支持**（可选）：若需完全离线运行，需准备 `.bin` 格式的 GGML 模型文件（如 Vicuna 或 GPT4ALL 模型）。\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone \u003Crepository_url>\n    cd BriefGPT\n    ```\n    *(注：请将 `\u003Crepository_url>` 替换为实际的项目地址，国内用户可使用镜像源加速克隆)*\n\n2.  **安装依赖库**\n    建议使用国内镜像源（如清华源）以加快下载速度：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **配置 API 密钥或本地模型**\n    *   **使用 OpenAI 模式**：在项目根目录创建或编辑 `test.env` 文件，填入您的 OpenAI API Key。\n    *   **使用完全本地模式**：\n        1. 将下载的 GGML 格式模型文件（如 `ggml-vic13b-q5_1.bin`）放入项目下的 `models` 文件夹。\n        2. 设置环境变量指定模型类型和路径。\n\n## 基本使用\n\n### 1. 启动应用\n\n*   **OpenAI 模式**：\n    进入项目目录并运行主程序：\n    ```bash\n    streamlit run main.py\n    ```\n\n*   **完全本地模式（实验性）**：\n    运行本地专用脚本：\n    ```bash\n    streamlit run local_app.py\n    ```\n\n### 2. 添加文档\n将您需要处理的 `.pdf` 或 `.txt` 文件放入项目目录下的 `documents` 文件夹中。如果是 `.epub` 文件，请确保已按“环境准备”要求安装好 Pandoc。\n\n### 3. 功能体验\n浏览器会自动打开应用界面（若未自动打开，请访问 `http:\u002F\u002Flocalhost:8501`）：\n\n*   **文档问答 (Chat)**：\n    加载文档后，系统会自动将其分块并建立 FAISS 索引。您可以在聊天框中输入问题，系统将检索相关片段并经重排序后由 LLM 生成回答。\n    \n*   **文档\u002F视频摘要 (Summarization)**：\n    选择文档或输入 YouTube 链接，系统将自动提取内容（视频将获取转录稿），通过 K-means 聚类提取核心主题，并生成结构化摘要。结果将在页面显示并保存为文本文件。\n\n> **提示**：首次加载大文档时，生成嵌入向量（Embeddings）可能需要少量时间，后续再次加载同一文档将直接使用缓存的索引，速度更快。","某科技公司的技术研究员需要在断网环境下，快速从数十份本地存储的英文技术论文和内部报告中提取核心观点并回答特定问题。\n\n### 没有 BriefGPT 时\n- **隐私泄露风险高**：处理敏感内部文档必须上传至云端 API，存在数据外泄隐患，且无法在完全离线环境中运行。\n- **人工阅读效率低**：面对长篇技术文档，研究人员需逐字通读才能定位关键信息，耗时数小时且容易遗漏细节。\n- **跨文档查询困难**：难以同时基于多份文档内容进行综合问答，手动复制粘贴上下文到聊天窗口极易超出令牌限制。\n- **总结缺乏结构性**：传统摘要工具往往只是简单截取首尾段落，无法像 BriefGPT 那样通过聚类算法提炼不同主题的核心思想。\n\n### 使用 BriefGPT 后\n- **数据完全自主可控**：利用本地部署的 Llama 或 GPT4ALL 模型，所有文档解析、嵌入及推理均在本地完成，彻底杜绝隐私泄露。\n- **秒级获取文档洞察**：上传 PDF 后，BriefGPT 自动分块并向量化，研究人员可直接对话式提问，瞬间获得基于原文的精准答案。\n- **多文档智能关联**：系统自动建立 FAISS 索引并进行重排序检索，能同时综合分析文件夹内的多篇文档，输出逻辑严密的对比结论。\n- **深度结构化摘要**：通过 K-means 聚类识别文档潜在主题，生成涵盖各核心观点的分层摘要，将数小时的阅读工作压缩至几分钟。\n\nBriefGPT 让研究人员在确保数据绝对安全的前提下，实现了从“被动阅读”到“主动交互”的效率飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe-johnstonn_BriefGPT_3c001f2f.png","e-johnstonn","Ethan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fe-johnstonn_b0830d7e.jpg",null,"@HubSpot","Canada","ethanjdev","https:\u002F\u002Fgithub.com\u002Fe-johnstonn",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,796,122,"2026-04-09T10:30:18","MIT","未说明","非必需。若使用本地模型（LlamaCpp\u002FGPT4ALL），依赖 CPU 运行；README 未提及特定 GPU 型号、显存或 CUDA 版本要求。","未说明（但运行本地大语言模型通常建议 16GB+）",{"notes":93,"python":89,"dependencies":94},"该工具支持两种模式：1. 云端模式：需配置 OpenAI API Key，使用 GPT-3.5\u002F4 进行摘要和问答；2. 本地实验模式：需下载 ggml 格式的模型文件（如 Vicuna, GPT4ALL）放入 'models' 文件夹，并设置环境变量，通过 'local_app.py' 启动，但速度较慢且效果可能不稳定。处理 ePub 文件需预先安装 pandoc 并加入系统 PATH。",[95,96,97,98,99],"langchain","faiss-cpu","streamlit","instructor","pandoc (外部工具)",[35,14],"2026-03-27T02:49:30.150509","2026-04-19T03:06:53.558581",[104,109,114,119,124,129],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},41198,"如何在 test.env 文件中配置 API Key？","您需要填入 OpenAI 的 API Key。请访问 https:\u002F\u002Fplatform.openai.com\u002Fapi-keys 登录您的账户并创建一个新的 API Key，然后将其复制到 test.env 文件中对应的变量位置。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F16",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},41197,"运行时报错 'ModuleNotFoundError: No module named sklearn' 如何解决？","这通常意味着依赖项未正确安装。请尝试重新安装 requirements.txt 中的依赖。如果您手动修改过文件（例如在 M1 Mac 上移除了 pywin32），请确保在修改后的 requirements.txt 文件所在目录运行 `conda install --file requirements.txt` 或 `pip install -r requirements.txt` 进行重新安装。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F8",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},41196,"使用 LlamaCpp 加载模型时出现 'unknown (magic, version) combination' 错误怎么办？","这通常是因为模型文件版本不兼容。解决方案有两个：1. 将 llama.cpp 降级到 0.1.48 版本以配合 gpt4all 使用；2. 更换模型文件，将 `models\u002Fggml-vic13b-q5_1.bin` 替换为 `models\u002Fggml-vic13b-q5_0.bin`，或者使用 README 中提供的新 URL 下载模型。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F2",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},41199,"模型推理响应速度太慢，如何优化？","当前默认配置下，推理过程是在 CPU 上进行的，因此速度较慢。目前项目尚未完全支持 GPU 加速推理。如果拥有 NVIDIA 显卡（如 V100），需要等待项目后续更新以支持 GPU 推理，或者自行修改代码以启用本地 LLM 的 GPU 支持。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F7",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41200,"项目是否支持 EPUB 格式的电子书？","是的，项目已经添加了对 EPUB 格式的支持。您可以直接加载 EPUB 格式的文档进行处理。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F1",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41201,"配置文件中 MODEL_TYPE 设置不生效，提示大小写不匹配怎么办？","这是一个已知的大小写敏感问题。在 test.env 文件中，确保 `MODEL_TYPE` 的值与代码中的判断严格一致。如果代码中使用的是 'GPT4All'（注意大小写），请确保 env 文件中不要写成全大写或其他形式。维护者已修复此问题，请拉取最新代码。","https:\u002F\u002Fgithub.com\u002Fe-johnstonn\u002FBriefGPT\u002Fissues\u002F9",[]]