[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zamalali--DeepGit":3,"tool-zamalali--DeepGit":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":76,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":103,"github_topics":105,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":133},7566,"zamalali\u002FDeepGit","DeepGit","Deep research agent to help you find the best GitHub repositories 🕵️!","DeepGit 是一款基于 LangGraph 构建的智能开源项目发现助手，旨在帮助开发者在 GitHub 浩瀚的代码库中精准定位最合适的工具。它不仅仅是一个简单的搜索引擎，更像是一位深谙技术细节的研究员，能够深入分析仓库的活跃度、代码质量及社区反馈，甚至挖掘出那些鲜为人知但极具价值的“隐藏宝石”。\n\n对于经常面临“找库难”、担心下载的项目无法在自己的设备上运行，或希望跳出热门榜单局限的开发者与研究人员来说，DeepGit 是得力的帮手。其核心亮点在于引入了硬件感知过滤功能：用户只需告知设备配置（如仅 CPU、低内存或移动端），它便会自动排除不兼容的项目，避免无效尝试。此外，DeepGit 采用先进的 ColBERT v2 多维嵌入技术与交叉编码器重排序机制，能比传统向量检索更细腻地理解自然语言查询意图，确保推荐结果既相关又实用。无论是寻找特定算法实现，还是评估项目的长期维护潜力，DeepGit 都能提供清晰、可信赖的排名建议，让开源探索之旅更加高效顺畅。","\u003Ch1 align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_a08ecb18e549.png\" width=\"72\" style=\"vertical-align: middle;\"\u002F> DeepGit\n\u003C\u002Fh1>\n\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_a7f4723f2e70.png\" alt=\"Langgraph Workflow Diagram\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n### DeepGit 2.0 🤯 — now **hardware‑aware** & **ColBERT‑powered**\n\n## DeepGit\n\n**DeepGit** is an advanced, Langgraph-based agentic workflow designed to perform deep research across GitHub repositories. It intelligently searches, analyzes, and ranks repositories based on user intent—even uncovering less-known but highly relevant tools. DeepGit infuses hybrid dense retrieval with advanced cross-encoder re-ranking and comprehensive activity analysis into a unified, open-source platform for intelligent repository discovery\n\n---\n### Try out the Lite version here 🧑‍🎓\n\nDeepGit-lite is a lightweight version of DeepGit running on zero GPU on Hugging Face Space [here.](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fzamal\u002FDeepGit) \u003Cbr>\nIt may not perform as well as the full version, but it's great for a quick first-hand preview.\n\n---\n\n\nThe latest release makes it even **deeper, smarter, and faster**:\n\n| New feature | What it gives you |\n|-------------|------------------|\n| **⚛️ Multi‑dimensional ColBERT v2 embeddings** | Fine‑grained token‑level similarity for nuanced matches that single‑vector embeddings miss. |\n| **🔩 Smart Hardware Filter** | Tell DeepGit your device specs — CPU-only, low RAM, or mobile. It filters out repos that won’t run smoothly, so you only see ones that fit your setup. |\n\nDeepGit still unifies hybrid dense retrieval, cross‑encoder re‑ranking, activity & quality analysis—but now every step is both *smarter* and *leaner*.\n\n---\n\n## ⚙️ How It Works — Agentic Workflow *v2*\n\nWhen the user submits a query, the **DeepGit Orchestrator Agent** triggers a relay of expert tools:\n\n1. **Query Expansion**  \n   An LLM turns your natural‑language question into high‑signal GitHub tags for precise searching.\n\n2. **Hardware Spec Detector**  \n   The same pass infers your wording for hints like “GPU‑poor”, “low‑memory”, or “mobile‑only” and records the constraint.\n\n3. **ColBERT‑v2 Semantic Retriever**  \n   Every README & doc block is embedded with multi‑dimensional token vectors; MaxSim scoring surfaces nuanced matches.\n\n4. **Cross‑Encoder Re‑ranker**  \n   A lightweight BERT (`MiniLM‑L‑6‑v2`) re‑orders the top K results for passage‑level accuracy.\n\n5. **Hardware‑aware Dependency Filter**  \n   The reasoning engine inspects each repo’s `requirements.txt` \u002F `pyproject.toml` and discards any that can’t run on your declared hardware.\n\n6. **Community & Code Insight**  \n   Collects stars, forks, issue cadence, commit history, plus quick code‑quality metrics.\n\n7. **Multi‑factor Ranking & Delivery**  \n   Merges all scores into one ranking and serves a clean table with links, similarity %, and “Runs on cpu‑only” badges where relevant.\n\n---\n\n\n## 🚀 Goals\n\n- **Uncover Hidden Gems:**  \n  Surface powerful but under-the-radar open-source tools. Now comes with hardware spec filter too.\n\n- **Empower Research:**  \n  Build an intelligent discovery layer over GitHub tailored for research-focused developers.\n\n- **Promote Open Innovation:**  \n  Open-source the entire workflow to foster transparency and collaboration in research.\n\n---\n\n## 🖥️ User Interface\n\nDeepGit provides an intuitive interface for exploring repository recommendations. The main page where users enter raw natural language query. This is the primary interaction point for initiating deep semantic searches.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_35603211ce28.png\" alt=\"DeepGit Dashboard\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n*Output:* Showcases the tabulated results with clickable links and different threshold scores, making it easy to compare and understand the ranking criteria.\n\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_b3a900fbb6f2.png\" alt=\"DeepGit App UI\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n---\n\n\n### 🔧 Recommended Environment\n\n- **Python:** 3.11+ (The repo has been tested on Python 3.11.x)\n- **pip:** 24.0+ (Ensure you have an up-to-date pip version)\n\n---\n\n### 👨‍🏭 Setup Instructions\n\n#### 1. Clone the Repository\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fzamalali\u002FDeepGit.git\ncd DeepGit\n```\n\n#### 2. Create a Virtual Environment (Recommended)\n```bash\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate   # On Windows: venv\\Scripts\\activate\n```\n\n#### 3. Upgrade pip (Optional but Recommended)\n```bash\npip install --upgrade pip\n```\n\n#### 4. Install Dependencies\n```bash\npip install -r requirements.txt\n```\n\n#### 5. Configure LLM Provider\n\nDeepGit supports multiple LLM providers. Set the `LLM_PROVIDER` environment variable in your `.env` file:\n\n| Provider | Env Var | Default Model | Notes |\n|----------|---------|---------------|-------|\n| **Groq** (default) | `GROQ_API_KEY` | `deepseek-r1-distill-llama-70b` | Free tier available |\n| **[MiniMax](https:\u002F\u002Fwww.minimaxi.com)** | `MINIMAX_API_KEY` | `MiniMax-M2.7` | 204K context, OpenAI-compatible |\n\n```bash\n# Option A: Groq (default — no extra config needed)\nLLM_PROVIDER=groq\nGROQ_API_KEY=your_groq_api_key\n\n# Option B: MiniMax\nLLM_PROVIDER=minimax\nMINIMAX_API_KEY=your_minimax_api_key\n# LLM_MODEL=MiniMax-M2.7          # optional: override default model\n```\n\n> **Tip:** If `LLM_PROVIDER` is not set, DeepGit auto-detects the provider from available API keys.\n\n#### 6. Running DeepGit via App\n\nTo run DeepGit locally, simply execute:\n\n```bash\npython app.py\n```\n\n\n### 🛠️ Troubleshooting\n\n- **Python Version:** Use Python 3.11 or higher as the repo has been tested on Python 3.11.x.\n- **pip Version:** Make sure you’re running pip 24.0 or later.\n- **Dependency Issues:** If you encounter any, try reinstalling in a new virtual environment.\n\n\n---\n\n### 🛠️ Running DeepGit\n\nFor a detailed documentation on using DeepGit, Check out [here](docs).\n\nDeepGit leverages Langgraph for orchestration. To launch the Langsmith dashboard and start the workflow, simply run:\n\n```bash\nlanggraph dev\n```\nThis command opens the Langsmith dashboard where you can enter your raw queries in a JSON snippet and monitor the entire agentic workflow.\n\n\n### DeepGit on Docker\nFor instructions on using Docker with DeepGit, please refer to our [Docker Documentation](docs\u002Fdocker.md).\n","\u003Ch1 align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_a08ecb18e549.png\" width=\"72\" style=\"vertical-align: middle;\"\u002F> DeepGit\n\u003C\u002Fh1>\n\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_a7f4723f2e70.png\" alt=\"Langgraph Workflow Diagram\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n### DeepGit 2.0 🤯 — 现在 **硬件感知** & **ColBERT 驱动**\n\n## DeepGit\n\n**DeepGit** 是一个基于 Langgraph 的先进代理式工作流，旨在跨 GitHub 仓库进行深度研究。它能够根据用户意图智能地搜索、分析和排名仓库——甚至发现那些鲜为人知但高度相关的工具。DeepGit 将混合密集检索与先进的交叉编码器重排序以及全面的活动分析相结合，打造了一个统一的开源平台，用于智能化的仓库发现。\n\n---\n### 在这里试用精简版 🧑‍🎓\n\nDeepGit-lite 是在 Hugging Face Space 上以零 GPU 运行的 DeepGit 轻量版本 [点此查看](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fzamal\u002FDeepGit)。\u003Cbr>\n虽然性能可能不如完整版，但它非常适合快速体验。\n\n---\n\n\n最新版本让其更加 **深入、智能且高效**：\n\n| 新特性 | 带来的好处 |\n|-------------|------------------|\n| **⚛️ 多维 ColBERT v2 嵌入** | 细粒度的 token 级相似性，能够捕捉单向量嵌入所遗漏的细微匹配。 |\n| **🔩 智能硬件过滤器** | 向 DeepGit 提供你的设备规格——仅 CPU、低内存或移动设备。它会过滤掉无法流畅运行的仓库，只显示适合你配置的项目。 |\n\nDeepGit 仍然整合了混合密集检索、交叉编码器重排序、活跃度与质量分析——但现在每一步都更加 *智能* 和 *轻量化*。\n\n---\n\n## ⚙️ 工作原理 — 代理式工作流 *v2*\n\n当用户提交查询时，**DeepGit 协调代理** 会触发一系列专家工具的接力：\n\n1. **查询扩展**  \n   一个 LLM 将你的自然语言问题转化为高信号的 GitHub 标签，以便进行精准搜索。\n\n2. **硬件规格检测器**  \n   同一次处理还会推断出你话语中的提示，比如“无 GPU”、“低内存”或“仅限移动端”，并记录下这些限制条件。\n\n3. **ColBERT‑v2 语义检索器**  \n   每个 README 和文档块都会被嵌入多维 token 向量；通过 MaxSim 打分，可以找到细微匹配。\n\n4. **交叉编码器重排序器**  \n   一个轻量级 BERT (`MiniLM‑L‑6‑v2`) 会对前 K 个结果按段落级别精度重新排序。\n\n5. **硬件感知依赖项过滤器**  \n   推理引擎会检查每个仓库的 `requirements.txt` \u002F `pyproject.toml`，并剔除任何无法在你声明的硬件上运行的项目。\n\n6. **社区与代码洞察**  \n   收集星标数、叉数、问题频率、提交历史，以及快速的代码质量指标。\n\n7. **多因素排名与交付**  \n   将所有评分合并为一个排名，并以整洁的表格形式呈现，包含链接、相似度百分比以及“仅支持 CPU 运行”的标签（如适用）。\n\n---\n\n\n## 🚀 目标\n\n- **发掘隐藏宝藏：**  \n  展示那些功能强大但尚未被广泛知晓的开源工具。现在还增加了硬件规格过滤器。\n\n- **赋能研究：**  \n  为专注于研究的开发者构建一个智能化的 GitHub 发现层。\n\n- **促进开放创新：**  \n  将整个工作流开源，以推动研究领域的透明度和协作。\n\n---\n\n## 🖥️ 用户界面\n\nDeepGit 提供了一个直观的界面，用于探索仓库推荐。主页是用户输入原始自然语言查询的地方，这也是发起深度语义搜索的主要交互点。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_35603211ce28.png\" alt=\"DeepGit 控制台\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n*输出:* 展示带有可点击链接和不同阈值分数的表格化结果，便于比较和理解排名标准。\n\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_readme_b3a900fbb6f2.png\" alt=\"DeepGit 应用界面\" style=\"max-width: 800px; width: 100%; height: auto;\" \u002F>\n\u003C\u002Fp>\n\n---\n\n\n### 🔧 推荐环境\n\n- **Python:** 3.11+（该仓库已在 Python 3.11.x 上测试过）\n- **pip:** 24.0+（请确保使用最新版本的 pip）\n\n---\n\n### 👨‍🏭 设置说明\n\n#### 1. 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fzamalali\u002FDeepGit.git\ncd DeepGit\n```\n\n#### 2. 创建虚拟环境（推荐）\n```bash\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate   # Windows 系统：venv\\Scripts\\activate\n```\n\n#### 3. 升级 pip（可选但推荐）\n```bash\npip install --upgrade pip\n```\n\n#### 4. 安装依赖\n```bash\npip install -r requirements.txt\n```\n\n#### 5. 配置 LLM 提供者\n\nDeepGit 支持多种 LLM 提供者。在你的 `.env` 文件中设置 `LLM_PROVIDER` 环境变量：\n\n| 提供者 | 环境变量 | 默认模型 | 备注 |\n|----------|---------|---------------|-------|\n| **Groq**（默认） | `GROQ_API_KEY` | `deepseek-r1-distill-llama-70b` | 提供免费套餐 |\n| **[MiniMax](https:\u002F\u002Fwww.minimaxi.com)** | `MINIMAX_API_KEY` | `MiniMax-M2.7` | 204K 上下文，兼容 OpenAI |\n\n```bash\n# 选项 A：Groq（默认——无需额外配置）\nLLM_PROVIDER=groq\nGROQ_API_KEY=your_groq_api_key\n\n# 选项 B：MiniMax\nLLM_PROVIDER=minimax\nMINIMAX_API_KEY=your_minimax_api_key\n# LLM_MODEL=MiniMax-M2.7          # 可选：覆盖默认模型\n```\n\n> **提示:** 如果未设置 `LLM_PROVIDER`，DeepGit 会自动从可用的 API 密钥中检测提供商。\n\n#### 6. 通过应用运行 DeepGit\n\n要在本地运行 DeepGit，只需执行：\n```bash\npython app.py\n```\n\n\n### 🛠️ 故障排除\n\n- **Python 版本:** 请使用 Python 3.11 或更高版本，因为该仓库已在 Python 3.11.x 上测试过。\n- **pip 版本:** 确保你正在使用 pip 24.0 或更高版本。\n- **依赖问题:** 如果遇到任何问题，请尝试在一个新的虚拟环境中重新安装。\n\n\n---\n\n### 🛠️ 运行 DeepGit\n\n有关 DeepGit 使用的详细文档，请参阅 [这里](docs)。\n\nDeepGit 利用 Langgraph 进行编排。要启动 Langsmith 控制台并开始工作流，只需运行：\n```bash\nlanggraph dev\n```\n该命令将打开 Langsmith 控制台，你可以在其中以 JSON 片段的形式输入原始查询，并监控整个代理式工作流。\n\n### DeepGit 与 Docker\n\n有关如何使用 Docker 运行 DeepGit 的说明，请参阅我们的 [Docker 文档](docs\u002Fdocker.md)。","# DeepGit 快速上手指南\n\nDeepGit 是一个基于 LangGraph 的智能代理工作流工具，专为深度挖掘 GitHub 仓库设计。它结合了混合密集检索、ColBERT v2 语义匹配及硬件感知过滤功能，能根据你的设备配置（如仅 CPU、低内存）精准推荐合适的开源项目。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.11 或更高（已在 Python 3.11.x 上测试通过）\n*   **包管理器**：pip 24.0 或更高版本\n*   **API Key**：需准备大模型服务商的 API Key（默认支持 Groq，也支持 MiniMax）\n\n> **💡 国内开发者提示**：\n> 安装依赖时若遇到网络缓慢问题，建议临时切换至国内镜像源（如清华源）：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fzamalali\u002FDeepGit.git\ncd DeepGit\n```\n\n### 2. 创建并激活虚拟环境\n推荐使用虚拟环境以避免依赖冲突：\n```bash\npython3 -m venv venv\n# Linux\u002FmacOS\nsource venv\u002Fbin\u002Factivate\n# Windows\nvenv\\Scripts\\activate\n```\n\n### 3. 升级 pip 并安装依赖\n```bash\npip install --upgrade pip\npip install -r requirements.txt\n```\n\n### 4. 配置 LLM 提供商\n在项目根目录创建 `.env` 文件，配置你的 API Key。DeepGit 默认使用 **Groq**（提供免费额度），也可配置 **MiniMax**。\n\n**选项 A：使用 Groq（默认推荐）**\n```bash\nLLM_PROVIDER=groq\nGROQ_API_KEY=your_groq_api_key_here\n```\n\n**选项 B：使用 MiniMax**\n```bash\nLLM_PROVIDER=minimax\nMINIMAX_API_KEY=your_minimax_api_key_here\n# LLM_MODEL=MiniMax-M2.7  # 可选：指定具体模型\n```\n\n> **注意**：若未设置 `LLM_PROVIDER`，系统将自动检测环境中存在的 API Key 来决定提供商。\n\n## 基本使用\n\n### 方式一：运行本地 Web 应用（推荐）\n这是最直观的交互方式，启动后将在浏览器中打开界面，输入自然语言描述即可搜索。\n\n```bash\npython app.py\n```\n启动后，访问终端显示的本地地址（通常为 `http:\u002F\u002F127.0.0.1:7860`），在输入框中输入如 *\"适合低内存设备的轻量级图像识别库\"* 等需求，系统会自动分析硬件限制并返回排序后的仓库列表。\n\n### 方式二：通过 LangGraph 调试模式运行\n如果你需要监控代理工作流的详细执行过程（如查询扩展、重排序等步骤），可使用此模式：\n\n```bash\nlanggraph dev\n```\n该命令将启动 LangSmith 仪表盘，你可以在其中通过 JSON 片段提交查询并实时观察各代理节点的执行情况。\n\n### 体验轻量版（无需本地部署）\n如果暂时不想配置本地环境，可以直接在 Hugging Face Space 试用精简版（Zero GPU 运行）：\n👉 [DeepGit-lite 在线体验](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fzamal\u002FDeepGit)","一位嵌入式开发工程师需要在资源受限的树莓派（CPU -only、低内存）上寻找一个轻量级的实时物体检测开源方案。\n\n### 没有 DeepGit 时\n- **筛选效率极低**：在 GitHub 搜索\"object detection\"会返回数万个结果，不得不手动逐个点开 README 检查是否支持 CPU 推理。\n- **环境兼容陷阱**：经常下载到依赖重型 GPU 库（如特定版本 CUDA）的项目，直到本地安装报错才发现无法在树莓派上运行。\n- **错失优质小众库**：由于过度依赖 Stars 数量排序，那些刚发布但架构极佳、专为边缘设备优化的“隐形冠军”项目被埋没在搜索结果深处。\n- **代码质量难评估**：难以快速判断项目的维护活跃度，容易选中已停止更新或 Issue 堆积如山的“僵尸项目”。\n\n### 使用 DeepGit 后\n- **硬件感知精准过滤**：只需告诉 DeepGit“树莓派、无 GPU、低内存”，它自动解析依赖文件，直接剔除所有需要独立显卡或不兼容的项目。\n- **语义深度匹配**：利用 ColBERT-v2 技术，DeepGit 能理解“轻量级实时检测”的深层含义，即使项目描述未完全匹配关键词，也能基于代码逻辑精准召回。\n- **挖掘隐藏瑰宝**：智能代理不仅看热度，更分析代码质量和提交频率，成功推荐了一个 Star 不多但专为边缘计算优化的高分仓库。\n- **多维决策看板**：直接生成包含“仅 CPU 运行”标签、相似度评分及社区活跃度的对比表格，让技术选型一目了然。\n\nDeepGit 将原本需要数天的盲目试错过程，缩短为几分钟的精准匹配，彻底解决了在特定硬件约束下发现高质量开源工具的难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzamalali_DeepGit_35603211.png","zamalali","zamal_","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzamalali_95f98b4f.jpg","I play badminton 🏸",null,"Nuremberg","https:\u002F\u002Fgithub.com\u002Fzamalali",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.5,{"name":85,"color":86,"percentage":87},"Dockerfile","#384d54",0.5,866,90,"2026-04-12T01:10:06","Linux, macOS, Windows","非必需。支持纯 CPU 运行（Lite 版本可在零 GPU 环境下运行），具备硬件感知过滤功能，可根据用户设备规格（仅 CPU、低内存或移动端）筛选仓库。","未说明（支持低内存设备，具备智能硬件过滤功能）",{"notes":95,"python":96,"dependencies":97},"默认使用 Groq 作为 LLM 提供商（需配置 GROQ_API_KEY），也支持 MiniMax。项目包含轻量版（DeepGit-lite）可在 Hugging Face Space 上无 GPU 运行。通过 Docker 部署需参考专门文档。运行前需配置 .env 文件设置 LLM 提供商及 API 密钥。","3.11+",[98,99,100,101,102],"langgraph","colbert-ai","transformers (MiniLM-L-6-v2)","groq","minimax",[35,104,13,14],"其他",[106,107,108,109,98,110,111,112,113,114,115],"agent","deep-research","github-search","langchain","open-source","llm","nlp","python","seq2seq","transformers","2026-03-27T02:49:30.150509","2026-04-15T07:11:22.958529",[119,124,129],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},33901,"该项目需要使用什么版本的 Python 和 pip？","该仓库是基于 Python 3.11+ 和 pip 24.0 构建并测试的。请确保您使用的是 Python 3.11 或更高版本，并已相应升级了 pip。如果安装依赖项时遇到问题，请先检查并更新您的环境版本。","https:\u002F\u002Fgithub.com\u002Fzamalali\u002FDeepGit\u002Fissues\u002F2",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},33902,"在 macOS 上运行时遇到线程问题或分段错误（segmentation fault）怎么办？","针对 macOS 用户，已在 app.py 顶部添加了快速修复方案。请打开 app.py 文件，取消注释相关代码行以规避线程问题。此外，如果问题仍然存在，请尝试更新配置后重新运行。","https:\u002F\u002Fgithub.com\u002Fzamalali\u002FDeepGit\u002Fissues\u002F3",{"id":130,"question_zh":131,"answer_zh":132,"source_url":128},33903,"使用 Docker 部署时端口映射不生效如何解决？","这是一个已知问题。在 app.py 文件中，启动命令需要显式指定 server_name 为 \"0.0.0.0\"。请将代码修改为：`demo.queue(max_size=10).launch(server_name=\"0.0.0.0\", server_port=7860)`。如果不添加 `server_name=\"0.0.0.0\"`，Docker 的端口映射将无法正常工作。",[]]