[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-divar-ir--ai-doc-gen":3,"tool-divar-ir--ai-doc-gen":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":76,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":32,"env_os":96,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":109,"github_topics":110,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":149},4651,"divar-ir\u002Fai-doc-gen","ai-doc-gen","AI-powered multi-agent system that automatically analyzes codebases and generates comprehensive documentation. Features GitLab integration, concurrent processing, and multiple LLM support for better code understanding and developer onboarding.","ai-doc-gen 是一款基于多智能体架构的 AI 开源工具，旨在自动分析代码库并生成详尽的技术文档。它有效解决了开发团队中常见的文档缺失、更新滞后以及新人上手困难等痛点，让文档能够随代码演进始终保持鲜活。\n\n该工具特别适合软件开发者、技术负责人及 DevOps 工程师使用，尤其是那些希望提升项目可维护性、规范团队协作流程的团队。通过内置的专用智能体，ai-doc-gen 能深入理解代码结构、数据流向、依赖关系及 API 逻辑，并据此自动生成高质量的 README 文件。此外，它还能一键创建 CLAUDE.md、AGENTS.md 等配置文件，帮助各类 AI 编程助手更好地理解项目上下文。\n\n在技术亮点方面，ai-doc-gen 支持并发处理以大幅提升分析效率，兼容多种大语言模型（包括本地部署模型），并深度集成 GitLab，可自动触发分析甚至创建合并请求。其灵活的 YAML 配置与可观测性设计（支持 OpenTelemetry 和 Langfuse），也让企业级应用更加透明可控。无论是初创团队还是大型项目，都能借助 ai-doc-gen 轻松构建“永不腐烂”的代码文档体系。","# AI Documentation Generator\n\nAn AI-powered code documentation generator that automatically analyzes repositories and creates comprehensive documentation using advanced language models. The system employs a multi-agent architecture to perform specialized code analysis and generate structured documentation.\n\n## 📝 Blog Posts\n\nRead the full story behind this project:\n- 🇺🇸 [English: Docs That Don’t Rot: How Multi-Agent AI Rewrote Our Workflow](https:\u002F\u002Fmedium.com\u002F@milad.noroozi\u002Fdocs-that-dont-rot-how-multi-agent-ai-rewrote-our-workflow-6e0c911658d6)\n- 🇮🇷 [از دستیار کدنویس تا همکار هوشمند؛ گام اول: کابوس مستندسازی](https:\u002F\u002Fvirgool.io\u002F@divar\u002F%D8%A7%D8%B2-%D8%AF%D8%B3%D8%AA%DB%8C%D8%A7%D8%B1-%DA%A9%D8%AF%D9%86%D9%88%DB%8C%D8%B3-%D8%AA%D8%A7-%D9%87%D9%85%DA%A9%D8%A7%D8%B1-%D9%87%D9%88%D8%B4%D9%85%D9%86%D8%AF-%DA%AF%D8%A7%D9%85-%D8%A7%D9%88%D9%84-%DA%A9%D8%A7%D8%A8%D9%88%D8%B3-%D9%85%D8%B3%D8%AA%D9%86%D8%AF%D8%B3%D8%A7%D8%B2%DB%8C-jx7vhznchc9w)\n\n## Table of Contents\n\n- [Features](#features)\n- [Installation](#installation)\n- [Quick Start](#quick-start)\n- [Usage](#usage)\n- [Configuration](#configuration)\n- [Architecture](#architecture)\n- [License](#license)\n\n## Features\n\n- **Multi-Agent Analysis**: Specialized AI agents for code structure, data flow, dependency, request flow, and API analysis\n- **Automated Documentation**: Generates comprehensive README files with configurable sections\n- **AI Assistant Configuration**: Automatically generates CLAUDE.md, AGENTS.md, and .cursor\u002Frules\u002F files for AI coding assistants\n- **GitLab Integration**: Automated analysis for GitLab projects with merge request creation\n- **Concurrent Processing**: Parallel execution of analysis agents for improved performance\n- **Flexible Configuration**: YAML-based configuration with environment variable overrides\n- **Multiple LLM Support**: Works with any OpenAI-compatible API (OpenAI, OpenRouter, local models, etc.)\n- **Observability**: Built-in monitoring with OpenTelemetry tracing and Langfuse integration\n\n## Installation\n\n### Prerequisites\n\n- Python 3.13\n- Git\n- API access to an OpenAI-compatible LLM provider\n\n1. Clone the repository:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen.git\ncd ai-doc-gen\n```\n\n2. Install using uv (recommended):\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\nuv sync\n```\n\n3. Or install with pip:\n```bash\npip install -e .\n```\n\n## Quick Start\n\n1. Set up your environment and configuration:\n```bash\n# Copy and edit environment variables\ncp .env.sample .env\n\n# Copy and edit configuration\nmkdir -p .ai\ncp config_example.yaml .ai\u002Fconfig.yaml\n```\n\n2. Run analysis and generate documentation:\n```bash\n# Analyze your repository\nuv run src\u002Fmain.py analyze --repo-path .\n\n# Generate README documentation\nuv run src\u002Fmain.py generate readme --repo-path .\n\n# Generate AI assistant configuration files (CLAUDE.md, AGENTS.md, .cursor\u002Frules\u002F)\nuv run src\u002Fmain.py generate ai-rules --repo-path .\n```\n\nGenerated documentation will be saved to `.ai\u002Fdocs\u002F` directory, and AI configuration files will be placed in your repository root.\n\n## Usage\n\n### Available Commands\n\n```bash\n# Analyze codebase\nuv run src\u002Fmain.py analyze --repo-path \u003Cpath>\n\n# Generate README documentation\nuv run src\u002Fmain.py generate readme --repo-path \u003Cpath>\n\n# Generate AI assistant configuration files\nuv run src\u002Fmain.py generate ai-rules --repo-path \u003Cpath>\n\n# Run cronjob (GitLab integration)\nuv run src\u002Fmain.py cronjob analyze\n```\n\n### Advanced Options\n\n**Analysis Options:**\n```bash\n# Analyze with specific exclusions\nuv run src\u002Fmain.py analyze --repo-path . --exclude-code-structure --exclude-data-flow\n\n# Use custom configuration file\nuv run src\u002Fmain.py analyze --repo-path . --config \u002Fpath\u002Fto\u002Fconfig.yaml\n```\n\n**README Generation Options:**\n```bash\n# Generate with specific section exclusions\nuv run src\u002Fmain.py generate readme --repo-path . --exclude-architecture --exclude-c4-model\n\n# Use existing README as context\nuv run src\u002Fmain.py generate readme --repo-path . --use-existing-readme\n```\n\n**AI Rules Generation Options:**\n```bash\n# Skip overwriting existing files\nuv run src\u002Fmain.py generate ai-rules --repo-path . \\\n    --skip-existing-claude-md \\\n    --skip-existing-agents-md \\\n    --skip-existing-cursor-rules\n\n# Customize detail level and line limits\nuv run src\u002Fmain.py generate ai-rules --repo-path . \\\n    --detail-level comprehensive \\\n    --max-claude-lines 600 \\\n    --max-agents-lines 150\n```\n\n## Configuration\n\nThe tool automatically looks for configuration in `.ai\u002Fconfig.yaml` or `.ai\u002Fconfig.yml` in your repository.\n\n### Configuration Options\n\n- **Exclude specific analyses**: Skip code structure, data flow, dependencies, request flow, or API analysis\n- **Customize README sections**: Control which sections appear in generated documentation  \n- **Configure cronjob settings**: Set working paths and commit recency filters\n\nYou can use CLI flags for quick configuration overrides. See [`config_example.yaml`](config_example.yaml) for all available options and [`.env.sample`](.env.sample) for environment variables.\n\n## Architecture\n\nThe system uses a **multi-agent architecture** with specialized AI agents for different types of code analysis and generation:\n\n- **CLI Layer**: Entry point with command parsing and subcommand routing\n- **Handler Layer**: Command-specific business logic (analyze, generate, cronjob)\n- **Agent Layer**: AI-powered analysis and documentation generation\n  - Analyzer agents: Structure, data flow, dependencies, request flow, API analysis\n  - Documentation agent: README generation\n  - AI Rules generator: CLAUDE.md, AGENTS.md, and Cursor rules generation\n- **Tool Layer**: File system operations and utilities\n\n### Technology Stack\n\n- **Python 3.13** with pydantic-ai for AI agent orchestration\n- **OpenAI-compatible APIs** for LLM access (OpenAI, OpenRouter, etc.)\n- **GitPython & python-gitlab** for repository operations\n- **OpenTelemetry & Langfuse** for observability\n- **YAML + Pydantic** for configuration management\n\n## License\n\nThis project is licensed under the MIT License - see the [LICENSE](LICENSE) file for details.\n\n## Acknowledgments\n\n- Built with [pydantic-ai](https:\u002F\u002Fai.pydantic.dev\u002F) for AI agent orchestration\n- Supports multiple LLM providers through OpenAI-compatible APIs (including OpenRouter)\n- Uses [Langfuse](https:\u002F\u002Flangfuse.com\u002F) for LLM observability\n","# AI 文档生成器\n\n一款基于 AI 的代码文档生成工具，能够自动分析代码仓库，并利用先进的语言模型生成全面的文档。该系统采用多智能体架构，执行专业的代码分析并生成结构化的文档。\n\n## 📝 博文\n\n阅读该项目的完整故事：\n- 🇺🇸 [英文：不会腐朽的文档：多智能体 AI 如何重塑我们的工作流程](https:\u002F\u002Fmedium.com\u002F@milad.noroozi\u002Fdocs-that-dont-rot-how-multi-agent-ai-rewrote-our-workflow-6e0c911658d6)\n- 🇮🇷 [从代码助手到智能伙伴；第一步：文档编写的噩梦](https:\u002F\u002Fvirgool.io\u002F@divar\u002F%D8%A7%D8%B2-%D8%AF%D8%B3%D8%AA%DB%8C%D8%A7%D8%B1-%DA%A9%D8%AF%D9%86%D9%88%DB%8C%D8%B3-%D8%AA%D8%A7-%D9%87%D9%85%DA%A9%D8%A7%D8%B1-%D9%87%D9%88%D8%B4%D9%85%D9%86%D8%AF-%DA%BA%D8%A7%D9%85-%D8%A7%D9%88%D9%84-%DA%A9%D8%A7%D8%A8%D9%88%D8%B3-%D9%85%D8%B3%D8%AA%D9%86%D8%AF%D8%B3%D8%A7%D8%B2%DB%8C-jx7vhznchc9w)\n\n## 目录\n\n- [功能](#features)\n- [安装](#installation)\n- [快速入门](#quick-start)\n- [使用](#usage)\n- [配置](#configuration)\n- [架构](#architecture)\n- [许可证](#license)\n\n## 功能\n\n- **多智能体分析**：专门用于代码结构、数据流、依赖关系、请求流程和 API 分析的 AI 智能体\n- **自动化文档生成**：生成包含可配置章节的全面 README 文件\n- **AI 助手配置**：自动为 AI 编码助手生成 CLAUDE.md、AGENTS.md 和 .cursor\u002Frules\u002F 文件\n- **GitLab 集成**：对 GitLab 项目进行自动化分析，并创建合并请求\n- **并发处理**：并行执行分析智能体以提升性能\n- **灵活配置**：基于 YAML 的配置，并支持环境变量覆盖\n- **多 LLM 支持**：兼容任何 OpenAI 兼容的 API（OpenAI、OpenRouter、本地模型等）\n- **可观测性**：内置监控功能，支持 OpenTelemetry 跟踪和 Langfuse 集成\n\n## 安装\n\n### 前提条件\n\n- Python 3.13\n- Git\n- 对兼容 OpenAI 的 LLM 提供商的 API 访问权限\n\n1. 克隆仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen.git\ncd ai-doc-gen\n```\n\n2. 推荐使用 uv 进行安装：\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\nuv sync\n```\n\n3. 或者使用 pip 安装：\n```bash\npip install -e .\n```\n\n## 快速入门\n\n1. 设置环境和配置：\n```bash\n# 复制并编辑环境变量\ncp .env.sample .env\n\n# 复制并编辑配置文件\nmkdir -p .ai\ncp config_example.yaml .ai\u002Fconfig.yaml\n```\n\n2. 运行分析并生成文档：\n```bash\n# 分析您的代码仓库\nuv run src\u002Fmain.py analyze --repo-path .\n\n# 生成 README 文档\nuv run src\u002Fmain.py generate readme --repo-path .\n\n# 生成 AI 助手配置文件（CLAUDE.md、AGENTS.md、.cursor\u002Frules\u002F）\nuv run src\u002Fmain.py generate ai-rules --repo-path .\n```\n\n生成的文档将保存在 `.ai\u002Fdocs\u002F` 目录中，AI 配置文件则会放置在您的代码仓库根目录下。\n\n## 使用\n\n### 可用命令\n\n```bash\n# 分析代码库\nuv run src\u002Fmain.py analyze --repo-path \u003Cpath>\n\n# 生成 README 文档\nuv run src\u002Fmain.py generate readme --repo-path \u003Cpath>\n\n# 生成 AI 助手配置文件\nuv run src\u002Fmain.py generate ai-rules --repo-path \u003Cpath>\n\n# 运行定时任务（GitLab 集成）\nuv run src\u002Fmain.py cronjob analyze\n```\n\n### 高级选项\n\n**分析选项：**\n```bash\n# 带特定排除项进行分析\nuv run src\u002Fmain.py analyze --repo-path . --exclude-code-structure --exclude-data-flow\n\n# 使用自定义配置文件\nuv run src\u002Fmain.py analyze --repo-path . --config \u002Fpath\u002Fto\u002Fconfig.yaml\n```\n\n**README 生成选项：**\n```bash\n# 带特定章节排除项生成\nuv run src\u002Fmain.py generate readme --repo-path . --exclude-architecture --exclude-c4-model\n\n# 使用现有 README 作为上下文\nuv run src\u002Fmain.py generate readme --repo-path . --use-existing-readme\n```\n\n**AI 规则生成选项：**\n```bash\n# 跳过覆盖现有文件\nuv run src\u002Fmain.py generate ai-rules --repo-path . \\\n    --skip-existing-claude-md \\\n    --skip-existing-agents-md \\\n    --skip-existing-cursor-rules\n\n# 自定义详细程度和行数限制\nuv run src\u002Fmain.py generate ai-rules --repo-path . \\\n    --detail-level comprehensive \\\n    --max-claude-lines 600 \\\n    --max-agents-lines 150\n```\n\n## 配置\n\n该工具会自动在您的代码仓库中的 `.ai\u002Fconfig.yaml` 或 `.ai\u002Fconfig.yml` 中查找配置。\n\n### 配置选项\n\n- **排除特定分析**：跳过代码结构、数据流、依赖关系、请求流程或 API 分析\n- **自定义 README 章节**：控制生成文档中出现哪些章节\n- **配置定时任务设置**：设置工作路径和提交时间过滤条件\n\n您可以通过 CLI 标志快速覆盖配置。所有可用选项请参阅 [`config_example.yaml`](config_example.yaml)，环境变量请参考 [`.env.sample`](.env.sample)。\n\n## 架构\n\n系统采用 **多智能体架构**，配备专门的 AI 智能体用于不同类型的代码分析和文档生成：\n\n- **CLI 层**：入口点，负责命令解析和子命令路由\n- **处理器层**：特定于命令的业务逻辑（分析、生成、定时任务）\n- **智能体层**：基于 AI 的分析和文档生成\n  - 分析智能体：结构、数据流、依赖关系、请求流程、API 分析\n  - 文档智能体：README 生成\n  - AI 规则生成器：CLAUDE.md、AGENTS.md 和 Cursor 规则生成\n- **工具层**：文件系统操作和实用工具\n\n### 技术栈\n\n- **Python 3.13** 结合 pydantic-ai 用于 AI 智能体编排\n- **兼容 OpenAI 的 API** 用于访问 LLM（OpenAI、OpenRouter 等）\n- **GitPython 和 python-gitlab** 用于代码仓库操作\n- **OpenTelemetry 和 Langfuse** 用于可观测性\n- **YAML + Pydantic** 用于配置管理\n\n## 许可证\n\n本项目采用 MIT 许可证授权——详情请参阅 [LICENSE](LICENSE) 文件。\n\n## 致谢\n\n- 基于 [pydantic-ai](https:\u002F\u002Fai.pydantic.dev\u002F) 构建，用于 AI 智能体编排\n- 通过兼容 OpenAI 的 API 支持多种 LLM 提供商（包括 OpenRouter）\n- 使用 [Langfuse](https:\u002F\u002Flangfuse.com\u002F) 实现 LLM 可观测性","# ai-doc-gen 快速上手指南\n\n`ai-doc-gen` 是一款基于多智能体（Multi-Agent）架构的 AI 代码文档生成工具。它能自动分析代码仓库结构、数据流和依赖关系，并生成高质量的 README 文档及 AI 编程助手配置文件（如 CLAUDE.md, AGENTS.md）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows (WSL)\n*   **Python 版本**：Python 3.13 (必须)\n*   **其他依赖**：\n    *   Git\n    *   有效的 LLM API Key（支持 OpenAI、OpenRouter 或本地兼容模型）\n\n> **提示**：国内开发者若访问 GitHub 或 PyPI 较慢，建议配置国内镜像源或使用代理网络。\n\n## 安装步骤\n\n推荐使用 `uv` 进行安装，以获得更快的依赖解析速度和更好的环境管理体验。\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen.git\ncd ai-doc-gen\n```\n\n### 2. 安装依赖\n\n**方式一：使用 uv（推荐）**\n```bash\n# 安装 uv 工具\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n\n# 同步并安装项目依赖\nuv sync\n```\n\n**方式二：使用 pip**\n```bash\npip install -e .\n```\n\n## 基本使用\n\n### 1. 初始化配置\n在项目根目录下创建环境变量文件和配置文件：\n\n```bash\n# 复制环境变量模板并编辑（填入你的 LLM API Key）\ncp .env.sample .env\n\n# 创建配置目录并复制配置模板\nmkdir -p .ai\ncp config_example.yaml .ai\u002Fconfig.yaml\n```\n> **注意**：请务必编辑 `.env` 文件，设置正确的 `LLM_API_KEY` 和 `LLM_BASE_URL`（如果使用非 OpenAI 官方接口）。\n\n### 2. 运行分析\n对当前仓库进行代码结构和逻辑分析：\n```bash\nuv run src\u002Fmain.py analyze --repo-path .\n```\n\n### 3. 生成文档\n根据分析结果生成 README 文档：\n```bash\nuv run src\u002Fmain.py generate readme --repo-path .\n```\n\n### 4. 生成 AI 助手规则（可选）\n为 Cursor、Claude Code 等 AI 编程工具生成上下文规则文件：\n```bash\nuv run src\u002Fmain.py generate ai-rules --repo-path .\n```\n\n执行完成后，生成的文档将保存在 `.ai\u002Fdocs\u002F` 目录中，AI 规则文件将直接生成在项目根目录。","某中型电商团队的后端组长正面临核心交易微服务重构后的文档缺失危机，新入职的工程师因无法理解复杂的代码依赖而迟迟无法上手。\n\n### 没有 ai-doc-gen 时\n- **文档严重滞后**：代码迭代速度远超人工编写文档的速度，README 中的架构描述与实际代码逻辑早已脱节，甚至产生误导。\n- **新人上手极慢**：新成员需要花费数天时间逐行阅读源码来梳理数据流向和 API 依赖，极大拖慢了团队整体交付节奏。\n- **分析维度单一**：人工复盘难以全面覆盖代码结构、数据流、依赖关系等多个维度，容易遗漏关键的隐性逻辑。\n- **AI 辅助缺失**：缺乏统一的上下文规则文件（如 CLAUDE.md），导致团队成员使用 AI 编程助手时生成的代码风格不一且常犯低级错误。\n\n### 使用 ai-doc-gen 后\n- **文档实时同步**：ai-doc-gen 的多智能体系统自动并行分析代码库，生成的 README 包含最新的架构图和数据流说明，确保文档“永不腐烂”。\n- **极速入职引导**：新工程师通过生成的详尽文档，能在几小时内掌握核心业务逻辑和请求链路，将原本数天的熟悉期缩短至小时级。\n- **全景深度洞察**：专用智能体分别从代码结构、依赖关系等五个维度进行深度扫描，输出了人工难以企及的结构化分析报告。\n- **统一开发规范**：工具自动生成的 CLAUDE.md 和 .cursor\u002Frules 文件，让全团队在使用 AI 编码时拥有统一的上下文认知，显著提升了代码一致性。\n\nai-doc-gen 通过将繁琐的文档工作转化为自动化的多智能体协作流程，彻底解决了技术文档维护难与团队知识传承断层的痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdivar-ir_ai-doc-gen_f24ae9a2.png","divar-ir","Divar","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdivar-ir_49bebbde.png","",null,"Divar_Official","https:\u002F\u002Fgithub.com\u002Fdivar-ir",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",98.1,{"name":85,"color":86,"percentage":87},"Smarty","#f0c040",1.5,{"name":89,"color":90,"percentage":91},"Dockerfile","#384d54",0.4,710,71,"2026-04-06T04:48:49","MIT","未说明",{"notes":98,"python":99,"dependencies":100},"该工具基于多智能体架构，需访问兼容 OpenAI 接口的 LLM 服务（如 OpenAI、OpenRouter 或本地模型）。推荐使用 'uv' 进行依赖管理和运行。配置通过 YAML 文件或环境变量管理，支持 GitLab 集成和并发处理。","3.13",[101,102,103,104,105,106,107,108],"pydantic-ai","uv","GitPython","python-gitlab","OpenTelemetry","Langfuse","Pydantic","PyYAML",[15,14,13],[111,112,113,114,115,116,101,117],"agent","ai","ai-documentation","code-analysis","documentation","multi-agent","python","2026-03-27T02:49:30.150509","2026-04-07T06:20:54.564461",[121,126,131,136,140,145],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21164,"遇到 `context_length_exceeded`（上下文长度超出）错误时，如何在不更换模型的情况下解决？","可以通过以下几种方式绕过上下文长度限制：\n1. **减少加载的文件数量**：代理可能会扫描整个仓库，你可以通过忽略不必要的文件夹或文件类型来减少输入。默认忽略列表位于 `src\u002Fagents\u002Ftools\u002Fdir_tool\u002Flist_files.py`。排除如 `.git`, `venv`, `node_modules`, `.next` 等重型或无关文件夹会有很大帮助。\n2. **遵循 .gitignore**：虽然并非所有想忽略的内容都在 gitignore 中（如 tests 或 k8s 目录），但将其作为基础是一个好主意。\n3. **总结旧消息**：如果代理发送了完整的聊天记录，尝试总结较早的消息以节省 token。","https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen\u002Fissues\u002F2",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21165,"在使用 Anthropic Claude API 分析大型仓库时，频繁遇到 HTTP 429 速率限制错误（每分钟 30,000 input tokens）怎么办？","该限制针对输入 token 而非输出。对于标准层级（Tier 1）用户，30k tokens\u002F分钟的限制对于处理中大型代码库来说过低。解决方案包括：\n1. **切换 API 提供商**：考虑使用如 OpenRouter.ai 这样的聚合服务，它们可能提供更高的限额或不同的计费方式。\n2. **升级 API 层级**：将 Anthropic 账户升级到至少 Tier 2 以获得更高的速率限制。\n注意：简单的重试机制（retry mechanism）无法解决此问题，因为单个请求若超过限制，重试只会消耗更多 token 并再次失败。","https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen\u002Fissues\u002F4",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21166,"如何优化项目的 Docker 镜像大小（从 1.72GB 减小到约 255MB）？","建议使用多阶段构建（Multi-Stage Build）的 Dockerfile。具体步骤如下：\n1. **构建阶段 (Builder)**：使用 `astral\u002Fuv:0.8.3-debian` 镜像，安装依赖并编译代码。\n2. **最终阶段 (Final)**：使用相同的轻量级基础镜像，仅复制必要的虚拟环境 (`.venv`) 和源代码。\n3. **关键配置**：\n   - 使用 `uv sync --frozen` 安装生产依赖。\n   - 显式安装 `git`（因为 slim 镜像默认不包含，而项目工作流需要它进行 clone\u002Fcommit\u002Fpush）。\n   - 设置 `PYTHONPATH` 和 `PATH` 环境变量以指向应用目录和虚拟环境。\n此方法可去除构建工具和不必要的系统包，显著减小镜像体积。","https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen\u002Fissues\u002F3",{"id":137,"question_zh":138,"answer_zh":139,"source_url":125},21167,"如何在 Node.js 或前端项目中正确配置忽略目录，以避免扫描 `node_modules` 等无用文件？","应将常见的前端构建产物和依赖目录添加到默认忽略列表 (`DEFAULT_IGNORED_DIRS`) 中。具体包括：\n- `node_modules`\n- `.next` (Next.js)\n- `.swc`\n- `.git`\n- `venv`\n虽然工具会参考项目的 `.gitignore` 文件，但建议显式添加上述目录，因为 `.gitignore` 中可能未包含所有希望忽略的开发目录（如 `tests` 或 `k8s`）。你可以修改源码中的忽略列表或通过配置传入这些路径。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},21168,"使用 Groq API 密钥时出现 `Invalid service_tier value (\"on_demand\")` 错误，如何解决？","该错误是因为 Groq 的 OpenAI 兼容接口不支持 `service_tier=\"on_demand\"` 参数（该参数特定于 OpenAI）。目前项目代码中硬编码或默认使用了此参数。解决方法需要修改代码以适配 Groq：\n1. 自定义 LLM 配置，在使用 Groq 时移除或覆盖 `service_tier` 参数。\n2. 由于维护者暂无 Groq 密钥进行测试，建议用户自行验证代码修复（例如使用 Cursor 等 AI 编程助手辅助），确认能正常运行后提交 Pull Request (PR) 贡献代码。","https:\u002F\u002Fgithub.com\u002Fdivar-ir\u002Fai-doc-gen\u002Fissues\u002F18",{"id":146,"question_zh":147,"answer_zh":148,"source_url":130},21169,"为什么禁用并行工具调用 (`ANALYZER_PARALLEL_TOOL_CALLS=false`) 仍然无法解决速率限制问题？","因为速率限制的根本原因是**单个请求的 token 数量**超过了阈值（例如 30,000 tokens），而不是并发请求数过多。即使禁用了并行调用，如果一次分析任务生成的 prompt 包含的代码量过大，单个请求依然会触发 429 错误。重试机制在这种情况下也无效，因为它不会减少单次请求的 token 消耗，反而会导致总 token 用量成倍增加。必须通过减少输入内容（如忽略更多文件）或提升 API 配额来解决。",[]]