[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-context-labs--autodoc":3,"tool-context-labs--autodoc":65},[4,17,26,36,44,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[25,13],"插件",{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[35,52,53,25,14,54,15,13,55],"数据工具","视频","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,52,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":10,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":108,"github_topics":109,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":152},5867,"context-labs\u002Fautodoc","autodoc","Experimental toolkit for auto-generating codebase documentation using LLMs","Autodoc 是一款利用大语言模型（如 GPT-4）自动为代码库生成文档的实验性工具。它旨在解决开源项目或大型代码库中文档缺失、更新滞后以及新成员上手困难等痛点。通过深度优先遍历仓库中的所有文件，Autodoc 能智能分析代码结构，为每个文件和文件夹自动生成详细的说明文档，并将这些内容直接保存在项目的 `.autodoc` 目录中，确保文档随代码一起版本化管理和迁移。\n\n该工具主要面向软件开发者、技术团队负责人及开源项目维护者。其独特亮点在于不仅生成静态文档，还集成了交互式问答功能：开发者可以在本地使用 `doc` 命令针对代码库提出具体问题，系统会结合生成的上下文提供精准答案，并附带源代码引用链接，极大提升了代码审查和理解效率。此外，项目规划未来将把文档重新索引集成至 CI\u002FCD 流水线，以实现文档的实时同步更新。\n\n需要注意的是，Autodoc 目前仍处于早期开发阶段，虽已具备核心功能，但尚未完全适用于生产环境，生成质量可能受项目类型及提问方式影响。建议在使用时搭配 GPT-4 以获得更佳的代码理解与文档生成效果。对于希望探索 AI 辅助编程、提升团队协作效率的技术人员而言，这是","Autodoc 是一款利用大语言模型（如 GPT-4）自动为代码库生成文档的实验性工具。它旨在解决开源项目或大型代码库中文档缺失、更新滞后以及新成员上手困难等痛点。通过深度优先遍历仓库中的所有文件，Autodoc 能智能分析代码结构，为每个文件和文件夹自动生成详细的说明文档，并将这些内容直接保存在项目的 `.autodoc` 目录中，确保文档随代码一起版本化管理和迁移。\n\n该工具主要面向软件开发者、技术团队负责人及开源项目维护者。其独特亮点在于不仅生成静态文档，还集成了交互式问答功能：开发者可以在本地使用 `doc` 命令针对代码库提出具体问题，系统会结合生成的上下文提供精准答案，并附带源代码引用链接，极大提升了代码审查和理解效率。此外，项目规划未来将把文档重新索引集成至 CI\u002FCD 流水线，以实现文档的实时同步更新。\n\n需要注意的是，Autodoc 目前仍处于早期开发阶段，虽已具备核心功能，但尚未完全适用于生产环境，生成质量可能受项目类型及提问方式影响。建议在使用时搭配 GPT-4 以获得更佳的代码理解与文档生成效果。对于希望探索 AI 辅助编程、提升团队协作效率的技术人员而言，这是一个值得关注的创新尝试。","\n\u003Ch1 align=\"center\">\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_34787c5dce22.png\" alt=\"Markdownify\" width=\"200\" style=\"border-radius:8px;\">\u003C\u002Fa>\n  \u003Cbr>\nAutodoc\n  \u003Cbr>\n\u003C\u002Fh1>\n\n\u003Ch4 align=\"center\">⚡ Toolkit for auto-generating codebase documentation using LLMs ⚡\u003C\u002Fh4>\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\n\t  \u003Cimg alt=\"Twitter URL\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\">\n  \u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@context-labs\u002Fautodoc\">\n\t  \u003Cimg alt=\"NPM Package\" src=\"https:\u002F\u002Fbadge.fury.io\u002Fjs\u002F@context-labs%2Fautodoc.svg\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fautodoc_\">\n\t  \u003Cimg alt=\"Twitter URL\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl?label=Follow%20%40autodoc_&style=social&url=https%3A%2F%2Ftwitter.com%2Fautodoc_\">\n\t  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002FzpFEXXWSNg\">\n\t  \u003Cimg alt=\"Discord Server\" src=\"https:\u002F\u002Fdcbadge.vercel.app\u002Fapi\u002Fserver\u002FzpFEXXWSNg?compact=true&style=flat\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#what-is-this\">What is this?\u003C\u002Fa> •\n  \u003Ca href=\"#get-started\">Get Started\u003C\u002Fa> •\n  \u003Ca href=\"#community\">Community\u003C\u002Fa> •\n  \u003Ca href=\"#contributing\">Contribute\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## What is this?\nAutodoc is a **experimental** toolkit for auto-generating codebase documentation for git repositories using Large Language Models, like [GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4) or [Alpaca](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp). Autodoc can be [installed](#get-started) in your repo in about 5 minutes. It indexes your codebase through a depth-first traversal of all repository contents and calls an LLM to write documentation for each file and folder. These documents can be combined to describe the different components of your system and how they work together. \n\nThe generated documentation lives in your codebase, and travels where your code travels. Developers who download your code can use the `doc` command to ask questions about your codebase and get highly specific answers with reference links back to code files. \n\nIn the near future, documentation will be re-indexed as part your CI pipeline, so it is always up-to-date. If your interested in working contributing to this work, see [this issue](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F7).\n\n\n### Status\nAutodoc is in the early stages of development. It is functional, but not ready for production use. Things may break, or not work as expected. If you're interested in working on the core Autodoc framework, please see [contributing](#contributing). We would love to have your help!\n\n### FAQs\n**Question:** I'm not getting good responses. How can I improve response quality?\n\n**Answer:** Autodoc is in the early stages of development. As such, the response quality can vary widely based on the type of project your indexing and how questions are phrased. A few tips to writing good query:\n1. Be specific with your questions. Ask things like \"What are the different components of authorization in this system?\" rather than \"explain auth\". This will help Autodoc select the right context to get the best answer for your question.\n2. Use GPT-4. GPT-4 is substantially better at understanding code compared to GPT-3.5 and this understanding carries over into writing good documentation as well. If you don't have access, sign up [here](https:\u002F\u002Fopenai.com\u002Fwaitlist\u002Fgpt-4-api).\n\n\n### Examples\nBelow are a few examples of how Autodoc can be used. \n1. [Autodoc](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc) - This repository contains documentation for itself, generated by Autodoc. It lives in the `.autodoc` folder. Follow the instructions [here](#querying) to learn how to query it.\n2. [TolyGPT.com](https:\u002F\u002Ftolygpt.com) - TolyGPT is an Autodoc chatbot trained on the [Solana validator](https:\u002F\u002Fgithub.com\u002Fsolana-labs\u002Fsolana) codebase and deployed to the web for easy access. In the near future, Autodoc will support a web version in addition to the existing CLI tool.\n\n## Get Started\n\n#### Requirements\nAutodoc requires Node v18.0.0 or greater. v19.0.0 or greater is recommended. Make sure you're running the proper version:\n\n```bash\n$ node -v\n```\n\nExample output:\n```bash\nv19.8.1\n```\n\nInstall the Autodoc CLI tool as a global NPM module:\n\n```bash\n$ npm install -g @context-labs\u002Fautodoc\n```\nThis command installs the Autodoc CLI tool that will allow you to create and query Autodoc indexes.\n\nRun `doc` to see the available commands.\n\n### Querying\nYou can query a repository that has Autodoc installed via the CLI. We'll use the Autodoc repository itself as an example to demonstrate how querying in Autodoc works, but this could be your own repository that contains an index.\n\nClone Autodoc and change directory to get started:\n\n```bash \n$ git clone https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc.git\n$ cd autodoc\n```\n\nRight now Autodoc only supports OpenAI. Make sure you have have your OpenAI API key exported in your current session:\n\n```bash\n$ export OPENAI_API_KEY=\u003CYOUR_KEY_HERE>\n```\n\nTo start the Autodoc query CLI, run:\n\n```bash\n$ doc q\n```\n\nIf this is your first time running `doc q`, you'll get a screen that prompts you to select which GPT models you have access to. Select whichever is appropriate for your level of access. If you aren't sure, select the first option:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_9d2f14e447f9.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\nYou're now ready to query documentation for the Autodoc repository:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_ac847359aa98.gif\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\nThis is the core querying experience. It's very basic right now, with plenty of room of improvement. If you're interested in improving the Autodoc CLI querying experience, checkout [this issue](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F11).\n\n### Indexing\nFollow the steps below to generate documentation for your own repository using Autodoc.\n\nChange directory into the root of your project:\n```bash\ncd $PROJECT_ROOT\n```\nMake sure your OpenAI API key is available in the current session:\n\n```bash\n$ export OPENAI_API_KEY=\u003CYOUR_KEY_HERE>\n```\n\nRun the `init` command:\n```\ndoc init\n```\nYou will be prompted to enter the name of your project, GitHub url, and select which GPT models you have access to. If you aren't sure which models you have access to, select the first option. You can also specify your own GPT file\u002Fdirectory prompts that will be used to summarize\u002Fanalyze the code repoThis command will generate an `autodoc.config.json` file in the root of your project to store the values. This file should be checked in to git.\n\n**Note:** Do not skip entering these values or indexing may not work.\n\n**Prompt Configuration:** You'll find prompt directions specified in `prompts.ts`, with some snippets customizable in the `autodoc.config.json`. The current prompts are developer focused and assume your repo is code focused. We will have more reference templates in the future.\n\nRun the `index` command:\n```bash\ndoc index\n```\n\nYou should see a screen like this:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_fc2c5125ece3.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\nThis screen estimates the cost of indexing your repository. You can also access this screen via the `doc estimate` command. If you've already indexed once, then `doc index` will only reindex files that have been changed on the second go.\n\nFor every file in your project, Autodoc calculates the number of tokens in the file based on the file content. The more lines of code, the larger the number of tokens. Using this number, it determine which model it will use on per file basis, always choosing the cheapest model whose context length supports the number of tokens in the file. If you're interested in helping make model selection configurable in Autodoc, check out [this issue](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F9).\n\n**Note:** This naive model selection strategy means that files under ~4000 tokens will be documented using GPT-3.5, which will result in less accurate documentation. **We recommend using GPT-4 8K at a minimum.** Indexing with GPT-4 results in significantly better output. You can apply for access [here](https:\u002F\u002Fopenai.com\u002Fwaitlist\u002Fgpt-4-api).\n\nFor large projects, the cost can be several hundred dollars. View OpenAI pricing [here](https:\u002F\u002Fopenai.com\u002Fpricing). \n\nIn the near future, we will support self-hosted models, such as [Llama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) and [Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca). Read [this issue](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F8) if you're interesting in contributing to this work.\n\nWhen your repository is done being indexed, you should see a screen like this:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_ec34768abd06.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\nYou can now query your application using the steps outlined in [querying](#querying).\n\n## Community\nThere is a small group of us that are working full time on Autodoc. Join us on [Discord](https:\u002F\u002Fdiscord.gg\u002FzpFEXXWSNg), or follow us on [Twitter](https:\u002F\u002Ftwitter.com\u002Fautodoc_) for updates. We'll be posting regularly and continuing to improve the Autodoc application. Want to contribute? Read below.\n\n\n## Contributing\n\nAs an open source project in a rapidly developing field, we are extremely open to contributions, whether it be in the form of a new feature, improved infra, or better documentation.\n\nFor detailed information on how to contribute, see [here](.github\u002FCONTRIBUTING.md).\n","\u003Ch1 align=\"center\">\n  \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_34787c5dce22.png\" alt=\"Markdownify\" width=\"200\" style=\"border-radius:8px;\">\u003C\u002Fa>\n  \u003Cbr>\nAutodoc\n  \u003Cbr>\n\u003C\u002Fh1>\n\n\u003Ch4 align=\"center\">⚡ 使用大语言模型自动生成代码库文档的工具包 ⚡\u003C\u002Fh4>\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\n\t  \u003Cimg alt=\"Twitter URL\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\">\n  \u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@context-labs\u002Fautodoc\">\n\t  \u003Cimg alt=\"NPM Package\" src=\"https:\u002F\u002Fbadge.fury.io\u002Fjs\u002F@context-labs%2Fautodoc.svg\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fautodoc_\">\n\t  \u003Cimg alt=\"Twitter URL\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl?label=Follow%20%40autodoc_&style=social&url=https%3A%2F%2Ftwitter.com%2Fautodoc_\">\n\t  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002FzpFEXXWSNg\">\n\t  \u003Cimg alt=\"Discord Server\" src=\"https:\u002F\u002Fdcbadge.vercel.app\u002Fapi\u002Fserver\u002FzpFEXXWSNg?compact=true&style=flat\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#what-is-this\">这是什么？\u003C\u002Fa> •\n  \u003Ca href=\"#get-started\">开始使用\u003C\u002Fa> •\n  \u003Ca href=\"#community\">社区\u003C\u002Fa> •\n  \u003Ca href=\"#contributing\">贡献\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 这是什么？\nAutodoc 是一个**实验性**工具包，用于利用大型语言模型（如 [GPT-4](https:\u002F\u002Fopenai.com\u002Fresearch\u002Fgpt-4) 或 [Alpaca](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp)）为 Git 仓库自动生成代码库文档。你可以在大约 5 分钟内将 Autodoc [安装](#get-started) 到你的仓库中。它会通过深度优先遍历整个仓库内容来索引你的代码库，并调用 LLM 为每个文件和文件夹生成文档。这些文档可以组合起来描述你系统的各个组件及其协作方式。\n\n生成的文档会保留在你的代码库中，并随着代码一起传播。下载你代码的开发者可以使用 `doc` 命令来询问关于代码库的问题，并获得带有代码文件引用链接的高度精确答案。\n\n在不久的将来，文档将会作为 CI 流水线的一部分被重新索引，从而始终保持最新状态。如果你有兴趣参与这项工作，请参阅 [此议题](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F7)。\n\n\n### 状态\nAutodoc 目前仍处于开发的早期阶段。虽然功能可用，但尚未准备好投入生产环境使用。可能会出现各种问题或不符合预期的情况。如果你有兴趣参与核心 Autodoc 框架的开发，请参阅 [贡献指南](#contributing)。我们非常欢迎你的帮助！\n\n### 常见问题解答\n**问：** 我得到的回答质量不高，该如何提高回答质量？\n\n**答：** Autodoc 目前仍处于开发的早期阶段。因此，回答质量会因你正在索引的项目类型以及问题的表述方式而有很大差异。以下是一些编写优质查询的建议：\n1. 提问时要具体明确。例如，不要只问“解释一下认证”，而是问“这个系统中有哪些不同的认证组件？”这样可以帮助 Autodoc 选择合适的上下文，从而给出最佳答案。\n2. 使用 GPT-4。相比 GPT-3.5，GPT-4 在理解代码方面有显著优势，这种能力同样体现在生成高质量文档上。如果你没有访问权限，可以[在这里](https:\u002F\u002Fopenai.com\u002Fwaitlist\u002Fgpt-4-api)注册申请。\n\n### 示例\n以下是 Autodoc 的一些使用示例。\n1. [Autodoc](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc) - 该仓库包含由 Autodoc 自动生成的自身文档，存放在 `.autodoc` 文件夹中。请按照[此处](#querying)的说明学习如何查询该文档。\n2. [TolyGPT.com](https:\u002F\u002Ftolygpt.com) - TolyGPT 是一个基于 [Solana 验证器](https:\u002F\u002Fgithub.com\u002Fsolana-labs\u002Fsolana) 代码库训练的 Autodoc 聊天机器人，已部署到网页上以便于访问。在不久的将来，除了现有的命令行工具外，Autodoc 还将支持网页版。\n\n## 开始使用\n\n#### 要求\nAutodoc 需要 Node.js v18.0.0 或更高版本，推荐使用 v19.0.0 或更高版本。请确保运行的是正确版本：\n\n```bash\n$ node -v\n```\n\n示例输出：\n```bash\nv19.8.1\n```\n\n将 Autodoc 命令行工具以全局 NPM 模块的形式安装：\n\n```bash\n$ npm install -g @context-labs\u002Fautodoc\n```\n此命令会安装 Autodoc 命令行工具，使你可以创建和查询 Autodoc 索引。\n\n运行 `doc` 查看可用命令。\n\n### 查询\n你可以通过命令行查询已安装 Autodoc 的仓库。我们将以 Autodoc 仓库本身为例，演示 Autodoc 的查询方式，但这也可以是你自己的包含索引的仓库。\n\n克隆 Autodoc 并切换目录以开始：\n\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc.git\n$ cd autodoc\n```\n\n目前，Autodoc 仅支持 OpenAI。请确保已在当前会话中导出你的 OpenAI API 密钥：\n\n```bash\n$ export OPENAI_API_KEY=\u003CYOUR_KEY_HERE>\n```\n\n要启动 Autodoc 查询命令行界面，请运行：\n\n```bash\n$ doc q\n```\n\n如果你是第一次运行 `doc q`，屏幕上会出现提示，让你选择可访问的 GPT 模型。根据你的访问权限选择相应的选项。如果不确定，可以选择第一个选项：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_9d2f14e447f9.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\n现在你已经可以查询 Autodoc 仓库的文档了：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_ac847359aa98.gif\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\n这是核心的查询体验，目前还非常基础，有很大的改进空间。如果你想改善 Autodoc 命令行查询体验，请查看 [此议题](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F11)。\n\n### 索引\n请按照以下步骤，使用 Autodoc 为您的仓库生成文档。\n\n切换到项目的根目录：\n```bash\ncd $PROJECT_ROOT\n```\n\n确保当前会话中已设置 OpenAI API 密钥：\n\n```bash\n$ export OPENAI_API_KEY=\u003CYOUR_KEY_HERE>\n```\n\n运行 `init` 命令：\n```\ndoc init\n```\n\n系统会提示您输入项目名称、GitHub 仓库地址，并选择您有权使用的 GPT 模型。如果您不确定自己可以使用哪些模型，请选择第一个选项。您还可以指定自定义的 GPT 文件或目录提示，这些提示将用于总结和分析代码仓库。该命令会在项目的根目录下生成一个 `autodoc.config.json` 文件来存储这些值。请务必将此文件提交到 Git 仓库中。\n\n**注意：** 请勿跳过输入这些值，否则索引可能无法正常工作。\n\n**提示配置：** 提示的相关说明位于 `prompts.ts` 文件中，部分片段可以在 `autodoc.config.json` 中进行自定义。当前的提示主要面向开发者，并假设您的仓库以代码为主。未来我们将提供更多参考模板。\n\n运行 `index` 命令：\n```bash\ndoc index\n```\n\n您应该会看到如下界面：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_fc2c5125ece3.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\n此界面会估算索引您仓库的成本。您也可以通过 `doc estimate` 命令访问该界面。如果您已经进行过一次索引，那么第二次运行 `doc index` 时，只会重新索引那些发生更改的文件。\n\n对于项目中的每个文件，Autodoc 都会根据文件内容计算其 token 数量。代码行数越多，token 数量越大。基于这一数量，Autodoc 会为每个文件选择合适的模型，始终选择上下文长度能够支持该文件 token 数量且价格最低的模型。如果您有兴趣帮助实现 Autodoc 中模型选择的可配置化，请查看 [此议题](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F9)。\n\n**注意：** 这种简单的模型选择策略意味着，token 数量少于约 4000 的文件将使用 GPT-3.5 进行文档化，这会导致文档的准确性较低。**我们建议至少使用 GPT-4 8K。** 使用 GPT-4 进行索引可以获得显著更好的输出。您可以通过 [此处](https:\u002F\u002Fopenai.com\u002Fwaitlist\u002Fgpt-4-api) 申请访问权限。\n\n对于大型项目，成本可能会高达数百美元。OpenAI 的定价信息请参见 [此处](https:\u002F\u002Fopenai.com\u002Fpricing)。\n\n在不久的将来，我们将支持自托管模型，例如 [Llama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) 和 [Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)。如果您有兴趣参与相关开发，请阅读 [此议题](https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F8)。\n\n当您的仓库完成索引后，您应该会看到如下界面：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_readme_ec34768abd06.png\" alt=\"Markdownify\" width=\"60%\" style=\"border-radius:24px;\">\n\n现在您可以按照 [查询](#querying) 中的步骤来查询您的应用了。\n\n## 社区\n目前有一小群人正全职致力于 Autodoc 的开发。欢迎加入我们的 [Discord](https:\u002F\u002Fdiscord.gg\u002FzpFEXXWSNg)，或关注我们的 [Twitter](https:\u002F\u002Ftwitter.com\u002Fautodoc_) 获取最新动态。我们会定期发布更新，并持续改进 Autodoc 应用程序。想参与贡献吗？请继续阅读。\n\n## 贡献\n作为一项处于快速发展的领域的开源项目，我们非常欢迎各种形式的贡献，无论是新功能、基础设施优化，还是文档改进。\n\n有关如何贡献的详细信息，请参阅 [.github\u002FCONTRIBUTING.md](.github\u002FCONTRIBUTING.md)。","# Autodoc 快速上手指南\n\nAutodoc 是一个利用大语言模型（如 GPT-4）自动为 Git 代码库生成文档的实验性工具包。它能索引你的代码库，为每个文件和文件夹生成文档，并允许开发者通过命令行查询代码细节。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **Node.js**: 版本需为 `v18.0.0` 或更高（推荐 `v19.0.0` 及以上）。\n    *   验证命令：`node -v`\n*   **OpenAI API Key**: 目前 Autodoc 仅支持 OpenAI 模型。你需要拥有有效的 API Key，并建议在会话中导出该变量。\n    *   *注意：为了获得高质量的文档，强烈建议使用 GPT-4 (8K context) 模型。GPT-3.5 生成的文档准确性较低。*\n\n## 安装步骤\n\n通过 npm 全局安装 Autodoc CLI 工具：\n\n```bash\nnpm install -g @context-labs\u002Fautodoc\n```\n\n安装完成后，运行以下命令查看可用指令：\n\n```bash\ndoc\n```\n\n## 基本使用\n\n### 1. 初始化项目 (Indexing)\n\n进入你的项目根目录，运行初始化命令以配置项目信息：\n\n```bash\ncd $PROJECT_ROOT\nexport OPENAI_API_KEY=\u003CYOUR_KEY_HERE>\ndoc init\n```\n\n执行 `doc init` 后，按提示输入：\n*   项目名称\n*   GitHub 仓库 URL\n*   可用的 GPT 模型选项（若不确定，选择第一个选项）\n\n该命令会在项目根目录生成 `autodoc.config.json` 配置文件，**请将此文件提交到 Git 仓库**。\n\n接着，运行索引命令开始生成文档：\n\n```bash\ndoc index\n```\n\n系统会先估算索引成本。确认后，Autodoc 将遍历代码库，根据文件大小自动选择模型（推荐使用 GPT-4）并生成文档。\n*   *提示：大型项目的索引成本可能较高，具体取决于代码量和所选模型。*\n\n### 2. 查询文档 (Querying)\n\n索引完成后，你可以随时查询代码库文档。\n\n在项目目录下运行：\n\n```bash\ndoc q\n```\n\n如果是首次运行，系统会提示你选择已拥有的 GPT 模型。选择后即可进入交互模式，输入关于代码库的具体问题（例如：“这个系统中的授权组件有哪些？”），Autodoc 将结合生成的文档提供带有代码引用链接的详细回答。","某初创团队接手了一个由前员工遗留的、缺乏文档的复杂微服务代码库，急需在两周内让新入职的三名后端工程师上手并修复关键 Bug。\n\n### 没有 autodoc 时\n- 新成员面对数万行陌生代码无从下手，只能依靠口口相传或盲目阅读源码，平均每人需耗费 3-5 天才能理清核心模块逻辑。\n- 遇到具体功能疑问（如“认证模块如何与支付网关交互”）时，必须在海量文件中手动搜索关键词，往往找不到关联上下文，效率极低。\n- 随着代码频繁迭代，口头传达的业务逻辑迅速过时，新人依据错误理解编写的补丁常引发新的回归缺陷。\n- 资深开发者被迫中断手头工作，反复为新人进行低效的代码走查和讲解，严重拖慢整体项目进度。\n\n### 使用 autodoc 后\n- 团队仅用 5 分钟即在仓库内部署 autodoc，它自动遍历所有文件并调用 GPT-4 生成了详尽的 `.autodoc` 目录文档，新人半天内即可掌握系统架构。\n- 工程师直接在终端使用 `doc` 命令提问\"auth 模块如何调用支付网关”，autodoc 立即返回精准答案并附带源代码跳转链接，定位时间从小时级缩短至分钟级。\n- 文档随代码库一同版本控制，任何提交触发重新索引后，文档自动同步更新，确保新人始终基于最新逻辑开发，大幅减少沟通误差。\n- 资深开发者从重复的解释工作中解放出来，专注于核心架构优化，团队整体交付效率提升 40% 以上。\n\nautodoc 将静态代码转化为可交互的智能知识库，彻底消除了因文档缺失导致的技术债务与协作瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcontext-labs_autodoc_9d2f14e4.png","context-labs","inference.net","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcontext-labs_4044ed15.png","",null,"inference_net","https:\u002F\u002Finference.net","https:\u002F\u002Fgithub.com\u002Fcontext-labs",[86,90],{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",91.3,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",8.7,2322,148,"2026-04-06T17:51:05","MIT","未说明 (基于 Node.js，理论上支持所有主流操作系统)","不需要 (主要依赖 OpenAI API 云端模型；未来计划支持本地模型如 Llama\u002FAlpaca，但目前未提供具体本地运行硬件需求)","未说明",{"notes":102,"python":103,"dependencies":104},"该工具是一个基于 Node.js 的 CLI 工具，需安装 Node v18.0.0 或更高版本（推荐 v19+）。目前仅支持通过 OpenAI API (GPT-3.5\u002FGPT-4) 进行代码索引和文档生成，因此需要有效的 OpenAI API 密钥并配置环境变量。大型项目索引可能产生数百美元的费用。暂未支持本地部署模型（如 Llama, Alpaca），相关功能仍在开发中。","不需要 (基于 Node.js)",[105,106,107],"Node.js v18.0.0+","@context-labs\u002Fautodoc (NPM 包)","OpenAI API Key",[25,15],[110,111,112,113],"documentation-generator","language-model","cli-tool","typescript","2026-03-27T02:49:30.150509","2026-04-09T21:36:23.435768",[117,122,127,132,137,142,147],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},26617,"遇到错误 'ReferenceError: Headers is not defined' 或 'Failed to get summary' 怎么办？","这是因为 Node.js 版本过低导致的。请将 Node.js 升级到 v18 或更高版本即可解决该问题。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F4",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},26618,"运行查询时出现错误 'this.callbackManager.handleLLMError is not a function' 如何解决？","该错误通常与权限有关。尝试使用 root 用户（管理员权限）运行命令，而不是普通用户。有用户反馈在 root 权限下工作正常，而在普通用户下会报错。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F15",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},26619,"遇到 'TypeError: Cannot read properties of undefined (reading 'length')' 错误该如何修复？","你需要运行配置命令来设置查询配置。请在终端执行 `doc user` 命令，按照提示完成用户配置后即可解决。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F18",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},26620,"Autodoc 生成的索引数据库可以共享给其他开发者使用吗？","可以共享。所有生成的内容和查询所需数据都存储在 `.autodoc` 文件夹中。其他开发者只需克隆包含该文件夹的仓库，并通过 NPM 全局安装 autodoc (`npm install -g @context-labs\u002Fautodoc`)，即可直接进行查询，无需重新索引。注意：目前不支持递归索引。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F35",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},26621,"如何使用 Autodoc 同时索引和查询多个仓库或库？","目前可以通过以下变通方法实现：\n1. 使用 Git 子模块 (git submodules) 将多个仓库组合在一起。\n2. 或者在运行索引之前，手动将多个仓库的代码拉取到同一个文件目录中。\n然后对该统一目录运行索引命令，即可在单次聊天体验中结合多个库的文档。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F26",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},26622,"Autodoc 可以用来索引 PDF 文档并与之对话吗？","这超出了 Autodoc 包本身的功能范围。建议的工作流是：先使用 Autodoc 生成 Markdown 格式的文档，然后结合 Obsidian 等工具使用。Obsidian 有许多社区插件（如 Smart Connections、text-generator 或 AI commander），这些插件可以嵌入文档、进行语义检索、解析 PDF 文件并提供聊天上下文功能。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F34",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},26623,"运行 `doc q` 时报错 'Could not read directory: .autodoc\\docs\\markdown' 或 'ENOENT: no such file or directory' 是什么原因？","这通常意味着索引目录不存在或未正确生成。请确保在运行查询命令 `doc q` 之前，已经成功执行了 `doc index` 命令完成了索引过程。如果是 .NET 项目或其他非 Node 项目，请确认是否运行了必要的下载脚本（如 `sh download.sh`，如果在 Linux\u002FMac 环境下）或检查路径分隔符问题。","https:\u002F\u002Fgithub.com\u002Fcontext-labs\u002Fautodoc\u002Fissues\u002F39",[]]