[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-explosion--prodigy-recipes":3,"tool-explosion--prodigy-recipes":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":76,"difficulty_score":32,"env_os":104,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":114,"github_topics":116,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":132},5254,"explosion\u002Fprodigy-recipes","prodigy-recipes","🍳 Recipes for the Prodigy, our fully scriptable annotation tool","prodigy-recipes 是专为 Prodigy 标注工具打造的一套开源代码示例库，旨在帮助开发者高效构建自定义的数据标注流程。它提供了一系列针对文本、图像等数据的“食谱”（即脚本模板），覆盖了命名实体识别（NER）等多种常见任务场景。\n\n这套资源主要解决了用户在面对复杂数据时，难以快速搭建灵活、定制化标注界面的痛点。通过提供经过简化和详细注释的代码，它让用户能够轻松理解 Prodigy 的内部运作机制，并在此基础上修改逻辑，例如调整样本排序策略、添加数据过滤规则或集成特定的分词器（如 BERT）。\n\nprodigy-recipes 特别适合拥有 Python 基础的 AI 工程师、数据科学家及研究人员使用。如果你需要为特定领域模型准备高质量训练数据，或者希望深入探索主动学习（Active Learning）在标注中的应用，这将是非常实用的起点。其独特亮点在于不仅提供了开箱即用的脚本，更鼓励用户通过修改生成器函数和回调方法来深度控制标注行为，从而将通用工具转化为契合具体业务需求的专属解决方案。需要注意的是，使用这些脚本前需持有 Prodigy 的合法授权。","\u003Ca href=\"https:\u002F\u002Fexplosion.ai\">\u003Cimg src=\"https:\u002F\u002Fexplosion.ai\u002Fassets\u002Fimg\u002Flogo.svg\" width=\"125\" height=\"125\" align=\"right\" \u002F>\u003C\u002Fa>\n\n# Prodigy Recipes\n\nThis repository contains a collection of recipes for\n[Prodigy](https:\u002F\u002Fprodi.gy), our scriptable annotation tool for text, images and\nother data. In order to use this repo, you'll need a license for Prodigy –\n[see this page](https:\u002F\u002Fprodi.gy\u002Fbuy) for more details. For questions and bug\nreports, please use the [Prodigy Support Forum](https:\u002F\u002Fsupport.prodi.gy). If\nyou've found a mistake or bug, feel free to submit a\n[pull request](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fprodigy-recipes\u002Fpulls).\n\n> ✨ **Important note:** The recipes in this repository aren't 100% identical to\n> the built-in recipes shipped with Prodigy. They've been edited to include\n> comments and more information, and some of them have been simplified to make\n> it easier to follow what's going on, and to use them as the basis for a custom\n> recipe.\n\n## 📋 Usage\n\nOnce Prodigy is installed, you should be able to run the `prodigy` command from\nyour terminal, either directly or via `python -m`:\n\n```bash\npython -m prodigy\n```\n\nThe `prodigy` command lists the built-in recipes. To use a custom recipe script,\nsimply pass the path to the file using the `-F` argument:\n\n```bash\npython -m prodigy ner.teach your_dataset en_core_web_sm .\u002Fdata.jsonl --label PERSON -F prodigy-recipes\u002Fner\u002Fner_teach.py\n```\n\nYou can also use the `--help` flag for an overview of the available arguments of a recipe, e.g. `prodigy ner.teach -F ner_teach_.py --help`.\n\n### Some things to try\n\nYou can edit the code in the recipe script to customize how Prodigy behaves.\n\n- Try replacing `prefer_uncertain()` with `prefer_high_scores()`.\n- Try writing a custom sorting function. It just needs to be a generator that\n  yields a sequence of `example` dicts, given a sequence of `(score, example)`\n  tuples.\n- Try adding a filter that drops some questions from the stream. For instance,\n  try writing a filter that only asks you questions where the entity is two\n  words long.\n- Try customizing the `update()` callback, to include extra logging or extra\n  functionality.\n\n## 🍳 Recipes\n\n### Named Entity Recognition\n\n| Recipe                                               | Description                                                                                                                                                                                                                                               |\n| ---------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`ner.teach`](ner\u002Fner_teach.py)                      | Collect the best possible training data for a named entity recognition model with the model in the loop. Based on your annotations, Prodigy will decide which questions to ask next.                                                                      |\n| [`ner.match`](ner\u002Fner_match.py)                      | Suggest phrases that match a given patterns file, and mark whether they are examples of the entity you're interested in. The patterns file can include exact strings or token patterns for use with spaCy's `Matcher`.                                    |\n| [`ner.manual`](ner\u002Fner_manual.py)                    | Mark spans manually by token. Requires only a tokenizer and no entity recognizer, and doesn't do any active learning. Optionally, pre-highlight spans based on patterns.\n| [`ner.fuzzy_manual`](ner\u002Fner_fuzzy_manual.py)                    | Like `ner.manual` but use `FuzzyMatcher` from [`spaczz`](https:\u002F\u002Fgithub.com\u002Fgandersen101\u002Fspaczz) library to pre-highlight candidates.   |\n| [`ner.manual.bert`](other\u002Ftransformers_tokenizers.py) | Use BERT word piece tokenizer for efficient manual NER annotation for transformer models.                                                                                                                                                                 |\n| [`ner.correct`](ner\u002Fner_correct.py)              | Create gold-standard data by correcting a model's predictions manually. This recipe used to be called [`ner.make_gold`](ner\u002Fner_make_gold.py).                                                                                                                                                                                  |\n| [`ner.silver-to-gold`](ner\u002Fner_silver_to_gold.py)    | Take an existing \"silver\" dataset with binary accept\u002Freject annotations, merge the annotations to find the best possible analysis given the constraints defined in the annotations, and manually edit it to create a perfect and complete \"gold\" dataset. |\n| [`ner.eval_ab`](ner\u002Fner_eval_ab.py)    | Evaluate two NER models by comparing their predictions and building an evaluation set from the stream. |\n| [`ner_fuzzy_manual`](ner\u002Fner_fuzzy_manual.py) | Mark spans manually by token with suggestions from [`spaczz fuzzy`](https:\u002F\u002Fspacy.io\u002Funiverse\u002Fproject\u002Fspaczz) matcher pre-highlighted.\n\n### Text Classification\n\n| Recipe                                                    | Description                                                                                                                                                                                                                                                                                                                         |\n| --------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`textcat.manual`](textcat\u002Ftextcat_manual.py)             | Manually annotate categories that apply to a text. Supports annotation tasks with single and multiple labels. Multiple labels can optionally be flagged as exclusive.|\n| [`textcat.correct`](textcat\u002Ftextcat_correct.py)           | Correct the textcat model's predictions manually. Predictions above the acceptance threshold will be automatically preselected (0.5 by default). Prodigy will infer whether the categories should be mutualy exclusive based on the component configuration. |\n| [`textcat.teach`](textcat\u002Ftextcat_teach.py)               | Collect the best possible training data for a text classification model with the model in the loop. Based on your annotations, Prodigy will decide which questions to ask next.|\n| [`textcat.custom-model`](textcat\u002Ftextcat_custom_model.py) | Use active learning-powered text classification with a custom model. To demonstrate how it works, this demo recipe uses a simple dummy model that \"predicts\" random scores. But you can swap it out for any model of your choice, for example a text classification model implementation using PyTorch, TensorFlow or scikit-learn. |\n\n### Terminology\n\n| Recipe                                | Description                                                                                                                                                             |\n| ------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`terms.teach`](terms\u002Fterms_teach.py) | Bootstrap a terminology list with word vectors and seeds terms. Prodigy will suggest similar terms based on the word vectors, and update the target vector accordingly. |\n\n### Image\n\n| Recipe                                                      | Description                                                                                                                                                                                                                         |\n| ----------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`image.manual`](image\u002Fimage_manual.py)                     | Manually annotate images by drawing rectangular bounding boxes or polygon shapes on the image.                                                                                                                                      |\n| [`image-caption`](image\u002Fimage_caption\u002Fimage_caption.py)     | Annotate images with captions, pre-populate captions with image captioning model implemented in PyTorch and perform error analysis.                                                                                                 |\n| [`image.frozenmodel`](image\u002Ftf_odapi\u002Fimage_frozen_model.py) | Model in loop manual annotation using [Tensorflow's Object Detection API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection).                                                                              |\n| [`image.servingmodel`](image\u002Ftf_odapi\u002Fimage_tf_serving.py)  | Model in loop manual annotation using [Tensorflow's Object Detection API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection). This uses [Tensorflow Serving](https:\u002F\u002Fwww.tensorflow.org\u002Ftfx\u002Fguide\u002Fserving) |\n| [`image.trainmodel`](image\u002Ftf_odapi\u002Fimage_train.py)         | Model in loop manual annotation and training using [Tensorflow's Object Detection API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection).                                                                 |\n\n### Other\n\n| Recipe                                              | Description                                                                                                                                                        |\n| --------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------ |\n| [`mark`](other\u002Fmark.py)                             | Click through pre-prepared examples, with no model in the loop.                                                                                                    |\n| [`choice`](other\u002Fchoice.py)                         | Annotate data with multiple-choice options. The annotated examples will have an additional property `\"accept\": []` mapping to the ID(s) of the selected option(s). |\n| [`question_answering`](other\u002Fquestion_answering.py) | Annotate question\u002Fanswer pairs with a custom HTML interface.                                                                                                       |\n\n### Community recipes\n\n| Recipe                           | Author     | Description                                                                                             |\n| -------------------------------- | ---------- | ------------------------------------------------------------------------------------------------------- |\n| `phrases.teach`                  | @kabirkhan | Now part of [`sense2vec`](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fsense2vec).                                      |\n| `phrases.to-patterns`            | @kabirkhan | Now part of [`sense2vec`](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fsense2vec).                                      |\n| [`records.link`](contrib\u002Fdedupe) | @kabirkhan | Link records across multiple datasets using the [`dedupe`](https:\u002F\u002Fgithub.com\u002Fdedupeio\u002Fdedupe) library. |\n\n### Tutorial recipes\n\nThese recipes have made an appearance in one of our tutorials. \n\n| Recipe                                                      | Description                                                                                   |\n| ----------------------------------------------------------- | --------------------------------------------------------------------------------------------- |\n| [`span-and-textcat`](tutorials\u002Fspan-and-textcat\u002F)           | Do both spancat and textcat annotations at the same time. Great for chatbots!                 |\n| [`terms.from-ner`](tutorials\u002Fterms-from-ner\u002F)               | Generate terms from previous NER annotations.                                                 |\n| [`audio-with-transcript`](tutorials\u002Faudio-with-transcript\u002F) | Handles both manual audio annotation as well as transcription.                                |\n| [`progress`](tutorials\u002Fprogress-update)                     | Demo of an `update`-callback that tracks annotation speed.                                    |\n\n## 📚 Example Datasets and Patterns\n\nTo make it even easier to get started, we've also included a few\n[`example-datasets`](example-datasets), both raw data as well as data containing\nannotations created with Prodigy. For examples of token-based match patterns to\nuse with recipes like `ner.teach` or `ner.match`, see the\n[`example-patterns`](example-patterns) directory.\n","\u003Ca href=\"https:\u002F\u002Fexplosion.ai\">\u003Cimg src=\"https:\u002F\u002Fexplosion.ai\u002Fassets\u002Fimg\u002Flogo.svg\" width=\"125\" height=\"125\" align=\"right\" \u002F>\u003C\u002Fa>\n\n# Prodigy 食谱\n\n本仓库包含一系列用于 [Prodigy](https:\u002F\u002Fprodi.gy) 的食谱，Prodigy 是我们一款可脚本化的文本、图像及其他数据的标注工具。要使用此仓库，您需要拥有 Prodigy 的许可证——更多详情请参阅[此页面](https:\u002F\u002Fprodi.gy\u002Fbuy)。如有任何问题或错误报告，请使用[Prodigy 支持论坛](https:\u002F\u002Fsupport.prodi.gy)。如果您发现了错误或漏洞，欢迎提交一个[pull request](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fprodigy-recipes\u002Fpulls)。\n\n> ✨ **重要提示：** 本仓库中的食谱与 Prodigy 自带的内置食谱并不完全一致。这些食谱经过编辑，加入了注释和更多信息，并且部分食谱也进行了简化，以便于理解其工作原理，同时也可以作为自定义食谱的基础。\n\n## 📋 使用方法\n\n安装好 Prodigy 后，您应该能够在终端中直接运行 `prodigy` 命令，或者通过 `python -m` 来执行：\n\n```bash\npython -m prodigy\n```\n\n`prodigy` 命令会列出所有内置的食谱。若要使用自定义的食谱脚本，只需通过 `-F` 参数指定文件路径即可：\n\n```bash\npython -m prodigy ner.teach your_dataset en_core_web_sm .\u002Fdata.jsonl --label PERSON -F prodigy-recipes\u002Fner\u002Fner_teach.py\n```\n\n您还可以使用 `--help` 标志来查看某个食谱的可用参数概览，例如 `prodigy ner.teach -F ner_teach_.py --help`。\n\n### 一些尝试\n\n您可以编辑食谱脚本中的代码，以自定义 Prodigy 的行为。\n\n- 尝试将 `prefer_uncertain()` 替换为 `prefer_high_scores()`。\n- 尝试编写一个自定义排序函数。该函数只需要是一个生成器，接收 `(score, example)` 元组序列，并产出 `example` 字典序列。\n- 尝试添加一个过滤器，从流中移除某些问题。例如，编写一个只提问实体长度为两个词的问题的过滤器。\n- 尝试自定义 `update()` 回调函数，加入额外的日志记录或其他功能。\n\n## 🍳 食谱\n\n### 命名实体识别\n\n| 食谱                                               | 描述                                                                                                                                                                                                                                               |\n| ---------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`ner.teach`](ner\u002Fner_teach.py)                      | 在模型参与循环的情况下，收集可用于命名实体识别模型的最佳训练数据。根据您的标注，Prodigy 会决定接下来提出哪些问题。                                                                      |\n| [`ner.match`](ner\u002Fner_match.py)                      | 提供与给定模式文件匹配的短语建议，并标记它们是否为您感兴趣的实体示例。模式文件可以包含精确字符串或适用于 spaCy `Matcher` 的标记模式。                                    |\n| [`ner.manual`](ner\u002Fner_manual.py)                    | 手动按标记进行实体标注。仅需分词器，无需实体识别器，也不进行主动学习。可选地，根据模式预先高亮显示实体范围。\n| [`ner.fuzzy_manual`](ner\u002Fner_fuzzy_manual.py)                    | 类似于 `ner.manual`，但使用来自 [`spaczz`](https:\u002F\u002Fgithub.com\u002Fgandersen101\u002Fspaczz) 库的 `FuzzyMatcher` 来预先高亮候选实体。   |\n| [`ner.manual.bert`](other\u002Ftransformers_tokenizers.py) | 使用 BERT 的 WordPiece 分词器，高效地进行面向 Transformer 模型的手动 NER 标注。                                                                                                                                                                 |\n| [`ner.correct`](ner\u002Fner_correct.py)              | 通过手动纠正模型预测来创建黄金标准数据。此食谱以前称为 [`ner.make_gold`](ner\u002Fner_make_gold.py)。                                                                                                                                                                                  |\n| [`ner.silver-to-gold`](ner\u002Fner_silver_to_gold.py)    | 获取一个包含二元接受\u002F拒绝标注的现有“银”数据集，合并这些标注以在标注所定义的约束条件下找到最佳分析结果，并手动编辑以创建一个完美且完整的“黄金”数据集。 |\n| [`ner.eval_ab`](ner\u002Fner_eval_ab.py)    | 通过比较两个 NER 模型的预测结果，并从标注流中构建评估集，从而对这两个模型进行评估。\n| [`ner_fuzzy_manual`](ner\u002Fner_fuzzy_manual.py) | 使用来自 [`spaczz fuzzy`](https:\u002F\u002Fspacy.io\u002Funiverse\u002Fproject\u002Fspaczz) 匹配器的建议预先高亮显示后，手动按标记标注实体。\n\n### 文本分类\n\n| 配方                                                    | 描述                                                                                                                                                                                                                                                                                                                         |\n| --------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`textcat.manual`](textcat\u002Ftextcat_manual.py)             | 手动标注适用于文本的类别。支持单标签和多标签的标注任务。多标签可选择标记为互斥。|\n| [`textcat.correct`](textcat\u002Ftextcat_correct.py)           | 手动校正 textcat 模型的预测结果。高于接受阈值的预测结果将被自动预选（默认为 0.5）。Prodigy 会根据组件配置推断这些类别是否应互斥。|\n| [`textcat.teach`](textcat\u002Ftextcat_teach.py)               | 在模型参与循环的过程中，收集用于文本分类模型的最佳训练数据。Prodigy 将根据您的标注决定接下来提出哪些问题。|\n| [`textcat.custom-model`](textcat\u002Ftextcat_custom_model.py) | 使用主动学习驱动的文本分类，并结合自定义模型。为了演示其工作原理，此示例配方使用了一个简单的虚拟模型，该模型“预测”随机分数。不过，您可以将其替换为您选择的任何模型，例如使用 PyTorch、TensorFlow 或 scikit-learn 实现的文本分类模型。|\n\n### 术语\n\n| 配方                                | 描述                                                                                                                                                             |\n| ------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`terms.teach`](terms\u002Fterms_teach.py) | 利用词向量和种子术语来构建术语表。Prodigy 会基于词向量建议相似术语，并相应地更新目标向量。|\n\n### 图像\n\n| 配方                                                      | 描述                                                                                                                                                                                                                         |\n| ----------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| [`image.manual`](image\u002Fimage_manual.py)                     | 手动标注图像，可在图像上绘制矩形边界框或多边形形状。                                                                                                                                      |\n| [`image-caption`](image\u002Fimage_caption\u002Fimage_caption.py)     | 为图像添加说明文字，预先使用 PyTorch 实现的图像描述模型填充说明，并进行错误分析。                                                                                                 |\n| [`image.frozenmodel`](image\u002Ftf_odapi\u002Fimage_frozen_model.py) | 使用 [TensorFlow 的目标检测 API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection) 进行模型参与循环的手动标注。                                                                              |\n| [`image.servingmodel`](image\u002Ftf_odapi\u002Fimage_tf_serving.py)  | 使用 [TensorFlow 的目标检测 API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection) 进行模型参与循环的手动标注。此处采用 [TensorFlow Serving](https:\u002F\u002Fwww.tensorflow.org\u002Ftfx\u002Fguide\u002Fserving) |\n| [`image.trainmodel`](image\u002Ftf_odapi\u002Fimage_train.py)         | 使用 [TensorFlow 的目标检测 API](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fobject_detection) 进行模型参与循环的手动标注与训练。                                                                 |\n\n### 其他\n\n| 配方                                              | 描述                                                                                                                                                        |\n| --------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------ |\n| [`mark`](other\u002Fmark.py)                             | 点击浏览预先准备好的示例，不涉及模型参与循环。                                                                                                    |\n| [`choice`](other\u002Fchoice.py)                         | 使用多项选择选项标注数据。标注后的示例将包含额外属性 `\"accept\": []`，用于映射所选选项的 ID。 |\n| [`question_answering`](other\u002Fquestion_answering.py) | 使用自定义 HTML 界面标注问答对。                                                                                                       |\n\n### 社区配方\n\n| 配方                           | 作者     | 描述                                                                                             |\n| -------------------------------- | ---------- | ------------------------------------------------------------------------------------------------------- |\n| `phrases.teach`                  | @kabirkhan | 现已成为 [`sense2vec`](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fsense2vec) 的一部分。                                      |\n| `phrases.to-patterns`            | @kabirkhan | 现已成为 [`sense2vec`](https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fsense2vec) 的一部分。                                      |\n| [`records.link`](contrib\u002Fdedupe) | @kabirkhan | 使用 [`dedupe`](https:\u002F\u002Fgithub.com\u002Fdedupeio\u002Fdedupe) 库链接多个数据集中的记录。 |\n\n### 教程配方\n\n这些配方曾在我们的某个教程中出现过。\n\n| 配方                                                      | 描述                                                                                   |\n| ----------------------------------------------------------- | --------------------------------------------------------------------------------------------- |\n| [`span-and-textcat`](tutorials\u002Fspan-and-textcat\u002F)           | 同时进行 spancat 和 textcat 标注。非常适合聊天机器人！                 |\n| [`terms.from-ner`](tutorials\u002Fterms-from-ner\u002F)               | 从之前的 NER 标注中生成术语。                                                 |\n| [`audio-with-transcript`](tutorials\u002Faudio-with-transcript\u002F) | 处理手动音频标注以及转录任务。                                |\n| [`progress`](tutorials\u002Fprogress-update)                     | 展示一个用于跟踪标注速度的 `update` 回调函数。                                    |\n\n## 📚 示例数据集和模式\n\n为了让大家更轻松地入门，我们还提供了一些\n[`example-datasets`](example-datasets)，既有原始数据，也有使用 Prodigy 创建的标注数据。如需查看适用于 `ner.teach` 或 `ner.match` 等配方的基于标记的匹配模式示例，请参阅\n[`example-patterns`](example-patterns) 目录。","# Prodigy Recipes 快速上手指南\n\n`prodigy-recipes` 是 Explosion AI 官方提供的开源仓库，包含了一系列用于 [Prodigy](https:\u002F\u002Fprodi.gy) 标注工具的脚本示例（Recipes）。这些脚本涵盖了命名实体识别（NER）、文本分类、术语提取、图像标注等多种任务，旨在帮助开发者理解 Prodigy 的工作原理并作为自定义标注流程的基础。\n\n> **注意**：使用本仓库中的脚本需要拥有有效的 Prodigy 商业许可证。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL 推荐)。\n*   **Python 版本**：Python 3.6 或更高版本。\n*   **核心依赖**：\n    *   **Prodigy**：已安装并激活许可证。\n    *   **spaCy**：大多数文本类脚本依赖 spaCy 进行分词和模式匹配。\n    *   **其他库**：部分高级脚本（如图像标注或模糊匹配）可能需要 `tensorflow`, `pytorch`, `spaczz` 等库，请根据具体使用的脚本按需安装。\n\n建议先安装基础 NLP 库和中文语言模型（如需处理中文数据）：\n\n```bash\npip install spacy\npython -m spacy download zh_core_web_sm\n```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    将 `prodigy-recipes` 仓库克隆到本地开发环境：\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fexplosion\u002Fprodigy-recipes.git\n    cd prodigy-recipes\n    ```\n\n2.  **验证 Prodigy 安装**\n    确保终端中可以运行 `prodigy` 命令：\n\n    ```bash\n    python -m prodigy --version\n    ```\n\n## 基本使用\n\nProdigy 的核心用法是通过命令行调用具体的 Recipe 脚本。你可以通过 `-F` 参数指定本仓库中脚本的路径来运行自定义流程。\n\n### 通用命令格式\n\n```bash\npython -m prodigy \u003Crecipe_name> \u003Cdataset_name> \u003Csource_data> [arguments] -F \u003Cpath_to_recipe_script>\n```\n\n### 最简单的使用示例：手动命名实体识别 (NER)\n\n假设你有一个名为 `data.jsonl` 的数据文件，想要手动标注其中的人名（PERSON）实体，并将结果保存到 `my_ner_dataset` 数据集中。\n\n你可以使用仓库中简化的 `ner.manual` 脚本：\n\n```bash\npython -m prodigy ner.manual my_ner_dataset zh_core_web_sm .\u002Fdata.jsonl --label PERSON -F prodigy-recipes\u002Fner\u002Fner_manual.py\n```\n\n**命令解析：**\n*   `ner.manual`: 调用的 recipe 名称（在脚本内部定义）。\n*   `my_ner_dataset`: 输出数据集的名称。\n*   `zh_core_web_sm`: 使用的 spaCy 语言模型（替换为 `en_core_web_sm` 可处理英文）。\n*   `.\u002Fdata.jsonl`: 输入数据文件路径。\n*   `--label PERSON`: 指定要标注的实体标签。\n*   `-F prodigy-recipes\u002Fner\u002Fner_manual.py`: 指向本仓库中具体的脚本文件路径。\n\n### 查看帮助信息\n\n对于任何脚本，你都可以添加 `--help`  flag 来查看该特定 Recipe 支持的参数：\n\n```bash\npython -m prodigy ner.manual -F prodigy-recipes\u002Fner\u002Fner_manual.py --help\n```\n\n### 进阶提示\n\n*   **主动学习**：尝试使用 `ner.teach` 或 `textcat.teach` 脚本，它们会将模型纳入循环（model-in-the-loop），根据你的标注动态调整下一个提问样本。\n*   **自定义逻辑**：直接编辑 `.py` 脚本文件，修改 `prefer_uncertain()` 排序策略或添加自定义过滤器，以适应特定的业务需求。","某医疗科技公司的 NLP 团队正急需构建一个能精准识别临床病历中“药物名称”与“副作用”的实体抽取模型，以辅助药物警戒分析。\n\n### 没有 prodigy-recipes 时\n- **标注效率低下**：团队成员只能使用 `ner.manual` 进行全量盲标，面对数万条病历数据，大量时间浪费在确认无实体存在的空白文本上。\n- **冷启动困难**：在项目初期缺乏训练数据时，无法利用模型反馈来智能推荐高价值样本，导致早期标注方向盲目。\n- **领域适配僵化**：面对医学专有名词的复杂变体（如缩写、拼写误差），缺乏基于模糊匹配或自定义规则的预高亮功能，完全依赖人工逐字勾选。\n- **策略调整成本高**：若想尝试“优先标注不确定样本”等主动学习策略，需从零编写复杂的底层逻辑代码，试错周期极长。\n\n### 使用 prodigy-recipes 后\n- **智能聚焦高价值数据**：通过 `ner.teach` 食谱引入“人在回路”机制，系统自动根据现有模型预测结果，优先推送最不确定或最具信息量的样本供标注，效率提升数倍。\n- **灵活定制预标注规则**：利用 `ner.fuzzy_manual` 结合 `spaczz` 库，轻松配置模糊匹配规则，自动高亮形似药物名的候选词，大幅减少人工检索负担。\n- **快速验证标注策略**：直接修改现成的 Python 脚本，将采样策略从 `prefer_uncertain()` 切换为 `prefer_high_scores()`，无需重构即可实时对比不同主动学习方案的效果。\n- **无缝集成高级分词**：针对医学长词特性，直接调用 `ner.manual.bert` 食谱启用 BERT 分词器，确保子词级别的标注粒度准确无误。\n\nprodigy-recipes 通过提供一系列可脚本化、可定制的“烹饪配方”，将原本需要数周开发的定制化标注流程缩短至几小时，让团队能专注于数据质量而非工具开发。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fexplosion_prodigy-recipes_d7eb3709.png","explosion","Explosion","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fexplosion_6bc9ac84.png","Software company specializing in developer tools and tailored solutions for AI and Natural Language Processing",null,"contact@explosion.ai","https:\u002F\u002Fexplosion.ai","https:\u002F\u002Fgithub.com\u002Fexplosion",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",80,{"name":86,"color":87,"percentage":88},"Python","#3572A5",19.1,{"name":90,"color":91,"percentage":92},"HTML","#e34c26",0.7,{"name":94,"color":95,"percentage":96},"Makefile","#427819",0.2,{"name":98,"color":99,"percentage":100},"JavaScript","#f1e05a",0,505,113,"2026-03-28T19:31:42","","未说明",{"notes":107,"python":105,"dependencies":108},"本仓库仅为 Prodigy 的自定义脚本集合（Recipes），并非独立软件。运行前必须已安装拥有有效许可证的 Prodigy 及其核心依赖（如 spaCy）。具体的硬件和系统需求取决于所选用的具体脚本（例如是否使用深度学习模型）以及底层 Prodigy 和 spaCy 的环境要求。部分功能需要额外安装可选库（如 spaczz、PyTorch 或 TensorFlow）。",[109,110,111,112,113],"prodigy","spacy","spaczz (可选，用于模糊匹配)","PyTorch (可选，用于 image-caption 等食谱)","TensorFlow (可选，用于 TF Object Detection API 相关食谱)",[14,35,16,115,15],"其他",[117,118,119,120,121,122,123,124,125,110,126,127,109,128],"artificial-intelligence","machine-learning","data-science","annotation","annotation-tool","data-annotation","machine-teaching","labeling-tool","computer-vision","natural-language-processing","nlp","active-learning","2026-03-27T02:49:30.150509","2026-04-08T05:10:41.949693",[],[]]