[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-microsoft--CameraTraps":3,"tool-microsoft--CameraTraps":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":32,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":149},4836,"microsoft\u002FCameraTraps","CameraTraps","PyTorch Wildlife: a Collaborative Deep Learning Framework for Conservation.","CameraTraps（核心库名为 PyTorch-Wildlife）是一个专为野生动物保护领域打造的协作式深度学习框架。它旨在解决生态研究人员在处理海量红外相机陷阱图像时，面临的人工标注效率低、动物检测与分类难度大等痛点，通过 AI 技术实现自动化分析，大幅释放人力。\n\n该平台非常适合从事生态保护的研究人员、具备编程基础的开发者以及数据科学家使用。用户可以直接调用框架中丰富的“模型动物园”，轻松加载如 MegaDetector、DeepFaune 和 HerdNet 等业界领先的预训练模型，快速开展动物检测与物种分类任务。此外，它还计划支持水下图像分析和生物声学等扩展应用。\n\n在技术亮点方面，CameraTraps 基于 PyTorch 构建，提供了统一且简洁的 API 接口，降低了不同模型间切换与集成的门槛。最新版本更集成了高效的 MIT YOLO 和 Apache RT-DETR 架构，显著提升了推理速度与精度。无论是希望快速验证想法的科研人员，还是致力于开发定制化保护方案的工程师，都能在此找到顺手的工具，共同推动人工智能在自然保护中的落地应用。","![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_b91ad4d39ae0.png)\r\n\r\n\u003Cdiv align=\"center\"> \r\n\u003Cfont size=\"6\"> A Collaborative Deep Learning Framework for Conservation \u003C\u002Ffont>\r\n\u003Cbr>\r\n\u003Chr>\r\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002FPytorchWildlife?color=limegreen\" \u002F>\u003C\u002Fa> \r\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_c372b6a532a4.png\" \u002F>\u003C\u002Fa> \r\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002FPytorchWildlife\" \u002F>\u003C\u002Fa> \r\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fai-for-good-lab\u002Fpytorch-wildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue\" \u002F>\u003C\u002Fa>\r\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1rjqHrTMzEHkMualr4vB55dQWCsCKMNXi?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-blue?logo=GoogleColab\" \u002F>\u003C\u002Fa>\r\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F16-OjFVQ6nopuP-gfqofYBBY00oIgbcr1?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Video detection-blue?logo=GoogleColab\" \u002F>\u003C\u002Fa> -->\r\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002FPytorchWildlife\" \u002F>\u003C\u002Fa>\r\n\u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FTeEVxzaYtm\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fany_text-Join_us!-blue?logo=discord&label=Discord\" \u002F>\u003C\u002Fa>\r\n\u003Ca href=\"https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-526CFE?logo=MaterialForMkDocs&logoColor=white\" \u002F>\u003C\u002Fa>\r\n\u003Cbr>\u003Cbr>\r\n\u003C\u002Fdiv>\r\n\r\n\r\n\r\n## 📣 Announcements\r\n\r\n### 🚀 We’re Open for Contributions!\r\n\r\nWe’re excited to announce that **Pytorch-Wildlife** is now open to community contributions!  \r\nIf you’d like to get involved and help improve the project, we’d love to have you on board.\r\n\r\n👉 **Check out our Contribution Guidelines:**  \r\n\r\n[📚 How to Participate](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fcontribute\u002F#how-to-participate)\r\n\r\nYou’ll find everything you need there — from how to pick an issue, to submitting your first pull request.  \r\nLet’s build this together! 🐾🌱\r\n\r\n### V 1.2.4\r\n\r\nThe inference code for the MIT YOLO and Apache RT‑DETR models is now available! To use either one, just load it like any other PyTorch‑Wildlife model:\r\n\r\n```python\r\nfrom pw_detection import MegaDetectorV6MIT, MegaDetectorV6Apache\r\n\r\n# MIT YOLO\r\ndetector = MegaDetectorV6MIT(\r\n    device=DEVICE,\r\n    pretrained=True,\r\n    version=\"MDV6-mit-yolov9-e\"\r\n)\r\n\r\n# Apache RT‑DETR\r\ndetector = MegaDetectorV6Apache(\r\n    device=DEVICE,\r\n    pretrained=True,\r\n    version=\"MDV6-apa-rtdetr-e\"\r\n)\r\n```\r\nValid versions:\r\n- MDV6-mit-yolov9-c\r\n- MDV6-mit-yolov9-e\r\n- MDV6-apa-rtdetr-c\r\n- MDV6-apa-rtdetr-e\r\n\r\nYou can also try out the full pipeline using the `detection_classification_pipeline_demo.py` script in the demo folder.\r\n\r\n#### Previous versions:\r\n- [What's New](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Freleases\u002Frelease_notes\u002F)\r\n\r\n\r\n## 👋 Welcome to Pytorch-Wildlife\r\n\r\n**PyTorch-Wildlife** is an AI platform designed for the AI for Conservation community to create, modify, and share powerful AI conservation models. It allows users to directly load a variety of models including [MegaDetector](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmegadetector\u002F), [DeepFaune](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmegadetector\u002F), and [HerdNet](https:\u002F\u002Fgithub.com\u002FAlexandre-Delplanque\u002FHerdNet) from our ever expanding [model zoo](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmodel_zoo\u002Fmegadetector\u002F) for both animal detection and classification. In the future, we will also include models that can be used for applications, including underwater images and bioacoustics. We want to provide a unified and straightforward experience for both practicioners and developers in the AI for conservation field. Your engagement with our work is greatly appreciated, and we eagerly await any feedback you may have.\r\n\r\nExplore the codebase, functionalities and user interfaces of **Pytorch-Wildlife** through our [documentation](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F), interactive [HuggingFace web app](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAndresHdzC\u002Fpytorch-wildlife) or local [demos and notebooks](.\u002Fdemo). \r\n\r\n## 🚀 Quick Start\r\n\r\n👇 Here is a quick example on how to perform detection and classification on a single image using `PyTorch-wildlife`\r\n```python\r\nimport numpy as np\r\nfrom PytorchWildlife.models import detection as pw_detection\r\nfrom PytorchWildlife.models import classification as pw_classification\r\n\r\nimg = np.random.randn(3, 1280, 1280)\r\n\r\n# Detection\r\ndetection_model = pw_detection.MegaDetectorV6() # Model weights are automatically downloaded.\r\ndetection_result = detection_model.single_image_detection(img)\r\n\r\n#Classification\r\nclassification_model = pw_classification.AI4GAmazonRainforest() # Model weights are automatically downloaded.\r\nclassification_results = classification_model.single_image_classification(img)\r\n```\r\nMore models can be found in our [model zoo](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmodel_zoo\u002Fmegadetector\u002F)\r\n\r\n## ⚙️ Install Pytorch-Wildlife\r\n```\r\npip install PytorchWildlife\r\n```\r\nPlease refer to our [installation guide](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Finstallation\u002F) for more installation information.\r\n\r\n## 📃 Documentation\r\nPlease also go to our newly made dofumentation page for more information: [![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-526CFE?logo=MaterialForMkDocs&logoColor=white)](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F)\r\n\r\n## 🖼️ Examples\r\n\r\n### Image detection using `MegaDetector`\r\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_3695f2c58085.jpg\" alt=\"animal_det_1\" width=\"300\"\u002F>\u003Cbr>\r\n*Credits to Universidad de los Andes, Colombia.*\r\n\r\n### Image classification with `MegaDetector` and `AI4GAmazonRainforest`\r\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_e4a851a96354.png\" alt=\"animal_clas_1\" width=\"300\"\u002F>\u003Cbr>\r\n*Credits to Universidad de los Andes, Colombia.*\r\n\r\n### Opossum ID with `MegaDetector` and `AI4GOpossum`\r\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_88dc27516044.png\" alt=\"opossum_det\" width=\"300\"\u002F>\u003Cbr>\r\n*Credits to the Agency for Regulation and Control of Biosecurity and Quarantine for Galápagos (ABG), Ecuador.*\r\n\r\n\r\n## :fountain_pen: Cite us!\r\nWe have recently published a [summary paper on Pytorch-Wildlife](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.12930). The paper has been accepted as an oral presentation at the [CV4Animals workshop](https:\u002F\u002Fwww.cv4animals.com\u002F) at this CVPR 2024. Please feel free to cite us!\r\n\r\n```\r\n@misc{hernandez2024pytorchwildlife,\r\n      title={Pytorch-Wildlife: A Collaborative Deep Learning Framework for Conservation}, \r\n      author={Andres Hernandez and Zhongqi Miao and Luisa Vargas and Sara Beery and Rahul Dodhia and Juan Lavista},\r\n      year={2024},\r\n      eprint={2405.12930},\r\n      archivePrefix={arXiv},\r\n}\r\n```\r\n\r\nAlso, don't forget to cite our original paper for MegaDetector: \r\n\r\n```\r\n@misc{beery2019efficient,\r\n      title={Efficient Pipeline for Camera Trap Image Review},\r\n      author={Sara Beery and Dan Morris and Siyu Yang},\r\n      year={2019}\r\n      eprint={1907.06772},\r\n      archivePrefix={arXiv},\r\n}\r\n```\r\n\r\n## 🤝 Existing Collaborators and Contributors\r\n\r\nThe extensive collaborative efforts of Megadetector have genuinely inspired us, and we deeply value its significant contributions to the community. As we continue to advance with Pytorch-Wildlife, our commitment to delivering technical support to our existing partners on MegaDetector remains the same.\r\n\r\nHere we list a few of the organizations that have used MegaDetector. We're only listing organizations who have given us permission to refer to them here or have posted publicly about their use of MegaDetector.\r\n\r\nWe are also building a list of contributors and will release in future updates! Thank you for your efforts!\r\n\r\n\u003Cdetails>\r\n\u003Csummary>\u003Cfont size=\"3\">👉 Full list of organizations\u003C\u002Ffont>\u003C\u002Fsummary>\r\n\r\n\u003Cul>\r\n  \u003Cli>(Newly Added) \u003Ca href=\"https:\u002F\u002Fwww.terroiko.fr\u002F\">TerrOïko\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.terroiko.fr\u002Focapi\">OCAPI platform\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fazdeq.gov\u002F\">Arizona Department of Environmental Quality\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fblackbirdenv.com\u002F\">Blackbird Environmental\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcamelotproject.org\u002F\">Camelot\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcpawsnab.org\u002F\">Canadian Parks and Wilderness Society (CPAWS) Northern Alberta Chapter\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fconservationxlabs.com\u002F\">Conservation X Labs\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.czu.cz\u002Fen\">Czech University of Life Sciences Prague\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.consult-ecologic.com\u002F\">EcoLogic Consultants Ltd.\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.ebd.csic.es\u002Finicio\">Estación Biológica de Doñana\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fidfg.idaho.gov\u002F\">Idaho Department of Fish and Game\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.islandconservation.org\u002F\">Island Conservation\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcarnivorecoexistence.info\u002Fmyall-lakes-dingo-project\u002F\">Myall Lakes Dingo Project\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fpnptc.org\u002F\">Point No Point Treaty Council\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.ramat-hanadiv.org.il\u002Fen\u002F\">Ramat Hanadiv Nature Park\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fspea.pt\u002Fen\u002F\">SPEA (Portuguese Society for the Study of Birds)\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.synthetaic.com\u002F\">Synthetaic\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Ftaronga.org.au\u002F\">Taronga Conservation Society\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nature.org\u002Fen-us\u002Fabout-us\u002Fwhere-we-work\u002Funited-states\u002Fwyoming\u002F\">The Nature Conservancy in Wyoming\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildeyeconservation.org\u002Ftrap-tagger-about\u002F\">TrapTagger\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.upperyellowstone.org\u002F\">Upper Yellowstone Watershed Group\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.acmelab.ca\u002F\">Applied Conservation Macro Ecology Lab\u003C\u002Fa>, University of Victoria\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.pc.gc.ca\u002Fen\u002Fpn-np\u002Fab\u002Fbanff\u002Fnature\u002Fconservation\">Banff National Park Resource Conservation\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.pc.gc.ca\u002Fen\u002Fpn-np\u002Fab\u002Fbanff\u002Fnature\u002Fconservation\">Parks Canada\u003C\u002Fa>\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fblumsteinlab.eeb.ucla.edu\u002F\">Blumstein Lab\u003C\u002Fa>, UCLA\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fbri.sulross.edu\u002F\">Borderlands Research Institute\u003C\u002Fa>, Sul Ross State University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nps.gov\u002Fcare\u002Findex.htm\">Capitol Reef National Park\u003C\u002Fa> \u002F Utah Valley University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.amnh.org\u002Fresearch\u002Fcenter-for-biodiversity-conservation\">Center for Biodiversity and Conservation\u003C\u002Fa>, American Museum of Natural History\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.unsw.edu.au\u002Fresearch\u002F\">Centre for Ecosystem Science\u003C\u002Fa>, UNSW Sydney\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcrossculturalecology.net\u002F\">Cross-Cultural Ecology Lab\u003C\u002Fa>, Macquarie University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fhub.dccatcount.org\u002F\">DC Cat Count\u003C\u002Fa>, led by the Humane Rescue Alliance\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.uidaho.edu\u002Fcnr\u002Fdepartments\u002Ffish-and-wildlife-sciences\">Department of Fish and Wildlife Sciences\u003C\u002Fa>, University of Idaho\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwec.ifas.ufl.edu\u002F\">Department of Wildlife Ecology and Conservation\u003C\u002Fa>, University of Florida\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.researchgate.net\u002Flab\u002FFernanda-Michalski-Lab-4\">Ecology and Conservation of Amazonian Vertebrates Research Group\u003C\u002Fa>, Federal University of Amapá\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.rspb.org.uk\u002Four-work\u002Fconservation\u002Fprojects\u002Fscientific-support-for-the-gola-forest-programme\u002F\">Gola Forest Programme\u003C\u002Fa>, Royal Society for the Protection of Birds (RSPB)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildliferesearch.co.uk\u002Fgroup-1\">Graeme Shannon's Research Group\u003C\u002Fa>, Bangor University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fhamaarag.org.il\u002F\">Hamaarag\u003C\u002Fa>, The Steinhardt Museum of Natural History, Tel Aviv University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fisfort.uqo.ca\u002F\">Institut des Science de la Forêt Tempérée (ISFORT)\u003C\u002Fa>, Université du Québec en Outaouais\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fbhlab.in\u002Fabout\">Lab of Dr. Bilal Habib\u003C\u002Fa>, the Wildlife Institute of India\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Flabs.wsu.edu\u002Fdthornton\u002F\">Mammal Spatial Ecology and Conservation Lab\u003C\u002Fa>, Washington State University\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fmcloughlinlab.ca\u002Flab\u002F\">McLoughlin Lab in Population Ecology\u003C\u002Fa>, University of Saskatchewan\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.fws.gov\u002Fabout\u002Fregion\u002Fsouthwest\">National Wildlife Refuge System, Southwest Region\u003C\u002Fa>, U.S. Fish & Wildlife Service\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fnationalzoo.si.edu\u002Fnews\u002Frestoring-americas-prairie\">Northern Great Plains Program\u003C\u002Fa>, Smithsonian\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fdepts.washington.edu\u002Fsefsqel\u002F\">Quantitative Ecology Lab\u003C\u002Fa>, University of Washington\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nps.gov\u002Fsamo\u002Findex.htm\">Santa Monica Mountains Recreation Area\u003C\u002Fa>, National Park Service\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.zoo.org\u002Fseattlecarnivores\">Seattle Urban Carnivore Project\u003C\u002Fa>, Woodland Park Zoo\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.icmbio.gov.br\u002Fparnaserradosorgaos\u002F\">Serra dos Órgãos National Park\u003C\u002Fa>, ICMBio\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Femammal.si.edu\u002Fsnapshot-usa\">Snapshot USA\u003C\u002Fa>, Smithsonian\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildlife.forestry.ubc.ca\u002F\">Wildlife Coexistence Lab\u003C\u002Fa>, University of British Columbia\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.dfw.state.or.us\u002Fwildlife\u002Fresearch\u002Findex.asp\">Wildlife Research\u003C\u002Fa>, Oregon Department of Fish and Wildlife\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.michigan.gov\u002Fdnr\u002Fabout\u002Fcontact\u002Fwildlife\">Wildlife Division\u003C\u002Fa>, Michigan Department of Natural Resources\u003C\u002Fli>\r\n  \u003Cli>Department of Ecology, TU Berlin\u003C\u002Fli>\r\n  \u003Cli>Ghost Cat Analytics\u003C\u002Fli>\r\n  \u003Cli>Protected Areas Unit, Canadian Wildlife Service\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.utas.edu.au\u002Fnatural-sciences\">School of Natural Sciences\u003C\u002Fa>, University of Tasmania (\u003Ca href=\"https:\u002F\u002Fwww.utas.edu.au\u002Fabout\u002Fnews-and-stories\u002Farticles\u002F2022\u002F1204-innovative-camera-network-keeps-close-eye-on-tassie-wildlife\">story\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.fws.gov\u002Frefuge\u002Fkenai\">Kenai National Wildlife Refuge\u003C\u002Fa>, U.S. Fish & Wildlife Service (\u003Ca href=\"https:\u002F\u002Fwww.peninsulaclarion.com\u002Fsports\u002Frefuge-notebook-new-technology-increases-efficiency-of-refuge-cameras\u002F\">story\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002F\">Australian Wildlife Conservancy\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002Fcutting-edge-technology-delivering-efficiency-gains-in-conservation\u002F\">blog\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002Fefficiency-gains-at-the-cutting-edge-of-technology\u002F\">blog\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Ffelidaefund.org\u002F\">Felidae Conservation Fund\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwildepod.org\u002F\">WildePod platform\u003C\u002Fa>) (\u003Ca href=\"https:\u002F\u002Fabhaykashyap.com\u002Fblog\u002Fai-powered-camera-trap-image-annotation-system\u002F\">blog post\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.abmi.ca\u002Fhome.html\">Alberta Biodiversity Monitoring Institute (ABMI)\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.wildtrax.ca\u002F\">WildTrax platform\u003C\u002Fa>) (\u003Ca href=\"https:\u002F\u002Fwildcams.ca\u002Fblog\u002Fthe-abmi-visits-the-zoo\u002F\">blog post\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fen.shanshui.org\u002F\">Shan Shui Conservation Center\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FiOIQF3ckj0-rEG4yJgerYw?fbclid=IwAR0alwiWbe3udIcFvqqwm7y5qgr9hZpjr871FZIa-ErGUukZ7yJ3ZhgCevs\">blog post\u003C\u002Fa>) (\u003Ca href=\"https:\u002F\u002Fmp-weixin-qq-com.translate.goog\u002Fs\u002FiOIQF3ckj0-rEG4yJgerYw?fbclid=IwAR0alwiWbe3udIcFvqqwm7y5qgr9hZpjr871FZIa-ErGUukZ7yJ3ZhgCevs&_x_tr_sl=auto&_x_tr_tl=en&_x_tr_hl=en&_x_tr_pto=wapp\">translated blog post\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.irconservancy.org\u002F\">Irvine Ranch Conservancy\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.ocregister.com\u002F2022\u002F03\u002F30\u002Fai-software-is-helping-researchers-focus-on-learning-about-ocs-wild-animals\u002F\">story\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildlifeprotectionsolutions.org\u002F\">Wildlife Protection Solutions\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fcustomers.microsoft.com\u002Fen-us\u002Fstory\u002F1384184517929343083-wildlife-protection-solutions-nonprofit-ai-for-earth\">story\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.enterpriseai.news\u002F2023\u002F02\u002F20\u002Fai-helps-wildlife-protection-solutions-safeguard-endangered-species\u002F\">story\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Froadecology.ucdavis.edu\u002F\">Road Ecology Center\u003C\u002Fa>, University of California, Davis (\u003Ca href=\"https:\u002F\u002Fwildlifeobserver.net\u002F\">Wildlife Observer Network platform\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nature.org\u002Fen-us\u002Fabout-us\u002Fwhere-we-work\u002Funited-states\u002Fcalifornia\u002F\">The Nature Conservancy in California\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftnc-ca-geo\u002Faniml-frontend\">Animl platform\u003C\u002Fa>)\u003C\u002Fli>\r\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fscience.sandiegozoo.org\u002F\">San Diego Zoo Wildlife Alliance\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fconservationtechlab\u002Faniml\">Animl R package\u003C\u002Fa>)\u003C\u002Fli>\r\n\u003C\u002Ful>\r\n\r\n\u003C\u002Fdetails>\u003Cbr>\r\n\r\n\r\n>[!IMPORTANT]\r\n>If you would like to be added to this list or have any questions regarding MegaDetector and Pytorch-Wildlife, please [email us](zhongqimiao@microsoft.com) or join us in our Discord channel: [![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fany_text-Join_us!-blue?logo=discord&label=PytorchWildife)](https:\u002F\u002Fdiscord.gg\u002FTeEVxzaYtm)\r\n\r\n","![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_b91ad4d39ae0.png)\n\n\u003Cdiv align=\"center\"> \n\u003Cfont size=\"6\"> 用于保护生物多样性的协作式深度学习框架 \u003C\u002Ffont>\n\u003Cbr>\n\u003Chr>\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002FPytorchWildlife?color=limegreen\" \u002F>\u003C\u002Fa> \n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_c372b6a532a4.png\" \u002F>\u003C\u002Fa> \n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FPytorchWildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002FPytorchWildlife\" \u002F>\u003C\u002Fa> \n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fai-for-good-lab\u002Fpytorch-wildlife\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue\" \u002F>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1rjqHrTMzEHkMualr4vB55dQWCsCKMNXi?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-blue?logo=GoogleColab\" \u002F>\u003C\u002Fa>\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F16-OjFVQ6nopuP-gfqofYBBY00oIgbcr1?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Video detection-blue?logo=GoogleColab\" \u002F>\u003C\u002Fa> -->\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fl\u002FPytorchWildlife\" \u002F>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FTeEVxzaYtm\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fany_text-Join_us!-blue?logo=discord&label=Discord\" \u002F>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-526CFE?logo=MaterialForMkDocs&logoColor=white\" \u002F>\u003C\u002Fa>\n\u003Cbr>\u003Cbr>\n\u003C\u002Fdiv>\n\n\n\n## 📣 公告\n\n### 🚀 我们欢迎贡献！\n\n我们很高兴地宣布，**Pytorch-Wildlife** 现在向社区开放贡献！  \n如果您想参与并帮助改进这个项目，我们非常欢迎您加入。\n\n👉 **请查看我们的贡献指南：**\n\n[📚 如何参与](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fcontribute\u002F#how-to-participate)\n\n您可以在那里找到所需的一切——从如何选择一个议题，到提交您的第一个拉取请求。让我们一起建设它吧！🐾🌱\n\n### V 1.2.4\n\n现在提供了 MIT YOLO 和 Apache RT‑DETR 模型的推理代码！要使用其中任何一个，只需像加载其他 PyTorch‑Wildlife 模型一样加载即可：\n\n```python\nfrom pw_detection import MegaDetectorV6MIT, MegaDetectorV6Apache\n\n# MIT YOLO\ndetector = MegaDetectorV6MIT(\n    device=DEVICE,\n    pretrained=True,\n    version=\"MDV6-mit-yolov9-e\"\n)\n\n# Apache RT‑DETR\ndetector = MegaDetectorV6Apache(\n    device=DEVICE,\n    pretrained=True,\n    version=\"MDV6-apa-rtdetr-e\"\n)\n```\n有效版本：\n- MDV6-mit-yolov9-c\n- MDV6-mit-yolov9-e\n- MDV6-apa-rtdetr-c\n- MDV6-apa-rtdetr-e\n\n您还可以使用演示文件夹中的 `detection_classification_pipeline_demo.py` 脚本尝试完整的流水线。\n\n#### 之前的版本：\n- [新功能](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Freleases\u002Frelease_notes\u002F)\n\n\n## 👋 欢迎来到 Pytorch-Wildlife\n\n**PyTorch-Wildlife** 是一个专为“AI 用于保护”社区设计的 AI 平台，旨在创建、修改和共享强大的 AI 保护模型。它允许用户直接加载各种模型，包括 [MegaDetector](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmegadetector\u002F)、[DeepFaune](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmegadetector\u002F) 和 [HerdNet](https:\u002F\u002Fgithub.com\u002FAlexandre-Delplanque\u002FHerdNet)，这些模型均来自我们不断扩展的 [模型库](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmodel_zoo\u002Fmegadetector\u002F)，可用于动物检测和分类。未来，我们还将纳入可用于水下图像和生物声学等应用的模型。我们希望为 AI 保护领域的从业者和开发者提供统一而简便的体验。我们非常感谢您对我们工作的支持，并热切期待您的反馈。\n\n通过我们的 [文档](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F)、交互式 [HuggingFace Web 应用](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAndresHdzC\u002Fpytorch-wildlife) 或本地 [演示和笔记本](.\u002Fdemo)，探索 **Pytorch-Wildlife** 的代码库、功能和用户界面。\n\n## 🚀 快速入门\n\n👇 下面是一个使用 `PyTorch‑Wildlife` 对单张图片进行检测和分类的快速示例：\n```python\nimport numpy as np\nfrom PytorchWildlife.models import detection as pw_detection\nfrom PytorchWildlife.models import classification as pw_classification\n\nimg = np.random.randn(3, 1280, 1280)\n\n# 检测\ndetection_model = pw_detection.MegaDetectorV6() # 模型权重会自动下载。\ndetection_result = detection_model.single_image_detection(img)\n\n# 分类\nclassification_model = pw_classification.AI4GAmazonRainforest() # 模型权重会自动下载。\nclassification_results = classification_model.single_image_classification(img)\n```\n更多模型可在我们的 [模型库](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmodel_zoo\u002Fmegadetector\u002F) 中找到。\n\n## ⚙️ 安装 Pytorch-Wildlife\n```bash\npip install PytorchWildlife\n```\n有关更多安装信息，请参阅我们的 [安装指南](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Finstallation\u002F)。\n\n## 📃 文档\n请访问我们新推出的文档页面以获取更多信息：[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-526CFE?logo=MaterialForMkDocs&logoColor=white)](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002F)\n\n## 🖼️ 示例\n\n### 使用 `MegaDetector` 进行图像检测\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_3695f2c58085.jpg\" alt=\"animal_det_1\" width=\"300\"\u002F>\u003Cbr>\n*鸣谢：哥伦比亚安第斯大学。*\n\n### 使用 `MegaDetector` 和 `AI4GAmazonRainforest` 进行图像分类\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_e4a851a96354.png\" alt=\"animal_clas_1\" width=\"300\"\u002F>\u003Cbr>\n*鸣谢：哥伦比亚安第斯大学。*\n\n### 使用 `MegaDetector` 和 `AI4GOpossum` 进行负鼠识别\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_readme_88dc27516044.png\" alt=\"opossum_det\" width=\"300\"\u002F>\u003Cbr>\n*鸣谢：厄瓜多尔加拉帕戈斯群岛生物安全与检疫监管局（ABG）。*\n\n## :fountain_pen: 请引用我们！\r\n我们最近发表了一篇关于 Pytorch-Wildlife 的综述论文（[arXiv:2405.12930](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.12930)）。该论文已被今年的 CVPR 2024 会议上的 [CV4Animals 研讨会](https:\u002F\u002Fwww.cv4animals.com\u002F) 接受为口头报告。欢迎您引用我们的工作！\n\n```bibtex\n@misc{hernandez2024pytorchwildlife,\n      title={Pytorch-Wildlife：用于保护工作的协作式深度学习框架},\n      author={Andres Hernandez、Zhongqi Miao、Luisa Vargas、Sara Beery、Rahul Dodhia、Juan Lavista},\n      year={2024},\n      eprint={2405.12930},\n      archivePrefix={arXiv},\n}\n```\n\n此外，请别忘了引用我们关于 MegaDetector 的原始论文：\n\n```bibtex\n@misc{beery2019efficient,\n      title={相机陷阱图像审查的高效流水线},\n      author={Sara Beery、Dan Morris、Siyu Yang},\n      year={2019},\n      eprint={1907.06772},\n      archivePrefix={arXiv},\n}\n```\n\n## 🤝 现有合作伙伴与贡献者\n\nMegadetector 的广泛协作努力真正激励了我们，我们非常珍视它对社区作出的重大贡献。在我们继续推进 Pytorch-Wildlife 的同时，我们对现有 MegaDetector 合作伙伴提供技术支持的承诺始终不变。\n\n在此，我们列出了一些使用 MegaDetector 的组织。我们仅列出那些已授权我们在此提及，或公开分享过其使用 MegaDetector 经验的组织。\n\n我们也在整理贡献者名单，并将在未来的更新中公布！感谢大家的付出！\n\n\u003Cdetails>\n\u003Csummary>\u003Cfont size=\"3\">👉 组织完整列表\u003C\u002Ffont>\u003C\u002Fsummary>\n\n\u003Cul>\n  \u003Cli>(新增) \u003Ca href=\"https:\u002F\u002Fwww.terroiko.fr\u002F\">TerrOïko\u003C\u002Fa> (\u003Ca href=\"https:\u002F\u002Fwww.terroiko.fr\u002Focapi\">OCAPI 平台\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fazdeq.gov\u002F\">亚利桑那州环境质量部\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fblackbirdenv.com\u002F\">Blackbird Environmental\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcamelotproject.org\u002F\">Camelot\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcpawsnab.org\u002F\">加拿大公园与荒野协会（CPAWS）北阿尔伯塔分会\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fconservationxlabs.com\u002F\">Conservation X Labs\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.czu.cz\u002Fen\">捷克生命科学大学布拉格校区\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.consult-ecologic.com\u002F\">EcoLogic Consultants Ltd.\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.ebd.csic.es\u002Finicio\">多尼亚纳生物站\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fidfg.idaho.gov\u002F\">爱达荷州鱼类与野生动物局\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.islandconservation.org\u002F\">岛屿保护组织\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcarnivorecoexistence.info\u002Fmyall-lakes-dingo-project\u002F\">迈尔湖丁戈项目\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fpnptc.org\u002F\">Point No Point 条约委员会\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.ramat-hanadiv.org.il\u002Fen\u002F\">拉马特哈纳迪夫自然公园\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fspea.pt\u002Fen\u002F\">SPEA（葡萄牙鸟类研究学会）\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.synthetaic.com\u002F\">Synthetaic\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Ftaronga.org.au\u002F\">塔龙加保护协会\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nature.org\u002Fen-us\u002Fabout-us\u002Fwhere-we-work\u002Funited-states\u002Fwyoming\u002F\">自然保护协会怀俄明州分会\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildeyeconservation.org\u002Ftrap-tagger-about\u002F\">TrapTagger\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.upperyellowstone.org\u002F\">上黄石流域小组\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.acmelab.ca\u002F\">维多利亚大学应用保护宏观生态学实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.pc.gc.ca\u002Fen\u002Fpn-np\u002Fab\u002Fbanff\u002Fnature\u002Fconservation\">班夫国家公园资源保护部门\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.pc.gc.ca\u002Fen\u002Fpn-np\u002Fab\u002Fbanff\u002Fnature\u002Fconservation\">加拿大公园管理局\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fblumsteinlab.eeb.ucla.edu\u002F\">加州大学洛杉矶分校布卢姆斯坦实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fbri.sulross.edu\u002F\">苏罗斯州立大学边境地区研究所\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nps.gov\u002Fcare\u002Findex.htm\">国会礁国家公园\u003C\u002Fa>\u002F犹他谷大学\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.amnh.org\u002Fresearch\u002Fcenter-for-biodiversity-conservation\">美国自然历史博物馆生物多样性与保护中心\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.unsw.edu.au\u002Fresearch\u002F\">新南威尔士大学生态系统科学中心\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fcrossculturalecology.net\u002F\">麦考瑞大学跨文化生态学实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fhub.dccatcount.org\u002F\">DC猫计数项目\u003C\u002Fa>, 由人道救援联盟牵头\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.uidaho.edu\u002Fcnr\u002Fdepartments\u002Ffish-and-wildlife-sciences\">爱达荷大学鱼类与野生动物科学系\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwec.ifas.ufl.edu\u002F\">佛罗里达大学野生动物生态与保护系\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.researchgate.net\u002Flab\u002FFernanda-Michalski-Lab-4\">亚马孙脊椎动物生态与保护研究组\u003C\u002Fa>, 阿帕州联邦大学\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.rspb.org.uk\u002Four-work\u002Fconservation\u002Fprojects\u002Fscientific-support-for-the-gola-forest-programme\u002F\">戈拉森林计划\u003C\u002Fa>, 英国皇家鸟类保护协会（RSPB）\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildliferesearch.co.uk\u002Fgroup-1\">格雷厄姆·香农研究小组\u003C\u002Fa>, 班戈大学\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fhamaarag.org.il\u002F\">Hamaarag\u003C\u002Fa>, 特拉维夫大学施泰因哈特自然历史博物馆\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fisfort.uqo.ca\u002F\">温带森林科学研究所（ISFORT）\u003C\u002Fa>, 魁北克大学乌塔韦分校\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fbhlab.in\u002Fabout\">印度野生动物研究所比拉尔·哈比卜博士实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Flabs.wsu.edu\u002Fdthornton\u002F\">华盛顿州立大学哺乳动物空间生态与保护实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fmcloughlinlab.ca\u002Flab\u002F\">萨斯喀彻温大学麦克劳克林种群生态学实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fnationalzoo.si.edu\u002Fnews\u002Frestoring-americas-prairie\">史密森尼学会北部大平原项目\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fdepts.washington.edu\u002Fsefsqel\u002F\">华盛顿大学定量生态学实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nps.gov\u002Fsamo\u002Findex.htm\">圣莫尼卡山脉休闲区\u003C\u002Fa>, 美国国家公园管理局\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.zoo.org\u002Fseattlecarnivores\">西雅图城市食肉动物项目\u003C\u002Fa>, 伍德兰公园动物园\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.icmbio.gov.br\u002Fparnaserradosorgaos\u002F\">塞拉多斯奥甘斯国家公园\u003C\u002Fa>, ICMBio\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Femammal.si.edu\u002Fsnapshot-usa\">史密森尼学会“Snapshot USA”项目\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildlife.forestry.ubc.ca\u002F\">不列颠哥伦比亚大学野生动物共存实验室\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.dfw.state.or.us\u002Fwildlife\u002Fresearch\u002Findex.asp\">俄勒冈州鱼类与野生动物局野生动物研究部门\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.michigan.gov\u002Fdnr\u002Fabout\u002Fcontact\u002Fwildlife\">密歇根州自然资源部野生动物司\u003C\u002Fa>\u003C\u002Fli>\n  \u003Cli>柏林工业大学生态学系\u003C\u002Fli>\n  \u003Cli>Ghost Cat Analytics\u003C\u002Fli>\n  \u003Cli>加拿大野生动物服务局保护区部门\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.utas.edu.au\u002Fnatural-sciences\">塔斯马尼亚大学自然科学学院\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwww.utas.edu.au\u002Fabout\u002Fnews-and-stories\u002Farticles\u002F2022\u002F1204-innovative-camera-network-keeps-close-eye-on-tassie-wildlife\">相关报道\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.fws.gov\u002Frefuge\u002Fkenai\">肯纳伊国家野生动物保护区\u003C\u002Fa>, 美国鱼类与野生动物管理局（\u003Ca href=\"https:\u002F\u002Fwww.peninsulaclarion.com\u002Fsports\u002Frefuge-notebook-new-technology-increases-efficiency-of-refuge-cameras\u002F\">相关报道\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002F\">澳大利亚野生动物保护协会\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002Fcutting-edge-technology-delivering-efficiency-gains-in-conservation\u002F\">博客文章\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.australianwildlife.org\u002Fefficiency-gains-at-the-cutting-edge-of-technology\u002F\">博客文章\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Ffelidaefund.org\u002F\">猫科动物保护基金\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwildepod.org\u002F\">WildePod 平台\u003C\u002Fa>)（\u003Ca href=\"https:\u002F\u002Fabhaykashyap.com\u002Fblog\u002Fai-powered-camera-trap-image-annotation-system\u002F\">博客文章\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.abmi.ca\u002Fhome.html\">阿尔伯塔生物多样性监测研究所（ABMI）\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwww.wildtrax.ca\u002F\">WildTrax 平台\u003C\u002Fa>)（\u003Ca href=\"https:\u002F\u002Fwildcams.ca\u002Fblog\u002Fthe-abmi-visits-the-zoo\u002F\">博客文章\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fen.shanshui.org\u002F\">山水保护中心\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FiOIQF3ckj0-rEG4yJgerYw?fbclid=IwAR0alwiWbe3udIcFvqqwm7y5qgr9hZpjr871FZIa-ErGUukZ7yJ3ZhgCevs\">中文博客文章\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fmp-weixin-qq-com.translate.goog\u002Fs\u002FiOIQF3ckj0-rEG4yJgerYw?fbclid=IwAR0alwiWbe3udIcFvqqwm7y5qgr9hZpjr871FZIa-ErGUukZ7yJ3ZhgCevs&_x_tr_sl=auto&_x_tr_tl=en&_x_tr_hl=en&_x_tr_pto=wapp\">翻译后的英文博客文章\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"http:\u002F\u002Fwww.irconservancy.org\u002F\">欧文牧场保护协会\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwww.ocregister.com\u002F2022\u002F03\u002F30\u002Fai-software-is-helping-researchers-focus-on-learning-about-ocs-wild-animals\u002F\">相关报道\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwildlifeprotectionsolutions.org\u002F\">野生动物保护解决方案公司\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fcustomers.microsoft.com\u002Fen-us\u002Fstory\u002F1384184517929343083-wildlife-protection-solutions-nonprofit-ai-for-earth\u002F\">微软客户故事\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.enterpriseai.news\u002F2023\u002F02\u002F20\u002Fai-helps-wildlife-protection-solutions-safeguard-endangered-species\u002F\">相关报道\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Froadecology.ucdavis.edu\u002F\">加州大学戴维斯分校道路生态学中心\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fwildlifeobserver.net\u002F\">野生动物观察者网络平台\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.nature.org\u002Fen-us\u002Fabout-us\u002Fwhere-we-work\u002Funited-states\u002Fcalifornia\u002F\">自然保护协会加州分会\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftnc-ca-geo\u002Faniml-frontend\">Animl 平台\u003C\u002Fa>)\u003C\u002Fli>\n  \u003Cli>\u003Ca href=\"https:\u002F\u002Fscience.sandiegozoo.org\u002F\">圣地亚哥动物园野生动物联盟\u003C\u002Fa>（\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fconservationtechlab\u002Faniml\">Animl R 包\u003C\u002Fa>)\u003C\u002Fli>\n\u003C\u002Ful>\n\n\u003C\u002Fdetails>\u003Cbr>\n\n\n>[!重要]\n>如果您希望被列入此列表，或对 MegaDetector 和 Pytorch-Wildlife 有任何疑问，请[发送邮件至我们](zhongqimiao@microsoft.com) 或加入我们的 Discord 社区：[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fany_text-Join_us!-blue?logo=discord&label=PytorchWildife)](https:\u002F\u002Fdiscord.gg\u002FTeEVxzaYtm)","# CameraTraps (PyTorch-Wildlife) 快速上手指南\n\nCameraTraps（现核心库为 **PyTorch-Wildlife**）是一个专为自然保护领域设计的协作式深度学习框架。它允许用户轻松加载和使用多种预训练模型（如 MegaDetector、DeepFaune、HerdNet 等），用于野生动物的检测与分类。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.8 及以上版本\n*   **前置依赖**：\n    *   PyTorch (框架会自动处理部分依赖，但建议预先安装适配您 GPU 版本的 PyTorch)\n    *   pip 包管理工具\n\n> **提示**：如果您需要使用 GPU 加速推理，请先前往 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 安装对应 CUDA 版本的 PyTorch。\n\n## 2. 安装步骤\n\n使用 pip 直接安装 PyTorch-Wildlife 库。首次运行时，模型权重将自动下载。\n\n```bash\npip install PytorchWildlife\n```\n\n> **国内加速建议**：\n> 如果下载速度较慢，推荐使用国内镜像源进行安装：\n> ```bash\n> pip install PytorchWildlife -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 3. 基本使用\n\n以下是最简单的代码示例，演示如何对单张图像进行**动物检测**和**物种分类**。模型权重会在首次调用时自动下载。\n\n```python\nimport numpy as np\nfrom PytorchWildlife.models import detection as pw_detection\nfrom PytorchWildlife.models import classification as pw_classification\n\n# 模拟一张图像数据 (实际使用时请替换为真实的图像数组，格式通常为 HWC 或 CHW)\n# 这里仅作为形状示例：3 通道，1280x1280 分辨率\nimg = np.random.randn(3, 1280, 1280)\n\n# --- 步骤 1: 动物检测 (Detection) ---\n# 加载 MegaDetector V6 模型\ndetection_model = pw_detection.MegaDetectorV6() \n# 执行单图检测\ndetection_result = detection_model.single_image_detection(img)\n\n# --- 步骤 2: 物种分类 (Classification) ---\n# 加载 AI4G Amazon Rainforest 分类模型\nclassification_model = pw_classification.AI4GAmazonRainforest() \n# 执行单图分类\nclassification_results = classification_model.single_image_classification(img)\n\n# 打印结果示例\nprint(\"检测结果:\", detection_result)\nprint(\"分类结果:\", classification_results)\n```\n\n**说明：**\n*   `MegaDetectorV6()`：用于检测图像中是否存在动物、人或车辆，并返回边界框。\n*   `AI4GAmazonRainforest()`：用于对裁剪出的动物图像进行具体物种分类。\n*   更多可用模型（如针对负鼠、特定区域物种的模型）请访问官方 [Model Zoo](https:\u002F\u002Fmicrosoft.github.io\u002FCameraTraps\u002Fmodel_zoo\u002Fmegadetector\u002F)。","某自然保护区科研团队正试图从部署在雨林中的数百台红外相机里，筛选出濒危物种“云豹”的影像以评估种群数量。\n\n### 没有 CameraTraps 时\n- **人工筛选效率极低**：研究人员需肉眼查看数十万张触发照片，其中 90% 是风吹草动或空景，耗时数周且极易疲劳出错。\n- **模型开发门槛高**：若想训练自动识别模型，团队需自行搭建复杂的 PyTorch 环境、清洗数据并从头训练，缺乏深度学习背景的生态学家难以入手。\n- **算法迭代困难**：面对新出现的物种或不同光照条件，无法快速调用现有的先进检测器（如 MegaDetector V6），只能重复造轮子。\n- **协作共享缺失**：各小组使用的脚本和模型版本不统一，导致结果无法复现，难以形成合力优化保护策略。\n\n### 使用 CameraTraps 后\n- **自动化批量处理**：直接调用预训练的 MegaDetector V6 模型，几分钟内即可自动过滤掉无效空图，精准定位所有动物目标，效率提升百倍。\n- **开箱即用的框架**：通过简单的 Python 代码即可加载 Hugging Face 上的成熟模型，无需关心底层架构，生态学家也能轻松上手进行物种分类。\n- **灵活适配多场景**：利用其丰富的“模型动物园”，团队可迅速切换适用于低光环境或特定物种的检测算法，快速响应野外复杂变化。\n- **标准化协作流程**：基于统一的开源框架，全球保护机构可共享微调后的模型与数据管道，大幅加速了跨国界野生动物保护项目的落地。\n\nCameraTraps 将原本需要数周的人工排查工作压缩至小时级，让科研人员能将宝贵精力真正聚焦于生物多样性保护决策而非数据处理。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_CameraTraps_b91ad4d3.png","microsoft","Microsoft","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmicrosoft_4900709c.png","Open source projects and samples from Microsoft",null,"opensource@microsoft.com","OpenAtMicrosoft","https:\u002F\u002Fopensource.microsoft.com","https:\u002F\u002Fgithub.com\u002Fmicrosoft",[82,86,88],{"name":83,"color":84,"percentage":85},"Python","#3572A5",63.5,{"name":83,"color":84,"percentage":87},36.4,{"name":89,"color":90,"percentage":91},"Dockerfile","#384d54",0.1,1000,293,"2026-04-06T17:42:05","MIT","未说明","未说明 (基于 PyTorch，通常支持 CPU 推理，但推荐使用 GPU 加速)",{"notes":99,"python":100,"dependencies":101},"该工具通过 pip 安装 (pip install PytorchWildlife)。模型权重在首次运行时会自动下载。支持多种预训练模型（如 MegaDetector V6, AI4GAmazonRainforest 等），并提供 Google Colab 和 Hugging Face 在线演示环境，表明其对常见深度学习环境有良好兼容性。具体 CUDA 版本依赖取决于本地安装的 PyTorch 版本。","3.8+",[102,103,104,105,106],"PytorchWildlife","numpy","torch","Pillow","opencv-python",[15,14],[109,110,111,112,113,114,115,116],"camera-traps","wildlife","conservation","machine-learning","computer-vision","megadetector","pytorch","pytorch-wildlife","2026-03-27T02:49:30.150509","2026-04-07T13:27:55.777648",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},21993,"如何在 Apple M1 芯片的 Mac 上运行检测器？","当前代码库已兼容 M1 芯片。如果遇到依赖问题，可以尝试更新 `environment-detector-m1.yml` 文件中的 PyTorch 版本（例如改为 pytorch=1.13.1 和 torchvision=0.14.1），然后使用以下命令创建环境并运行：\n\nCONDA_SUBDIR=osx-arm64 conda env create --file environment-detector-m1.yml\nconda activate cameratraps-detector\npython detection\u002Frun_detector.py \u003C模型路径> --image_file \u003C图片路径> --threshold 0.1","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F297",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},21994,"运行时出现 'NMS time limit exceeded' 警告怎么办？","该警告表示非极大值抑制（NMS）处理时间超过了默认限制（0.33 秒），通常发生在多任务占用 GPU 或图像目标较多时。这不会导致程序崩溃，结果仍然有效。\n\n解决方案：\n1. 忽略该警告，它仅提示处理稍慢。\n2. 如果需要消除警告，可以修改 YOLOv5 源码，注释掉超时时的 `break` 语句，将其仅作为日志记录。\n3. 项目维护者已提供修复此问题的 YOLOv5 分支（ecologize\u002Fyolov5），建议按照最新文档使用该分支以避免手动打补丁。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F316",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},21995,"在 macOS 上安装 TensorFlow 1.13.1 失败怎么办？","由于 pip 默认源中可能找不到适用于 macOS 的 TensorFlow 1.13.1 版本，可以通过直接下载 wheel 文件进行安装。请使用以下命令：\n\npython -m pip install --upgrade https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow\u002Fmac\u002Fcpu\u002Ftensorflow-1.13.1-py3-none-any.whl\n\n注意：该方法通常适用于 Python 3.7 环境，Python 3.6 可能会遇到兼容性问题。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F232",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},21996,"安装 PytorchWildlife 时遇到 Torch 依赖冲突如何解决？","该问题通常由 Python 版本与 PyTorch 版本不匹配引起（例如 Python 3.10 与旧版 Torch 1.10.1 不兼容）。\n\n解决方案：\n1. 确保使用兼容的 Python 版本（建议使用 Python 3.8 或 3.9）。\n2. 项目维护者已更新包以支持 Python 3.10 和 CUDA 12，请尝试升级 PytorchWildlife 到最新版本。\n3. 如果仍在使用旧版，请检查是否强制指定了不兼容的 torch 版本，或尝试在干净的 conda 环境中重新安装。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F443",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},21997,"批量分类大目录图片时内存不足（OOM）怎么办？","当处理包含数万张图片的大目录时，一次性加载可能导致内存溢出。\n\n建议方案：\n1. 将大目录拆分为多个小目录分批处理。\n2. 如果代码支持，修改脚本使其接受图片列表文件而非整个目录路径，从而手动控制每次处理的图片数量。\n3. 减小 batch size（批处理大小）参数，降低单次显存\u002F内存占用。\n4. 确保没有其他大型程序占用系统内存。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F490",{"id":146,"question_zh":147,"answer_zh":148,"source_url":124},21998,"Intel MKL 报错提示处理器不支持 SSSE3\u002FSSE4.2\u002FAVX 指令集怎么办？","此错误通常出现在旧版代码库或不兼容的二进制文件中，特别是在 M1 Mac 或特定 Linux 环境下。\n\n解决方案：\n1. 该项目已迁移至新的 Pytorch-Wildlife v1.0 代码库，旧版的 MKL 依赖问题在新版中已解决，建议升级使用新版代码。\n2. 如果必须使用旧版，请尝试通过 conda 重新安装 numpy 和 scipy 等科学计算库，确保它们编译为兼容当前 CPU 的版本（例如在 M1 上使用 `CONDA_SUBDIR=osx-arm64`）。",[150,155,160,165,170,175,180,185,190],{"id":151,"version":152,"summary_zh":153,"released_at":154},135676,"pw_v1.2.1","## 新增内容？\n\n### Deepfaune 已加入我们的模型库！！\n- 我们很高兴地宣布，Deepfaune 模型——包括检测器和分类器——现已在 PyTorch-Wildlife 中发布，进一步丰富了我们的模型库。在此特别感谢 Deepfaune 团队的支持！Deepfaune 是目前针对欧洲生态系统最为全面的检测与分类模型之一，能够很好地补充 MegaDetector 的功能。MegaDetector 主要基于北美、南美和非洲的数据集进行训练。此外，Deepfaune 检测器也是我们首个集成到 PyTorch-Wildlife 中的第三方相机陷阱检测模型！\n- 使用该模型非常简单，只需像加载其他 PyTorch-Wildlife 模型一样即可：\n```python\ndetection_model = pw_detection.DeepfauneDetector(device=DEVICE)\nclassification_model = pw_classification.DeepfauneClassifier(device=DEVICE)\n```\n- 您还可以使用 demo 文件夹中的 `detection_classification_pipeline_demo.py` 脚本，测试完整的检测+分类流水线。\n- 也请访问 Deepfaune 的官方网站 [https:\u002F\u002Fwww.deepfaune.cnrs.fr\u002Fen\u002F](https:\u002F\u002Fwww.deepfaune.cnrs.fr\u002Fen\u002F) 并为他们点个赞！\n\n### Deepfaune-New-England 也已加入模型库！！\n- 除了原始的 Deepfaune 模型外，美国地质调查局（USGS）还针对北美东北部地区开发了一款经过微调的 Deepfaune 模型，名为 Deepfaune-New-England（DFNE）。您可以通过以下代码加载该模型：\n```python\nclassification_model = pw_classification.DFNE(device=DEVICE)\n```\n- 请查看 DFNE 的官方仓库 [https:\u002F\u002Fcode.usgs.gov\u002Fvtcfwru\u002Fdeepfaune-new-england\u002F-\u002Ftree\u002Fmain?ref_type=heads](https:\u002F\u002Fcode.usgs.gov\u002Fvtcfwru\u002Fdeepfaune-new-england\u002F-\u002Ftree\u002Fmain?ref_type=heads)，并为他们点个赞！\n\n### SpeciesNet 现已在 PyTorch-Wildlife 中提供测试！\n- 我们已将 SpeciesNet 加入模型库，它与 PyTorch-Wildlife 提供的所有检测模型均兼容。更多详情请参阅 [此文档](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002FSppNet_TF\u002FPytorchWildlife\u002Fmodels\u002Fclassification\u002Fspeciesnet_base\u002Fsppnet_readme.md)！","2025-04-17T19:38:24",{"id":156,"version":157,"summary_zh":158,"released_at":159},135677,"pw_v1.2.0","## 新增内容\n\n- 在本版本的 Pytorch-Wildlife 中，我们很高兴地发布了 [检测微调模块](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FPW_FT_detection)，用户可以基于任意已发布的预训练 MegaDetector V6 模型对自己的检测模型进行微调。此外，该模块还具备数据集准备功能，与我们的分类微调模块类似。更多详情请参阅 [README](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FPW_FT_detection\u002FREADME.md)。目前，微调基于采用 AGPL 许可的 [Ultralytics](https:\u002F\u002Fwww.ultralytics.com\u002F) 实现，未来我们将推出 MIT 许可的版本。\n\n- 我们还发布了基于 YOLOv10 和 RT-DETR 的额外 MegaDetector V6 模型。由于性能和架构上的提升有限，我们暂未推出 YOLOv11 相关模型。下图展示了我们已发布模型的参数量与性能指标对比。用户可根据具体项目需求进行选择。所有 MegaDetector V6 模型的参数量均比 MegaDetector V5 减少至少 50%，同时在动物检测性能上仍有提升。我们发布的最小模型是 MegaDetector V6-yolov10-c，其参数量仅为 MegaDetector V5 的 2%，但动物检测召回率仍高出 4%。\n\n![image](assets\u002FParamPerf.png)\n\n- 关于 MIT 和 Apache 许可版本，大部分模型的训练工作已经完成，目前正等待内部审核后方可发布。\n\n- 我们还使用更大的数据集对 AI4G-Amazon 模型进行了更新，其性能较之前版本有所提升。欢迎各位试用或在此基础上进行微调。\n\n- 我们还将在接下来的几次更新中制定 2025 年的新路线图。","2025-01-23T21:08:38",{"id":161,"version":162,"summary_zh":163,"released_at":164},135678,"pw_v1.1.0","# 🎉🎉🎉 Pytorch-Wildlife 1.1.0 版本\n## MegaDetector V6 终于发布\n经过几个月的公开测试，我们终于准备好正式发布 MegaDetector 的第六版——MegaDetector V6！在这一代 MegaDetector 中，我们重点关注计算效率、性能提升、模型架构的现代化以及许可问题。为了给用户提供最大的灵活性，我们使用了多种不同的模型架构训练了多个新模型，包括 YOLO-v9、YOLO-v11 和 RT-DETR。我们为 MegaDetector V6 的不同版本制定了一个[滚动发布计划](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps?tab=readme-ov-file#mag-model-zoo-and-release-schedules)，而第一步，我们将发布基于 YOLO-v9 的精简版 MegaDetector V6（MDv6-ultralytics-yolov9-compact，简称 MDv6-c）。从现在开始，我们鼓励用户将 MegaDetector V6 作为默认的动物检测模型。\n\n这款 MDv6-c 模型针对性能和低预算设备进行了优化。它的参数量仅为之前 MegaDetector V5 的***六分之一（更小）***，并且在我们的验证数据集上，动物检测的召回率提高了***12%（更好）***。换句话说，MDv6-c 在检测动物时的假阴性率显著降低，使其成为比 MegaDetector V5 更加鲁棒的动物检测模型。此外，一位测试者报告称，在其数据集上，MDv6-c 的运行速度至少比 MegaDetector V5 快***5 倍***。\n\n|模型|参数量|精确率|召回率|\n|---|---|---|---|\n|MegaDetector V5|1.21亿|0.96|0.73|\n|MegaDetector V6-c|2200万|0.92|0.85|\n\n请参阅我们的[图像演示](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fdemo\u002Fimage_detection_demo.ipynb)和[视频演示](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fdemo\u002Fvideo_detection_demo.ipynb)，了解如何使用 MegaDetector V6。\n\n## Pytorch-Wildlife 中的 HerdNet\n我们已将一种基于点的俯视式动物检测模型纳入我们的模型库，该模型名为[HerdNet（Delplanque 等，2022）](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS092427162300031X?via%3Dihub)。本次发布包含了两个模型权重：“HerdNet-general”（他们的默认权重）和“HerdNet-ennedi”（他们在 Ennedi 2019 数据集上训练的模型）。更多详细信息请参见[这里](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FPytorchWildlife\u002Fmodels\u002Fdetection\u002Fherdnet\u002FHerdnet.md)以及他们原始的[仓库](https:\u002F\u002Fgithub.com\u002FAlexandre-Delplanque\u002FHerdNet)。这是 Pytorch-Wildlife 中首个第三方模型，也是我们向俯视\u002F航拍动物检测与分类领域扩展的基础。请查看我们的[HerdNet 演示](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fdemo\u002Fimage_detection_demo_herdnet.ipynb)，了解如何使用它！\n\n## 自定义权重\n现在，您可以通过[微调模块](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Ftree\u002Fmain\u002FPW_FT_classification)，直接在 Pytorch-Wildlife 流程中加载您在自有数据集上微调得到的自定义权重！请参阅下文…","2024-11-08T19:23:33",{"id":166,"version":167,"summary_zh":168,"released_at":169},135679,"pw_v1.0.2.4","大家好！我们刚刚将 Pytorch-Wildlife 更新到了 1.0.2.4 版本。这是一个小版本更新，主要修复了与结果输出相关的一些 bug，这些 bug 曾在 GitHub 问题 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fissues\u002F428 中被报告。除了修复 bug 之外，我们还新增了一个 HuggingFace 演示 [链接](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAndresHdzC\u002Fpytorch-wildlife)，以及两个 Google Colab 演示：[图像检测演示](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1rjqHrTMzEHkMualr4vB55dQWCsCKMNXi?usp=sharing) 和 [视频检测演示](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F16-OjFVQ6nopuP-gfqofYBBY00oIgbcr1?usp=sharing)。此外，我们还全面优化了 README 文件，使其视觉效果更佳，并为社区创建了一个 Discord 社区服务器 [链接](https:\u002F\u002Fdiscord.gg\u002FTeEVxzaYtm)。欢迎大家加入！非常感谢！","2024-03-25T05:38:30",{"id":171,"version":172,"summary_zh":173,"released_at":174},135680,"pw_v1.0.2.0","我们刚刚将 Pytorch-Wildlife 更新至 1.0.2 版本。尽管从软件包本身来看，这只是一个较小的版本迭代，但此次更新却包含了一项备受期待的新模块——分类微调模块，因此意义重大。\n\n在 Pytorch-Wildlife 软件包中，我们新增了一个基于 [Snapshot Serengeti](https:\u002F\u002Flila.science\u002Fdatasets\u002Fsnapshot-serengeti) 摄像机陷阱数据集训练的默认分类模型。这是我们在与 [Zooniverse](https:\u002F\u002Fwww.zooniverse.org\u002F) 下属项目 [Snapshot Safari](https:\u002F\u002Fwww.zooniverse.org\u002Forganizations\u002Fmeredithspalmer\u002Fsnapshot-safari) 合作的基础上，首次针对非洲地区训练的摄像机陷阱分类模型。此外，Pytorch-Wildlife 现在已支持通过 BibTeX 格式引用；我们也在撰写一份简要的技术报告，以便用户能够将其作为论文进行引用。\n\n关于 [分类微调模块](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Ftree\u002Fmain\u002FPT_FT_classification)，我们目前正在将其从基础软件包中独立出来，以保持代码库的清晰性。该模块提供了利用 Pytorch-Wildlife 中的 MegaDetector 对输入摄像机陷阱图像进行预裁剪的功能，并内置了基于随机划分、地理位置划分以及拍摄序列划分的数据拆分工具，同时涵盖了完整的分类训练流程。通过该模块生成的分类权重可以直接与其他 Pytorch-Wildlife 功能（如 Gradio 演示应用）相集成。目前，该微调模块基于 ResNet 架构实现；不过，用户完全可以选用自己偏好的任何分类架构，只需稍作调整，以符合 Pytorch-Wildlife 框架所要求的“特征提取器 + 分类器”分离式设计规范。我们之所以采用这一规范，是为了简化未来的工具开发和分析工作，例如嵌入空间的可视化等。\n\n如果您在使用过程中遇到任何问题，或者认为某些功能改进会很有帮助，请随时提交 Issue 或 Pull Request；也欢迎您分享宝贵的意见！感谢您的支持！\n\n谢谢！","2024-02-16T05:35:09",{"id":176,"version":177,"summary_zh":178,"released_at":179},135681,"pw_v1.0.1.0","在本次更新中，我们修复了因在 PyTorch 的 Dataset 和 DataLoader 中使用 NumPy 而引发的内存泄漏问题。主要原因是 letterbox 函数，我们现已对其进行了全面重构。最初，该函数由 Ultralytics 实现，完全依赖于 NumPy。然而，众所周知，NumPy 与 PyTorch 的 Dataset 和 DataLoader 存在兼容性问题，相关讨论可见此 Issue（https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fissues\u002F13246）。为解决这一问题，我们仅使用 PIL 和 PyTorch 重新实现了该函数。\n\n此外，我们还对部分后处理函数进行了修改，以更好地支持代码库的 Docker 化部署。目前，我们正在构建包含 PyTorch-Wildlife 的 Docker 镜像，旨在简化环境管理。感谢您在此期间的耐心等待！","2023-12-29T04:43:31",{"id":181,"version":182,"summary_zh":183,"released_at":184},135682,"pw_v1.0.0.0","# 欢迎使用 Pytorch-Wildlife v1.0\n\n## 什么是 Pytorch-Wildlife\n\n**Pytorch-Wildlife** 库是一个全新的 AI 保护平台，允许用户直接加载用于动物检测的 `MegaDetector v5` 模型权重。我们对代码库进行了全面重构，优先考虑模型部署和扩展的易用性。除了 `MegaDetector v5` 之外，**Pytorch-Wildlife** 还支持多种分类模型权重，例如基于亚马逊雨林相机陷阱数据集和负鼠分类数据集的权重（这些数据集的详细信息将很快发布）。\n\n**与以往需要手动下载 `MegaDetector v5` 模型权重的实现不同，**Pytorch-Wildlife** 在首次加载模型时会自动下载所有模型权重（包括 `MegaDetector v5` 及其他分类模型权重）。这种实现方式类似于默认的 **Pytorch** 模型加载方法。**\n\n此外，您还可以通过我们的交互式 [**Gradio** 界面] 和详细的 [**Jupyter** 笔记本] 来探索 **Pytorch-Wildlife** 的代码库和功能，这些资源旨在展示我们改进的实际应用效果。\n\n![gradio_UI](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fassets\u002F7812475\u002F675ff83e-20c9-47ac-9eb3-cd174fa788fa)\n\n**Pytorch-Wildlife** 可以通过以下命令安装：\n\n```\npip install PytorchWildlife\n```\n\n更多信息请参阅我们的 [安装指南](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002FINSTALLATION.md) 和 [详细的库文档](https:\u002F\u002Fcameratraps.readthedocs.io\u002Fen\u002Flatest\u002F)。\n\n以下是一个使用 `PyTorch-wildlife` 对单张图像进行检测和分类的简短示例：\n```python\nimport torch\nfrom PytorchWildlife.models import detection as pw_detection\nfrom PytorchWildlife.models import classification as pw_classification\nimg = torch.randn((3, 1280, 1280))\n# 检测\ndetection_model = pw_detection.MegaDetectorV5()\ndetection_result = detection_model.single_image_detection(img)\n# 分类\nclassification_model = pw_classification.AI4GAmazonRainforest()\nclassification_results = classification_model.single_image_classification(img)\n```","2023-11-22T20:18:12",{"id":186,"version":187,"summary_zh":188,"released_at":189},135683,"v5.0","### 有哪些新内容？\n\n本次发布引入了更多训练数据，重点提升了以下方面的检测能力：\n\n* “车辆”类别中的船只和火车\n* 经常与动物重叠的人造物体（如诱饵站、陷阱、诱饵等）\n* 啮齿类动物，尤其是在近距离时\n* 爬行动物和小型鸟类\n\n此外，本次发布还标志着 MegaDetector 的架构发生了变化，从 Faster-RCNN 转为 [YOLOv5](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5)。我们的推理脚本已更新以同时支持这两种架构，因此迁移过程应\u003Ci>基本\u003C\u002Fi>无缝。用户需要更新到最新版本的代码库，并按照我们更新后的[安装说明](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fmegadetector.md#using-the-model)来使用 MDv5，但推理脚本的使用方式与以往完全相同。\n\n### 为什么有两个文件？\n\nMDv5 实际上是两个模型（MDv5a 和 MDv5b），它们仅在训练数据上有所不同（详情请参阅 MegaDetector 页面上的[训练数据部分](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fmegadetector.md#can-you-share-the-training-data)）。两者似乎都比 MDv4 更加准确，而且速度分别快 3 到 4 倍（!!!），不过具体哪个模型表现更好，取决于您的数据集。关于应该先尝试哪一个的指导原则目前尚未确定；我们将在接下来的几个月内与社区合作制定这些指南。如有疑问，现阶段不妨两个都试一试。如果您非要我们推荐一个……我们倾向于 MDv5a。不过，请您亲自尝试并告诉我们哪一个对您更有效！\n\n### 关于置信度阈值的一点说明\n\nMDv5 比 MDv4 更充分地利用了完整的置信度取值范围，因此\u003Cb>请勿将您习惯用于 MDv4 的阈值直接应用于 MDv5 的结果\u003C\u002Fb>。MDv4 的典型置信度阈值通常在 0.7 到 0.8 之间；而 MDv5 的阈值则应在 0.15 到 0.25 之间。这是否意味着 MDv5 的校准更加合理？谁也说不准。但可以肯定的是，如果您对 MDv5 的结果仍采用 0.8 这样的高阈值，很可能会漏掉一些动物。\n\n### MDv5 文件能否与 Timelapse 兼容？\n\n简短回答：能！\n\n详细回答……\n\n许多用户会将 MegaDetector 的检测结果导入 [Timelapse](https:\u002F\u002Fsaul.cpsc.ucalgary.ca\u002Ftimelapse\u002F)。使用我们提供的[批量推理脚本](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmain\u002Fdetection\u002Frun_detector_batch.py)生成的 MDv4 和 MDv5 结果，均可兼容旧版本的 Timelapse。然而，正如上文所述，MDv4 和 MDv5 的置信度范围不同，而旧版 Timelapse 中的默认置信度阈值是针对 MDv4 设定的。为了让用户无论使用哪个版本的模型都能获得合理的默认值，我们已更新了[MegaDetector 输出格式](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Ftree\u002Fmain\u002Fapi\u002Fbatch_processing#batch-processing-api-output-format)，加入了推荐的默认设置。最新的 Timelapse 2 版本现已发布。","2022-06-20T19:41:18",{"id":191,"version":192,"summary_zh":193,"released_at":194},135684,"v4.1","MegaDetector 的这个版本纳入了来自婆罗洲、澳大利亚及其他岛屿生境的额外训练数据，同时还加入了 [WCS 摄像机陷阱](http:\u002F\u002Flila.science\u002Fdatasets\u002Fwcscameratraps) 数据集中的大量样本。此外，我们还增加了包含人类的白天和夜间图像，以提升“人”类别的鲁棒性。正如之前所承诺的，我们首次引入了“车辆”类别，用于识别汽车、卡车、拖拉机和自行车。\n\n以下是 MDv4.1 在 WCS 数据集中一张（较旧的）图片上的检测结果：\n![WCS 数据集中的摄像机陷阱图片，标注了 MegaDetector v4.1 的检测结果](https:\u002F\u002Fuser-images.githubusercontent.com\u002F9201966\u002F80424363-6c336180-8896-11ea-8357-e81624d59c2b.png)\n\n训练集中三个类别的比例：\n![饼图展示了训练集中三个类别的比例](https:\u002F\u002Fuser-images.githubusercontent.com\u002F9201966\u002F80425669-f977b580-8898-11ea-84d8-37a2010acf26.png)\n\n如需下载此版本的模型配置文件、检查点文件以及用于 TF Serving 的保存模型，请访问 MegaDetector 的[页面](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FCameraTraps\u002Fblob\u002Fmaster\u002Fmegadetector.md)。\n\n关于 v4.0 就别问啦 :) 希望大家在新冠疫情期间都能平安健康。","2020-04-27T22:09:32"]