[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jfzhang95--pytorch-video-recognition":3,"tool-jfzhang95--pytorch-video-recognition":65},[4,18,32,41,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,3,"2026-04-06T03:28:53",[13,14,15,16],"开发框架","图像","Agent","视频","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[14,27,16,28,15,29,30,13,31],"数据工具","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":38,"last_commit_at":39,"category_tags":40,"status":17},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[30,27,29],{"id":42,"name":43,"github_repo":44,"description_zh":45,"stars":46,"difficulty_score":38,"last_commit_at":47,"category_tags":48,"status":17},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[29,14,27,13],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":10,"last_commit_at":55,"category_tags":56,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,30,29],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":17},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75666,"2026-04-15T23:15:07",[30,14,13,29],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":79,"owner_twitter":79,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":104,"github_topics":105,"view_count":24,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":148},7871,"jfzhang95\u002Fpytorch-video-recognition","pytorch-video-recognition","PyTorch implemented C3D, R3D, R2Plus1D models for video activity recognition.","pytorch-video-recognition 是一个基于 PyTorch 框架开发的开源项目，专注于视频动作识别任务。它复现了 C3D、R3D 和 R2Plus1D 等经典深度学习模型，旨在帮助开发者高效地分析和理解视频内容中的人类行为，解决了从动态影像中自动提取动作特征并进行分类的技术难题。\n\n该项目特别适合计算机视觉领域的研究人员、AI 工程师以及希望深入探索视频分析技术的学生使用。用户可以直接利用其在 UCF101 和 HMDB51 主流数据集上训练好的 C3D 预训练模型进行快速验证，也可以根据提供的详细代码结构，灵活配置数据集并重新训练其他模型。其技术亮点在于提供了完整的工程化实现，涵盖从数据预处理、模型训练到结果可视化的全流程，并支持 TensorBoard 监控训练状态。此外，项目代码结构清晰，依赖环境配置简单，不仅降低了视频识别领域的入门门槛，也为后续研发更复杂的视频理解算法奠定了坚实基础。","# pytorch-video-recognition\n\n\u003Ctable style=\"border:0px\">\n   \u003Ctr>\n       \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_f8aac4af72d4.gif\" frame=void rules=none>\u003C\u002Ftd>\n       \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_cfe9fb0f9eef.gif\" frame=void rules=none>\u003C\u002Ftd>\n   \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## Introduction\nThis repo contains several models for video action recognition,\nincluding C3D, R2Plus1D, R3D, inplemented using PyTorch (0.4.0).\nCurrently, we train these models on UCF101 and HMDB51 datasets.\n**More models and datasets will be available soon!**\n\n**Note: An interesting online web game based on C3D model is in [here](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fproject-demo).**\n\n## Installation\nThe code was tested with Anaconda and Python 3.5. After installing the Anaconda environment:\n\n0. Clone the repo:\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition.git\n    cd pytorch-video-recognition\n    ```\n\n1. Install dependencies:\n\n    For PyTorch dependency, see [pytorch.org](https:\u002F\u002Fpytorch.org\u002F) for more details.\n\n    For custom dependencies:\n    ```Shell\n    conda install opencv\n    pip install tqdm scikit-learn tensorboardX\n    ```\n\n2. Download pretrained model from [BaiduYun](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1saNqGBkzZHwZpG-A5RDLVw) or \n[GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19NWziHWh1LgCcHU34geoKwYezAogv9fX\u002Fview?usp=sharing).\n   Currently only support pretrained model for C3D.\n\n3. Configure your dataset and pretrained model path in\n[mypath.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Fmypath.py).\n\n4. You can choose different models and datasets in\n[train.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Ftrain.py).\n\n    To train the model, please do:\n    ```Shell\n    python train.py\n    ```\n\n## Datasets:\n\nI used two different datasets: UCF101 and HMDB.\n\nDataset directory tree is shown below\n\n- **UCF101**\nMake sure to put the files as the following structure:\n  ```\n  UCF-101\n  ├── ApplyEyeMakeup\n  │   ├── v_ApplyEyeMakeup_g01_c01.avi\n  │   └── ...\n  ├── ApplyLipstick\n  │   ├── v_ApplyLipstick_g01_c01.avi\n  │   └── ...\n  └── Archery\n  │   ├── v_Archery_g01_c01.avi\n  │   └── ...\n  ```\nAfter pre-processing, the output dir's structure is as follows:\n  ```\n  ucf101\n  ├── ApplyEyeMakeup\n  │   ├── v_ApplyEyeMakeup_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  ├── ApplyLipstick\n  │   ├── v_ApplyLipstick_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  └── Archery\n  │   ├── v_Archery_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  ```\n\nNote: HMDB dataset's directory tree is similar to UCF101 dataset's.\n\n## Experiments\nThese models were trained in machine with NVIDIA TITAN X 12gb GPU. Note that I splited\ntrain\u002Fval\u002Ftest data for each dataset using sklearn. If you want to train models using\nofficial train\u002Fval\u002Ftest data, you can look in [dataset.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Fdataloaders\u002Fdataset.py), and modify it to your needs.\n\nCurrently, I only train C3D model in UCF and HMDB datasets. The train\u002Fval\u002Ftest\naccuracy and loss curves for each experiment are shown below:\n\n- **UCF101**\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_17e7e1a40a6b.png\" align=\"center\" width=900 height=auto\u002F>\u003C\u002Fp>\n\n- **HMDB51**\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_95533ee4d3b9.png\" align=\"center\" width=900 height=auto\u002F>\u003C\u002Fp>\n\nExperiments for other models will be updated soon ...\n","# pytorch-video-recognition\n\n\u003Ctable style=\"border:0px\">\n   \u003Ctr>\n       \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_f8aac4af72d4.gif\" frame=void rules=none>\u003C\u002Ftd>\n       \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_cfe9fb0f9eef.gif\" frame=void rules=none>\u003C\u002Ftd>\n   \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 简介\n本仓库包含多个用于视频动作识别的模型，包括 C3D、R2Plus1D 和 R3D，均使用 PyTorch (0.4.0) 实现。目前，我们已在 UCF101 和 HMDB51 数据集上训练这些模型。\n**更多模型和数据集将很快推出！**\n\n**注：基于 C3D 模型的一个有趣的在线网页游戏请见 [这里](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fproject-demo)。**\n\n## 安装\n代码已在 Anaconda 和 Python 3.5 环境下测试通过。安装好 Anaconda 环境后：\n\n0. 克隆仓库：\n    ```Shell\n    git clone https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition.git\n    cd pytorch-video-recognition\n    ```\n\n1. 安装依赖：\n\n    对于 PyTorch 的依赖，请参阅 [pytorch.org](https:\u002F\u002Fpytorch.org\u002F) 获取更多详细信息。\n\n    对于自定义依赖：\n    ```Shell\n    conda install opencv\n    pip install tqdm scikit-learn tensorboardX\n    ```\n\n2. 从 [BaiduYun](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1saNqGBkzZHwZpG-A5RDLVw) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19NWziHWh1LgCcHU34geoKwYezAogv9fX\u002Fview?usp=sharing) 下载预训练模型。\n   目前仅支持 C3D 的预训练模型。\n\n3. 在 [mypath.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Fmypath.py) 中配置您的数据集路径和预训练模型路径。\n\n4. 您可以在 [train.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Ftrain.py) 中选择不同的模型和数据集。\n\n    要训练模型，请执行：\n    ```Shell\n    python train.py\n    ```\n\n## 数据集：\n\n我使用了两个不同的数据集：UCF101 和 HMDB。\n\n数据集目录结构如下所示：\n\n- **UCF101**\n请确保文件按以下结构放置：\n  ```\n  UCF-101\n  ├── ApplyEyeMakeup\n  │   ├── v_ApplyEyeMakeup_g01_c01.avi\n  │   └── ...\n  ├── ApplyLipstick\n  │   ├── v_ApplyLipstick_g01_c01.avi\n  │   └── ...\n  └── Archery\n  │   ├── v_Archery_g01_c01.avi\n  │   └── ...\n  ```\n预处理后，输出目录的结构如下：\n  ```\n  ucf101\n  ├── ApplyEyeMakeup\n  │   ├── v_ApplyEyeMakeup_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  ├── ApplyLipstick\n  │   ├── v_ApplyLipstick_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  └── Archery\n  │   ├── v_Archery_g01_c01\n  │   │   ├── 00001.jpg\n  │   │   └── ...\n  │   └── ...\n  ```\n\n注意：HMDB 数据集的目录结构与 UCF101 类似。\n\n## 实验\n这些模型是在配备 NVIDIA TITAN X 12GB 显卡的机器上训练的。请注意，我使用 sklearn 将每个数据集的训练\u002F验证\u002F测试数据进行了划分。如果您希望使用官方的训练\u002F验证\u002F测试数据来训练模型，可以查看 [dataset.py](https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fblob\u002Fmaster\u002Fdataloaders\u002Fdataset.py)，并根据需要进行修改。\n\n目前，我仅在 UCF 和 HMDB 数据集上训练了 C3D 模型。每次实验的训练\u002F验证\u002F测试准确率及损失曲线如下：\n\n- **UCF101**\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_17e7e1a40a6b.png\" align=\"center\" width=900 height=auto\u002F>\u003C\u002Fp>\n\n- **HMDB51**\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_readme_95533ee4d3b9.png\" align=\"center\" width=900 height=auto\u002F>\u003C\u002Fp>\n\n其他模型的实验结果将很快更新……","# pytorch-video-recognition 快速上手指南\n\n本指南帮助开发者快速部署并使用基于 PyTorch 的视频动作识别工具库（支持 C3D, R2Plus1D, R3D 等模型）。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS (Windows 需自行配置兼容环境)\n*   **Python 版本**：推荐 Python 3.5+ (代码曾在 Anaconda + Python 3.5 环境下测试通过)\n*   **深度学习框架**：PyTorch 0.4.0 或更高版本\n*   **硬件建议**：建议使用 NVIDIA GPU (如 TITAN X) 进行训练，仅推理可使用 CPU\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```Shell\ngit clone https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition.git\ncd pytorch-video-recognition\n```\n\n### 2. 安装依赖库\n首先请参考 [pytorch.org](https:\u002F\u002Fpytorch.org\u002F) 安装对应版本的 PyTorch。随后安装本项目所需的自定义依赖：\n\n```Shell\nconda install opencv\npip install tqdm scikit-learn tensorboardX\n```\n> **提示**：国内用户若下载缓慢，可使用清华源或阿里源加速 pip 安装，例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tqdm scikit-learn tensorboardX`\n\n### 3. 下载预训练模型\n目前项目仅提供 **C3D** 模型的预训练权重。请选择以下任一链接下载：\n\n*   **百度网盘** (推荐国内用户): [点击下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1saNqGBkzZHwZpG-A5RDLVw)\n*   **Google Drive**: [点击下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F19NWziHWh1LgCcHU34geoKwYezAogv9fX\u002Fview?usp=sharing)\n\n下载完成后，请将模型文件放置在合适的位置。\n\n### 4. 配置路径\n编辑根目录下的 `mypath.py` 文件，修改以下配置项以指向您的数据集目录和刚才下载的预训练模型路径。\n\n## 基本使用\n\n### 数据集准备\n本项目支持 **UCF101** 和 **HMDB51** 数据集。请以如下结构组织视频文件（以 UCF101 为例）：\n\n```text\nUCF-101\n├── ApplyEyeMakeup\n│   ├── v_ApplyEyeMakeup_g01_c01.avi\n│   └── ...\n├── ApplyLipstick\n│   ├── v_ApplyLipstick_g01_c01.avi\n│   └── ...\n└── Archery\n    ├── v_Archery_g01_c01.avi\n    └── ...\n```\n*注：程序运行前通常需要对视频进行帧提取预处理，预处理后的目录结构将包含 `.jpg` 图片序列。*\n\n### 开始训练\n项目默认配置可在 `train.py` 中查看和修改（包括选择的模型类型和数据集）。\n\n执行以下命令启动训练：\n```Shell\npython train.py\n```\n\n训练过程中，准确率、损失曲线等实验数据将通过 `tensorboardX` 记录，可使用 TensorBoard 进行可视化监控。","某智慧社区安防团队需要开发一套系统，自动从小区监控视频中识别“高空抛物”、“老人跌倒”或“打架斗殴”等异常行为，以便及时预警。\n\n### 没有 pytorch-video-recognition 时\n- **算法复现成本极高**：团队需从零阅读 C3D、R3D 等复杂论文并手动编写 PyTorch 代码，极易因细节疏忽导致模型无法收敛。\n- **数据预处理繁琐**：缺乏统一的视频帧提取与目录结构规范，处理 UCF101 或自定义监控数据集时需反复编写脚本，耗时且易出错。\n- **训练基线缺失**：没有预训练模型作为起点，必须从头训练深度网络，在单张显卡上可能需要数周才能看到初步效果，严重拖慢项目进度。\n- **实验对比困难**：难以快速切换不同架构（如从 C3D 切换到 R2Plus1D）进行性能比对，导致技术选型依赖猜测而非实测数据。\n\n### 使用 pytorch-video-recognition 后\n- **开箱即用的模型库**：直接调用已实现的 C3D、R3D 等标准模型，将算法验证周期从数周缩短至几天，让团队专注于业务逻辑调整。\n- **标准化的数据流水线**：利用其预设的数据集目录结构和加载器，快速完成监控视频的帧提取与格式化，无缝衔接训练流程。\n- **预训练权重加速迭代**：加载官方提供的 C3D 预训练模型进行迁移学习，仅需少量标注数据即可在特定异常行为识别上达到高精度。\n- **灵活的实验配置**：通过修改 `train.py` 即可轻松切换模型架构与数据集，快速产出对比实验报告，科学确定最优部署方案。\n\npytorch-video-recognition 通过提供成熟的视频动作识别基础设施，将研发团队从重复的底层造轮子工作中解放出来，实现了异常行为监测系统的快速落地与迭代。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjfzhang95_pytorch-video-recognition_fbb63678.png","jfzhang95","Pyjcsx","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjfzhang95_35bcaabd.jpg",null,"National University of Singapore","Singapore","https:\u002F\u002Fjfzhang95.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fjfzhang95",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1236,254,"2026-04-13T02:14:34","MIT","未说明","需要 NVIDIA GPU，实验环境为 TITAN X (12GB 显存)",{"notes":96,"python":97,"dependencies":98},"项目基于较旧的 PyTorch 0.4.0 版本开发。目前仅支持 C3D 模型的预训练权重，需从百度网盘或 Google Drive 手动下载。数据集（UCF101\u002FHMDB51）需按照特定目录结构存放，且代码默认使用 sklearn 划分训练\u002F验证\u002F测试集，若需使用官方划分需修改 dataset.py。","3.5",[99,100,101,102,103],"pytorch==0.4.0","opencv","tqdm","scikit-learn","tensorboardX",[16,29],[106,107,108,109],"c3d","r2plus1d","r3d","video-activity-recognition","2026-03-27T02:49:30.150509","2026-04-16T08:15:24.271564",[113,118,123,128,133,138,143],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},35242,"如何将视频数据集预处理为图像以进行训练？","以 UCF101 为例，首先下载数据集。然后修改 `mypath.py` 文件，将 `root_dir`（包含类别标签的文件夹）和 `output_dir`（保存预处理数据的文件夹）指向正确的路径。接着，在代码中搜索所有 `pretrained=True` 并将其替换为 `pretrained=False`。最后运行 `python train.py`，程序会自动开始预处理视频，完成后将自动开始训练。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F60",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},35243,"如何解决训练过程中出现的 'CUDA out of memory' 显存不足错误？","首先确认是否真正使用了 GPU 而非 CPU，并使用 `nvidia-smi` 命令检查显卡状态。如果配置无误但仍报错，尝试减小 batch size（即使设为 5 也可能需要调整）或减少 epoch 数量。此外，该问题可能与操作系统有关，有用户反馈在 Windows 10 上失败但在 Ubuntu 上可以正常运行，建议检查库依赖或切换至 Linux 环境。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F27",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},35244,"无法下载预训练模型（需要百度网盘登录）怎么办？","维护者目前无法提供完全训练好的模型文件（原文件存储在无法访问的电脑上）。建议用户自行训练模型。如果需要测试，可以尝试寻找其他复现该代码的资源获取权重，或者使用云计算资源（如 GCP 或 AWS）从头开始训练。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F8",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},35245,"代码中使用随机划分（train_test_split）处理 UCF101 数据集会导致数据泄露吗？","是的，UCF101 官方建议必须将属于同一组的视频分开在训练集和测试集中，因为同组视频源自同一个长视频，混合会导致性能虚高。当前代码使用 sklearn 随机划分确实导致了过高的准确率。解决方案是下载官方提供的 train\u002Ftest 列表文件，并重写数据加载器（dataloader）以加载官方的训练和测试集合。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F16",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},35246,"为什么从头训练 C3D 模型的准确率很低（低于论文声称的值）？","准确率低通常是因为输入数据未进行标准化处理。解决方法是将输入像素值归一化到 [0, 1] 区间（即除以 255），然后使用均值 [0.485, 0.456, 0.406] 和方差 [0.229, 0.224, 0.225] 进行标准化。经过此处理后，从头训练的准确率可提升至约 50%。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F32",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},35247,"运行时出现 'FileNotFoundError: No such file or directory: ...\u002Fc3d-pretrained.pth' 错误如何解决？","该错误是因为代码试图加载不存在的预训练权重文件。解决方法是在 `mypath.py` 中正确配置 `model_dir()` 返回的路径，确保指向实际的 `.pth` 文件位置。如果不需要使用预训练权重，可以在实例化模型时将 `pretrained` 参数设置为 `False`（例如：`C3D(num_classes=num_classes, pretrained=False)`），从而跳过权重加载步骤。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F31",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},35248,"使用多 GPU 训练时，增大 Batch Size 导致 MemoryError 怎么办？","更大的 Batch Size 需要更多的显存。即使使用了 Data Parallel 多卡训练，如果显存不足仍会报错。最直接的解决方案是减小 Batch Size。目前没有更好的替代方案能在使用相同硬件的情况下显著增加 Batch Size，必须根据显卡显存容量调整批次大小以避免溢出。","https:\u002F\u002Fgithub.com\u002Fjfzhang95\u002Fpytorch-video-recognition\u002Fissues\u002F22",[]]