[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-gjy3035--C-3-Framework":3,"tool-gjy3035--C-3-Framework":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":113,"github_topics":114,"view_count":23,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":119,"updated_at":120,"faqs":121,"releases":152},3387,"gjy3035\u002FC-3-Framework","C-3-Framework","An open-source PyTorch code for crowd counting","C-3-Framework 是一个基于 PyTorch 开发的开源人群计数代码框架，旨在为监督式人群计数任务提供高效、灵活的开发环境。它主要解决了研究人员在复现经典算法和对比新模型时，面临的数据集预处理繁琐、基准模型缺失以及实验参数难以追溯等痛点。\n\n该框架非常适合从事计算机视觉研究的学者、算法工程师以及相关领域的开发者使用。其核心亮点在于“开箱即用”的便捷性：内置了包括 ShanghaiTech、UCF-QNRF 在内的六个主流数据集的预处理脚本，并提供了 AlexNet、VGG、ResNet 等多种经典骨干网络的预训练基准，方便用户快速验证新提出的模型效果。此外，C-3-Framework 拥有强大的实验日志功能，不仅能通过 TensorBoard 可视化损失与结果，还会自动保存包含完整参数设置的代码包，确保任何实验都能随时被精确复现，有效避免了因参数混淆导致的重复工作。\n\n需要注意的是，该项目目前已停止官方维护，作者建议新用户可参考其推荐的 NWPU-Crowd-Sample-Code 或其他优秀开源项目，但 C-3-Framework 依然是一份极具参考价值的人群计数入门与基线","C-3-Framework 是一个基于 PyTorch 开发的开源人群计数代码框架，旨在为监督式人群计数任务提供高效、灵活的开发环境。它主要解决了研究人员在复现经典算法和对比新模型时，面临的数据集预处理繁琐、基准模型缺失以及实验参数难以追溯等痛点。\n\n该框架非常适合从事计算机视觉研究的学者、算法工程师以及相关领域的开发者使用。其核心亮点在于“开箱即用”的便捷性：内置了包括 ShanghaiTech、UCF-QNRF 在内的六个主流数据集的预处理脚本，并提供了 AlexNet、VGG、ResNet 等多种经典骨干网络的预训练基准，方便用户快速验证新提出的模型效果。此外，C-3-Framework 拥有强大的实验日志功能，不仅能通过 TensorBoard 可视化损失与结果，还会自动保存包含完整参数设置的代码包，确保任何实验都能随时被精确复现，有效避免了因参数混淆导致的重复工作。\n\n需要注意的是，该项目目前已停止官方维护，作者建议新用户可参考其推荐的 NWPU-Crowd-Sample-Code 或其他优秀开源项目，但 C-3-Framework 依然是一份极具参考价值的人群计数入门与基线对比资源。","# **C**rowd **C**ounting **C**ode Framework (C^3-Framework) \n\n# Python 3 dev version!\n\nAn open-source PyTorch code for crowd counting\n\n---\n\n**Note: Due to personal reasons, the code will not continue to be maintained. I suggest you use [NWPU-Crowd-Sample-Code](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FNWPU-Crowd-Sample-Code) or use other excellent code in [Awesome-Crowd-Counting](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FAwesome-Crowd-Counting).** \n\n## Technical Blog\n- [2019.05] [Chinese Blog] C^3 Framework系列之一：一个基于PyTorch的开源人群计数框架 [[Link](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F65650998)]\n\n## Goal\n\nThe purpose of this code is an efficient, flexible framework for supervised crowd counting. At the same time, we provide the performances of some basic networks and classic algorithms on the mainstream datasets.\n\n\n## Features\n- **Convenient development kit**. It is a convenient dev kit on the six maintream datasets.\n- **Solid baselines**. It provides some baselines of some classic pre-trained models, such as AlexNet, VGG, ResNet and so on. Base on it, you can easily compare your proposed models' effects with them.\n- **Powerful log**. It does not only record the loss, visualization in Tensorboard, but also save the current code package (including parameters settings). The saved code package can be directly ran to reproduce the experiments at any time. You won't be bothered by forgetting the confused parameters.\n\n\n## Performance\nDue to limited spare time and the number of GPUs, I do not plan to conduct some experiments (named as \"TBD\"). If you are interested in the project, you are welcomed to submit your own experimental parameters and results. GCC(rd,cc,cl) stand for GCC dataset using **r**an**d**om\u002F**c**ross-**c**amera\u002F**c**ross-**l**ocation\u002F splitting, respectively.\n\n\n|          Method          |                GCC(rd,cc,cl)              | UCF-QNRF  |   SHT A   |  SHT B  |\n|--------------------------|-------------------------------------------|-----------|-----------|---------|\n| MCNN (RGB Image)         |102.2\u002F238.3,     140.3\u002F285.7,   176.1\u002F373.9|243.5\u002F364.7|110.6\u002F171.1|21.5\u002F38.1|\n| AlexNet (conv5)          | 46.3\u002F110.9,      83.7\u002F180.3,   101.2\u002F233.6|    TBD    |    TBD    |13.6\u002F21.7|\n| VGG-16 (conv4_3)         |  36.6\u002F88.9,      57.6\u002F133.9,    91.4\u002F222.0|119.3\u002F207.7|71.4\u002F115.7 |10.3\u002F16.5|\n| VGG-16 (conv4_3)+decoder |  37.2\u002F91.2,      56.9\u002F138.3,    88.9\u002F220.9|115.2\u002F189.6|71.5\u002F117.6 |10.5\u002F17.4|\n| ResNet-50 (layer3)       |  32.4\u002F76.1,  **54.5\u002F129.7**,**78.3\u002F201.6**|114.7\u002F205.7|    TBD    |7.7\u002F12.6 |\n| ResNet-101 (layer3)      |  31.9\u002F81.4,      56.8\u002F139.5,    86.9\u002F214.2|    TBD    |    TBD    |**7.6\u002F12.2**|\n| CSRNet                   |  32.6\u002F74.3,      54.6\u002F135.2,    87.3\u002F217.2|    TBD    |69.3\u002F111.9 |10.6\u002F16.6|\n| SANet                    |  42.4\u002F85.4,      79.3\u002F179.9,   110.0\u002F246.0|    TBD    |    TBD    |12.1\u002F19.2|\n| CMTL                     |                       -                   |    TBD    |    TBD    |14.0\u002F22.3|\n| ResSFCN-101 (SFCN+)      |  **26.8\u002F66.1**,  56.5\u002F139.0,    83.5\u002F211.5|112.67\u002F198.27|    TBD    |7.8\u002F12.6 |\n\n\n|          Method          | WE |UCF50|\n|--------------------------|----|-----|\n| MCNN (RGB Image)         |TBD | TBD |\n| AlexNet (conv5)          |TBD | TBD |\n| VGG-16 (conv4_3)         |TBD | TBD |\n| VGG-16 (conv4_3)+decoder |TBD | TBD |\n| ResNet-50 (layer3)       |TBD | TBD |\n| ResNet-101 (layer3)      |TBD | TBD |\n| CSRNet                   |TBD | TBD |\n| SANet                    |TBD | TBD |\n| CMTL                     |TBD | TBD |\n| ResSFCN-101 (SFCN+)      |TBD | TBD |\n\n\n### data processing code\n- [x] GCC\n- [x] UCF-QNRF\n- [x] ShanghaiTech Part_A\n- [x] ShanghaiTech Part_B\n- [x] WorldExpo'10\n- [x] UCF_CC_50\n- [x] UCSD\n- [x] Mall\n\n## Getting Started\n\n### Preparation\n- Prerequisites\n  - Python 3.x\n  - Pytorch 1.0 (some networks only support 0.4): http:\u002F\u002Fpytorch.org .\n  - other libs in ```requirements.txt```, run ```pip install -r requirements.txt```.\n\n\n- Installation\n  - Clone this repo:\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework.git\n    ```\n\n- Data Preparation\n  - In ```.\u002Fdatasets\u002FXXX\u002Freadme.md```, download our processed dataset or run the ```prepare_XXX.m\u002F.py``` to generate the desity maps. If you want to directly download all processeed data (including Shanghai Tech, UCF-QNRF, UCF_CC_50 and WorldExpo'10), please visit the [**link**](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEkxvOVJBVuxPsu75YfYhv9UBKRFNP7WgLdxXFMSeHGhXjQ?e=IdyAzA).\n  - Place the processed data to ```..\u002FProcessedData```.\n\n- Pretrained Model\n  - Some Counting Networks (such as VGG, CSRNet and so on) adopt the pre-trained models on ImageNet. You can download them from [TorchVision](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fvision\u002Ftree\u002Fmaster\u002Ftorchvision\u002Fmodels)\n  - Place the processed model to ```~\u002F.cache\u002Ftorch\u002Fcheckpoints\u002F``` (only for linux OS). \n\n- Folder Tree\n\n    ```\n    +-- C-3-Framework\n    |   +-- datasets\n    |   +-- misc\n    |   +-- ......\n    +-- ProcessedData\n    |   +-- shanghaitech_part_A\n    |   +-- ......\n    ```\n    \n\n### Training\n\n- set the parameters in ```config.py``` and ```.\u002Fdatasets\u002FXXX\u002Fsetting.py``` (if you want to reproduce our results, you are recommonded to use our parameters in ```.\u002Fresults_reports```).\n- run ```python train.py```.\n- run ```tensorboard --logdir=exp --port=6006```.\n\n### Testing\n\nWe only provide an example to test the model on the test set. You may need to modify it to test your own models.\n\n\n### Pretrained Models on GCC\n\nConsidering the large-scale GCC, we provide the pretrained models on GCC using random splitting to save the researcher's training time. You can download them from this [link](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEvH1YcdFBbRJoc7G_Vqv0DwBGmuyXPlH899OrQ54-cybWQ?e=t93edQ). Unfortunately, we've lost the MCNN model trained on GCC, and we will re-train and release it ASAP.\n\n## Tips\n\nIn this code, the validation is directly on the test set. Strictly speaking, it should be evaluated on the val set (randomly selected from the training set, which is adopted in the paper). Here, for a comparable reproduction (namely fixed splitting sets), this code directly adopts the test set for validation, which causes that the results of this code are better than that of our paper. If you use this repo for academic research, you need to select 10% training data (or other value) as validation set. \n\n## Citation\nIf you find this project is useful for your research, please cite:\n```\n@inproceedings{wang2019learning,\n  title={Learning from Synthetic Data for Crowd Counting in the Wild},\n  author={Wang, Qi and Gao, Junyu and Lin, Wei and Yuan, Yuan},\n  booktitle={Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n  pages-{8198--8207},\n  year={2019}\n}\n```\n```\n@article{gao2019c,\n  title={C$^3$ Framework: An Open-source PyTorch Code for Crowd Counting},\n  author={Gao, Junyu and Lin, Wei and Zhao, Bin and Wang, Dong and Gao, Chenyu and Wen, Jun},\n  journal={arXiv preprint arXiv:1907.02724},\n  year={2019}\n}\n```\n","# **C**rowd **C**ounting **C**ode Framework (C^3-Framework) \n\n# Python 3 开发版！\n\n一个开源的基于 PyTorch 的人群计数代码库\n\n---\n\n**注：由于个人原因，该代码将不再继续维护。建议您使用 [NWPU-Crowd-Sample-Code](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FNWPU-Crowd-Sample-Code) 或者参考 [Awesome-Crowd-Counting](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FAwesome-Crowd-Counting) 中的其他优秀代码。**\n\n## 技术博客\n- [2019.05] [中文博客] C^3 Framework系列之一：一个基于PyTorch的开源人群计数框架 [[链接](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F65650998)]\n\n## 目标\n\n本代码旨在提供一个高效、灵活的监督式人群计数框架。同时，我们还提供了若干基础网络及经典算法在主流数据集上的性能表现。\n\n## 特性\n- **便捷的开发工具包**。它支持六个主流数据集，是一个非常方便的开发工具包。\n- **坚实的基线模型**。提供了包括 AlexNet、VGG、ResNet 等在内的经典预训练模型作为基准。基于这些基准，您可以轻松地将自己的模型效果与其进行对比。\n- **强大的日志记录功能**。不仅会记录损失值和 TensorBoard 可视化结果，还会保存当前的代码包（包括参数设置）。保存下来的代码包可以随时直接运行以复现实验，无需担心忘记复杂的参数配置。\n\n## 性能表现\n由于时间和 GPU 资源有限，部分实验暂未完成（标记为“TBD”）。如果您对该项目感兴趣，欢迎提交您自己的实验参数和结果。GCC(rd,cc,cl) 分别代表 GCC 数据集采用 **r**an**d**om\u002F**c**ross-**c**amera\u002F**c**ross-**l**ocation 划分方式。\n\n|          方法          |                GCC(rd,cc,cl)              | UCF-QNRF  |   SHT A   |  SHT B  |\n|--------------------------|-------------------------------------------|-----------|-----------|---------|\n| MCNN (RGB 图像)         |102.2\u002F238.3,     140.3\u002F285.7,   176.1\u002F373.9|243.5\u002F364.7|110.6\u002F171.1|21.5\u002F38.1|\n| AlexNet (conv5)          | 46.3\u002F110.9,      83.7\u002F180.3,   101.2\u002F233.6|    TBD    |    TBD    |13.6\u002F21.7|\n| VGG-16 (conv4_3)         |  36.6\u002F88.9,      57.6\u002F133.9,    91.4\u002F222.0|119.3\u002F207.7|71.4\u002F115.7 |10.3\u002F16.5|\n| VGG-16 (conv4_3)+decoder |  37.2\u002F91.2,      56.9\u002F138.3,    88.9\u002F220.9|115.2\u002F189.6|71.5\u002F117.6 |10.5\u002F17.4|\n| ResNet-50 (layer3)       |  32.4\u002F76.1,  **54.5\u002F129.7**,**78.3\u002F201.6**|114.7\u002F205.7|    TBD    |7.7\u002F12.6 |\n| ResNet-101 (layer3)      |  31.9\u002F81.4,      56.8\u002F139.5,    86.9\u002F214.2|    TBD    |    TBD    |**7.6\u002F12.2**|\n| CSRNet                   |  32.6\u002F74.3,      54.6\u002F135.2,    87.3\u002F217.2|    TBD    |69.3\u002F111.9 |10.6\u002F16.6|\n| SANet                    |  42.4\u002F85.4,      79.3\u002F179.9,   110.0\u002F246.0|    TBD    |    TBD    |12.1\u002F19.2|\n| CMTL                     |                       -                   |    TBD    |    TBD    |14.0\u002F22.3|\n| ResSFCN-101 (SFCN+)      |  **26.8\u002F66.1**,  56.5\u002F139.0,    83.5\u002F211.5|112.67\u002F198.27|    TBD    |7.8\u002F12.6 |\n\n\n|          方法          | WE |UCF50|\n|--------------------------|----|-----|\n| MCNN (RGB Image)         |TBD | TBD |\n| AlexNet (conv5)          |TBD | TBD |\n| VGG-16 (conv4_3)         |TBD | TBD |\n| VGG-16 (conv4_3)+decoder |TBD | TBD |\n| ResNet-50 (layer3)       |TBD | TBD |\n| ResNet-101 (layer3)      |TBD | TBD |\n| CSRNet                   |TBD | TBD |\n| SANet                    |TBD | TBD |\n| CMTL                     |TBD | TBD |\n| ResSFCN-101 (SFCN+)      |TBD | TBD |\n\n\n### 数据处理代码\n- [x] GCC\n- [x] UCF-QNRF\n- [x] ShanghaiTech Part_A\n- [x] ShanghaiTech Part_B\n- [x] WorldExpo'10\n- [x] UCF_CC_50\n- [x] UCSD\n- [x] Mall\n\n## 快速入门\n\n### 准备工作\n- 前置条件\n  - Python 3.x\n  - Pytorch 1.0（部分网络仅支持 0.4）：http:\u002F\u002Fpytorch.org 。\n  - ```requirements.txt``` 中列出的其他依赖库，请运行 ```pip install -r requirements.txt``` 安装。\n\n- 安装\n  - 克隆本仓库：\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework.git\n    ```\n\n- 数据准备\n  - 在 ```.\u002Fdatasets\u002FXXX\u002Freadme.md``` 中下载我们处理好的数据集，或者运行 ```prepare_XXX.m\u002F.py``` 生成密度图。如果您想直接下载所有已处理的数据（包括 Shanghai Tech、UCF-QNRF、UCF_CC_50 和 WorldExpo'10），请访问 [**链接**](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEkxvOVJBVuxPsu75YfYhv9UBKRFNP7WgLdxXFMSeHGhXjQ?e=IdyAzA)。\n  - 将处理好的数据放入 ```..\u002FProcessedData``` 目录中。\n\n- 预训练模型\n  - 一些计数网络（如 VGG、CSRNet 等）采用了 ImageNet 上的预训练模型。您可以从 [TorchVision](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fvision\u002Ftree\u002Fmaster\u002Ftorchvision\u002Fmodels) 下载这些模型。\n  - 将下载的模型放置于 ```~\u002F.cache\u002Ftorch\u002Fcheckpoints\u002F``` 目录下（仅适用于 Linux 系统）。\n\n- 文件夹结构\n\n    ```\n    +-- C-3-Framework\n    |   +-- datasets\n    |   +-- misc\n    |   +-- ......\n    +-- ProcessedData\n    |   +-- shanghaitech_part_A\n    |   +-- ......\n    ```\n    \n\n### 训练\n\n- 在 ```config.py``` 和 ```.\u002Fdatasets\u002FXXX\u002Fsetting.py``` 中设置参数（若想复现我们的结果，建议使用 ```.\u002Fresults_reports``` 中的参数）。\n- 运行 ```python train.py```。\n- 启动 TensorBoard：```tensorboard --logdir=exp --port=6006```。\n\n### 测试\n\n我们仅提供了一个在测试集上测试模型的示例。您可能需要根据自己的模型对其进行修改。\n\n### GCC 数据集上的预训练模型\n\n考虑到 GCC 数据集规模庞大，我们提供了采用随机划分方式的 GCC 预训练模型，以节省研究人员的训练时间。您可以从这个 [链接](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEvH1YcdFBbRJoc7G_Vqv0DwBGmuyXPlH899OrQ54-cybWQ?e=t93edQ) 下载。遗憾的是，我们在 GCC 上训练的 MCNN 模型已经丢失，我们将尽快重新训练并发布。\n\n## 小贴士\n\n在本代码中，验证集直接使用了测试集。严格来说，应该在验证集上进行评估（即从训练集中随机选取的部分，这也是论文中采用的方式）。然而，为了便于复现结果（即固定划分的训练集和测试集），本代码直接使用测试集作为验证集，这导致代码中的结果略优于论文中的结果。如果您将此仓库用于学术研究，请务必从训练集中抽取 10% 的数据作为验证集。\n\n## 引用\n如果您认为本项目对您的研究有帮助，请引用以下文献：\n```\n@inproceedings{wang2019learning,\n  title={从合成数据中学习以实现野外人群计数},\n  author={Wang, Qi 和 Gao, Junyu 和 Lin, Wei 和 Yuan, Yuan},\n  booktitle={IEEE 计算机视觉与模式识别会议（CVPR）论文集},\n  pages={8198--8207},\n  year={2019}\n}\n```\n```\n@article{gao2019c,\n  title={C$^3$ 框架：用于人群计数的开源 PyTorch 代码},\n  author={Gao, Junyu 和 Lin, Wei 和 Zhao, Bin 和 Wang, Dong 和 Gao, Chenyu 和 Wen, Jun},\n  journal={arXiv 预印本 arXiv:1907.02724},\n  year={2019}\n}\n```","# C-3-Framework 快速上手指南\n\nC-3-Framework 是一个基于 PyTorch 的开源人群计数代码框架，旨在提供高效、灵活的开发环境，并包含多个经典算法在主流数据集上的基准性能。\n\n> **注意**：原作者因个人原因已停止维护该项目。建议开发者参考 [NWPU-Crowd-Sample-Code](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FNWPU-Crowd-Sample-Code) 或 [Awesome-Crowd-Counting](https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FAwesome-Crowd-Counting) 中的其他优秀代码。本指南仅基于现有代码整理。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**：Linux (推荐) 或其他支持 PyTorch 的系统\n- **Python 版本**：Python 3.x\n- **PyTorch 版本**：PyTorch 1.0 (部分网络仅支持 0.4 版本)\n\n### 前置依赖\n安装项目所需的 Python 库：\n```bash\npip install -r requirements.txt\n```\n*注：国内用户可使用清华源加速安装：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`*\n\n### 预训练模型\n部分计数网络（如 VGG, CSRNet 等）需要使用 ImageNet 预训练模型。\n- 下载地址：[TorchVision Models](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fvision\u002Ftree\u002Fmaster\u002Ftorchvision\u002Fmodels)\n- 存放路径（Linux）：`~\u002F.cache\u002Ftorch\u002Fcheckpoints\u002F`\n\n## 2. 安装步骤\n\n### 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework.git\ncd C-3-Framework\n```\n\n### 数据准备\n框架支持 GCC, UCF-QNRF, ShanghaiTech (Part_A\u002FB), WorldExpo'10 等多个数据集。\n\n1. **下载处理后的数据**：\n   你可以直接下载作者处理好的数据集（包含密度图），或者运行 `prepare_XXX.m\u002F.py` 自行生成。\n   - 下载链接：[Processed Data Link](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEkxvOVJBVuxPsu75YfYhv9UBKRFNP7WgLdxXFMSeHGhXjQ?e=IdyAzA)\n   \n2. **放置数据**：\n   将下载并解压后的数据文件夹移动到项目根目录下的 `..\u002FProcessedData` 目录中。\n\n   **目录结构示例**：\n   ```text\n   +-- C-3-Framework\n   |   +-- datasets\n   |   +-- misc\n   |   +-- ......\n   +-- ProcessedData\n   |   +-- shanghaitech_part_A\n   |   +-- ......\n   ```\n\n## 3. 基本使用\n\n### 训练模型 (Training)\n\n1. **配置参数**：\n   修改 `config.py` 以及对应数据集目录下的 `.\u002Fdatasets\u002FXXX\u002Fsetting.py`。\n   *提示：若要复现论文结果，建议直接使用 `.\u002Fresults_reports` 文件夹中提供的参数配置。*\n\n2. **开始训练**：\n   ```bash\n   python train.py\n   ```\n\n3. **查看日志**：\n   使用 TensorBoard 可视化训练过程中的 Loss 和结果：\n   ```bash\n   tensorboard --logdir=exp --port=6006\n   ```\n   然后在浏览器访问 `http:\u002F\u002Flocalhost:6006`。\n\n### 测试模型 (Testing)\n\n项目提供了在测试集上评估模型的示例脚本。由于不同模型结构可能存在差异，你可能需要根据实际情况修改测试代码以适配你自己的模型。\n\n### 使用 GCC 预训练模型\n为了节省大规模 GCC 数据集的训练时间，作者提供了基于随机划分的预训练模型。\n- 下载链接：[GCC Pretrained Models](https:\u002F\u002Fmailnwpueducn-my.sharepoint.com\u002F:f:\u002Fg\u002Fpersonal\u002Fgjy3035_mail_nwpu_edu_cn\u002FEvH1YcdFBbRJoc7G_Vqv0DwBGmuyXPlH899OrQ54-cybWQ?e=t93edQ)\n- *注意：MCNN 模型的预训练权重暂时丢失，作者计划重新训练后发布。*\n\n---\n**学术引用**\n如果在研究中使用了本项目，请引用以下论文：\n```bibtex\n@inproceedings{wang2019learning,\n  title={Learning from Synthetic Data for Crowd Counting in the Wild},\n  author={Wang, Qi and Gao, Junyu and Lin, Wei and Yuan, Yuan},\n  booktitle={Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},\n  pages={8198--8207},\n  year={2019}\n}\n@article{gao2019c,\n  title={C$^3$ Framework: An Open-source PyTorch Code for Crowd Counting},\n  author={Gao, Junyu and Lin, Wei and Zhao, Bin and Wang, Dong and Gao, Chenyu and Wen, Jun},\n  journal={arXiv preprint arXiv:1907.02724},\n  year={2019}\n}\n```","某智慧城市研发团队正在为大型交通枢纽开发实时人流监控系统，需要基于深度学习算法准确估算高密度人群数量以预防拥堵。\n\n### 没有 C-3-Framework 时\n- **数据预处理繁琐**：面对 ShanghaiTech、UCF-QNRF 等主流数据集，工程师需手动编写大量脚本进行格式转换和密度图生成，耗时且易出错。\n- **基线复现困难**：缺乏统一的基准代码，想要对比 ResNet 或 VGG 等经典模型在人群计数任务上的表现，需从零搭建网络结构，难以保证实验公平性。\n- **实验管理混乱**：训练过程中参数组合繁多，缺乏自动记录机制，常因忘记具体的超参数设置而导致实验无法复现，排查问题效率极低。\n\n### 使用 C-3-Framework 后\n- **开箱即用数据处理**：直接调用框架内置的数据处理模块，一键完成六大主流数据集的加载与预处理，将数据准备时间从数天缩短至几小时。\n- **坚实基线快速对比**：利用框架预置的 AlexNet、ResNet 等经典模型基线，团队能立即运行测试并获得标准性能指标，快速验证新提出算法的优越性。\n- **全流程实验追溯**：借助强大的日志功能，系统自动记录损失曲线、TensorBoard 可视化结果及当前代码包，任何历史实验均可通过保存的参数包随时精确复现。\n\nC-3-Framework 通过提供标准化的开发套件和可复现的实验环境，让人群计数算法的研发从繁琐的工程搭建回归到核心的模型创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgjy3035_C-3-Framework_dfcfd6f4.png","gjy3035","Junyu Gao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgjy3035_282331ec.png","Computer vision","NWPU","Xi'an, China","gjy3035@gmail.com",null,"https:\u002F\u002Fgithub.com\u002Fgjy3035",[86,90,94],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",92.2,{"name":91,"color":92,"percentage":93},"Python","#3572A5",7.3,{"name":95,"color":96,"percentage":97},"MATLAB","#e16737",0.4,730,199,"2026-04-03T07:24:27","MIT","Linux","需要 NVIDIA GPU（文中提到受限于 GPU 数量），具体型号和显存未说明，需支持 PyTorch 1.0\u002F0.4 的 CUDA 版本","未说明",{"notes":106,"python":107,"dependencies":108},"1. 该项目已停止维护，作者建议使用其他替代方案。2. 部分网络仅支持 PyTorch 0.4 版本，主流支持 1.0。3. 预训练模型默认存放于 Linux 路径 ~\u002F.cache\u002Ftorch\u002Fcheckpoints\u002F。4. 代码默认直接在测试集上进行验证以复现结果，学术研究建议自行划分验证集。5. 需手动下载处理后的数据集和 ImageNet 预训练模型。","3.x (开发版)",[109,110,111,112],"torch==1.0","torchvision","tensorboard","requirements.txt 中列出的其他库",[13,14],[115,116,117,118],"crowd-counting","crowd-analysis","computer-vision","deep-learning","2026-03-27T02:49:30.150509","2026-04-06T07:14:51.586906",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},15568,"为什么代码中将测试集直接当作验证集使用？这样是否会导致过拟合？","这样做的主要目的是为了确保实验结果的可复现性。在人群计数这类小数据集上，不同的验证集划分策略和随机性会对实验结果产生较大影响。虽然严格来说拿测试集当验证集有学术上的争议（可能导致过拟合测试集），但为了保证在不同环境下参数和数据一致时的复现效果，该仓库选择将测试集作为验证集。如果在自己的论文研究中，建议严格按照随机策略划分独立的验证集。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F19",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},15569,"训练时出现输入图像与目标标签（GT）尺寸不匹配的报错（RuntimeError: The size of tensor a must match the size of tensor b），如何解决？","这通常是因为模型（如 MCNN）包含上采样操作（例如 4 倍上采样），如果输入图像的尺寸不是上采样倍数的整数倍，会导致预测图（pred）与真实标签图（gt）的尺寸不一致。解决方法是在数据预处理阶段，将图像尺寸裁剪或填充为模型下采样倍数的整数倍。例如，可以在获取最小尺寸的函数中增加取整逻辑：`min_ht = int(min_ht \u002F\u002F 4 * 4)` 和 `min_wd = int(min_wd \u002F\u002F 4 * 4)`，确保高宽都能被 4 整除。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F105",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},15570,"如何复现 CMTL 模型？遇到网络无法收敛的问题怎么办？","CMTL 复现困难的主要原因通常是网络权重的初始化方式。建议在代码中使用特定的初始化函数（如 `initialize_weights()`）对网络进行初始化，否则网络可能无法收敛。此外，还可以尝试调整以下参数以加速收敛或改善效果：学习率、分类分支的 loss 权重系数、像素值的扩大系数以及 batch-size（注意当 batch-size 不为 1 时，学习率不宜过低）。如果问题依旧，可以尝试暂时将分类 loss 权重置零，仅训练回归部分进行排查。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F2",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},15571,"SANet 模型应该在什么版本的 PyTorch 下运行？其测试阶段的评估方案是如何实现的？","SANet 目前主要建议在 PyTorch 0.4 版本下进行训练。关于测试评估方案，原作者采用了将全图分为九个互相重叠的 1\u002F4 patch 进行测试的方法。具体操作是：采用 1\u002F4 大小的窗口在原图上进行滑窗操作，高度和宽度方向的步长（stride）设为原图高宽的 1\u002F8，以保证相邻 patch 有 50% 的重叠。对于重叠区域，计算每个像素点所属 patch 的距离，取最小距离对应的 patch 结果作为该像素的最终密度值。不过维护者指出，这种复杂的测试方式与直接全图测试相比性能提升并不绝对显著。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F1",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},15572,"如何使用 Python 生成模型训练所需的 .mat 格式 Ground Truth 文件，而不依赖 MATLAB？","虽然原仓库提供了 MATLAB 脚本（如 `prepare_SHHB.m`）来生成 CSV 和 .mat 文件，但社区用户推荐使用现有的 Python 脚本来替代。可以参考 GitHub 用户 `gaoguangshuai` 开源的 Python 脚本集合（路径参考：`survey-for-crowd-counting\u002Ftree\u002Fmaster\u002FPython-script`），这些脚本能够完成从标注点生成 .mat 文件的过程，从而避免使用 MATLAB。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F68",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},15573,"使用 ResNet-50 骨干网络在上海滩 A (SHHA) 数据集上训练效果不佳（MAE 很高），有什么建议或更好的模型吗？","ResNet-50 在 SHHA 数据集上表现不佳可能与 Batch Size 设置有关。由于 SHHA 图片分辨率较大，往往只能设置 Batch Size=1，而 ResNet 中的 Batch Norm 层在单样本训练时效果会受影响（统计量计算不准确）。维护者曾计划提供一个优化后的基于 ResNet-50 的网络版本，其在上海滩 B (SHHB) 上的结果远好于原生 ResNet-50，且在 SHHA 上的 MAE 能逼近 60。如果遇到此问题，建议检查 Batch Norm 层的设置，或者寻找社区中已发布的改进版 ResNet-50 配置。","https:\u002F\u002Fgithub.com\u002Fgjy3035\u002FC-3-Framework\u002Fissues\u002F10",[]]