[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GantMan--nsfw_model":3,"tool-GantMan--nsfw_model":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":23,"env_os":102,"env_gpu":102,"env_ram":102,"env_deps":103,"category_tags":111,"github_topics":112,"view_count":23,"oss_zip_url":118,"oss_zip_packed_at":118,"status":16,"created_at":119,"updated_at":120,"faqs":121,"releases":161},2102,"GantMan\u002Fnsfw_model","nsfw_model","Keras model of NSFW detector","nsfw_model 是一个基于深度学习的内容安全检测模型，旨在帮助开发者和企业自动识别图像中是否包含不适宜在工作场所展示（NSFW）的内容。它能够有效区分五类图像：普通绘图、色情绘图、正常照片、色情图片以及性感但不构成色情的内容，从而解决人工审核成本高、效率低以及内容风控难度大等痛点。\n\n该模型适合需要构建内容过滤系统的开发者、从事计算机视觉研究的研究人员，以及希望为产品增加安全层的初创团队使用。其核心亮点在于经过超过 60GB 数据训练，基于 Inception V3 架构实现了约 93% 的高准确率，并提供了轻量级的 Mobilenet V2 版本以适应不同性能需求的场景。此外，nsfw_model 不仅支持 Keras 和 TensorFlow 环境下的 Python 调用及命令行操作，还衍生出了著名的 NSFW JS 库，让前端开发者也能轻松在浏览器端实现实时检测。无论是处理单张图片还是批量扫描目录，它都能提供快速、可靠的分类概率结果，是构建健康网络环境的实用开源利器。","![NSFW Detector logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_3f7e58473fa1.png)\n\n# NSFW Detection Machine Learning Model\n\n[![All Contributors](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fall_contributors-2-orange.svg?style=flat-square)](#contributors)\n\nTrained on 60+ Gigs of data to identify:\n- `drawings` - safe for work drawings (including anime)\n- `hentai` - hentai and pornographic drawings\n- `neutral` - safe for work neutral images\n- `porn` - pornographic images, sexual acts\n- `sexy` - sexually explicit images, not pornography\n\nThis model powers [NSFW JS](https:\u002F\u002Fgithub.com\u002Finfinitered\u002Fnsfwjs) - [More Info](https:\u002F\u002Fshift.infinite.red\u002Favoid-nightmares-nsfw-js-ab7b176978b1)\n\n## Current Status:\n\n93% Accuracy with the following confusion matrix, based on Inception V3.\n![nsfw confusion matrix](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_8950ef107cf7.png)\n\n## Requirements:\n\nSee [requirements.txt](requirements.txt).\n\n## Usage\n\nFor programmatic use of the library. \n\n```python\nfrom nsfw_detector import predict\nmodel = predict.load_model('.\u002Fnsfw_mobilenet2.224x224.h5')\n\n# Predict single image\npredict.classify(model, '2.jpg')\n# {'2.jpg': {'sexy': 4.3454722e-05, 'neutral': 0.00026579265, 'porn': 0.0007733492, 'hentai': 0.14751932, 'drawings': 0.85139805}}\n\n# Predict multiple images at once\npredict.classify(model, ['\u002FUsers\u002Fbedapudi\u002FDesktop\u002F2.jpg', '\u002FUsers\u002Fbedapudi\u002FDesktop\u002F6.jpg'])\n# {'2.jpg': {'sexy': 4.3454795e-05, 'neutral': 0.00026579312, 'porn': 0.0007733498, 'hentai': 0.14751942, 'drawings': 0.8513979}, '6.jpg': {'drawings': 0.004214506, 'hentai': 0.013342537, 'neutral': 0.01834045, 'porn': 0.4431829, 'sexy': 0.5209196}}\n\n# Predict for all images in a directory\npredict.classify(model, '\u002FUsers\u002Fbedapudi\u002FDesktop\u002F')\n\n```\n\nIf you've installed the package or use the command-line this should work, too...\n\n```sh\n# a single image\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n\n# an image directory\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source images\n\n# a single image (from code\u002FCLI)\npython3 nsfw_detector\u002Fpredict.py --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n\n```\n\n\n## Download\nPlease feel free to use this model to help your products!  \n\nIf you'd like to [say thanks for creating this, I'll take a donation for hosting costs](https:\u002F\u002Fwww.paypal.me\u002FGantLaborde).\n\n# Latest Models Zip (v1.1.0)\nhttps:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Freleases\u002Ftag\u002F1.1.0\n\n### Original Inception v3 Model (v1.0)\n* [Keras 299x299 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfw.299x299.h5)\n* [TensorflowJS 299x299 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfwjs.zip)\n* [TensorflowJS Quantized 299x299 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fmin_nsfwjs.zip)\n* [Tensorflow 299x299 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfw.299x299.pb) - [Graph if Needed](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n\n### Original Mobilenet v2 Model (v1.0)\n* [Keras 224x224 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002Fnsfw_mobilenet2.224x224.h5)\n* [TensorflowJS 224x224 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTFJS_nsfw_mobilenet\u002Ftfjs_nsfw_mobilenet.zip)\n* [TensorflowJS Quantized 224x224 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTFJS_nsfw_mobilenet\u002Ftfjs_quant_nsfw_mobilenet.zip)\n* [Tensorflow 224x224 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTF_nsfw_mobilenet\u002Fnsfw_mobilenet.pb) - [Graph if Needed](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n* [Tensorflow Quantized 224x224 Image Model](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTF_nsfw_mobilenet\u002Fquant_nsfw_mobilenet.pb) - [Graph if Needed](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n\n## PyTorch Version\nKudos to the community for creating a PyTorch version with resnet!\nhttps:\u002F\u002Fgithub.com\u002Fyangbisheng2009\u002Fnsfw-resnet\n\n## TF1 Training Folder Contents\nSimple description of the scripts used to create this model:\n* `inceptionv3_transfer\u002F` - Folder with all the code to train the Keras based Inception v3 transfer learning model.  Includes `constants.py` for configuration, and two scripts for actual training\u002Frefinement.\n* `mobilenetv2_transfer\u002F` - Folder with all the code to train the Keras based Mobilenet v2 transfer learning model.\n* `visuals.py` - The code to create the confusion matrix graphic\n* `self_clense.py` - If the training data has significant inaccuracy, `self_clense` helps cross validate errors in the training data in reasonable time.   The better the model gets, the better you can use it to clean the training data manually.\n\n_e.g._\n```bash\ncd training\n# Start with all locked transfer of Inception v3\npython inceptionv3_transfer\u002Ftrain_initialization.py\n\n# Continue training on model with fine-tuning\npython inceptionv3_transfer\u002Ftrain_fine_tune.py\n\n# Create a confusion matrix of the model\npython visuals.py\n```\n\n## Extra Info\nThere's no easy way to distribute the training data, but if you'd like to help with this model or train other models, get in touch with me and we can work together.\n\nAdvancements in this model power the quantized TFJS module on https:\u002F\u002Fnsfwjs.com\u002F\n\nMy Twitter is [@GantLaborde](https:\u002F\u002Ftwitter.com\u002FGantLaborde) - I'm a School Of AI Wizard New Orleans.  I run the twitter account [@FunMachineLearn](https:\u002F\u002Ftwitter.com\u002FFunMachineLearn)\n\nLearn more about [me](http:\u002F\u002Fgantlaborde.com\u002F) and the [company I work for](https:\u002F\u002Finfinite.red\u002F).\n\nSpecial thanks to the [nsfw_data_scraper](https:\u002F\u002Fgithub.com\u002Falexkimxyz\u002Fnsfw_data_scrapper) for the training data.  If you're interested in a more detailed analysis of types of NSFW images, you could probably use this repo code with [this data](https:\u002F\u002Fgithub.com\u002FEBazarov\u002Fnsfw_data_source_urls).\n\nIf you need React Native, Elixir, AI, or Machine Learning work, check in with us at [Infinite Red](https:\u002F\u002Finfinite.red\u002F), who make all these experiments possible.  We're an amazing software consultancy worldwide!\n\n## Cite\n```\n@misc{man,\n  title={Deep NN for NSFW Detection},\n  url={https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model},\n  journal={GitHub},\n  author={Laborde, Gant}}\n```\n\n## Contributors\n\nThanks goes to these wonderful people ([emoji key](https:\u002F\u002Fgithub.com\u002Fkentcdodds\u002Fall-contributors#emoji-key)):\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:START - Do not remove or modify this section -->\n| [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_bdc9af73a5ae.png\" width=\"100px;\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Gant Laborde\u003C\u002Fb>\u003C\u002Fsub>](http:\u002F\u002Fgantlaborde.com\u002F)\u003Cbr \u002F>[💻](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=GantMan \"Code\") [📖](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=GantMan \"Documentation\") [🤔](#ideas-GantMan \"Ideas, Planning, & Feedback\") | [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_6d79ec4efcfc.png\" width=\"100px;\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Bedapudi Praneeth\u003C\u002Fb>\u003C\u002Fsub>](http:\u002F\u002Fbpraneeth.com)\u003Cbr \u002F>[💻](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=bedapudi6788 \"Code\") [🤔](#ideas-bedapudi6788 \"Ideas, Planning, & Feedback\") |\n| :---: | :---: |\n\u003C!-- ALL-CONTRIBUTORS-LIST:END -->\n\nThis project follows the [all-contributors](https:\u002F\u002Fgithub.com\u002Fkentcdodds\u002Fall-contributors) specification. Contributions of any kind welcome!\n","![NSFW检测器logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_3f7e58473fa1.png)\n\n# NSFW检测机器学习模型\n\n[![所有贡献者](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fall_contributors-2-orange.svg?style=flat-square)](#contributors)\n\n基于60多GB的数据训练而成，用于识别：\n- `drawings` - 适合工作场所的插画（包括动漫）\n- `hentai` - 限制级及色情插画\n- `neutral` - 适合工作场所的中性图片\n- `porn` - 色情图片、性行为内容\n- `sexy` - 性暗示图片，但不属于色情内容\n\n该模型为[NSFW JS](https:\u002F\u002Fgithub.com\u002Finfinitered\u002Fnsfwjs)提供支持 - [更多信息](https:\u002F\u002Fshift.infinite.red\u002Favoid-nightmares-nsfw-js-ab7b176978b1)\n\n## 当前状态：\n\n基于Inception V3模型，准确率为93%，混淆矩阵如下所示。\n![nsfw混淆矩阵](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_8950ef107cf7.png)\n\n## 需求：\n\n请参阅[requirements.txt](requirements.txt)。\n\n## 使用方法\n\n用于程序化调用本库。\n\n```python\nfrom nsfw_detector import predict\nmodel = predict.load_model('.\u002Fnsfw_mobilenet2.224x224.h5')\n\n# 对单张图片进行预测\npredict.classify(model, '2.jpg')\n# {'2.jpg': {'sexy': 4.3454722e-05, 'neutral': 0.00026579265, 'porn': 0.0007733492, 'hentai': 0.14751932, 'drawings': 0.85139805}}\n\n# 同时对多张图片进行预测\npredict.classify(model, ['\u002FUsers\u002Fbedapudi\u002FDesktop\u002F2.jpg', '\u002FUsers\u002Fbedapudi\u002FDesktop\u002F6.jpg'])\n# {'2.jpg': {'sexy': 4.3454795e-05, 'neutral': 0.00026579312, 'porn': 0.0007733498, 'hentai': 0.14751942, 'drawings': 0.8513979}, '6.jpg': {'drawings': 0.004214506, 'hentai': 0.013342537, 'neutral': 0.01834045, 'porn': 0.4431829, 'sexy': 0.5209196}}\n\n# 对目录中的所有图片进行预测\npredict.classify(model, '\u002FUsers\u002Fbedapudi\u002FDesktop\u002F')\n\n```\n\n如果您已安装该软件包或使用命令行工具，以下方式同样适用……\n\n```sh\n# 单张图片\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n\n# 图片目录\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source images\n\n# 单张图片（通过代码\u002FCLI）\npython3 nsfw_detector\u002Fpredict.py --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n\n```\n\n\n## 下载\n欢迎使用此模型来助力您的产品！\n\n如果您想表达感谢，我接受用于支付服务器费用的捐赠：[点击这里](https:\u002F\u002Fwww.paypal.me\u002FGantLaborde)。\n\n# 最新模型压缩包（v1.1.0）\nhttps:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Freleases\u002Ftag\u002F1.1.0\n\n### 原始Inception v3模型（v1.0）\n* [Keras 299x299图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfw.299x299.h5)\n* [TensorFlow.js 299x299图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfwjs.zip)\n* [TensorFlow.js量化299x299图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fmin_nsfwjs.zip)\n* [TensorFlow 299x299图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fai\u002Fnsfw_models\u002Fnsfw.299x299.pb) - [如需查看计算图，请参考](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n\n### 原始MobileNet v2模型（v1.0）\n* [Keras 224x224图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002Fnsfw_mobilenet2.224x224.h5)\n* [TensorFlow.js 224x224图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTFJS_nsfw_mobilenet\u002Ftfjs_nsfw_mobilenet.zip)\n* [TensorFlow.js量化224x224图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTFJS_nsfw_mobilenet\u002Ftfjs_quant_nsfw_mobilenet.zip)\n* [TensorFlow 224x224图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTF_nsfw_mobilenet\u002Fnsfw_mobilenet.pb) - [如需查看计算图，请参考](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n* [TensorFlow量化224x224图像模型](https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002FTF_nsfw_mobilenet\u002Fquant_nsfw_mobilenet.pb) - [如需查看计算图，请参考](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Ftools\u002Fgraph_transforms#inspecting-graphs)\n\n## PyTorch版本\n感谢社区开发了基于ResNet的PyTorch版本！\nhttps:\u002F\u002Fgithub.com\u002Fyangbisheng2009\u002Fnsfw-resnet\n\n## TF1训练文件夹内容\n用于创建此模型的脚本简单说明：\n* `inceptionv3_transfer\u002F` - 包含所有用于训练基于Keras的Inception v3迁移学习模型的代码。其中包括用于配置的`constants.py`，以及两段实际训练和微调的脚本。\n* `mobilenetv2_transfer\u002F` - 包含所有用于训练基于Keras的MobileNet v2迁移学习模型的代码。\n* `visuals.py` - 用于生成混淆矩阵图形的代码。\n* `self_clense.py` - 如果训练数据存在较大误差，`self_clense`可以帮助在合理时间内交叉验证并修正训练数据中的错误。随着模型性能的提升，您也可以利用它手动清理训练数据。\n\n_例如_\n```bash\ncd training\n# 首先从锁定的Inception v3迁移开始\npython inceptionv3_transfer\u002Ftrain_initialization.py\n\n# 继续对模型进行微调训练\npython inceptionv3_transfer\u002Ftrain_fine_tune.py\n\n# 生成模型的混淆矩阵\npython visuals.py\n```\n\n## 补充信息\n目前尚无便捷的方式分发训练数据，但如果您希望参与本模型的改进或其他模型的训练，请与我联系，我们可以共同合作。\n\n该模型的最新进展推动了https:\u002F\u002Fnsfwjs.com\u002F上的量化TFJS模块的开发。\n\n我的Twitter账号是[@GantLaborde](https:\u002F\u002Ftwitter.com\u002FGantLaborde) - 我是新奥尔良AI学院的专家。同时运营着[@FunMachineLearn](https:\u002F\u002Ftwitter.com\u002FFunMachineLearn)账号。\n\n更多关于[我](http:\u002F\u002Fgantlaborde.com\u002F)以及[我所在公司](https:\u002F\u002Finfinite.red\u002F)的信息，请访问相关链接。\n\n特别感谢[nsfw_data_scraper](https:\u002F\u002Fgithub.com\u002Falexkimxyz\u002Fnsfw_data_scrapper)提供的训练数据。如果您对NSFW图像类型有更深入的研究兴趣，或许可以结合此仓库的代码与[这些数据](https:\u002F\u002Fgithub.com\u002FEBazarov\u002Fnsfw_data_source_urls)一起使用。\n\n如果您需要React Native、Elixir、AI或机器学习相关的服务，请联系我们[Infinite Red](https:\u002F\u002Finfinite.red\u002F)，正是他们让这些实验成为可能。我们是一家全球领先的优秀软件咨询公司！\n\n## 引用\n```\n@misc{man,\n  title={Deep NN for NSFW Detection},\n  url={https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model},\n  journal={GitHub},\n  author={Laborde, Gant}}\n```\n\n## 贡献者\n\n感谢以下各位优秀的朋友（[emoji key](https:\u002F\u002Fgithub.com\u002Fkentcdodds\u002Fall-contributors#emoji-key)）：\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:START - 请勿删除或修改此部分 -->\n| [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_bdc9af73a5ae.png\" width=\"100px;\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Gant Laborde\u003C\u002Fb>\u003C\u002Fsub>](http:\u002F\u002Fgantlaborde.com\u002F)\u003Cbr \u002F>[💻](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=GantMan \"代码\") [📖](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=GantMan \"文档\") [🤔](#ideas-GantMan \"想法、规划与反馈\") | [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_readme_6d79ec4efcfc.png\" width=\"100px;\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Bedapudi Praneeth\u003C\u002Fb>\u003C\u002Fsub>](http:\u002F\u002Fbpraneeth.com)\u003Cbr \u002F>[💻](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fcommits?author=bedapudi6788 \"代码\") [🤔](#ideas-bedapudi6788 \"想法、规划与反馈\") |\n| :---: | :---: |\n\u003C!-- ALL-CONTRIBUTORS-LIST:END -->\n\n本项目遵循 [all-contributors](https:\u002F\u002Fgithub.com\u002Fkentcdodds\u002Fall-contributors) 规范。欢迎任何形式的贡献！","# nsfw_model 快速上手指南\n\n`nsfw_model` 是一个基于深度学习的内容安全检测模型，能够识别图片是否包含色情、性感内容或属于绘画作品。该模型在超过 60GB 的数据集上训练而成，准确率约为 93%。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：建议 Python 3.6+\n- **依赖库**：请确保安装 `requirements.txt` 中列出的依赖（主要包括 TensorFlow\u002FKeras 等深度学习框架）。\n\n> 💡 提示：国内用户可使用清华或阿里镜像源加速 pip 安装：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1. 克隆项目仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model.git\n   cd nsfw_model\n   ```\n\n2. 安装 Python 依赖：\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n3. 下载预训练模型文件：\n   - 访问 [Releases 页面](https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Freleases\u002Ftag\u002F1.1.0) 下载最新模型压缩包。\n   - 解压后确保 `.h5` 模型文件（如 `nsfw_mobilenet2.224x224.h5`）位于项目目录中。\n\n## 基本使用\n\n### 方式一：Python 代码调用\n\n```python\nfrom nsfw_detector import predict\n\n# 加载模型\nmodel = predict.load_model('.\u002Fnsfw_mobilenet2.224x224.h5')\n\n# 单张图片预测\nresult = predict.classify(model, 'test.jpg')\nprint(result)\n# 输出示例：{'test.jpg': {'sexy': 0.01, 'neutral': 0.02, 'porn': 0.03, 'hentai': 0.10, 'drawings': 0.84}}\n\n# 多张图片预测\nresults = predict.classify(model, ['image1.jpg', 'image2.jpg'])\nprint(results)\n\n# 整个文件夹预测\nfolder_results = predict.classify(model, '.\u002Fimages_folder\u002F')\n```\n\n### 方式二：命令行工具\n\n```bash\n# 检测单张图片\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n\n# 检测整个目录\nnsfw-predict --saved_model_path mobilenet_v2_140_224 --image_source .\u002Fimages\u002F\n```\n\n> ⚠️ 注意：命令行使用前需确保已将项目路径加入环境变量，或直接使用完整路径调用：\n> ```bash\n> python3 nsfw_detector\u002Fpredict.py --saved_model_path mobilenet_v2_140_224 --image_source test.jpg\n> ```\n\n模型将返回五类概率值：`drawings`（安全绘图）、`hentai`（ hentai 绘图）、`neutral`（正常图片）、`porn`（色情图片）、`sexy`（性感但不色情）。可根据业务需求设定阈值进行过滤。","某大型在线社区平台每天需处理数百万张用户上传的图片，亟需建立自动化机制以过滤色情及不适宜内容，保障社区环境安全。\n\n### 没有 nsfw_model 时\n- **人工审核成本高昂**：依赖大量审核员 24 小时轮班查看图片，人力支出巨大且难以应对流量高峰。\n- **响应速度滞后**：违规图片从上传到被识别删除存在数分钟甚至数小时的延迟，期间可能已被大量用户浏览。\n- **判定标准不一**：不同审核员对“性感”与“色情”的界限把握存在主观差异，导致误删正常艺术画作或漏放违规内容。\n- **隐私与心理风险**：审核员长期接触有害图像易产生心理创伤，且人工流转过程增加了用户隐私泄露的风险。\n\n### 使用 nsfw_model 后\n- **实现全自动初筛**：通过调用 nsfw_model 的批量预测接口，系统能在毫秒级内自动将图片分类为“中性”、“绘画”、“色情”等五类，拦截 90% 以上的明显违规内容。\n- **实时阻断违规传播**：图片上传瞬间即可完成检测并标记，确保有害内容在公开前即被隔离，彻底消除曝光时间差。\n- **量化分级精准管控**：利用模型输出的具体概率值（如 `sexy` 0.52 vs `porn` 0.44），平台可制定精细化策略，仅对高分项直接删除，低分项转交人工复核，大幅降低误判率。\n- **保护团队身心健康**：绝大多数露骨图像被机器自动过滤，人工审核组仅需处理边缘案例，显著降低了员工的心理负担。\n\nnsfw_model 通过高精度的自动化分类能力，将内容风控从被动的人力堆砌转变为主动的智能防御，在大幅降低运营成本的同时构建了更安全的网络空间。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGantMan_nsfw_model_08dcfe41.png","GantMan","Gant Laborde","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGantMan_bdc9af73.png","Outlandish philosopher, writer, public speaker turned mad scientist.   Passion for research and teaching, I get to create everyday.","Infinite Red","New Orleans","gantman@gmail.com","GantLaborde","http:\u002F\u002Fgantlaborde.com\u002F","https:\u002F\u002Fgithub.com\u002FGantMan",[86,90,94],{"name":87,"color":88,"percentage":89},"Python","#3572A5",83.7,{"name":91,"color":92,"percentage":93},"Batchfile","#C1F12E",8.2,{"name":95,"color":96,"percentage":97},"Shell","#89e051",8.1,2049,299,"2026-03-31T13:14:01","NOASSERTION","未说明",{"notes":104,"python":105,"dependencies":106},"该工具基于 TensorFlow\u002FKeras 构建，提供 Inception V3 和 Mobilenet V2 两种预训练模型。运行时需要下载对应的 .h5 或 .pb 模型文件（约几十 MB）。虽然未明确列出 requirements.txt 内容，但通常依赖 TensorFlow 生态相关库。支持命令行工具和 Python 脚本调用。","3.x (通过 python3 命令调用)",[107,108,109,110],"tensorflow","keras","numpy","pillow",[13,51],[108,113,114,115,116,117],"nsfw-data","machine-learning","machinelearning","inceptionv3","inception-v3",null,"2026-03-27T02:49:30.150509","2026-04-06T06:45:54.729599",[122,127,132,137,141,146,151,156],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},9654,"如何进行模型量化以减少文件大小？","如果使用 TensorFlow.js 转换器，可以通过添加 `--quantization_bytes 1` 标志来进行量化。这将显著减小模型体积，适合 Web 或移动端部署，但可能会轻微影响准确率。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F49",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},9647,"如何下载训练数据？种子链接显示没有 Peer 怎么办？","如果种子链接无法下载（显示 0 peers），可以尝试使用提供的 Google Drive 密钥进行下载。密钥为：\"iPDuebZ2jXLSA66XsURQ3_Qkl2jq8vW9_IEFwg-IyFQ\"。此外，也可以关注项目是否已将数据托管至 archive.org 等替代源。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F11",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},9648,"如何解决 'ModuleNotFoundError: No module named nsfw_detector' 或导入错误？","该错误通常是因为安装不完整或路径问题。确保已运行 `setup.py install` 或在项目根目录下正确设置了 Python 路径。如果是从 GitHub 直接克隆的代码，请确保在当前目录下运行脚本，或者将项目目录添加到 PYTHONPATH 环境变量中。如果仍然报错，检查 `__init__.py` 文件是否正确导出了 `NSFWDetector` 类。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F24",{"id":138,"question_zh":139,"answer_zh":140,"source_url":126},9649,"如何在 TensorFlow 2.1+ 上更高效地训练模型以获得更高准确率？","建议使用 TensorFlow Hub 的 `make_image_classifier.py` 模块。关键步骤包括：1. 将所有图片合并到 5 个类别文件夹中（无需手动分训练\u002F测试集）；2. 预先将图片调整为 224x224；3. 设置较大的 batch size（如 1024，视显存而定）；4. 添加 `--do_fine_tuning` 参数；5. 修改源码以支持混合精度训练（需移除原 Dense 层的 softmax 激活函数，单独添加 softmax 层并设为 float32）；6. 在脚本 main 函数中调用 `set_memory_growth` 防止 CUDNN 崩溃。注意需从源码克隆 tf-hub 而非 pip 安装以便修改代码。",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},9650,"训练脚本报错无法分离训练\u002F测试\u002F验证集，或者遇到图像读取错误怎么办？","这通常是因为数据集中包含损坏的图片、不支持的文件格式或空文件。请仔细检查堆栈跟踪（stack trace），通常会指向具体的坏文件。建议更新 Pillow 库（`pip install --upgrade pillow`），并遍历数据集删除所有无法打开的图片文件。确保图片格式标准且非空。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F66",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},9651,"是否有基于 MobileNet 的模型可供使用？","有的。维护者提供了基于 MobileNetV2 的 Keras 模型下载链接：https:\u002F\u002Fs3.amazonaws.com\u002Fir_public\u002Fnsfwjscdn\u002Fnsfw_mobilenet2.224x224.h5。该模型适用于移动端部署，输入尺寸为 224x224。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F20",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},9652,"为什么转换后的 model.json (TF.js) 版本准确率不如 .h5 版本？","这通常是因为版本差异。.h5 版本可能来自更新的训练会话（例如 TF 2.x 训练），而发布的 model.json 可能是基于较旧的 TF 1.0 训练结果（准确率约 90%）。建议查看项目的 Release 历史，寻找最新发布的模型文件，或者自行使用最新代码重新导出模型以获得最佳效果。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F83",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},9653,"如何在 C# (.NET) 或其他框架中绑定模型？需要知道输出节点的名称吗？","是的，在 C# 中使用 TensorFlow 模型时通常需要指定输出节点名称。如果在 Netron 中看不到明确的输出 ID，可以尝试常见的默认名称，如 \"softmax\" 或 \"final_dense\"。对于量化模型，可能会遇到框架不支持特定操作（如 QuantizeV2）的问题，此时可能需要更换更强大的推理框架（如 Intel DLDT\u002FOpenVINO）或尝试非量化版本的模型。","https:\u002F\u002Fgithub.com\u002FGantMan\u002Fnsfw_model\u002Fissues\u002F47",[162,167],{"id":163,"version":164,"summary_zh":165,"released_at":166},106952,"1.2.0","Thanks in this PR #60 ","2020-05-15T21:32:59",{"id":168,"version":169,"summary_zh":170,"released_at":171},106953,"1.1.0","Enjoy the updated models with higher accuracy!\r\n\r\nSpecial thanks to @TechnikEmpire for this fine work.\r\n\r\nNew models reside around 93% accuracy trained with TF 2.1","2020-03-03T22:12:41"]