[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-akshaybahadur21--Emojinator":3,"tool-akshaybahadur21--Emojinator":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":114,"oss_zip_packed_at":114,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":148},3434,"akshaybahadur21\u002FEmojinator","Emojinator","A simple emoji classifier for humans. 🖖","Emojinator 是一款开源的手势识别工具，旨在让计算机“看懂”人类的手语表情。它通过摄像头实时捕捉用户的手势动作，并将其精准分类为对应的 Emoji 表情（如剪刀石头布、点赞、胜利手势等），从而将肢体语言转化为数字信号。\n\n这一工具主要解决了人机交互中非语言沟通的数字化难题，让用户无需接触键盘或鼠标，仅凭手势即可与设备进行趣味互动或发出指令。项目经历了多次迭代，从基础的分类模型发展到支持更复杂的游戏逻辑（如“石头剪刀布蜥蜴史波克”）及创意应用（如 EmojiGram），展现了良好的扩展性。\n\nEmojinator 特别适合开发者、人工智能研究人员以及计算机视觉爱好者使用。对于希望学习手势识别技术、构建互动游戏或探索新型交互界面的创作者来说，它是一个极佳的入门与实践项目。其技术亮点在于提供了完整的数据集构建、模型训练到应用部署的代码流程，文件结构清晰，便于用户理解机器学习在手势识别中的具体实现。无论是想复现经典算法，还是在此基础上开发新的创意应用，Emojinator 都提供了一个友好且功能完备的技术底座。","# Emojinator 🖖\n\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fsourcerer-io\u002Fhall-of-fame.svg?colorB=ff0000)](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fblob\u002Fmaster\u002FLICENSE.md)  [![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAkshay-Bahadur-brightgreen.svg?colorB=ff0000)](https:\u002F\u002Fakshaybahadur.com)\n\nThis code helps you to recognize and classify different hand emojis\n\n## Versions 🗽\n\n- [Emojinator](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator)\n- [Emojinator 2.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V2) \n- [Emojinator 3.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V3)\n\n## Moved to a different Repo 🏺\n\n- [Rock Paper Scissor Lizard Spock](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FRock-Paper-Scissors-Lizard-Spock) \n- [EmojiGram](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojiGram)\n\n## Description 🤘\n\nEmojis are ideograms and smileys used in electronic messages and web pages. Emoji exist in various genres, including facial expressions, common objects, places and types of weather, and animals. They are much like emoticons, but emoji are actual pictures instead of typographics.\n\n## File Organization 🗄️\n\n```shell\n├── Emojinator Parent (Current Directory)\n    ├── Emojinator \n        ├── CreateGest.py : Create Gestures \n        ├── TrainEmojinator.py : Train Machine Learning model\n        ├── Emojinator.py : Emojinator Application\n        ├── gestures : Gesture folder\n            ├── 0\u002F\n            ├── 1\u002F\n            .\n            .\n            .\n            └──11\u002F\n        └── hand_emo : hand emojis used in prediction\n            ├── 0.png\n            .\n            .\n            └── 12.png\n    ├── Emojinator_V2 \n    ├── LICENSE\n    └── readme.md\n        \n```\n\n## Results 📊\n\n### [Emojinator](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_0240dca26b3a.gif\">\n\n### [Emojinator 2.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V2)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_e0a6f53b639f.gif\">\n\n\n### [Emojinator 3.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V3)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_010466a1bc8e.gif\" width=1000>\n\n### [Rock Paper Scissor Lizard Spock](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FRock_Paper_Scissor_Lizard_Spock)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_5a48192e7d3b.gif\">\n\n### [EmoGram](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojiGram)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_0c770d7be1da.gif\">\n\n\n📌 Cite Us\n\nTo cite this guide, use the below format:\n```\n@article{emojinator,\nauthor = {Bahadur, Akshay},\njournal = {https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator},\nmonth = {01},\ntitle = {{Emojinator}},\nyear = {2018}\n}\n```\n\n###### Made with ❤️ and 🦙 by Akshay Bahadur\n\n","# 表情符号识别器 🖖\n\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fsourcerer-io\u002Fhall-of-fame.svg?colorB=ff0000)](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fblob\u002Fmaster\u002FLICENSE.md)  [![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAkshay-Bahadur-brightgreen.svg?colorB=ff0000)](https:\u002F\u002Fakshaybahadur.com)\n\n这段代码可以帮助你识别和分类不同的手势表情符号。\n\n## 版本 🗽\n\n- [Emojinator](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator)\n- [Emojinator 2.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V2) \n- [Emojinator 3.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V3)\n\n## 迁移到其他仓库 🏺\n\n- [石头剪刀布蜥蜴斯博克](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FRock-Paper-Scissors-Lizard-Spock) \n- [EmojiGram](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojiGram)\n\n## 描述 🤘\n\n表情符号是在电子消息和网页中使用的表意文字和笑脸。表情符号种类繁多，包括面部表情、常见物品、地点和天气类型以及动物等。它们很像表情符号，但表情符号是实际的图片，而不是文字图形。\n\n## 文件结构 🗄️\n\n```shell\n├── Emojinator 父目录（当前目录）\n    ├── Emojinator \n        ├── CreateGest.py : 创建手势\n        ├── TrainEmojinator.py : 训练机器学习模型\n        ├── Emojinator.py : Emojinator 应用程序\n        ├── gestures : 手势文件夹\n            ├── 0\u002F\n            ├── 1\u002F\n            .\n            .\n            .\n            └──11\u002F\n        └── hand_emo : 用于预测的手势表情符号\n            ├── 0.png\n            .\n            .\n            └── 12.png\n    ├── Emojinator_V2 \n    ├── LICENSE\n    └── readme.md\n        \n```\n\n## 结果 📊\n\n### [Emojinator](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_0240dca26b3a.gif\">\n\n### [Emojinator 2.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V2)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_e0a6f53b639f.gif\">\n\n\n### [Emojinator 3.0](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojinator_V3)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_010466a1bc8e.gif\" width=1000>\n\n### [石头剪刀布蜥蜴斯博克](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FRock_Paper_Scissor_Lizard_Spock)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_5a48192e7d3b.gif\">\n\n### [EmoGram](https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Ftree\u002Fmaster\u002FEmojiGram)\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_readme_0c770d7be1da.gif\">\n\n\n📌 引用我们\n\n如需引用本指南，请使用以下格式：\n```\n@article{emojinator,\nauthor = {Bahadur, Akshay},\njournal = {https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator},\nmonth = {01},\ntitle = {{Emojinator}},\nyear = {2018}\n}\n```\n\n###### 由 Akshay Bahadur 用心与羊驼 ❤️ 制作","# Emojinator 快速上手指南\n\nEmojinator 是一个基于机器学习的手势识别工具，能够实时识别并分类不同的手部表情符号（Hand Emojis）。本项目支持从手势数据采集、模型训练到实时预测的完整流程。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n- **操作系统**：Windows \u002F macOS \u002F Linux\n- **Python 版本**：Python 3.6+\n- **硬件要求**：需要摄像头用于实时手势捕捉\n- **核心依赖库**：\n  - `opencv-python` (用于图像采集与处理)\n  - `numpy` (数值计算)\n  - `scikit-learn` 或 `tensorflow\u002Fkeras` (取决于具体版本使用的模型算法，V1 版本通常使用 sklearn)\n\n建议提前安装基础依赖：\n```bash\npip install opencv-python numpy scikit-learn\n```\n\n> 💡 **国内加速提示**：如遇下载缓慢，可使用国内镜像源安装依赖：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple opencv-python numpy scikit-learn\n> ```\n\n## 安装步骤\n\n1. **克隆项目仓库**\n   将代码下载到本地：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator.git\n   cd Emojinator\u002FEmojinator\n   ```\n\n2. **确认目录结构**\n   确保当前目录下包含以下关键文件（参考原版结构）：\n   - `CreateGest.py`：用于采集手势数据\n   - `TrainEmojinator.py`：用于训练机器学习模型\n   - `Emojinator.py`：主应用程序（实时预测）\n   - `gestures\u002F`：存放采集到的手势图片文件夹\n   - `hand_emo\u002F`：存放用于预测的手势模板图片\n\n## 基本使用\n\n本工具的使用流程分为三步：**采集数据** -> **训练模型** -> **运行应用**。\n\n### 第一步：采集手势数据\n运行脚本以启动摄像头，根据提示做出不同手势以采集训练数据。\n```bash\npython CreateGest.py\n```\n*程序会自动将采集到的图像保存至 `gestures` 目录下的对应子文件夹中（如 `0\u002F`, `1\u002F` 等）。*\n\n### 第二步：训练模型\n使用采集好的数据训练机器学习模型。\n```bash\npython TrainEmojinator.py\n```\n*训练完成后，模型文件将生成在当前目录，供预测程序调用。*\n\n### 第三步：运行实时识别\n启动主程序，打开摄像头进行实时手势识别。\n```bash\npython Emojinator.py\n```\n*此时屏幕上将显示摄像头画面，并实时标注识别出的手勢表情符号。*\n\n---\n*注：本项目有多个迭代版本（V2, V3）及衍生项目（如 Rock Paper Scissor Lizard Spock），如需体验更高级的功能，请进入对应的子目录查看其特定的 README 说明。*","某互动教育科技团队正在开发一款面向儿童的“手势猜拳”在线游戏，需要让玩家通过摄像头做出“石头、剪刀、布”等手势来实时控制游戏角色。\n\n### 没有 Emojinator 时\n- 开发人员需从零收集大量手部图像数据，并手动标注每种手势对应的类别，耗时数周且容易出错。\n- 缺乏现成的手势分类模型，团队必须自行研究卷积神经网络（CNN）架构，调试训练参数门槛极高。\n- 无法快速验证不同手势（如“蜥蜴”或\"Spock\"）的识别效果，导致游戏交互逻辑开发严重滞后。\n- 每次新增一种手势玩法，都需要重新经历完整的数据采集与模型重训流程，迭代成本巨大。\n- 最终交付的 Demo 识别延迟高、准确率不稳定，严重影响用户体验测试反馈。\n\n### 使用 Emojinator 后\n- 直接利用项目预置的手势数据集和目录结构，几分钟内即可准备好“石头、剪刀、布”等标准训练数据。\n- 调用 `TrainEmojinator.py` 脚本即可一键启动机器学习模型训练，无需深究底层算法细节。\n- 借助 `Emojinator.py` 应用实时预览识别效果，开发者能立即调整手势定义并验证“蜥蜴”等新玩法的可行性。\n- 新增手势只需在 `gestures` 文件夹添加对应图片并重新运行训练脚本，极大缩短了功能迭代周期。\n- 上线版本实现了低延迟、高精度的实时手势追踪，孩子们能通过自然的手部动作流畅地与游戏互动。\n\nEmojinator 将复杂的手势识别算法封装为开箱即用的解决方案，让开发者能专注于创意交互而非重复造轮子。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fakshaybahadur21_Emojinator_32f92440.png","akshaybahadur21","Akshay Bahadur","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fakshaybahadur21_276666fe.png","Making a dent in the universe.","@Yahoo","San Jose, CA","akshaybahadur21@gmail.com","AkshayBahadur3","akshaybahadur.com","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",86.5,{"name":91,"color":92,"percentage":93},"Starlark","#76d275",13.5,500,184,"2026-03-07T10:37:31","MIT",4,"","未说明",{"notes":102,"python":100,"dependencies":103},"README 中未提供具体的运行环境需求（如操作系统、Python 版本、依赖库等）。该项目包含多个版本（Emojinator, V2, V3），涉及手势创建、机器学习模型训练及应用运行。建议查看各子目录（如 Emojinator_V3）中的具体代码文件或寻找额外的 requirements.txt 文件以获取详细依赖信息。",[],[14,13],[106,107,108,109,110,111,112,113],"emojinator","gesture","frame","python","deep-learning","object-detection","opencv","computer-vision",null,"2026-03-27T02:49:30.150509","2026-04-06T10:26:32.976380",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},15767,"该项目支持哪些版本的 Python、TensorFlow 和 Keras？","项目主要使用 Python 3.6。由于 TensorFlow 对 Python 3.7 的支持尚不完全，建议使用 Python 3.6 以避免兼容性问题。如果使用 Python 3.7，可能需要进行少量代码调整。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F9",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},15768,"运行训练脚本时出现 'ValueError: invalid literal for long() with base 10' 错误怎么办？","这通常是因为文件夹名称更改（例如改为 'gestures'）导致 CSV 文件中包含了文件夹名的后缀字符（如 'es\u002F1'）。解决方法是手动编辑 'train_foo.csv' 文件，将类似 'es\u002F1' 的内容替换为纯数字 '1'，'es\u002F2' 替换为 '2'，以此类推。此外，请确保每个手势文件夹下有足够数量的图片（原代码默认为每个手势 1200 张），或者修改代码中的切片索引以匹配实际图片数量。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F10",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},15769,"运行获取手部图像脚本时出现 'VIDEOIO ERROR' 或无法打开摄像头（index 0）的错误？","这通常是摄像头设备问题。尝试重启摄像头。如果您使用的是外接摄像头，请将代码中的摄像头索引从 0 改为 1（例如 `cv2.VideoCapture(1)`）。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F13",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},15770,"如何理解该项目的神经网络架构设计及其各层的作用？","网络第一层使用 32 个过滤器进行 5x5 卷积；接着是 2x2 的最大池化层（步长为 2）用于降采样。随后再次进行卷积和池化操作。之后通过 Flatten 层将特征展平，连接到包含 1024 个神经元的全连接层（Dense），并使用 ReLU 激活函数。接着添加 Dropout 层（比例 0.6）以防止过拟合。最后是一个输出层，使用 Softmax 激活函数进行分类。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F3",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},15771,"运行脚本时出现 'mkdir command doesn't work' 或 cv2 轮廓函数无法启动摄像头的错误？","这是已知问题，通常与环境配置或权限有关。确保您有在当前目录创建文件夹的权限。对于 cv2 摄像头问题，请参考摄像头索引设置（见相关摄像头错误问答），并检查 OpenCV 是否正确安装且能访问视频设备。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F22",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},15772,"修改类别数量后训练模型出现 'invalid literal for int()' 错误？","当您减少类别数量（例如从 12 减到 6）但未正确清理数据源时会出现此错误。错误信息中的 'es\\\\3' 表明 CSV 文件中仍包含旧的路径字符串。请检查并清理训练数据 CSV 文件，确保标签列只包含整数，不包含任何文件夹路径残留字符。同时确保删除了对应手势文件夹中多余的数据。","https:\u002F\u002Fgithub.com\u002Fakshaybahadur21\u002FEmojinator\u002Fissues\u002F11",[]]