[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-otaha178--Emotion-recognition":3,"tool-otaha178--Emotion-recognition":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":32,"env_os":92,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":97,"github_topics":99,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":147},8829,"otaha178\u002FEmotion-recognition","Emotion-recognition","Real time emotion recognition ","Emotion-recognition 是一款基于计算机视觉的开源项目，旨在实现实时的面部情绪识别。它通过摄像头捕捉人脸画面，利用先进的图像处理算法分析面部特征，不仅能判断用户当前的主要情绪（如快乐、愤怒等），还能展示多种混合情绪出现的概率分布，让机器更细腻地“读懂”人类情感。\n\n该项目主要解决了传统情绪分析只能给出单一标签的局限，提供了更具参考价值的情绪概率数据，适用于需要理解用户情感反馈的场景。其核心亮点在于支持实时视频流处理，并内置了经过优化的高精度预训练模型，用户无需从头训练即可直接运行演示；同时，项目也开放了完整的训练脚本，允许开发者使用 FER2013 数据集自定义模型。\n\nEmotion-recognition 非常适合 AI 开发者、研究人员以及对人机交互感兴趣的技术爱好者使用。开发者可以将其作为基础模块集成到智能客服、互动娱乐或心理健康监测等应用中；研究人员则可借助其开放的代码结构探索情绪算法的优化空间。虽然普通用户也可通过简单配置体验实时情绪检测的乐趣，但其核心价值更多体现在为技术构建者提供灵活、高效的开发工具。项目灵感源自社区优秀成果，并持续迭代中，欢迎贡献代码或","Emotion-recognition 是一款基于计算机视觉的开源项目，旨在实现实时的面部情绪识别。它通过摄像头捕捉人脸画面，利用先进的图像处理算法分析面部特征，不仅能判断用户当前的主要情绪（如快乐、愤怒等），还能展示多种混合情绪出现的概率分布，让机器更细腻地“读懂”人类情感。\n\n该项目主要解决了传统情绪分析只能给出单一标签的局限，提供了更具参考价值的情绪概率数据，适用于需要理解用户情感反馈的场景。其核心亮点在于支持实时视频流处理，并内置了经过优化的高精度预训练模型，用户无需从头训练即可直接运行演示；同时，项目也开放了完整的训练脚本，允许开发者使用 FER2013 数据集自定义模型。\n\nEmotion-recognition 非常适合 AI 开发者、研究人员以及对人机交互感兴趣的技术爱好者使用。开发者可以将其作为基础模块集成到智能客服、互动娱乐或心理健康监测等应用中；研究人员则可借助其开放的代码结构探索情绪算法的优化空间。虽然普通用户也可通过简单配置体验实时情绪检测的乐趣，但其核心价值更多体现在为技术构建者提供灵活、高效的开发工具。项目灵感源自社区优秀成果，并持续迭代中，欢迎贡献代码或提出建议。","# Project Name : Emotion-recognition\n# Table of Content :\n1.[Description](#p1)\n\n2.[Installations](#p2)\n\n3.[Usage](#p3)\n\n4.[Dataset](#p4)\n\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fotaha178_Emotion-recognition_readme_de1888995d35.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fotaha178_Emotion-recognition_readme_03c93b7f7a49.png)\n\n\n\n\n\u003Ca id=\"p1\">\u003C\u002Fa> \n# Description:\n\nOur Human face is having a mixed emotions so we are to demonstrate the probabilities of these emotions that we have.\n\n## What does Emotion Recognition mean?\n\nEmotion recognition is a technique used in software that allows a program to \"read\" the emotions on a human face using advanced image processing. Companies have been experimenting with combining sophisticated algorithms with image processing techniques that have emerged in the past ten years to understand more about what an image or a video of a person's face tells us about how he\u002Fshe is feeling and not just that but also showing the probabilities of mixed emotions a face could has.\n\n\u003Ca id=\"p2\">\u003C\u002Fa> \n# Installations:\n\nInstall dependencies using requirements.txt\n\n```shell\npip install -r requirements.txt\n```\n\n\u003Ca id=\"p3\">\u003C\u002Fa> \n# Usage:\n\nThe program will creat a window to display the scene capture by webcamera and a window representing the probabilities of detected emotions.\n\n> Demo\n\npython real_time_video.py\n\nYou can just use this with the provided pretrained model i have included in the path written in the code file, i have choosen this specificaly since it scores the best accuracy, feel free to choose any but in this case you have to run the later file train_emotion_classifier\n> If you just want to run this demo, the following content can be skipped\n- Train\n\n- python train_emotion_classifier.py\n\n\n\u003Ca id=\"p4\">\u003C\u002Fa> \n# Dataset:\n\nI have used [this](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002F3364\u002Fdownload-all) dataset\n\nDownload it and put the csv in fer2013\u002Ffer2013\u002F\n\n-fer2013 emotion classification test accuracy: 66%\n\n\n# Credits\nThis work is inspired from [this](https:\u002F\u002Fgithub.com\u002Foarriaga\u002Fface_classification) great work and the resources of Adrian Rosebrock helped me alot!.\n\n# Ongoing \nDraw emotions faces next to the detected face.\n\n# Issues & Suggestions\n\nIf any issues and suggestions to me, you can create an [issue](https:\u002F\u002Fgithub.com\u002Fomar178\u002FEmotion-recognition\u002Fissues).\n\nIf you like this work please help me by giving me some stars.\n","# 项目名称：情绪识别\n# 目录：\n1.[描述](#p1)\n\n2.[安装](#p2)\n\n3.[使用](#p3)\n\n4.[数据集](#p4)\n\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fotaha178_Emotion-recognition_readme_de1888995d35.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fotaha178_Emotion-recognition_readme_03c93b7f7a49.png)\n\n\n\n\n\u003Ca id=\"p1\">\u003C\u002Fa> \n# 描述：\n\n人类的面部常常同时表现出多种情绪，因此我们旨在展示这些情绪出现的概率。\n\n## 什么是情绪识别？\n\n情绪识别是一种软件技术，它利用先进的图像处理方法，使程序能够“读取”人脸上的情绪。近年来，随着图像处理技术的快速发展，许多公司开始尝试将复杂的算法与图像处理技术相结合，以更深入地理解人脸图像或视频所传达的情感信息。不仅如此，该技术还能显示出人脸可能同时存在的多种情绪及其对应的概率。\n\n\u003Ca id=\"p2\">\u003C\u002Fa> \n# 安装：\n\n使用 requirements.txt 文件安装依赖项。\n\n```shell\npip install -r requirements.txt\n```\n\n\u003Ca id=\"p3\">\u003C\u002Fa> \n# 使用：\n\n程序会打开一个窗口显示摄像头捕获的画面，并在另一个窗口中展示检测到的情绪概率。\n\n> 演示\n\npython real_time_video.py\n\n您可以直接使用我提供的预训练模型，该模型已写入代码文件中的路径。之所以选择这个模型，是因为它的准确率最高。当然，您也可以选择其他模型，但那样就需要先运行 train_emotion_classifier 文件。\n> 如果您只想运行此演示，则可以跳过以下内容：\n- 训练\n\n- python train_emotion_classifier.py\n\n\n\u003Ca id=\"p4\">\u003C\u002Fa> \n# 数据集：\n\n我使用了 [这个](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002F3364\u002Fdownload-all) 数据集。\n\n请下载该数据集，并将 CSV 文件放入 fer2013\u002Ffer2013\u002F 目录下。\n\n- fer2013 情绪分类测试准确率：66%\n\n\n# 致谢\n本项目受到 [这个](https:\u002F\u002Fgithub.com\u002Foarriaga\u002Fface_classification) 优秀工作的启发，Adrian Rosebrock 提供的资源也对我帮助很大！\n\n# 进展\n下一步计划是在检测到的人脸旁边绘制相应的情绪表情。\n\n# 问题与建议\n\n如果您有任何问题或建议，欢迎创建 [issue](https:\u002F\u002Fgithub.com\u002Fomar178\u002FEmotion-recognition\u002Fissues)。\n\n如果您喜欢这个项目，请为它点个赞吧！","# Emotion-recognition 快速上手指南\n\n本项目是一个基于深度学习的人脸情绪识别工具，能够实时通过摄像头捕捉人脸，并分析显示多种情绪（如快乐、愤怒等）的概率分布。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows \u002F Linux \u002F macOS\n*   **Python 版本**：建议 Python 3.6 - 3.8（兼容旧版依赖）\n*   **硬件要求**：需要配备摄像头；若需加速训练或推理，建议使用支持 CUDA 的 NVIDIA 显卡（可选）\n*   **前置依赖**：已安装 `pip` 包管理工具\n\n> **国内加速建议**：推荐使用国内镜像源安装依赖，以提升下载速度。\n> 例如使用清华源：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fomar178\u002FEmotion-recognition.git\n    cd Emotion-recognition\n    ```\n\n2.  **安装依赖库**\n    执行以下命令安装项目所需的 Python 库：\n    ```shell\n    pip install -r requirements.txt\n    ```\n\n3.  **准备数据集（仅用于重新训练模型）**\n    如果您只想使用预训练模型进行演示，可跳过此步。若需重新训练，请下载 [FER2013 数据集](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002F3364\u002Fdownload-all)，并将 `fer2013.csv` 文件放置于 `fer2013\u002Ffer2013\u002F` 目录下。\n\n## 基本使用\n\n本项目提供了预训练模型，可直接运行实时演示脚本。\n\n1.  **启动实时情绪识别**\n    连接摄像头后，运行以下命令。程序将弹出两个窗口：一个显示摄像头实时画面，另一个显示检测到的情绪概率分布。\n    ```shell\n    python real_time_video.py\n    ```\n\n2.  **（可选）重新训练模型**\n    如果您修改了数据集或希望从头训练分类器，请运行：\n    ```shell\n    python train_emotion_classifier.py\n    ```\n\n**注意**：默认代码路径已配置好精度最高的预训练模型，直接运行 `real_time_video.py` 即可获得最佳体验。","某在线教育平台的教学质量评估团队，正试图通过量化分析学生在网课期间的面部表情，来实时判断课程内容的吸引力与学生的理解程度。\n\n### 没有 Emotion-recognition 时\n- 评估依赖课后问卷调查，数据滞后且容易受到学生主观填写的干扰，无法反映课堂瞬间的真实情绪波动。\n- 人工抽查录像效率极低，分析师只能凭肉眼观察少量样本，难以捕捉到“困惑”或“走神”等细微且短暂的表情变化。\n- 缺乏量化指标，老师无法得知具体哪个教学片段导致了学生的“愤怒”或“无聊”，优化课程内容时只能靠猜测。\n- 无法处理混合情绪，传统方法往往将复杂的面部表情简单归类，忽略了学生可能同时感到“惊讶”与“开心”的多维状态。\n\n### 使用 Emotion-recognition 后\n- 系统通过摄像头实时捕获画面，即时输出高兴、愤怒、悲伤等七种情绪的概率分布，让教学反馈从“事后总结”变为“实时监控”。\n- 自动化的图像识别算法能全天候分析所有学生端的数据，精准定位学生出现“困惑”表情的具体时间点，大幅降低人工成本。\n- 生成可视化的情绪概率图表，帮助教师直观看到课程难点引发的情绪低谷，从而针对性地调整讲解节奏或内容深度。\n- 能够展示混合情绪的占比，更真实地还原学生在听到精彩观点时“惊讶中带喜悦”的复杂心理活动，提升数据分析的颗粒度。\n\nEmotion-recognition 将模糊的主观感受转化为实时的客观数据，让教育者能真正“看见”学生的情绪流动，从而实现数据驱动的精准教学优化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fotaha178_Emotion-recognition_bc3000e9.png","otaha178","Omar Taha","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fotaha178_ba16c469.png","Data scientist","TRM Labs","Egypt","omaraymanomar@gmail.com",null,"https:\u002F\u002Fmedium.com\u002F@omaraymanomar","https:\u002F\u002Fgithub.com\u002Fotaha178",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1232,375,"2026-04-17T13:28:32","MIT","未说明",{"notes":94,"python":92,"dependencies":95},"项目使用 FER2013 数据集进行训练，测试准确率为 66%。运行实时演示需要摄像头。代码中包含预训练模型，若需重新训练需运行 train_emotion_classifier.py。项目灵感来源于 face_classification 及 Adrian Rosebrock 的资源。",[96],"requirements.txt 中定义的依赖 (具体库未列出)",[15,14,98],"视频",[100,101,102,103,104],"computer-vision","deep-learning","emotion-recognition","emotion-analysis","convolutional-neural-networks","2026-03-27T02:49:30.150509","2026-04-18T09:20:56.417295",[108,113,118,122,127,132,137,142],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},39590,"运行代码时出现 'NameError: name 'preds' is not defined' 错误怎么办？","这是因为当模型未检测到人脸时，'preds' 变量未在 if 条件外定义。解决方法是在代码中添加 else 分支并继续循环，或者调整 for 循环的结构以确保能读取到 'preds'。具体代码修改如下：\nelse:\n    continue\n或者参考相关 PR #20 进行修复。","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F1",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},39591,"运行 demo 时提示 'ModuleNotFoundError: No module named tensorflow' 如何解决？","该错误通常是因为 TensorFlow 不支持 32 位版本的 Python。请卸载当前的 32 位 Python，下载并安装 64 位版本的 Python，然后重新安装依赖即可解决。","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F30",{"id":119,"question_zh":120,"answer_zh":121,"source_url":117},39592,"requirements.txt 中指定的 OpenCV 版本不存在或安装失败怎么办？","可以将 requirements.txt 中的 OpenCV 版本修改为存在的版本，例如改为 'opencv_python==4.2.0.32'。此外，有用户反馈在 Python 3.6.8 环境下使用默认配置并未遇到 OpenCV 相关问题，建议检查 Python 版本兼容性。",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},39593,"在哪里可以下载项目所需的数据集？","数据集的下载链接已在项目的描述（description）部分提供，请查看仓库首页的 README 或项目介绍部分获取链接。","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F7",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},39594,"运行 Demo 的命令 'Demo -run real_time_video.py' 报错找不到命令怎么办？","该命令格式有误。维护者已修复此问题，请直接使用 Python 运行脚本，正确命令应为：\npython real_time_video.py","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F3",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},39595,"使用 PyInstaller 将 .py 文件转换为 .exe 时出现 'NameError: name 'null' is not defined' 错误？","注意 PyInstaller 不支持直接转换 Jupyter Notebook 文件（.ipynb）。请先将 '.ipyb'（应为 .ipynb）文件导出为标准 Python 脚本（.py），确保代码中没有任何未定义的变量（如 null），然后再执行命令：\npyinstaller --onefile your_script.py","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F37",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},39596,"训练模型时出现 'TypeError: 'tuple' object is not an iterator' 错误如何处理？","此错误出现在 Keras 2.2.4 版本中，通常与数据生成器的实现有关。建议检查 keras\u002Futils\u002Fdata_utils.py 中的 next_sample 方法，确保传入的对象是可迭代的而不是元组。尝试升级或降级 Keras 版本，或检查自定义数据加载代码是否返回了正确的迭代器对象。","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F18",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},39597,"运行代码时报错 'AttributeError: 'tuple' object has no attribute 'shape'' 是什么原因？","这通常是因为 imutils.resize 函数接收到的输入不是图像数组而是元组（可能是 cv2.VideoCapture.read() 返回的第二个值 frame 为 None 或未正确获取）。请检查摄像头是否正常工作，并在调用 resize 前添加判断：\nret, frame = cap.read()\nif not ret or frame is None:\n    continue\nframe = imutils.resize(frame, width=300)","https:\u002F\u002Fgithub.com\u002Fotaha178\u002FEmotion-recognition\u002Fissues\u002F17",[]]