[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-WuJie1010--Facial-Expression-Recognition.Pytorch":3,"tool-WuJie1010--Facial-Expression-Recognition.Pytorch":61},[4,18,26,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,35],"插件",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":42,"last_commit_at":51,"category_tags":52,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[35,13,15,14],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":42,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[35,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":98,"github_topics":99,"view_count":42,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":147},8271,"WuJie1010\u002FFacial-Expression-Recognition.Pytorch","Facial-Expression-Recognition.Pytorch","A CNN based pytorch implementation on facial expression recognition (FER2013 and CK+), achieving 73.112% (state-of-the-art) in FER2013 and 94.64% in CK+ dataset","Facial-Expression-Recognition.Pytorch 是一个基于卷积神经网络（CNN）的开源项目，旨在利用 PyTorch 框架实现高精度的面部表情识别。它主要解决了让计算机准确理解人类情绪状态的技术难题，能够自动分析图像中的人物表情并将其分类为愤怒、厌恶、恐惧、快乐、悲伤、惊讶或中性七种状态。\n\n该项目在学术界备受关注的 FER2013 和 CK+ 数据集上表现卓越，分别取得了 73.11% 和 94.64% 的识别准确率，其中在 FER2013 上的成绩达到了当时的业界领先水平。其技术亮点在于提供了成熟的 VGG19 和 ResNet18 模型实现，并内置了从数据预处理、模型训练到混淆矩阵可视化的完整流程代码，极大地降低了复现前沿算法的门槛。\n\nFacial-Expression-Recognition.Pytorch 非常适合人工智能研究人员、深度学习开发者以及计算机视觉领域的学生使用。对于希望快速搭建表情识别系统、进行算法对比研究或学习 CNN 在情感计算领域应用的从业者来说，这是一个极具参考价值的实战工具。用户只需准备少量测试图片，即可利用预训练模型立即","Facial-Expression-Recognition.Pytorch 是一个基于卷积神经网络（CNN）的开源项目，旨在利用 PyTorch 框架实现高精度的面部表情识别。它主要解决了让计算机准确理解人类情绪状态的技术难题，能够自动分析图像中的人物表情并将其分类为愤怒、厌恶、恐惧、快乐、悲伤、惊讶或中性七种状态。\n\n该项目在学术界备受关注的 FER2013 和 CK+ 数据集上表现卓越，分别取得了 73.11% 和 94.64% 的识别准确率，其中在 FER2013 上的成绩达到了当时的业界领先水平。其技术亮点在于提供了成熟的 VGG19 和 ResNet18 模型实现，并内置了从数据预处理、模型训练到混淆矩阵可视化的完整流程代码，极大地降低了复现前沿算法的门槛。\n\nFacial-Expression-Recognition.Pytorch 非常适合人工智能研究人员、深度学习开发者以及计算机视觉领域的学生使用。对于希望快速搭建表情识别系统、进行算法对比研究或学习 CNN 在情感计算领域应用的从业者来说，这是一个极具参考价值的实战工具。用户只需准备少量测试图片，即可利用预训练模型立即体验识别效果，或基于提供的脚本轻松开展自定义训练。","# Facial-Expression-Recognition.Pytorch\r\nA CNN based pytorch implementation on facial expression recognition (FER2013 and CK+), achieving 73.112% (state-of-the-art) in FER2013 and 94.64% in CK+ dataset\r\n\r\n## Demos ##\r\n![Image text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWuJie1010_Facial-Expression-Recognition.Pytorch_readme_859fe44a81e7.png)\r\n![Image text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWuJie1010_Facial-Expression-Recognition.Pytorch_readme_1ee52e7e5d88.png)\r\n\r\n## Dependencies ##\r\n- Python 2.7\r\n- Pytorch >=0.2.0\r\n- h5py (Preprocessing)\r\n- sklearn (plot confusion matrix)\r\n\r\n## Visualize for a test image by a pre-trained model ##\r\n- Firstly, download the pre-trained model from https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Oy_9YmpkSKX1Q8jkOhJbz3Mc7qjyISzU (or https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1gCL0TlCwKctAy_5yhzHy5Q,  key: g2d3) and then put it in the \"FER2013_VGG19\" folder; Next, Put the test image (rename as 1.jpg) into the \"images\" folder, then \r\n- python visualize.py\r\n\r\n## FER2013 Dataset ##\r\n- Dataset from https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fchallenges-in-representation-learning-facial-expression-recognition-challenge\u002Fdata\r\nImage Properties: 48 x 48 pixels (2304 bytes)\r\nlabels: 0=Angry, 1=Disgust, 2=Fear, 3=Happy, 4=Sad, 5=Surprise, 6=Neutral\r\nThe training set consists of 28,709 examples. The public test set consists of 3,589 examples. The private test set consists of another 3,589 examples.\r\n\r\n### Preprocessing Fer2013 ###\r\n- first download the dataset(fer2013.csv) then put it in the \"data\" folder, then\r\n- python preprocess_fer2013.py\r\n\r\n### Train and Eval model ###\r\n- python mainpro_FER.py --model VGG19 --bs 128 --lr 0.01\r\n\r\n### plot confusion matrix ###\r\n- python plot_fer2013_confusion_matrix.py --model VGG19 --split PrivateTest\r\n\r\n###              fer2013 Accurary             ###\r\n\r\n- Model：    VGG19 ;       PublicTest_acc：  71.496% ;     PrivateTest_acc：73.112%     \u003CBr\u002F>\r\n- Model：   Resnet18 ;     PublicTest_acc：  71.190% ;    PrivateTest_acc：72.973%     \r\n\r\n## CK+ Dataset ##\r\n- The CK+ dataset is an extension of the CK dataset. It contains 327 labeled facial videos,\r\nWe extracted the last three frames from each sequence in the CK+ dataset, which\r\ncontains a total of 981 facial expressions. we use 10-fold Cross validation in the experiment.\r\n\r\n### Train and Eval model for a fold ###\r\n- python mainpro_CK+.py --model VGG19 --bs 128 --lr 0.01 --fold 1\r\n\r\n### Train and Eval model for all 10 fold ###\r\n- python k_fold_train.py\r\n\r\n### plot confusion matrix for all fold ###\r\n- python plot_CK+_confusion_matrix.py --model VGG19\r\n\r\n###      CK+ Accurary      ###\r\n- Model：    VGG19 ;       Test_acc：   94.646%   \u003CBr\u002F>\r\n- Model：   Resnet18 ;     Test_acc：   94.040%   \r\n\r\n","# 人脸表情识别.Pytorch\r\n基于卷积神经网络的 PyTorch 实现，用于人脸表情识别（FER2013 和 CK+ 数据集），在 FER2013 数据集中达到 73.112% 的准确率（当前最优），在 CK+ 数据集中达到 94.64% 的准确率。\n\n## 演示 ##\r\n![图片文本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWuJie1010_Facial-Expression-Recognition.Pytorch_readme_859fe44a81e7.png)\r\n![图片文本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWuJie1010_Facial-Expression-Recognition.Pytorch_readme_1ee52e7e5d88.png)\r\n\r\n## 依赖项 ##\r\n- Python 2.7\r\n- Pytorch >=0.2.0\r\n- h5py（预处理）\r\n- sklearn（绘制混淆矩阵）\r\n\r\n## 使用预训练模型对测试图像进行可视化 ##\r\n- 首先从 https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Oy_9YmpkSKX1Q8jkOhJbz3Mc7qjyISzU（或 https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1gCL0TlCwKctAy_5yhzHy5Q，提取码：g2d3）下载预训练模型，并将其放入“FER2013_VGG19”文件夹；然后将测试图像重命名为 1.jpg 并放入“images”文件夹，接着运行\r\n- python visualize.py\r\n\r\n## FER2013 数据集 ##\r\n- 数据集来源：https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fchallenges-in-representation-learning-facial-expression-recognition-challenge\u002Fdata\r\n图像属性：48 x 48 像素（2304 字节）\r\n标签：0=愤怒，1=厌恶，2=恐惧，3=快乐，4=悲伤，5=惊讶，6= neutral\r\n训练集包含 28,709 个样本。公开测试集包含 3,589 个样本。私有测试集也包含 3,589 个样本。\r\n\r\n### FER2013 数据预处理 ###\r\n- 首先下载数据集文件（fer2013.csv），并将其放入“data”文件夹，然后运行\r\n- python preprocess_fer2013.py\r\n\r\n### 训练与评估模型 ###\r\n- python mainpro_FER.py --model VGG19 --bs 128 --lr 0.01\r\n\r\n### 绘制混淆矩阵 ###\r\n- python plot_fer2013_confusion_matrix.py --model VGG19 --split PrivateTest\r\n\r\n###              FER2013 准确率             ###\r\n\r\n- 模型：    VGG19 ;       公开测试集准确率：  71.496% ;     私有测试集准确率：73.112%     \u003CBr\u002F>\r\n- 模型：   Resnet18 ;     公开测试集准确率：  71.190% ;    私有测试集准确率：72.973%     \r\n\r\n## CK+ 数据集 ##\r\n- CK+ 数据集是 CK 数据集的扩展版本，包含 327 个带标签的人脸视频。\r\n我们从 CK+ 数据集中的每个序列中提取最后三帧，总共得到 981 个面部表情。实验中采用 10 折交叉验证。\r\n\r\n### 对某一折进行训练与评估 ###\r\n- python mainpro_CK+.py --model VGG19 --bs 128 --lr 0.01 --fold 1\r\n\r\n### 对所有 10 折进行训练与评估 ###\r\n- python k_fold_train.py\r\n\r\n### 绘制所有折的混淆矩阵 ###\r\n- python plot_CK+_confusion_matrix.py --model VGG19\r\n\r\n###      CK+ 准确率      ###\r\n- 模型：    VGG19 ;       测试集准确率：   94.646%   \u003CBr\u002F>\r\n- 模型：   Resnet18 ;     测试集准确率：   94.040%","# Facial-Expression-Recognition.Pytorch 快速上手指南\n\n本项目是一个基于 PyTorch 的卷积神经网络（CNN）实现，用于面部表情识别。在 FER2013 数据集上达到了 73.112% 的准确率（SOTA），在 CK+ 数据集上达到了 94.64% 的准确率。\n\n## 环境准备\n\n### 系统要求\n- **Python**: 2.7 (注：现代开发建议尝试 Python 3，但官方文档指定为 2.7)\n- **PyTorch**: >= 0.2.0\n\n### 前置依赖\n请确保安装以下 Python 库：\n```bash\npip install torch h5py sklearn\n```\n*注：`h5py` 用于数据预处理，`sklearn` 用于绘制混淆矩阵。*\n\n## 安装与模型准备\n\n### 1. 下载预训练模型\n要快速体验效果，需先下载预训练的 VGG19 模型。\n\n**下载地址：**\n- **Google Drive**: [点击下载](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Oy_9YmpkSKX1Q8jkOhJbz3Mc7qjyISzU)\n- **百度网盘 (国内加速)**: [点击下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1gCL0TlCwKctAy_5yhzHy5Q) (提取码：`g2d3`)\n\n### 2. 部署模型文件\n将下载好的模型文件放入项目根目录下的 `FER2013_VGG19` 文件夹中。\n\n## 基本使用\n\n### 快速测试单张图片\n这是最简单的使用方式，无需重新训练即可对单张图片进行表情识别可视化。\n\n1. **准备图片**：\n   将你要测试的图片重命名为 `1.jpg`，并放入项目根目录下的 `images` 文件夹中。\n\n2. **运行可视化脚本**：\n   在终端执行以下命令：\n   ```bash\n   python visualize.py\n   ```\n   程序将加载预训练模型，识别 `images\u002F1.jpg` 中的表情并输出结果。\n\n---\n\n### （可选）数据集训练流程\n\n如果你需要从头训练模型，请参考以下简要步骤：\n\n#### FER2013 数据集\n1. **获取数据**：从 [Kaggle](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fchallenges-in-representation-learning-facial-expression-recognition-challenge\u002Fdata) 下载 `fer2013.csv` 并放入 `data` 文件夹。\n2. **预处理**：\n   ```bash\n   python preprocess_fer2013.py\n   ```\n3. **训练与评估 (VGG19)**：\n   ```bash\n   python mainpro_FER.py --model VGG19 --bs 128 --lr 0.01\n   ```\n\n#### CK+ 数据集\n1. **单折训练 (Fold 1)**：\n   ```bash\n   python mainpro_CK+.py --model VGG19 --bs 128 --lr 0.01 --fold 1\n   ```\n2. **全部 10 折交叉验证训练**：\n   ```bash\n   python k_fold_train.py\n   ```","某在线教育平台的产品团队希望优化直播课堂的互动体验，计划通过实时分析学生面部表情来评估课堂专注度与情绪反馈。\n\n### 没有 Facial-Expression-Recognition.Pytorch 时\n- 开发团队需从零构建卷积神经网络架构，耗费数周时间调试模型结构，且难以在 FER2013 等标准数据集上复现高精度结果。\n- 缺乏预训练模型支持，导致冷启动阶段识别准确率低下，无法区分“困惑”与“无聊”等细微表情差异，误报率极高。\n- 数据预处理流程繁琐，手动编写脚本处理 48x48 像素图像及标签映射（如愤怒、惊讶等 7 类），极易因格式错误导致训练中断。\n- 缺少可视化的混淆矩阵工具，团队难以量化评估模型在特定情绪类别上的表现，优化方向全靠猜测。\n\n### 使用 Facial-Expression-Recognition.Pytorch 后\n- 直接调用基于 VGG19 的预训练模型，快速部署服务，在 FER2013 数据集上即刻获得 73.11% 的业界领先准确率，大幅缩短研发周期。\n- 利用其成熟的 CNN 架构，精准捕捉学生微表情变化，有效区分“恐惧”与“中性”状态，为教师提供可靠的情绪热力图参考。\n- 内置标准化的数据预处理脚本（preprocess_fer2013.py），自动完成图像清洗与标签对齐，将数据准备时间从几天压缩至几分钟。\n- 通过自带的混淆矩阵绘制功能，直观展示模型在 7 种情绪上的分类性能，帮助团队针对性地调整策略以提升弱势类别的识别效果。\n\nFacial-Expression-Recognition.Pytorch 将原本高门槛的情绪识别算法转化为开箱即用的生产力工具，让教育科技团队能专注于业务逻辑而非底层模型调优。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FWuJie1010_Facial-Expression-Recognition.Pytorch_859fe44a.png","WuJie1010","WuJie","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FWuJie1010_8ea2245a.jpg","https:\u002F\u002Fwujie1010.github.io\u002F","ByteDance",null,"https:\u002F\u002Fgithub.com\u002FWuJie1010",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,1961,565,"2026-04-16T14:05:22","MIT","未说明","未说明 (基于 PyTorch CNN 实现，通常建议使用 GPU 加速训练，但 README 未明确指定型号或显存要求)",{"notes":92,"python":93,"dependencies":94},"该项目版本较老，强制要求 Python 2.7 和 PyTorch 0.2.0+，与现代环境兼容性较差。使用前需手动下载预训练模型或 FER2013\u002FCK+ 数据集并放置于指定文件夹。代码中包含针对特定数据集（FER2013, CK+）的预处理和评估脚本。","2.7",[95,96,97],"Pytorch>=0.2.0","h5py","sklearn",[35,15],[100,101,102,103],"facial-expression-recognition","face-recognition","fer2013","ckan-extension","2026-03-27T02:49:30.150509","2026-04-17T08:25:36.065300",[107,112,117,122,127,132,137,142],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},37039,"运行代码时出现 'h5py objects cannot be pickled' 报错怎么办？","这是因为 Python 3 中 h5py 对象的序列化方式发生了变化。建议改用 'pickle' 模块来保存数据。具体代码如下：\ntrain_file = open('data\u002Ffer2013\u002Ftrain.txt', 'wb')\npickle.dump(Training_x, train_file)\n请检查代码中类似 datafile = h5py.File(datapath, 'w') 的用法并替换为 pickle 操作。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F58",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},37040,"遇到 'AttributeError: NoneType object has no attribute data' 错误如何解决？","该错误通常发生在梯度裁剪（clip_gradient）时，某些参数的梯度为 None。这可能是因为模型结构不匹配或输入维度错误。如果是尝试修改 Batch Size（例如从 16 改为 160），请注意网络期望的输入维度（通常为 4 维），错误的维度（如 5 维）会导致梯度计算失败。请确保输入数据维度与网络定义一致，并检查是否正确使用了 ensemble 技术或 torch.repeat 函数来处理数据维度。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F24",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},37041,"在没有 CUDA 支持的 CPU 机器上加载模型时报错怎么办？","错误提示 'Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False' 表示试图在 CPU 上加载一个在 GPU 上保存的模型。解决方法是在加载模型时指定 map_location。参考代码如下：\ndevice = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')\ncheckpoint = torch.load('model_path.t7', map_location=device)\nnet.load_state_dict(checkpoint['net'])\nnet.to(device)\nnet.eval()\n确保将输入数据也移动到相同的 device 上：inputs = inputs.to(device)。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F59",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},37042,"训练或测试时出现 'TypeError: pic should be PIL Image or ndarray. Got class torch.Tensor' 错误？","这通常是因为在数据预处理变换（transform）中重复调用了 ToTensor() 方法，导致图片数据被多次转换为 Tensor 类型，而后续的变换（如 Resize 或 Normalize）期望接收 PIL Image 或 ndarray。请检查 transform 组合（transforms.Compose），确保 ToTensor() 只调用了一次，并且顺序正确（通常先进行几何变换如 Resize\u002FCrop，最后再进行 ToTensor 和 Normalize）。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F141",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},37043,"为什么交叉验证中会出现 100% 的准确率？这是正常的吗？","在某些折叠（fold）中出现 100% 的准确率是可能的，这证明模型在该特定数据划分下训练效果非常好，并不一定意味着代码逻辑错误（如训练集和测试集泄露）。只要确认训练和测试样本没有交集，这种情况在深度学习实验中是允许存在的。此外，代码中的 'test' 过程通常是指在每个 epoch 后对验证集进行评估以记录最佳准确率（best accuracy），这是符合常规训练流程的。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F46",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},37044,"测试集为什么要使用 TenCrop 变换？每次测试图片不一样会影响结果吗？","使用 TenCrop（十裁剪）是一种数据增强策略，旨在通过从图像的不同位置裁剪并翻转来获取多个视图，从而提高模型预测的鲁棒性和准确性。测试时会对这 10 个裁剪版本的预测结果取平均。虽然每次生成的裁剪细节可能因实现而异，但统计上是稳定的。注意：训练时设置的 cut_size 必须与测试时保持一致，否则会导致混淆矩阵维度错误或预测异常。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F31",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},37045,"如何在原代码基础上修改为使用 ResNet 模型？","要将模型从 VGG 替换为 ResNet，首先需要确保代码中已定义 ResNet 类。然后将实例化代码从 net = VGG('VGG19') 修改为 net = ResNet('ResNet18')（或其他版本）。同时，需要加载对应的预训练权重文件（checkpoint），确保权重文件的架构与新模型匹配。模型所在的文件夹名称没有特殊讲究，但建议在加载路径中正确指向包含新模型权重的文件夹。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F36",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},37046,"Windows 系统下如何运行该项目？支持 Python 2.7 吗？","PyTorch 在 Windows 系统上不再支持 Python 2.7，必须使用 Python 3.x 环境（如 Python 3.7+）。作者主要在 Ubuntu 环境下开发和测试代码，未在 Windows 上进行过全面验证。如果在 Windows 上运行遇到兼容性问题，建议检查 PyTorch 版本是否与 Python 版本匹配，或考虑使用 WSL (Windows Subsystem for Linux) 模拟 Linux 环境来运行项目。","https:\u002F\u002Fgithub.com\u002FWuJie1010\u002FFacial-Expression-Recognition.Pytorch\u002Fissues\u002F43",[]]