[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-abduallahmohamed--Social-STGCNN":3,"tool-abduallahmohamed--Social-STGCNN":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":150},4692,"abduallahmohamed\u002FSocial-STGCNN","Social-STGCNN","Code for \"Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction\" CVPR 2020","Social-STGCNN 是一款专为行人轨迹预测设计的开源深度学习模型，曾发表于计算机视觉顶级会议 CVPR 2020。它主要解决在复杂人群环境中，如何准确预判个体未来移动路径的难题，这对于自动驾驶、机器人导航及智能监控等领域至关重要。\n\n该工具的核心创新在于将行人的时空运动建模为“社会时空图”。通过独特的核函数，它能将行人之间的社交互动（如避让、跟随）嵌入到图的邻接矩阵中，从而更敏锐地捕捉人群动态。其架构由两部分组成：时空图卷积网络（ST-GCNN）负责提取历史轨迹特征，时间外推卷积网络（TXP-CNN）则据此生成未来路径。\n\n相比以往的方法，Social-STGCNN 在性能与效率上取得了显著平衡：不仅将最终位移误差（FDE）降低了 20%，更以仅 7.6K 的极少量参数实现了每秒 500 帧的超快推理速度，且对训练数据的依赖度更低。这款工具非常适合人工智能研究人员、自动驾驶算法工程师以及计算机视觉开发者使用，帮助他们高效构建高精度的运动预测系统，或作为研究时空图神经网络的优秀基准参考。","# Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction\n### Abduallah Mohamed, Kun Qian \u003Cbr \u002F>\n### Mohamed Elhoseiny** , Christian Claudel**\n##### \u003Csup>**\u003C\u002Fsup> Equal advising\nRead full paper \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.11927\">here\u003C\u002Fa>, Presented at [CVPR 2020](http:\u002F\u002Fcvpr2020.thecvf.com\u002F)\n\n### Check our latest work in motion prediction with new metrics (ECCV2022): Social-Implicit https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-Implicit\n\n### Social-STGCNN\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_7385a60441d2.jpg\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\nWe propose the Social Spatio-Temporal Graph Convolutional Neural Network (Social-STGCNN), which models the problem of human trajectory prediction as a spatio-temporal graph. Our results show an improvement over the state of art by 20\\% on the Final Displacement Error (FDE) and an improvement on the Average Displacement Error (ADE) with 8.5 times less parameters and up to 48 times faster inference speed than previously reported methods. In addition, our model is data efficient, and exceeds previous state of the art on the ADE metric with only 20\\% of the training data. We propose a kernel function to embed the social interactions between pedestrians within the adjacency matrix.\n\nOur model inference speed is 0.002s\u002Fframe (500Hz) using only 7.6K parameters.\n### Citaion\nYou can cite our paper using: \n```\n@inproceedings{mohamed2020social,\n  title={Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction},\n  author={Mohamed, Abduallah and Qian, Kun and Elhoseiny, Mohamed and Claudel, Christian},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  pages={14424--14432},\n  year={2020}\n}\n```\n\n\n#### Model\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_234e009337fb.jpg\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\nSocial-STGCNN model consists of 2 building blocks: \u003Cbr \u002F>\n1- ST-GCNN: A Spatio-Tempral Graph CNN that creates a spatio-temporal graph embedding representing the previous pedestrians trajectories. \u003Cbr \u002F>\n2- TXP-CNN: A Time-Extrapolator CNN that utilizes the spatio-temporal graph embedding to predict future trajectories.\u003Cbr \u002F>\n\nMore details are in this description video:\u003Cbr \u002F> \n\u003Cdiv align='center'>\n  \n[![Social-STGCNN description](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_e5592c1c915d.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Yi9rVHJM8WY)\n\u003C\u002Fdiv>\n\n#### Predictions sample\n\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_29a041df99f6.gif\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\n### Setup: \nThe code was written using python 3.6. \nThe following libraries are the minimal to run the code: \n```python\nimport pytorch\nimport networkx\nimport numpy\nimport tqdm\n```\nor you can have everything set up by running: \n```bash\npip install -r requirements.txt\n```\n### Using the code:\nTo use the pretrained models at `checkpoint\u002F` and evaluate the models performance run:\n```bash\ntest.py\n```\n\nTo train a model for each data set with the best configuration as in the paper, simply run:\n```bash\n.\u002Ftrain.sh  \n```\nPlease note: The initiation of training and testing might take a while as the code creates a cache to store the spatio-temporal graphs.\n\u003Cbr \u002F>\nExact CVPR version: https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Ftree\u002Febd57aaf34d84763825d05cf9d4eff738d8c96bb\n\n### Check our work in the 3D motion prediction (ICCV2021): https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSkeleton-Graph\n\n\n","# Social-STGCNN：用于人类轨迹预测的社会时空图卷积神经网络\n### 阿卜杜拉·穆罕默德，钱坤 \u003Cbr \u002F>\n### 穆罕默德·埃尔霍赛尼** ，克里斯蒂安·克劳德尔**\n##### \u003Csup>**\u003C\u002Fsup> 共同指导\n阅读完整论文 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.11927\">此处\u003C\u002Fa>, 发表于 [CVPR 2020](http:\u002F\u002Fcvpr2020.thecvf.com\u002F)\n\n### 欢迎查看我们在运动预测领域的最新工作，采用全新指标（ECCV2022）：Social-Implicit https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-Implicit\n\n### Social-STGCNN\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_7385a60441d2.jpg\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\n我们提出了社会时空图卷积神经网络（Social-STGCNN），将人类轨迹预测问题建模为一个时空图。实验结果表明，在最终位移误差（FDE）上较当前最优方法提升了20%，而在平均位移误差（ADE）上则以仅需原方法8.5分之一的参数量和最高可达48倍的推理速度实现了显著提升。此外，我们的模型具有数据高效性，仅使用20%的训练数据便在ADE指标上超越了先前的最先进水平。我们还提出了一种核函数，用于将行人之间的社交交互关系嵌入到邻接矩阵中。\n\n我们的模型推理速度仅为0.002秒\u002F帧（500Hz），且仅需7.6K个参数。\n### 引用\n您可以通过以下方式引用我们的论文：\n```\n@inproceedings{mohamed2020social,\n  title={Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction},\n  author={Mohamed, Abduallah and Qian, Kun and Elhoseiny, Mohamed and Claudel, Christian},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  pages={14424--14432},\n  year={2020}\n}\n```\n\n\n#### 模型\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_234e009337fb.jpg\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\nSocial-STGCNN模型由两个核心模块组成：\u003Cbr \u002F>\n1- ST-GCNN：一种时空图卷积网络，用于构建表示历史行人轨迹的时空图嵌入。\u003Cbr \u002F>\n2- TXP-CNN：一种时间外推卷积网络，利用时空图嵌入来预测未来的轨迹。\u003Cbr \u002F>\n\n更多细节请观看本介绍视频：\u003Cbr \u002F> \n\u003Cdiv align='center'>\n  \n[![Social-STGCNN介绍](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_e5592c1c915d.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Yi9rVHJM8WY)\n\u003C\u002Fdiv>\n\n#### 预测示例\n\n\u003Cdiv align='center'>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_readme_29a041df99f6.gif\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\n### 环境配置：\n代码使用Python 3.6编写。运行代码所需的最低依赖库如下：\n```python\nimport pytorch\nimport networkx\nimport numpy\nimport tqdm\n```\n或者您也可以通过运行以下命令一次性安装所有依赖：\n```bash\npip install -r requirements.txt\n```\n### 使用代码：\n要使用`checkpoint\u002F`目录下的预训练模型并评估其性能，请运行：\n```bash\ntest.py\n```\n\n若要按照论文中的最佳配置为每个数据集训练模型，只需运行：\n```bash\n.\u002Ftrain.sh  \n```\n请注意：由于代码会创建缓存以存储时空图，因此训练和测试的初始化过程可能需要一些时间。\n\u003Cbr \u002F>\nCVPR正式版本：https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Ftree\u002Febd57aaf34d84763825d05cf9d4eff738d8c96bb\n\n### 欢迎查看我们在3D运动预测方面的研究工作（ICCV2021）：https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSkeleton-Graph","# Social-STGCNN 快速上手指南\n\nSocial-STGCNN 是一种用于人类轨迹预测的社会时空图卷积神经网络。该模型在保持高精度的同时，显著减少了参数量并提升了推理速度（高达 500Hz）。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：推荐 Python 3.6（原文开发环境）\n- **核心依赖**：\n  - PyTorch\n  - NetworkX\n  - NumPy\n  - tqdm\n\n## 安装步骤\n\n1. 克隆项目代码到本地：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN.git\n   cd Social-STGCNN\n   ```\n\n2. 安装依赖库。\n   \n   **方式一（推荐）：使用国内镜像源加速安装**\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n   **方式二：手动安装最小依赖集**\n   ```bash\n   pip install torch networkx numpy tqdm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n## 基本使用\n\n### 1. 评估预训练模型\n使用 `checkpoint\u002F` 目录下的预训练模型进行性能评估：\n```bash\npython test.py\n```\n> **注意**：首次运行时，代码需要构建并缓存时空图数据，初始化过程可能需要一些时间。\n\n### 2. 训练新模型\n使用论文中的最佳配置对数据集进行训练：\n```bash\n.\u002Ftrain.sh\n```\n> **注意**：同样，训练启动阶段会因创建时空图缓存而耗时较长，请耐心等待。\n\n### 3. 指定版本（可选）\n如需复现 CVPR 2020 论文的精确版本，可切换至特定 commit：\n```bash\ngit checkout ebd57aaf34d84763825d05cf9d4eff738d8c96bb\n```","某自动驾驶团队正在开发城市复杂路口的行人避让系统，需要实时精准预测周围行人的未来移动轨迹以确保行车安全。\n\n### 没有 Social-STGCNN 时\n- **预测精度不足**：传统模型难以捕捉行人之间微妙的社交互动（如避让、跟随），导致在密集人流中轨迹预测偏差大，最终位移误差（FDE）较高。\n- **计算资源消耗巨大**：现有先进算法参数量庞大，对车载嵌入式芯片的算力和内存要求极高，难以在低成本硬件上部署。\n- **响应延迟严重**：推理速度慢，无法满足自动驾驶毫秒级的实时决策需求，存在安全隐患。\n- **数据依赖性强**：模型训练需要海量标注数据，在特定场景或数据稀缺地区表现大幅下降，泛化能力弱。\n\n### 使用 Social-STGCNN 后\n- **社交感知显著提升**：通过构建时空图卷积网络并嵌入社交核函数，Social-STGCNN 能精准建模行人间的交互逻辑，将 FDE 指标优化了 20%，大幅减少误判。\n- **极致轻量化部署**：模型仅需 7.6K 参数量，相比此前方法减少了 8.5 倍，轻松运行于资源受限的车载边缘设备。\n- **超低延迟推理**：推理速度高达 500Hz（0.002 秒\u002F帧），比旧方案快 48 倍，确保车辆能对突发路况做出即时反应。\n- **高效数据利用**：具备极强的数据效率，仅用 20% 的训练数据即可超越之前的最佳效果，降低了数据采集与标注成本。\n\nSocial-STGCNN 以极小的计算代价实现了高精度的社交感知轨迹预测，为自动驾驶在复杂人机混行场景下的安全落地提供了关键技术支持。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fabduallahmohamed_Social-STGCNN_7385a604.jpg","abduallahmohamed","Abduallah Mohamed","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fabduallahmohamed_3748c80e.jpg","I solve machine perception problems mixing deep learning and sensor data fusion. Applied Research Scientist @Meta ","Meta",null,"abduallah.adel.omar@gmail.com","https:\u002F\u002Fwww.abduallahmohamed.com\u002F","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",97.1,{"name":90,"color":91,"percentage":92},"Shell","#89e051",2.9,567,145,"2026-04-03T10:55:03","MIT","未说明","未说明 (基于 PyTorch 的图卷积网络通常建议使用 GPU 加速，但 README 未明确指定型号或显存要求)",{"notes":100,"python":101,"dependencies":102},"首次运行训练或测试时，代码会构建时空图的缓存文件，初始化过程可能需要较长时间。项目提供了预训练模型位于 checkpoint\u002F 目录下。","3.6",[103,104,105,106],"pytorch","networkx","numpy","tqdm",[15,62],[109,110,111,112,113,114,115,116,117],"spatio-temporal-graphs","pedestrians","social-stgcnn","human-trajectory-prediction","pedestrian-trajectories","graph-convolutional-networks","gcnn","graph-neural-networks","realtime","2026-03-27T02:49:30.150509","2026-04-07T08:19:24.133519",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21338,"训练时是否使用了数据集中的所有数据文件（例如 eth\u002Ftrain 下的所有文件）？","是的，通常需要使用数据集中提供的所有相关数据文件进行训练。如果您遇到将像素坐标转换为真实世界坐标的问题（例如添加障碍物信息时），请参考单应性矩阵（homography matrix）的使用。您可以查看此代码示例了解具体实现：https:\u002F\u002Fgithub.com\u002FHarshayuGirase\u002FHuman-Path-Prediction\u002Fblob\u002Fa345ada1557f53dc2acb4c07f71d340d366980da\u002Fynet\u002Fmodel.py#L252。单应性矩阵不仅可以用于转换轨迹，也可以用于转换单个点的坐标。","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fissues\u002F10",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21339,"为什么更换运行环境后无法复现之前的训练结果？超参数是否需要针对每个数据集单独调整？","运行环境的微小变化（如库版本、底层依赖）确实可能影响模型结果。关于超参数，虽然论文中通常只报告一组通用的超参数以简化展示，但这并不意味着禁止调整。实际上，针对不同数据集对模型进行微调（fine-tune）是允许且常见的做法。只要您基于验证集选择最佳模型，并在测试集上报告结果即可。不过，为了减少麻烦，大多数研究者会尝试沿用相同的超参数设置。","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fissues\u002F34",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21340,"为什么代码中的批大小（batch size）设置为 1？使用填充（padding）来处理动态数量的行人是否能提高性能？","批大小设置为 1 的主要原因是图中节点（行人）数量是动态变化的，导致图的大小不一致，直接填充并不是理想的解决方案。虽然可以将大小相似的图分组打包，但这会引发学习率调整等复杂问题。在当前的实现中，代码采用了一种折中方案：每次前向传播处理一个图（batch size=1），但每累积 128 个图的损失后才进行一次反向传播。这意味着反向传播实际上是在等效批大小为 128 的情况下进行的，既解决了变长图的问题，又保证了训练效率，对于 Social-STGCNN 这样的模型深度来说，速度影响不大。","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fissues\u002F23",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},21341,"如何生成演示视频中的轨迹可视化？代码中是否保留了帧 ID 和行人 ID 以便绘图？","原始代码在处理测试集后可能只保留了 (x,y) 坐标，丢失了帧 ID 和行人 ID，这会导致绘图困难。要解决此问题并高效绘制轨迹：\n1. 修改数据集解析代码，在读取数据时保留行人 ID。参考代码位置：https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fblob\u002Fmaster\u002Futils.py#L122。\n2. 确保在采样预测分布后，能将预测结果与对应的帧 ID 和行人 ID 重新关联。\n3. 关于具体的可视化脚本，可以参考项目中的其他讨论或自行编写脚本读取包含 ID 的数据进行绘制。坐标出现负值通常是正常的，不影响绘图。","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fissues\u002F9",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},21342,"代码中使用的是归一化邻接矩阵还是归一化拉普拉斯矩阵？为什么观察到的矩阵包含负值且行列和不为 0？","代码中明确使用的是归一化拉普拉斯矩阵（normalized Laplacian matrix），通过 `nx.normalized_laplacian_matrix` 函数生成，而不是归一化邻接矩阵。因此，观察到矩阵中包含负值是完全正确的，这是拉普拉斯矩阵的特性。关于行和与列和是否严格为 0 的问题，维护者表示并没有严格的证明要求它们必须完全等于 0，数值计算中的微小偏差或特定图结构可能导致总和不完全为零，这属于正常现象。","https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fissues\u002F22",{"id":147,"question_zh":148,"answer_zh":149,"source_url":140},21343,"如何在数据集中添加或保留行人 ID 以用于后续的轨迹跟踪或可视化？","默认的数据处理流程可能会丢弃行人 ID。若需保留 ID，您需要手动修改 `utils.py` 文件中的数据解析部分。具体而言，请在读取和预处理数据集的代码段中（参考 https:\u002F\u002Fgithub.com\u002Fabduallahmohamed\u002FSocial-STGCNN\u002Fblob\u002Fmaster\u002Futils.py#L122），增加逻辑以提取并存储每一帧中行人的唯一标识符（ID）。这样在模型预测完成后，您就能将预测坐标与特定的行人 ID 对应起来，从而实现准确的轨迹可视化和分析。",[]]