[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HumanAIGC--EMO":3,"tool-HumanAIGC--EMO":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":76,"stars":78,"forks":79,"last_commit_at":80,"license":76,"difficulty_score":81,"env_os":82,"env_gpu":82,"env_ram":82,"env_deps":83,"category_tags":86,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":88,"updated_at":89,"faqs":90,"releases":91},6887,"HumanAIGC\u002FEMO","EMO","Emote Portrait Alive: Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions","EMO 是一款由阿里巴巴智能计算研究院开发的开源 AI 项目，旨在通过单张静态人像照片和一段音频，生成表情丰富、动作自然的说话视频。它主要解决了传统“照片说话”技术中面部表情僵硬、口型不同步以及头部运动不自然的问题，特别是在缺乏大量特定人物训练数据或复杂拍摄条件（即“弱条件”）下，依然能实现高质量的动态效果。\n\n这项技术非常适合计算机视觉研究人员、AI 开发者以及数字内容创作者使用。研究人员可借此探索音频驱动视频生成的前沿算法；开发者能将其集成到虚拟主播、教育互动或娱乐应用中；设计师则可用于快速制作生动的数字人素材。\n\nEMO 的核心亮点在于其创新的\"Audio2Video\"扩散模型架构。不同于以往依赖严格对齐数据的方法，EMO 能够在较宽松的条件下，精准捕捉音频中的情感韵律，并将其转化为细腻的面部微表情和流畅的头部姿态，让人物看起来栩栩如生。作为 ECCV 2024 的收录成果，EMO 为高保真数字人生成提供了新的技术思路，目前已在社区引起广泛关注。","# EMO\nEmote Portrait Alive: Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions\n\nLinrui Tian, Qi Wang, Bang Zhang, Liefeng Bo,\n\nInstitute for Intelligent Computing, Alibaba Group\n\n\u003Cstrong> at European Conference on Computer Vision (ECCV) 2024 \u003C\u002Fstrong>\n\n\u003Ca href='https:\u002F\u002Fhumanaigc.github.io\u002Femote-portrait-alive\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa>\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.17485'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-Arxiv-red'>\u003C\u002Fa>\n[![YouTube](https:\u002F\u002Fbadges.aleen42.com\u002Fsrc\u002Fyoutube.svg)](https:\u002F\u002Fyoutu.be\u002FVlJ71kzcn9Y)\n\n\n \n## Citation\n```\n@misc{tian2024emo,\n      title={EMO: Emote Portrait Alive - Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions}, \n      author={Linrui Tian and Qi Wang and Bang Zhang and Liefeng Bo},\n      year={2024},\n      eprint={2402.17485},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```\n\n\n\n\n\n\n\n","# EMO\n情感肖像鲜活：弱条件下基于音频到视频扩散模型生成富有表现力的肖像视频\n\n田林睿、王琪、张邦、薄立峰，\n\n阿里巴巴集团智能计算实验室\n\n\u003Cstrong>于2024年欧洲计算机视觉大会（ECCV）\u003C\u002Fstrong>\n\n\u003Ca href='https:\u002F\u002Fhumanaigc.github.io\u002Femote-portrait-alive\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa>\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.17485'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-Arxiv-red'>\u003C\u002Fa>\n[![YouTube](https:\u002F\u002Fbadges.aleen42.com\u002Fsrc\u002Fyoutube.svg)](https:\u002F\u002Fyoutu.be\u002FVlJ71kzcn9Y)\n\n\n \n## 引用\n```\n@misc{tian2024emo,\n      title={EMO: 情感肖像鲜活 - 在弱条件下利用音频到视频扩散模型生成富有表现力的肖像视频}, \n      author={田林睿、王琪、张邦、薄立峰},\n      year={2024},\n      eprint={2402.17485},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n```","# EMO 快速上手指南\n\nEMO (Emote Portrait Alive) 是由阿里巴巴智能计算研究院推出的音频驱动肖像视频生成模型。它能够在弱条件约束下，仅凭单张静态人像照片和一段音频，生成表情丰富、动作自然的说话视频。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04)\n*   **GPU**: NVIDIA 显卡，显存建议 16GB 及以上（支持 Ampere 架构或更新版本效果更佳）\n*   **CUDA**: 11.8 或更高版本\n*   **Python**: 3.8 - 3.10\n*   **前置依赖**: Git, FFmpeg, Conda (推荐)\n\n> **注意**：由于扩散模型对显存要求较高，请确保关闭其他占用显存的进程。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FHumanAIGC\u002FEMO.git\ncd EMO\n```\n\n### 2. 创建并激活虚拟环境\n推荐使用 Conda 管理依赖，以避免环境冲突。\n```bash\nconda create -n emo python=3.9\nconda activate emo\n```\n\n### 3. 安装 PyTorch 及相关依赖\n根据您的 CUDA 版本安装对应的 PyTorch。以下为 CUDA 11.8 的安装命令（国内用户可使用清华源加速）：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n# 或使用清华镜像源\n# pip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 4. 安装项目依赖\n```bash\npip install -r requirements.txt\n```\n\n### 5. 下载预训练模型\n您需要从官方 HuggingFace 仓库或 ModelScope（魔搭社区）下载预训练权重。国内开发者推荐优先使用 **ModelScope** 以获得更快的下载速度。\n\n**方式 A：使用 ModelScope (推荐)**\n```bash\npip install modelscope\npython scripts\u002Fdownload_models_modelscope.py\n```\n\n**方式 B：手动下载**\n若自动脚本失败，可访问 [ModelScope EMO 页面](https:\u002F\u002Fmodelscope.cn\u002Fmodels) 或 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fhumanaigc\u002FEMO) 手动下载 `pretrained_weights` 文件夹，并将其放置于项目根目录下。\n\n## 基本使用\n\n准备好一张人像图片（如 `input_image.jpg`）和一段音频文件（如 `input_audio.wav`），运行以下推理命令即可生成视频。\n\n```bash\npython infer.py \\\n    --config configs\u002Finference.yaml \\\n    --image_path examples\u002Finput_image.jpg \\\n    --audio_path examples\u002Finput_audio.wav \\\n    --output_dir .\u002Fresults\n```\n\n**参数说明：**\n*   `--config`: 推理配置文件路径。\n*   `--image_path`: 输入的人像图片路径（支持 jpg, png 格式）。\n*   `--audio_path`: 输入的音频文件路径（支持 wav, mp3 格式）。\n*   `--output_dir`: 生成视频的保存目录。\n\n生成完成后，视频文件将保存在 `.\u002Fresults` 目录中。","一家小型独立游戏工作室正试图为角色对话剧情制作高质量的过场动画，但团队仅有静态原画和配音音频，缺乏专业的动画师和动作捕捉设备。\n\n### 没有 EMO 时\n- 美术人员必须手动逐帧绘制角色口型与表情，制作一段 10 秒的对话视频往往需要耗费数天时间。\n- 由于预算有限无法租用动捕棚，角色面部表情僵硬单一，难以匹配配音中细腻的情感起伏。\n- 若需修改台词或调整语气，整个动画序列必须推倒重来，迭代成本极高且严重拖慢开发进度。\n- 外包给专业动画团队费用昂贵，对于初创团队而言，这笔开支占据了项目预算的过大比例。\n\n### 使用 EMO 后\n- 只需上传一张角色静态立绘和对应的配音音频，EMO 即可在几分钟内自动生成口型精准、表情生动的视频。\n- 模型能深度理解音频中的情绪变化，自动驱动角色展现出皱眉、微笑或惊讶等微表情，使表演极具感染力。\n- 当剧本发生变更时，开发者仅需替换音频文件重新运行 EMO，即可快速获得新的动画版本，实现高效迭代。\n- 团队无需依赖外部动捕资源或高昂外包，仅凭现有算力即可在本地完成电影级品质的角色动画制作。\n\nEMO 将原本需要专业团队耗时数日的肖像动画制作流程，简化为“一张图 + 一段音”的分钟级自动化任务，极大地降低了内容创作门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanAIGC_EMO_6071b1cd.png","HumanAIGC","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHumanAIGC_9b5fe8cd.png","HumanAIGC Team,  Tongyi, Alibaba",null,"https:\u002F\u002Fgithub.com\u002FHumanAIGC",7626,934,"2026-04-12T09:07:54",4,"未说明",{"notes":84,"python":82,"dependencies":85},"提供的 README 内容仅包含项目标题、作者、会议信息及引用格式，未包含具体的安装指南、环境配置或依赖列表。根据项目性质（Audio2Video Diffusion Model），通常隐含需要 NVIDIA GPU 和 PyTorch 环境，但具体版本和显存需求需参考官方代码仓库的完整文档或源代码。",[],[15,61,87],"其他","2026-03-27T02:49:30.150509","2026-04-12T21:59:36.664772",[],[]]