[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TencentARC--ToonComposer":3,"tool-TencentARC--ToonComposer":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":104,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":138},3218,"TencentARC\u002FToonComposer","ToonComposer","[ICLR 2026] Streamlining Cartoon Production with Generative Post-Keyframing","ToonComposer 是一款由腾讯 ARC 实验室开源的 AI 工具，旨在通过“生成式后期关键帧”技术彻底革新卡通与动画的制作流程。传统动画制作极度依赖人工绘制中间帧和上色，耗时且门槛高；ToonComposer 利用生成式 AI 将这些繁琐步骤整合为单一、流畅的自动化过程，显著缩短生产周期，让创作者能将数小时的手工劳作转化为瞬间完成的任务。\n\n该工具特别适合动画设计师、独立创作者以及希望探索 AIGC 在视频生成领域应用的研究人员使用。对于具备一定开发能力的用户，项目提供了完整的本地部署方案，支持自定义环境配置；而普通用户或资源受限者也可直接通过 Hugging Face 在线体验演示。\n\n技术层面，ToonComposer 基于强大的 Wan2.1 图像到视频基础模型构建，能够根据少量关键帧智能生成连贯的中间画面并自动上色，确保风格统一且动作自然。需要注意的是，本地运行对显存要求较高（生成一段短视频约需 57GB 显存），建议拥有高性能 GPU 的开发者和机构尝试本地部署，其他用户可优先选择云端服务体验其高效的制作能力。","# ToonComposer\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_36c6c941c040.png' width='120px'>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\"> \u003Cb> ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing \u003C\u002Fb> \u003C\u002Fp>\n\n\u003Cp align=\"center\"> Lingen Li, Guangzhi Wang, Zhaoyang Zhang, Yaowei Li, Xiaoyu Li, Qi Dou, Jinwei Gu, Tianfan Xue, Ying Shan \u003C\u002Fp>\n\n\u003Cp align=\"center\"> \u003Ca href='https:\u002F\u002Flg-li.github.io\u002Fproject\u002Ftooncomposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FToonComposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Model-blue'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Space-orange'>\u003C\u002Fa>\n \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10881\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=ArxivPreprint&message=ToonComposer&color=red&logo=arxiv\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 👀 TL;DR\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_3627e3e4c40e.jpg' width='550px'>\n\u003C\u002Fdiv>\n\nTraditional cartoon\u002Fanime production is time-consuming, requiring skilled artists for keyframing, inbetweening, and colorization.\nToonComposer streamlines this with generative AI, turning hours of manual work of inbetweening and colorization into a single, seamless process. Visit our [project page](https:\u002F\u002Flg-li.github.io\u002Fproject\u002Ftooncomposer) and read our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10881) for more details.\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_712dc77fb123.jpg' width='800px'>\n\u003C\u002Fdiv>\n\n## ✏️ Updates\n\n[08\u002F18\u002F2025] Online gradio demo is now available on [Hugging Face Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer).\n\n[08\u002F15\u002F2025] ToonComposer model weights are available [here](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FToonComposer).\n\n## ⚠️ Unauthorized Site Notice\n\nThe website https:\u002F\u002Ftooncomposer.com is \u003Cb>NOT\u003C\u002Fb> hosted, authorized, or endorsed by the ToonComposer team. This site has replicated content from our open-source project without our permission or notification, and we are unaware of the operators’ identity or intentions.\n\n## ⚙️ Configuration\n\n### 1) Clone the repository\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\ncd ToonComposer\n```\n\n### 2) Set up the Python environment\n\nCreate a conda environment and install dependencies from requirements.txt.\n\n```bash\nconda create -n tooncomposer python=3.10 -y\nconda activate tooncomposer\npip install -r requirements.txt\n```\n\n**Note: ToonComposer requires specific versions for gradio==5.25.2.**\n\nFor Linux users, we recommend installing `flash_attn`.\n\n```bash\npip install flash-attn==2.8.2 --no-build-isolation\n```\n\n\n### 3) Run the app\n\nThe app will check your local cache and download required weights if missing (see Weights section below). By default, the Gradio interface launches on port 7860.\n\n```bash\npython app.py\n```\n\nOpen your browser at `http:\u002F\u002Flocalhost:7860`.\n\nIf you run on a remote server, replace `localhost` with your server IP or hostname.\n\nGenerating a 480p video with 61 frames requires ~57GB of VRAM. If you don't have sufficient GPU resources, we recommend trying our [🤗 Hugging Face Spaces demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer) instead.\n\n## 💾 Weights and Checkpoints\n\nToonComposer relies on two sets of weights:\n\n- **Wan2.1 I2V 14B 480P (foundation model)**: `Wan-AI\u002FWan2.1-I2V-14B-480P`\n- **ToonComposer weights**: `TencentARC\u002FToonComposer`\n\nThe app resolves weights in this order:\n\n- If you provide local directories via CLI flags or environment variables (see below), they are used first.\n- Otherwise, it checks your local Hugging Face cache (no network).\n- If still not found, it downloads from the Hugging Face Hub.\n\nBecause Wan2.1 is very large, the app avoids re-downloading if it exists in your cache.\n\n### Provide local directories (optional)\n\n- Environment variables:\n  - `WAN21_I2V_DIR`: path to local Wan2.1 model directory\n  - `TOONCOMPOSER_DIR`: path to local ToonComposer directory that contains `480p\u002F` and\u002For `608p\u002F` subdirectories. Each subdir should include `tooncomposer.ckpt` and `config.json`.\n  - `HF_TOKEN`: HF access token if required for gated downloads (optional)\n\n```bash\nexport WAN21_I2V_DIR=\u002Fabs\u002Fpath\u002Fto\u002FWan2.1-I2V-14B-480P\nexport TOONCOMPOSER_DIR=\u002Fabs\u002Fpath\u002Fto\u002FTencentARC-ToonComposer\nexport HF_TOKEN=hf_xxx  # optional\npython app.py\n```\n\n- CLI flags (override env vars):\n\n```bash\npython app.py \\\n  --wan_model_dir \u002Fabs\u002Fpath\u002Fto\u002FWan2.1-I2V-14B-480P \\\n  --tooncomposer_dir \u002Fabs\u002Fpath\u002Fto\u002FTencentARC-ToonComposer \\\n  --hf_token hf_xxx \\\n  --resolution 480p \\\n  --device cuda:0\n```\n\nNotes:\n\n- The ToonComposer HF repo organizes weights by resolution: `480p\u002F` and `608p\u002F`. The app automatically loads the correct `config.json` and `tooncomposer.ckpt` from the selected resolution directory.\n- The app checks the HF cache first (`local_files_only=True`) and only downloads if missing.\n\n## 📖 Usage Guide\n\n### Launch options\n\n```bash\npython app.py --help\n```\n\n- **--resolution**: `480p` or `608p` (default: `480p`)\n- **--device**: e.g., `cuda:0`, `cpu` (default: `cuda:0`)\n- **--wan_model_dir**: local Wan2.1 directory (optional)\n- **--tooncomposer_dir**: local ToonComposer directory with `480p\u002F608p` (optional)\n\n### In Gradio UI\n\n1. Set the text prompt, number of output frames, and resolution.\n2. Provide at least one keyframe color image (usually placed at frame index 0).\n3. Add one or more keyframe sketches at selected frames. You can optionally draw black brush regions as motion masks to allow free motion in those areas.\n4. Adjust CFG scale and position-aware residual scale as needed.\n5. Click Generate to create the video.\n\nThe bottom right panel shows status and the generated video. A set of sample inputs is also provided in the gallery.\n\n### Limitations\n\nAs a generative model, outputs may vary. Try changing seed, steps, CFG scale, pos-aware residual scale, or sketch\u002Fmask inputs for different results.\n\n## 📑 Citation\n\nIf you find ToonComposer useful, please consider citing:\n\n```\n@article{li2025tooncomposer,\n  title={ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing},\n  author={Li, Lingen and Wang, Guangzhi and Zhang, Zhaoyang and Li, Yaowei and Li, Xiaoyu and Dou, Qi and Gu, Jinwei and Xue, Tianfan and Shan, Ying},\n  journal={arXiv preprint arXiv:2508.10881},\n  year={2025}\n}\n```\n\n## 📃 License\n\nSee the `LICENSE` file for details.\n","# ToonComposer\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_36c6c941c040.png' width='120px'>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\"> \u003Cb> ToonComposer：通过生成式后关键帧技术简化卡通制作流程 \u003C\u002Fb> \u003C\u002Fp>\n\n\u003Cp align=\"center\"> 李凌根、王广志、张兆阳、李耀伟、李晓宇、窦琪、顾金伟、薛天凡、单颖 \u003C\u002Fp>\n\n\u003Cp align=\"center\"> \u003Ca href='https:\u002F\u002Flg-li.github.io\u002Fproject\u002Ftooncomposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FToonComposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Model-blue'>\u003C\u002Fa> &nbsp;\n \u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Space-orange'>\u003C\u002Fa>\n \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10881\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=ArxivPreprint&message=ToonComposer&color=red&logo=arxiv\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 👀 简要概述\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_3627e3e4c40e.jpg' width='550px'>\n\u003C\u002Fdiv>\n\n传统的卡通\u002F动漫制作耗时较长，需要熟练的艺术家进行关键帧绘制、中间帧补画和上色等工作。ToonComposer利用生成式AI技术简化了这一流程，将原本需要数小时的手动中间帧补画和上色工作整合为一个无缝衔接的自动化过程。更多详情请访问我们的[项目页面](https:\u002F\u002Flg-li.github.io\u002Fproject\u002Ftooncomposer)并阅读我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10881)。\n\n\u003Cdiv align=\"center\">\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_readme_712dc77fb123.jpg' width='800px'>\n\u003C\u002Fdiv>\n\n## ✏️ 更新\n\n[2025年8月18日] 在[Hugging Face Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer)上已上线Gradio在线演示。\n\n[2025年8月15日] ToonComposer模型权重已在[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FToonComposer)上发布。\n\n## ⚠️ 非授权网站声明\n\n网址https:\u002F\u002Ftooncomposer.com并非由ToonComposer团队托管、授权或认可。该网站未经我们许可或通知便复制了我们开源项目的内容，我们对该网站运营者的身份及意图均不知情。\n\n## ⚙️ 配置\n\n### 1) 克隆仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\ncd ToonComposer\n```\n\n### 2) 设置Python环境\n\n创建一个conda环境，并从requirements.txt中安装依赖项。\n\n```bash\nconda create -n tooncomposer python=3.10 -y\nconda activate tooncomposer\npip install -r requirements.txt\n```\n\n**注意：ToonComposer需要特定版本的gradio==5.25.2。**\n\n对于Linux用户，我们建议安装`flash_attn`。\n\n```bash\npip install flash-attn==2.8.2 --no-build-isolation\n```\n\n\n### 3) 运行应用\n\n应用会检查本地缓存，若缺少所需权重则会自动下载（详见下方的权重部分）。默认情况下，Gradio界面会在端口7860上启动。\n\n```bash\npython app.py\n```\n\n在浏览器中打开`http:\u002F\u002Flocalhost:7860`。如果您是在远程服务器上运行，请将`localhost`替换为您的服务器IP或主机名。\n\n生成一个包含61帧的480p视频大约需要57GB的显存。如果您没有足够的GPU资源，我们建议您尝试使用我们的[🤗 Hugging Face Spaces演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer)。\n\n## 💾 权重与检查点\n\nToonComposer依赖于两组权重：\n\n- **Wan2.1 I2V 14B 480P（基础模型）**：`Wan-AI\u002FWan2.1-I2V-14B-480P`\n- **ToonComposer权重**：`TencentARC\u002FToonComposer`\n\n应用程序会按照以下顺序解析权重：\n\n- 如果您通过命令行参数或环境变量提供了本地目录（见下文），则优先使用这些目录。\n- 否则，它会检查您的本地Hugging Face缓存（无需联网）。\n- 如果仍然找不到，则会从Hugging Face Hub下载。\n\n由于Wan2.1模型非常庞大，如果您的缓存中已经存在该模型，应用程序将避免重复下载。\n\n### 提供本地目录（可选）\n\n- 环境变量：\n  - `WAN21_I2V_DIR`：本地Wan2.1模型目录路径\n  - `TOONCOMPOSER_DIR`：本地ToonComposer目录路径，其中应包含`480p\u002F`和\u002F或`608p\u002F`子目录。每个子目录都应包含`tooncomposer.ckpt`和`config.json`文件。\n  - `HF_TOKEN`：如果需要访问受保护的下载内容，则需提供HF访问令牌（可选）\n\n```bash\nexport WAN21_I2V_DIR=\u002Fabs\u002Fpath\u002Fto\u002FWan2.1-I2V-14B-480P\nexport TOONCOMPOSER_DIR=\u002Fabs\u002Fpath\u002Fto\u002FTencentARC-ToonComposer\nexport HF_TOKEN=hf_xxx  # 可选\npython app.py\n```\n\n- 命令行参数（优先于环境变量）：\n\n```bash\npython app.py \\\n  --wan_model_dir \u002Fabs\u002Fpath\u002Fto\u002FWan2.1-I2V-14B-480P \\\n  --tooncomposer_dir \u002Fabs\u002Fpath\u002Fto\u002FTencentARC-ToonComposer \\\n  --hf_token hf_xxx \\\n  --resolution 480p \\\n  --device cuda:0\n```\n\n注意事项：\n\n- ToonComposer的HF仓库按分辨率组织权重：`480p\u002F`和`608p\u002F`。应用程序会自动从所选分辨率目录中加载正确的`config.json`和`tooncomposer.ckpt`。\n- 应用程序首先检查HF缓存（`local_files_only=True`），只有在未找到时才会下载。\n\n## 📖 使用指南\n\n### 启动选项\n\n```bash\npython app.py --help\n```\n\n- **--resolution**：`480p`或`608p`（默认：`480p`）\n- **--device**：例如，`cuda:0`、`cpu`（默认：`cuda:0`）\n- **--wan_model_dir**：本地Wan2.1目录（可选）\n- **--tooncomposer_dir**：包含`480p\u002F608p`的本地ToonComposer目录（可选）\n\n### 在Gradio界面中\n\n1. 设置文本提示、输出帧数和分辨率。\n2. 至少提供一张关键帧彩色图像（通常放置在第0帧）。\n3. 在选定的帧上添加一张或多张关键帧草图。您还可以选择性地绘制黑色笔刷区域作为运动遮罩，以允许在这些区域内自由运动。\n4. 根据需要调整CFG缩放和位置感知残差缩放。\n5. 点击“生成”以创建视频。\n\n右下角面板显示状态和生成的视频。画廊中还提供了一组示例输入。\n\n### 局限性\n\n作为生成式模型，输出可能会有所不同。您可以尝试更改种子、步数、CFG缩放、位置感知残差缩放，或调整草图\u002F遮罩输入，以获得不同的结果。\n\n## 📑 引用\n\n如果您觉得ToonComposer有用，请考虑引用以下文献：\n\n```\n@article{li2025tooncomposer,\n  title={ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing},\n  author={Li, Lingen and Wang, Guangzhi and Zhang, Zhaoyang and Li, Yaowei and Li, Xiaoyu and Dou, Qi and Gu, Jinwei and Xue, Tianfan and Shan, Ying},\n  journal={arXiv preprint arXiv:2508.10881},\n  year={2025}\n}\n```\n\n## 📃 许可证\n\n详细信息请参阅`LICENSE`文件。","# ToonComposer 快速上手指南\n\nToonComposer 是一款基于生成式 AI 的卡通\u002F动画制作工具，能够通过“生成式后期关键帧”技术，将传统耗时的中间画绘制和上色过程简化为一步完成的自动化流程。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\u002FWindows (需配置相应 CUDA 环境)。\n*   **Python 版本**: 3.10。\n*   **GPU 显存**: \n    *   生成 480p、61 帧视频约需 **57GB VRAM**。\n    *   若本地显存不足，建议直接使用 [Hugging Face Spaces 在线演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer)。\n*   **依赖管理**: 需安装 `conda` 用于环境管理。\n*   **可选加速**: Linux 用户强烈建议安装 `flash-attn` 以提升推理速度。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\ncd ToonComposer\n```\n\n### 2. 创建并激活 Conda 环境\n\n```bash\nconda create -n tooncomposer python=3.10 -y\nconda activate tooncomposer\n```\n\n### 3. 安装依赖库\n\n安装基础依赖（注意：该项目强制要求 `gradio==5.25.2`）：\n\n```bash\npip install -r requirements.txt\n```\n\n**Linux 用户推荐安装 Flash Attention 加速：**\n\n```bash\npip install flash-attn==2.8.2 --no-build-isolation\n```\n\n> **国内开发者提示**：若下载依赖较慢，可临时使用国内镜像源（如清华源）：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> `pip install flash-attn==2.8.2 --no-build-isolation -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 4. 模型权重说明\n\n程序启动时会自动检查本地缓存或从 Hugging Face 下载所需权重。主要涉及两个模型：\n1.  **基础模型**: `Wan-AI\u002FWan2.1-I2V-14B-480P` (体积较大)\n2.  **ToonComposer 权重**: `TencentARC\u002FToonComposer`\n\n若需手动指定本地模型路径以避免重复下载，可通过环境变量或命令行参数配置（见下文“高级配置”）。\n\n## 基本使用\n\n### 启动应用\n\n在终端运行以下命令启动 Gradio 界面（默认端口 7860）：\n\n```bash\npython app.py\n```\n\n启动成功后，在浏览器中访问 `http:\u002F\u002Flocalhost:7860`。\n\n> **远程服务器用户**：请将 `localhost` 替换为您的服务器 IP 地址，或通过 SSH 隧道映射端口。\n\n### 操作流程 (Gradio 界面)\n\n1.  **设置参数**：输入文本提示词 (Prompt)，设定输出帧数和分辨率 (480p\u002F608p)。\n2.  **上传关键帧**：\n    *   至少提供一张**上色后的关键帧图片**（通常作为第 0 帧）。\n    *   在指定帧位置上传**线稿草图** (Sketch)。\n    *   *(可选)* 在线稿上使用黑色画笔涂抹区域作为运动掩码 (Motion Mask)，允许该区域自由运动。\n3.  **调整生成参数**：根据需要微调 CFG Scale 和 Position-aware Residual Scale。\n4.  **生成视频**：点击 **Generate** 按钮，右下角将显示生成状态及最终视频。\n\n### 常用命令行参数\n\n如需自定义启动配置，可使用以下参数：\n\n```bash\npython app.py \\\n  --resolution 480p \\\n  --device cuda:0 \\\n  --wan_model_dir \u002Fabs\u002Fpath\u002Fto\u002FWan2.1-I2V-14B-480P \\\n  --tooncomposer_dir \u002Fabs\u002Fpath\u002Fto\u002FTencentARC-ToonComposer\n```\n\n*   `--resolution`: 选择 `480p` 或 `608p`。\n*   `--device`: 指定设备，如 `cuda:0` 或 `cpu`。\n*   `--wan_model_dir`: 指定本地 Wan2.1 模型目录。\n*   `--tooncomposer_dir`: 指定本地 ToonComposer 权重目录（需包含 `480p\u002F` 或 `608p\u002F` 子文件夹）。","某独立动画工作室正急需在两周内完成一部 3 分钟短篇动画的粗剪版本，但团队仅有两名原画师，人力严重不足。\n\n### 没有 ToonComposer 时\n- **中间画绘制耗时极长**：原画师需手动绘制关键帧之间的大量过渡画面（Inbetweening），占用了 70% 的制作时间。\n- **上色流程繁琐重复**：每一帧都需要人工逐帧填色，不仅效率低下，还容易出现色彩不一致的闪烁问题。\n- **对资深画师依赖过高**：只有经验丰富的艺术家才能保证动作流畅度，初级助理难以分担核心工作。\n- **迭代修改成本巨大**：一旦导演要求调整动作节奏，所有相关的中间帧和颜色都需要重新手工绘制。\n- **交付周期难以保证**：按传统流程，仅靠现有人员无法在截止日期前完成高质量的成片。\n\n### 使用 ToonComposer 后\n- **生成式补间秒级完成**：只需输入少量关键帧，ToonComposer 即可利用生成式 AI 自动补全流畅的中间动画，将数天工作压缩至几分钟。\n- **智能统一上色风格**：工具自动生成并维持全局一致的色彩风格，彻底消除了人工逐帧上色的枯燥劳动与色差风险。\n- **降低专业技能门槛**：初级成员仅需绘制关键草图，ToonComposer 便能将其转化为专业级的动画序列，释放了资深人力。\n- **敏捷响应创意变更**：面对修改需求，只需调整关键帧并重新运行模型，ToonComposer 能迅速生成新的完整片段。\n- **如期甚至提前交付**：原本需要一个月的工作量现在一周内即可完成，团队有余力进行更多细节打磨。\n\nToonComposer 通过将耗时的中间画绘制与上色环节自动化，让小型团队也能以电影级效率完成动画制作。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTencentARC_ToonComposer_36c6c941.png","TencentARC","ARC Lab, Tencent PCG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTencentARC_c0126c65.png","",null,"arc@tencent.com","https:\u002F\u002Farc.tencent.com","https:\u002F\u002Fgithub.com\u002FTencentARC",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,556,54,"2026-04-03T09:27:46","NOASSERTION",4,"Linux","必需 NVIDIA GPU。生成 480p\u002F61 帧视频需约 57GB 显存。推荐使用 flash_attn (v2.8.2) 优化性能。","未说明",{"notes":97,"python":98,"dependencies":99},"1. 官方文档仅明确提及 Linux 用户安装 flash_attn 的建议，未明确说明支持 Windows 或 macOS。2. 显存需求极高（约 57GB），若本地资源不足建议使用 Hugging Face Spaces 演示。3. 需下载两个大型模型权重：Wan2.1 基础模型和 ToonComposer 微调权重，首次运行会自动下载或通过环境变量指定本地路径。4. 必须使用 gradio 5.25.2 特定版本。","3.10",[100,101,102,103],"gradio==5.25.2","flash-attn==2.8.2","Wan2.1-I2V-14B-480P (基础模型)","ToonComposer 权重",[35,14],"2026-03-27T02:49:30.150509","2026-04-06T08:17:42.677291",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},14827,"运行 Gradio 示例时遇到形状不匹配错误（Shape mismatch）怎么办？","该错误通常是因为环境中未安装 flash attention。请尝试安装指定版本的 flash-attn：\npip install flash-attn==2.8.0.post2 --no-build-isolation\n安装完成后重新运行即可解决。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F1",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},14828,"是否有计划开源训练代码？","由于内部合规审查的原因，目前暂时无法发布训练代码。如果未来政策有所变化，团队会及时通知大家。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F10",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},14829,"未来是否支持更高分辨率（如 720P）或 Wan2.2 模型？","是的，支持更高分辨率以及更多基础模型（包括 Wan2.2）已在未来的开发计划中，敬请期待后续更新。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F4",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},14830,"项目是否计划支持 Wan2.2？","Wan2.2 的支持已经在开发计划中，请关注项目的后续动态。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F9",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},14831,"不想本地部署环境，有在线体验的方式吗？","有的，官方已在 Hugging Face Spaces 提供了在线 Demo，无需本地部署即可直接体验 ToonComposer 功能。\n访问地址：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FTencentARC\u002FToonComposer","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F2",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},14832,"在 Windows 上应用启动失败如何解决？","Windows 用户若遇到模型加载后应用无法启动的问题，通常与环境依赖有关。建议检查是否已手动安装所有关键模块，并确保 CUDA 及相关驱动版本与 PyTorch 版本兼容。参考其他用户的经验，确保环境配置完整后通常可解决问题。","https:\u002F\u002Fgithub.com\u002FTencentARC\u002FToonComposer\u002Fissues\u002F6",[]]