[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Yijunmaverick--CartoonGAN-Test-Pytorch-Torch":3,"tool-Yijunmaverick--CartoonGAN-Test-Pytorch-Torch":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":100,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":111,"github_topics":80,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":125},8277,"Yijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch","CartoonGAN-Test-Pytorch-Torch","Pytorch and Torch testing code of CartoonGAN [Chen et al., CVPR18]","CartoonGAN-Test-Pytorch-Torch 是一个专为快速体验“卡通化”效果而设计的开源测试项目。它基于陈等人发表于 CVPR 2018 的 CartoonGAN 算法，旨在将普通真实照片一键转换为具有宫崎骏或细田守等大师风格的动漫画面。\n\n该项目主要解决了原始论文代码仅支持老旧 Torch 框架、难以在现代 PyTorch 环境中直接运行的痛点。作者手动将官方预训练模型的权重逐层迁移并转换格式，提供了兼容 PyTorch 0.3 和原生 Torch 的两套测试脚本，让用户无需重新训练模型即可直接复用成果。其技术亮点在于巧妙的权重转换机制，不仅规避了复杂的依赖环境（如 cudnn），还保留了原模型高质量的风格迁移能力。\n\n这款工具非常适合开发者、人工智能研究人员以及数字艺术家使用。对于希望研究图像风格迁移技术的科研人员，它提供了便捷的基准测试环境；对于设计师或插画师，它能作为灵感辅助工具，快速生成不同动漫风格的素材参考。虽然项目未包含训练代码，但凭借其对预训练模型的友好封装，让用户体验顶尖生成对抗网络（GAN）的魅力变得简单高效。","# CartoonGAN-Test-Pytorch-Torch\nPytorch and Torch testing code of [CartoonGAN](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002FCameraReady\u002F2205.pdf) `[Chen et al., CVPR18]`. With the released pretrained [models](http:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fpeople\u002F~Yongjin\u002FYongjin.htm) by the authors, I made these simple scripts for a quick test.\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_96ef7980620f.gif' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_fafa1f536334.gif' width=300 \u002F>\n\u003C\u002Fp>\n\n\n## Getting started\n\n- Linux\n- NVIDIA GPU\n- Pytorch 0.3\n- Torch\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FYijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch\ncd CartoonGAN-Test-Pytorch-Torch\n```\n\n## Pytorch\n\nThe original pretrained models are Torch `nngraph` models, which cannot be loaded in Pytorch through `load_lua`. So I manually copy the weights (bias) layer by layer and convert them to `.pth` models. \n\n- Download the converted models:\n\n```\nsh pretrained_model\u002Fdownload_pth.sh\n```\n\n- For testing:\n\n```\npython test.py --input_dir YourImgDir --style Hosoda --gpu 0\n```\n\n## Torch\n\nWorking with the original models in Torch is also fine. I just convert the weights (bias) in their models from CudaTensor to FloatTensor so that `cudnn` is not required for loading models.\n\n- Download the converted models:\n\n```\nsh pretrained_model\u002Fdownload_t7.sh\n```\n\n- For testing:\n\n```\nth test.lua -input_dir YourImgDir -style Hosoda -gpu 0\n```\n\n## Examples (Left: input, Right: output)\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_218bb3aaba41.png' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_4241695b4fa0.png' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_8cfbcffdb3f0.png' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_b4ec92bdea91.png' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_09ea858a224a.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_821585e9592c.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_3392dc82ac5c.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_ee2818cd9bac.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_48178f7b5079.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_dfbfcbb1609b.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\n## Note\n\n- The training code should be similar to the popular GAN-based image-translation frameworks and thus is not included here.\n\n## Acknowledgement\n\n- Many thanks to the authors for this cool work.\n\n- Part of the codes are borrowed from [DCGAN](https:\u002F\u002Fgithub.com\u002Fsoumith\u002Fdcgan.torch), [TextureNet](https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Ftexture_nets), [AdaIN](https:\u002F\u002Fgithub.com\u002Fxunhuang1995\u002FAdaIN-style) and [CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix).\n\n","# CartoonGAN-测试-PyTorch-Torch\n[CartoonGAN](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002FCameraReady\u002F2205.pdf) `[Chen et al., CVPR18]` 的 PyTorch 和 Torch 测试代码。借助作者发布的预训练 [模型](http:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fpeople\u002F~Yongjin\u002FYongjin.htm)，我编写了这些简单的脚本，以便快速进行测试。\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_96ef7980620f.gif' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_fafa1f536334.gif' width=300 \u002F>\n\u003C\u002Fp>\n\n\n## 快速入门\n\n- Linux 系统\n- NVIDIA GPU\n- PyTorch 0.3\n- Torch\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FYijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch\ncd CartoonGAN-Test-Pytorch-Torch\n```\n\n## PyTorch\n\n原始的预训练模型是 Torch `nngraph` 格式的，无法通过 `load_lua` 直接加载到 PyTorch 中。因此，我逐层手动复制权重（偏置），并将其转换为 `.pth` 格式的模型。\n\n- 下载转换后的模型：\n\n```\nsh pretrained_model\u002Fdownload_pth.sh\n```\n\n- 进行测试：\n\n```\npython test.py --input_dir YourImgDir --style Hosoda --gpu 0\n```\n\n## Torch\n\n使用 Torch 中的原始模型同样可行。我只是将模型中的权重（偏置）从 CudaTensor 转换为 FloatTensor，这样在加载模型时就不需要 `cudnn` 库了。\n\n- 下载转换后的模型：\n\n```\nsh pretrained_model\u002Fdownload_t7.sh\n```\n\n- 进行测试：\n\n```\nth test.lua -input_dir YourImgDir -style Hosoda -gpu 0\n```\n\n## 示例（左：输入，右：输出）\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_218bb3aaba41.png' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_4241695b4fa0.png' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_8cfbcffdb3f0.png' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_b4ec92bdea91.png' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_09ea858a224a.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_821585e9592c.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_3392dc82ac5c.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_ee2818cd9bac.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\u003Cp>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_48178f7b5079.jpg' width=300 \u002F>\n    \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_readme_dfbfcbb1609b.jpg' width=300 \u002F>\n\u003C\u002Fp>\n\n\n## 注意事项\n\n- 训练代码应与流行的基于 GAN 的图像转换框架类似，因此此处未包含。\n\n## 致谢\n\n- 非常感谢作者们带来的这项出色的工作。\n\n- 部分代码借鉴自 [DCGAN](https:\u002F\u002Fgithub.com\u002Fsoumith\u002Fdcgan.torch)、[TextureNet](https:\u002F\u002Fgithub.com\u002FDmitryUlyanov\u002Ftexture_nets)、[AdaIN](https:\u002F\u002Fgithub.com\u002Fxunhuang1995\u002FAdaIN-style) 和 [CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix)。","# CartoonGAN-Test-Pytorch-Torch 快速上手指南\n\n本指南基于 [CartoonGAN](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002FCameraReady\u002F2205.pdf) 论文，提供将真实照片转换为卡通风格图像的测试脚本。支持 PyTorch 和 Torch 两种框架。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux\n*   **硬件**: NVIDIA GPU\n*   **软件依赖**:\n    *   PyTorch 0.3 (如需使用 PyTorch 版本)\n    *   Torch (如需使用原始 Torch 版本)\n\n## 安装步骤\n\n1.  **克隆项目代码**\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FYijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch\n    cd CartoonGAN-Test-Pytorch-Torch\n    ```\n\n2.  **下载预训练模型**\n\n    由于原始模型格式不直接兼容，本项目已提供转换后的权重文件。请根据您使用的框架选择下载命令：\n\n    *   **如果您使用 PyTorch** (推荐，已手动转换权重为 `.pth` 格式):\n        ```bash\n        sh pretrained_model\u002Fdownload_pth.sh\n        ```\n\n    *   **如果您使用 Torch** (已将权重从 CudaTensor 转为 FloatTensor，无需 cudnn):\n        ```bash\n        sh pretrained_model\u002Fdownload_t7.sh\n        ```\n\n    > **提示**: 如果下载速度较慢，可尝试手动访问作者主页获取模型后放入对应目录，或使用国内加速工具代理 `sh` 脚本中的下载链接。\n\n## 基本使用\n\n准备好输入图片目录后，运行以下命令即可生成卡通风格图像。\n\n### PyTorch 用户\n\n```bash\npython test.py --input_dir YourImgDir --style Hosoda --gpu 0\n```\n\n### Torch 用户\n\n```bash\nth test.lua -input_dir YourImgDir -style Hosoda -gpu 0\n```\n\n**参数说明：**\n*   `YourImgDir`: 替换为您存放输入图片的文件夹路径。\n*   `--style` \u002F `-style`: 指定艺术风格，可选值包括 `Hosoda` (细田守风格), `Hayao` (宫崎骏风格) 等（具体取决于下载的模型文件）。\n*   `--gpu` \u002F `-gpu`: 指定使用的 GPU 编号。\n\n运行完成后，生成的卡通图片将保存在 `test_output` 目录中。","一位独立游戏开发者正在为一款复古风格的冒险游戏快速生成大量具有宫崎骏或细田守风格的背景概念图，以统一美术基调。\n\n### 没有 CartoonGAN-Test-Pytorch-Torch 时\n- 开发者必须手动聘请专业画师将实景照片逐张重绘为动画风格，单张成本高昂且沟通修改耗时数天。\n- 若尝试自行训练模型，需从零复现复杂的 CVPR18 论文算法，并解决 Torch 旧框架与现有 PyTorch 工作流不兼容的难题。\n- 原始模型依赖特定的 `nngraph` 结构和 CUDA 环境，配置过程繁琐，极易因版本冲突导致无法加载预训练权重。\n- 缺乏现成的推理脚本，每次测试新风格都需要编写大量底层代码，严重拖慢原型验证进度。\n\n### 使用 CartoonGAN-Test-Pytorch-Torch 后\n- 开发者只需运行一行命令，即可将本地文件夹中的实景素材批量转换为指定大师风格的高清图像，瞬间获得数百张概念图。\n- 项目直接提供了已手动转换好的 `.pth` 格式预训练模型，完美适配 PyTorch 环境，无需再纠结旧版 Torch 的权重迁移问题。\n- 脚本自动处理了从 CudaTensor 到 FloatTensor 的转换，移除了对 `cudnn` 的强依赖，在标准 Linux GPU 服务器上即可即开即用。\n- 通过简单的参数调整（如 `--style Hosoda`），能灵活切换不同动画导演的艺术风格，极大丰富了游戏场景的视觉多样性。\n\nCartoonGAN-Test-Pytorch-Torch 通过消除框架壁垒并提供开箱即用的推理流程，将动画风格化的技术门槛降至最低，让创作者能专注于内容而非工程实现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYijunmaverick_CartoonGAN-Test-Pytorch-Torch_fafa1f53.gif","Yijunmaverick","Yijun Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYijunmaverick_9ad7383d.jpg","人生自是有情痴，此恨不关风与月","@adobe","USA","yli62@ucmerced.edu",null,"https:\u002F\u002Fyijunmaverick.github.io\u002F","https:\u002F\u002Fgithub.com\u002FYijunmaverick",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",52.8,{"name":89,"color":90,"percentage":91},"Lua","#000080",42.7,{"name":93,"color":94,"percentage":95},"Shell","#89e051",4.5,691,203,"2026-03-24T06:28:58","MIT",4,"Linux","需要 NVIDIA GPU，具体型号和显存大小未说明，需支持 CUDA（Torch\u002FCudaTensor），PyTorch 版本较老可能对应旧版 CUDA","未说明",{"notes":105,"python":106,"dependencies":107},"该项目主要作为测试脚本，不包含训练代码。PyTorch 部分使用的是手动转换权重的 .pth 模型，因为原始的 Torch nngraph 模型无法直接加载。Torch 部分已将权重从 CudaTensor 转换为 FloatTensor 以移除对 cudnn 的强制依赖。由于依赖 PyTorch 0.3 和 Lua Torch，环境配置较为陈旧，建议在兼容的旧版 Linux 环境中运行。","未说明（基于 PyTorch 0.3 推测为 Python 2.7 或早期 Python 3 版本）",[108,109,110],"pytorch==0.3","torch (Lua Torch)","cudnn (可选，仅用于原始 Torch 模型加速)",[15],"2026-03-27T02:49:30.150509","2026-04-17T09:52:35.097575",[115,120],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},37065,"如何生成更大尺寸的输出图像（例如 1024x1024 或 2048x2048）？","可以通过修改 `--load_size` 参数来生成大尺寸图像，但直接修改可能会遇到类型错误。要成功生成大尺寸图像（如 2048x2048），需要对 `test.py` 进行以下修复以适应新版 PyTorch 并优化内存：\n1. 将推理部分包裹在 `torch.no_grad()` 中。\n2. 移除每张图像的缓存。\n\n修改后的代码示例如下：\n```python\nif opt.gpu > -1:\n    with torch.no_grad():\n        input_image = Variable(input_image).cuda()\n        # forward\n        output_image = model(input_image)\n        output_image = output_image[0]\n        # BGR -> RGB\n        output_image = output_image[[2, 1, 0], :, :]\nelse:\n    with torch.no_grad():\n        # ... (CPU 端的相应逻辑)\n```\n注意：生成 1024x1024 图像大约需要 13GB 显存，生成 2048x2048 则需要更高配置（如双卡 NVIDIA P100）。如果遇到内存不足，请尝试上述优化或降低分辨率。","https:\u002F\u002Fgithub.com\u002FYijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch\u002Fissues\u002F8",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},37066,"运行测试脚本时出现 \"FileNotFoundError: The system cannot find the path specified\" 错误怎么办？","该错误通常发生在 `test.py` 试图删除一个不存在的输出目录时（例如代码执行 `shutil.rmtree(opt.output_dir)` 但目录 `'.\u002Foutput_lcy'` 尚未创建）。\n解决方法：\n1. 手动创建报错信息中提到的缺失目录。\n2. 或者修改 `test.py` 代码，在执行 `shutil.rmtree` 之前先检查目录是否存在。例如使用 `if os.path.exists(opt.output_dir): shutil.rmtree(...)` 进行包裹，避免因目录不存在而崩溃。","https:\u002F\u002Fgithub.com\u002FYijunmaverick\u002FCartoonGAN-Test-Pytorch-Torch\u002Fissues\u002F11",[]]