[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bobbens--sketch_simplification":3,"tool-bobbens--sketch_simplification":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":150},6117,"bobbens\u002Fsketch_simplification","sketch_simplification","Models and code related to sketch simplification of rough sketches.","sketch_simplification 是一款基于深度学习的开源项目，专注于将粗糙的手绘草图自动转化为线条清晰、干净的成品线稿。它有效解决了手绘过程中因手抖、线条杂乱或重复描画导致的画面不整洁问题，同时也支持反向操作，能将干净的线稿模拟成具有特定质感的铅笔素描效果。\n\n该工具的核心技术源自两篇发表于 SIGGRAPH 和 TOG 的学术论文，采用了全卷积网络（FCN）架构，并引入了生成对抗网络（GAN）进行对抗性增强训练。项目提供了多种预训练模型，用户可根据需求选择仅基于均方误差优化的基础模型，或使用结合监督与无监督数据的高级模型，甚至能模仿不同艺术家的铅笔笔触风格。\n\nsketch_simplification 特别适合数字绘画爱好者、插画师以及计算机视觉领域的研究人员使用。对于创作者而言，它能大幅减少后期描线清理的时间；对于开发者，其基于 PyTorch 的代码结构清晰，便于复现论文成果或进行二次开发。需要注意的是，部分预训练模型仅限非商业研究用途，使用前请留意相关版权说明。","# [Sketch Simplification](https:\u002F\u002Fesslab.jp\u002F~ess\u002Fresearch\u002Fsketch\u002F)\n\n![Example result](\u002Fexample_fig01_eisaku.png?raw=true \"Example result of the provided model.\")\nExample result of a sketch simplification. Image copyrighted by Eisaku Kubonouchi ([@EISAKUSAKU](https:\u002F\u002Ftwitter.com\u002Feisakusaku)) and only non-commercial research usage is allowed.\n\n## Overview\n\nThis code provides pre-trained models used in the research papers:\n\n```\n   \"Learning to Simplify: Fully Convolutional Networks for Rough Sketch Cleanup\"\n   Edgar Simo-Serra*, Satoshi Iizuka*, Kazuma Sasaki, Hiroshi Ishikawa (* equal contribution)\n   ACM Transactions on Graphics (SIGGRAPH), 2016\n```\n\nand\n\n```\n   \"Mastering Sketching: Adversarial Augmentation for Structured Prediction\"\n   Edgar Simo-Serra*, Satoshi Iizuka*, Hiroshi Ishikawa (* equal contribution)\n   ACM Transactions on Graphics (TOG), 2018\n```\n\nSee our [project page](https:\u002F\u002Fesslab.jp\u002F~ess\u002Fresearch\u002Fsketch_master\u002F) for more detailed information.\n\n## Dependencies\n\n- [PyTorch](http:\u002F\u002Fpytorch.org\u002F) (version 0.4.1)\n  [torchvision](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Ftorchvision\u002F)\n- [pillow](http:\u002F\u002Fpillow.readthedocs.io\u002Fen\u002Flatest\u002Findex.html)\n\nAll packages should be part of a standard PyTorch install. For information on how to install PyTorch please refer to the [torch website](http:\u002F\u002Fpytorch.org\u002F).\n\n## Usage\n\nBefore the first usage, the models have to be downloaded with:\n\n```\nbash download_models.sh\n```\n\nNext test the models with:\n\n```\npython simplify.py\n```\n\nYou should see a file called `out.png` created with the output of the model.\n\nApplication options can be seen with:\n\n```\npython simplify.py --help\n```\n\n## Pencil Drawing Generation\n\nUsing the same interface it is possible to perform pencil drawing generation. In this case, the input should be a clean line drawing and not a rough sketch, and the line drawings can be generated by:\n\n```\npython simplify.py --img test_line.png --out out_rough.png --model model_pencil2.t7\n```\n\nThis will generate a rough version of `test_line.png` as `out_rough.png`. By changing the model it is possible to change the type of rough sketch being generated.\n\n## Models\n\n- `model_mse.t7`: Model trained using only MSE loss (SIGGRAPH 2016 model).\n- `model_gan.t7`: Model trained with MSE and GAN loss using both supervised and unsupervised training data (TOG 2018 model).\n- `model_pencil1.t7`: Model for pencil drawing generation based on artist 1 (dirty and faded pencil lines).\n- `model_pencil2.t7`: Model for pencil drawing generation based on artist 2 (clearer overlaid pencil lines).\n\n## Reproducing Paper Figures\n\nFor replicability we include code to replicate the figures in the paper. After downloading the models you can run it with:\n\n```\n.\u002Ffigs.sh\n```\n\nThis will convert the input images in `figs\u002F` and save the output in `out\u002F`. We note that there are small differences with the results in the paper due to hardware differences and small differences in the torch\u002Fpytorch implementations. Furthermore, results are shown without the post-processing mentioned in the notes at the bottom of this document.\n\nPlease note that we do not have the copyright for all these images and in general only non-commercial research usage is permitted. In particular, `fig16_eisaku.png`, `fig06_eisaku_robo.png`, `fig06_eisaku_joshi.png`, and `fig01_eisaku.png` are copyright by Eisaku Kubonoichi ([@EISAKUSAKU](https:\u002F\u002Ftwitter.com\u002Feisakusaku)) and only non-commercial research usage is allowed.\nThe images`fig14_pepper.png` and `fig06_pepper.png` are licensed by David Revoy ([www.davidrevoy.com](http:\u002F\u002Fwww.davidrevoy.com\u002F)) under CC-by 4.0.\n\n## Training\n\nPlease see the [training readme](train\u002FTRAIN.md).\n\n## Notes\n\n- Models are in Torch7 format and loaded using the PyTorch legacy code.\n- This was developed and tested on various machines from late 2015 to end of 2016.\n- Provided models are under a non-commercial creative commons license.\n- Post-processing is not performed. You can perform it manually with `convert out.png bmp:- | mkbitmap - -t 0.3 -o - | potrace --svg --group -t 15 -o - > out.svg`.\n\n## Citing\n\nIf you use these models please cite:\n\n```\n@Article{SimoSerraSIGGRAPH2016,\n   author    = {Edgar Simo-Serra and Satoshi Iizuka and Kazuma Sasaki and Hiroshi Ishikawa},\n   title     = {{Learning to Simplify: Fully Convolutional Networks for Rough Sketch Cleanup}},\n   journal   = \"ACM Transactions on Graphics (SIGGRAPH)\",\n   year      = 2016,\n   volume    = 35,\n   number    = 4,\n}\n```\n\nand\n\n```\n@Article{SimoSerraTOG2018,\n   author    = {Edgar Simo-Serra and Satoshi Iizuka and Hiroshi Ishikawa},\n   title     = {{Mastering Sketching: Adversarial Augmentation for Structured Prediction}},\n   journal   = \"ACM Transactions on Graphics (TOG)\",\n   year      = 2018,\n   volume    = 37,\n   number    = 1,\n}\n```\n\n## Acknowledgements\n\nThis work was partially supported by JST CREST Grant Number JPMJCR14D1 and JST ACT-I Grant Numbers JPMJPR16UD and JPMJPR16U3.\n\n## License\n\nThis sketch simplification code is  freely available for free non-commercial\nuse, and may be redistributed under these conditions. Please, see the [license](\u002FLICENSE)\nfor further details.\n\n","# [草图简化](https:\u002F\u002Fesslab.jp\u002F~ess\u002Fresearch\u002Fsketch\u002F)\n\n![示例结果](\u002Fexample_fig01_eisaku.png?raw=true \"所提供模型的示例结果。\")\n草图简化的一个示例结果。图片版权归久保之内荣作（[@EISAKUSAKU](https:\u002F\u002Ftwitter.com\u002Feisakusaku)）所有，仅允许非商业性研究用途。\n\n## 概述\n\n此代码提供了用于以下两篇研究论文的预训练模型：\n\n```\n   “学习简化：用于粗糙草图清理的全卷积网络”\n   Edgar Simo-Serra*, Satoshi Iizuka*, Kazuma Sasaki, Hiroshi Ishikawa (* 共同第一作者)\n   ACM 图形学汇刊（SIGGRAPH），2016年\n```\n\n以及\n\n```\n   “掌握草图绘制：面向结构化预测的对抗增强”\n   Edgar Simo-Serra*, Satoshi Iizuka*, Hiroshi Ishikawa (* 共同第一作者)\n   ACM 图形学汇刊（TOG），2018年\n```\n\n更多详细信息请参阅我们的[项目页面](https:\u002F\u002Fesslab.jp\u002F~ess\u002Fresearch\u002Fsketch_master\u002F)。\n\n## 依赖项\n\n- [PyTorch](http:\u002F\u002Fpytorch.org\u002F)（版本 0.4.1）\n  [torchvision](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Fmaster\u002Ftorchvision\u002F)\n- [pillow](http:\u002F\u002Fpillow.readthedocs.io\u002Fen\u002Flatest\u002Findex.html)\n\n所有这些包通常都包含在标准的 PyTorch 安装中。有关如何安装 PyTorch 的信息，请参阅 [PyTorch 官网](http:\u002F\u002Fpytorch.org\u002F)。\n\n## 使用方法\n\n首次使用前，需通过以下命令下载模型：\n\n```\nbash download_models.sh\n```\n\n然后可以运行以下命令测试模型：\n\n```\npython simplify.py\n```\n\n您应该会看到一个名为 `out.png` 的文件生成，其中包含模型的输出结果。\n\n可以通过以下命令查看应用程序选项：\n\n```\npython simplify.py --help\n```\n\n## 铅笔画生成\n\n使用相同的接口，也可以进行铅笔画的生成。在这种情况下，输入应为干净的线条图，而非粗糙的草图。可以通过以下命令生成线条图：\n\n```\npython simplify.py --img test_line.png --out out_rough.png --model model_pencil2.t7\n```\n\n这将根据 `test_line.png` 生成一个粗糙版本，并保存为 `out_rough.png`。通过更换不同的模型，可以生成不同风格的粗糙草图。\n\n## 模型\n\n- `model_mse.t7`：仅使用 MSE 损失训练的模型（SIGGRAPH 2016 年的模型）。\n- `model_gan.t7`：结合 MSE 和 GAN 损失，同时使用有监督和无监督数据训练的模型（TOG 2018 年的模型）。\n- `model_pencil1.t7`：基于艺术家 1 风格的铅笔画生成模型（脏污且褪色的铅笔线条）。\n- `model_pencil2.t7`：基于艺术家 2 风格的铅笔画生成模型（更清晰、叠加的铅笔线条）。\n\n## 复现论文中的图表\n\n为了确保可复现性，我们提供了用于复现论文中图表的代码。下载模型后，您可以运行以下命令：\n\n```\n.\u002Ffigs.sh\n```\n\n这将会处理 `figs\u002F` 目录下的输入图像，并将输出保存到 `out\u002F` 目录中。需要注意的是，由于硬件差异以及 PyTorch 实现上的细微差别，最终结果可能与论文中的结果略有不同。此外，此处展示的结果并未进行本文末尾注释中提到的后处理步骤。\n\n请注意，我们并不拥有所有这些图片的版权，通常仅允许非商业性的研究用途。特别是，`fig16_eisaku.png`、`fig06_eisaku_robo.png`、`fig06_eisaku_joshi.png` 和 `fig01_eisaku.png` 均归久保之内荣作（[@EISAKUSAKU](https:\u002F\u002Ftwitter.com\u002Feisakusaku)）所有，仅允许非商业性研究用途。而 `fig14_pepper.png` 和 `fig06_pepper.png` 则由大卫·雷瓦伊（[www.davidrevoy.com](http:\u002F\u002Fwww.davidrevoy.com\u002F)）以 CC-by 4.0 许可证授权。\n\n## 训练\n\n请参阅[训练说明文档](train\u002FTRAIN.md)。\n\n## 注释\n\n- 模型采用 Torch7 格式，并使用 PyTorch 的旧版代码加载。\n- 本项目于 2015 年末至 2016 年底期间在多台机器上开发并测试。\n- 提供的模型采用非商业性的知识共享许可协议。\n- 未进行后处理。您可以手动执行后处理：`convert out.png bmp:- | mkbitmap - -t 0.3 -o - | potrace --svg --group -t 15 -o - > out.svg`。\n\n## 引用\n\n如果您使用这些模型，请引用以下文献：\n\n```\n@Article{SimoSerraSIGGRAPH2016,\n   author    = {Edgar Simo-Serra 和 Satoshi Iizuka、Kazuma Sasaki、Hiroshi Ishikawa},\n   title     = {{学习简化：用于粗糙草图清理的全卷积网络}},\n   journal   = \"ACM 图形学汇刊（SIGGRAPH）\",\n   year      = 2016,\n   volume    = 35,\n   number    = 4,\n}\n```\n\n以及\n\n```\n@Article{SimoSerraTOG2018,\n   author    = {Edgar Simo-Serra 和 Satoshi Iizuka、Hiroshi Ishikawa},\n   title     = {{掌握草图绘制：面向结构化预测的对抗增强}},\n   journal   = \"ACM 图形学汇刊（TOG）\",\n   year      = 2018,\n   volume    = 37,\n   number    = 1,\n}\n```\n\n## 致谢\n\n本研究部分得到了日本科学技术振兴机构 CREST 计划（Grant Number JPMJCR14D1）以及 ACT-I 计划（Grant Numbers JPMJPR16UD 和 JPMJPR16U3）的支持。\n\n## 许可证\n\n本草图简化代码可供免费的非商业性使用，并可在满足以下条件的情况下重新分发。有关详细信息，请参阅[许可证](\u002FLICENSE)。","# Sketch Simplification 快速上手指南\n\nSketch Simplification 是一个基于深度学习的开源工具，能够将粗糙的手绘草图自动清理为干净的线条图，同时也支持将干净线稿转换为铅笔素描风格。该项目基于 PyTorch 实现，源自 SIGGRAPH 2016 和 TOG 2018 的研究论文。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux、macOS 或 Windows（需配置相应 Python 环境）\n*   **Python 版本**：建议 Python 3.6+\n*   **核心依赖**：\n    *   [PyTorch](http:\u002F\u002Fpytorch.org\u002F) (版本需兼容，原文测试于 0.4.1，建议使用较新版本并注意模型加载兼容性)\n    *   `torchvision`\n    *   `pillow` (PIL)\n\n> **国内加速建议**：\n> 安装 PyTorch 时，推荐使用清华或中科大镜像源以提升下载速度。例如使用 pip 安装：\n> ```bash\n> pip install torch torchvision pillow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆或下载项目代码**\n    获取本项目源代码到本地目录。\n\n2.  **安装 Python 依赖**\n    确保已安装上述依赖包。如果未安装，执行：\n    ```bash\n    pip install torch torchvision pillow\n    ```\n\n3.  **下载预训练模型**\n    首次使用前，必须运行脚本下载预训练模型文件（`.t7` 格式）：\n    ```bash\n    bash download_models.sh\n    ```\n    *注：若在网络受限环境，可能需要手动从项目主页下载模型并放入对应目录。*\n\n## 基本使用\n\n### 1. 草图简化（Rough Sketch Cleanup）\n将粗糙的手绘草图转换为干净线条。运行默认测试命令，程序会自动处理示例图片并生成 `out.png`：\n\n```bash\npython simplify.py\n```\n\n查看完整参数选项：\n```bash\npython simplify.py --help\n```\n\n自定义输入输出及模型（例如使用 GAN 模型以获得更好效果）：\n```bash\npython simplify.py --img input_sketch.png --out cleaned_result.png --model model_gan.t7\n```\n\n### 2. 铅笔素描生成（Pencil Drawing Generation）\n该工具也可逆向操作，将干净的线稿转换为具有艺术感的铅笔素描。\n\n**示例**：使用艺术家 2 的风格模型，将 `test_line.png` 转换为粗糙铅笔效果：\n```bash\npython simplify.py --img test_line.png --out out_rough.png --model model_pencil2.t7\n```\n\n### 可用模型说明\n*   `model_mse.t7`: 基础模型（SIGGRAPH 2016），仅使用 MSE 损失训练。\n*   `model_gan.t7`: 进阶模型（TOG 2018），结合 MSE 和 GAN 损失，效果更自然（推荐用于草图简化）。\n*   `model_pencil1.t7`: 铅笔生成模型，风格较脏且褪色。\n*   `model_pencil2.t7`: 铅笔生成模型，线条更清晰重叠。\n\n> **注意**：生成的图片如需矢量化的 SVG 格式，可手动使用 ImageMagick 和 Potrace 进行后处理：\n> ```bash\n> convert out.png bmp:- | mkbitmap - -t 0.3 -o - | potrace --svg --group -t 15 -o - > out.svg\n> ```","一位独立漫画创作者在将手绘草稿数字化时，需要将粗糙的铅笔线稿整理为干净的墨线，以便后续上色和出版。\n\n### 没有 sketch_simplification 时\n- 创作者必须手动使用 Photoshop 或 Sai 逐帧描摹草图，一张 A4 幅面的复杂线稿往往耗时数小时。\n- 手工描线难以完全保留原稿中自然的笔触抖动和艺术感，容易导致线条僵硬、失去灵魂。\n- 对于连载漫画等高强度工作，反复的描线清洁工作占据了大量创作时间，导致更新频率受限。\n- 不同纸张背景下的噪点清理困难，手动调整阈值容易丢失细节或留下脏迹。\n\n### 使用 sketch_simplification 后\n- 利用预训练的 GAN 模型（如 `model_gan.t7`），只需运行一行命令即可在秒级时间内将粗糙草图自动转化为干净线稿。\n- 算法能智能识别并保留具有艺术价值的笔触特征，同时精准去除多余的辅助线和纸张噪点。\n- 批量处理成为可能，创作者可将整本草稿集一次性输入，大幅缩短从构思到成稿的周期。\n- 通过切换不同模型（如 `model_pencil1` 或 `model_pencil2`），还能灵活生成不同风格的铅笔质感，丰富表现力。\n\nsketch_simplification 的核心价值在于将繁琐的机械性描线工作转化为自动化流程，让艺术家能专注于创意本身而非后期清洁。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbobbens_sketch_simplification_f0560a2d.png","bobbens","Edgar Simo-Serra","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbobbens_24b67d1c.jpg",null,"Japan","https:\u002F\u002Fgithub.com\u002Fbobbens",[79,83,87],{"name":80,"color":81,"percentage":82},"Lua","#000080",90.8,{"name":84,"color":85,"percentage":86},"Shell","#89e051",5.8,{"name":88,"color":89,"percentage":90},"Python","#3572A5",3.4,750,102,"2026-04-08T08:44:22","NOASSERTION","未说明","未说明 (基于 PyTorch 0.4.1，推测支持 CUDA 但无具体版本要求)",{"notes":98,"python":99,"dependencies":100},"模型文件为 Torch7 格式 (.t7)，通过 PyTorch 遗留代码加载；首次运行前需执行 bash download_models.sh 下载预训练模型；该项目开发于 2015-2016 年，依赖较旧版本的 PyTorch；仅允许非商业研究用途。","未说明 (需兼容 PyTorch 0.4.1，推测为 Python 2.7 或 3.6)",[101,102,103],"PyTorch==0.4.1","torchvision","pillow",[14],[106,107,108,109,110,111],"deep-learning","torch","pytorch","sketch","siggraph","convolutional-neural-networks","2026-03-27T02:49:30.150509","2026-04-10T11:22:40.247559",[115,120,125,130,135,140,145],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},27693,"项目是否公开了训练数据集？","截至目前，作者尚未发布用于训练该模型的数据集。Issues 中有多位用户请求公开数据集以供参考，但作者暂未提供。如果您需要使用该模型，目前只能使用已发布的预训练模型进行推理。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F5",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},27687,"为什么每次运行代码，同一张输入图片会生成不同的输出结果？","模型的输出是确定性的，给定相同的输入和模型参数，结果应该是固定的。如果您观察到不同的输出，最可能的原因是您无意中使用了不同的模型文件（例如混淆了 `model_pencil.t7` 和 `model_mse.t7`）。请检查您的代码是否加载了正确的预训练模型文件。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F6",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},27688,"如何在 Windows 上解决下载预训练模型脚本报错（如 '$'\\r': command not found'）的问题？","该错误通常是由于 Linux 和 Windows 之间的换行符差异（CRLF vs LF）导致的。在 Windows 上运行 `.sh` 脚本时，需要确保文件使用 Unix (LF) 换行符。您可以使用文本编辑器（如 Notepad++ 或 VS Code）将 `download_models.sh` 文件的换行符格式转换为 Unix 格式，或者在 Git Bash 中配置自动转换，然后重新运行脚本。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F14",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},27689,"如何将简化后的位图输出转换为矢量图形（SVG）？","项目本身不进行后处理，但您可以手动使用命令行工具将输出的 PNG 转换为 SVG。需要安装 ImageMagick 和 Potrace。具体命令如下：\n`convert out.png bmp:- | mkbitmap - -t 0.3 -o - | potrace --svg --group -t 15 -o - > out.svg`\n这条命令先将 PNG 转换为位图，通过 mkbitmap 进行阈值处理，最后由 potrace 追踪生成 SVG 文件。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F10",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},27690,"运行代码时遇到 'ModuleNotFoundError: No module named torch.utils.serialization' 错误怎么办？","这是因为代码使用的是旧版 PyTorch 的序列化模块，而新版 PyTorch 已移除该模块。该项目已有相关的 Pull Request（#12）修复了此兼容性问题。建议您拉取最新的代码更新，或者手动修改代码以适配新版 PyTorch 的模型加载方式（通常涉及使用 `torch.load` 替代旧的序列化接口）。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F21",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},27691,"后处理命令中的各个参数是什么意思？依赖哪些工具？","后处理命令主要依赖两个工具：ImageMagick 和 Potrace。\n- `convert`: 来自 ImageMagick，用于图像格式转换。\n- `mkbitmap`: 通常随 Potrace 安装，用于将灰度图像转换为高位深位图，`-t 0.3` 设置阈值。\n- `potrace`: 核心工具，用于将位图追踪为矢量图，`--svg` 指定输出格式，`--group` 对路径分组，`-t 15` 设置优化阈值。\n建议查阅各工具的 man 手册以获取更详细的参数说明。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F9",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},27692,"运行脚本时出现 'THCudaCheck FAIL ... error=2 : out of memory' 错误如何解决？","这是一个显存不足（Out of Memory）的错误。这通常发生在尝试处理的图片分辨率过高，超过了 GPU 的显存容量。解决方法包括：降低输入图片的分辨率后再进行处理，或者在显存更大的 GPU 上运行。如果必须处理大图，可能需要修改代码以支持分块处理（虽然本项目默认不支持）。","https:\u002F\u002Fgithub.com\u002Fbobbens\u002Fsketch_simplification\u002Fissues\u002F3",[]]