[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-richzhang--colorization-pytorch":3,"tool-richzhang--colorization-pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":148},7242,"richzhang\u002Fcolorization-pytorch","colorization-pytorch","PyTorch reimplementation of Interactive Deep Colorization","colorization-pytorch 是一个基于 PyTorch 框架开源的图像交互式上色工具，它复现了著名的“交互式深度上色”（Interactive Deep Colorization）算法。该工具旨在解决传统自动上色结果单一、难以控制的问题，允许用户通过简单的笔触提示（Color Hints）来实时引导黑白照片的上色过程，从而生成既符合语义逻辑又满足用户审美偏好的彩色图像。\n\n其核心技术亮点在于采用了“两阶段训练”策略：首先利用分类损失让网络学习自动上色的通用先验知识，随后通过回归损失进行微调，使模型能够敏锐地响应用户输入的局部颜色提示。这种设计让 AI 不再是黑盒操作，而是变成了人机协作的创作伙伴。\n\n由于该项目主要提供模型训练代码和底层接口，未直接打包图形化界面（官方原版含 GUI），因此它更适合具备一定编程基础的开发者、计算机视觉研究人员以及希望深入理解或改进上色算法的技术爱好者使用。对于想要研究深度学习在图像编辑领域应用，或需要定制化训练特定风格上色模型的团队来说，这是一个极具价值的参考实现。","# Interactive Deep Colorization in PyTorch\n[Project Page](https:\u002F\u002Frichzhang.github.io\u002Fideepcolor\u002F) |  [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999) | [Video](https:\u002F\u002Fyoutu.be\u002FeL5ilZgM89Q) | [Talk](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=rp5LUSbdsys) | [UI code](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002F)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frichzhang_colorization-pytorch_readme_cc9f66239bfa.gif' width=600>  \n\nReal-Time User-Guided Image Colorization with Learned Deep Priors.  \n[Richard Zhang](https:\u002F\u002Frichzhang.github.io\u002F)\\*, [Jun-Yan Zhu](http:\u002F\u002Fpeople.csail.mit.edu\u002Fjunyanz\u002F)\\*, [Phillip Isola](http:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~isola\u002F), [Xinyang Geng](http:\u002F\u002Fyoung-geng.xyz\u002F), Angela S. Lin, Tianhe Yu, and [Alexei A. Efros](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~efros\u002F).  \nIn ACM Transactions on Graphics (SIGGRAPH 2017).  \n\nThis is our PyTorch reimplementation for interactive image colorization, written by [Richard Zhang](https:\u002F\u002Fgithub.com\u002Frichzhang) and [Jun-Yan Zhu](https:\u002F\u002Fgithub.com\u002Fjunyanz).\n\nThis repository contains training usage. The original, official GitHub repo (with an interactive GUI, and originally Caffe backend) is [here](https:\u002F\u002Frichzhang.github.io\u002Fideepcolor\u002F). The official repo has been updated to support PyTorch models on the backend, which can be trained in this repository.\n\n## Prerequisites\n- Linux or macOS\n- Python 2 or 3\n- CPU or NVIDIA GPU + CUDA CuDNN\n\n## Getting Started\n### Installation\n- Install PyTorch 0.4+ and torchvision from http:\u002F\u002Fpytorch.org and other dependencies (e.g., [visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom) and [dominate](https:\u002F\u002Fgithub.com\u002FKnio\u002Fdominate)). You can install all the dependencies by\n```bash\npip install -r requirements.txt\n```\n- Clone this repo:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\ncd colorization-pytorch\n```\n\n### Dataset preparation\n- Download the ILSVRC 2012 dataset and run the following script to prepare data\n`python make_ilsvrc_dataset.py --in_path \u002FPATH\u002FTO\u002FILSVRC12`. This will make symlinks into the training set, and divide the ILSVRC validation set into validation and test splits for colorization.\n\n### Training interactive colorization\n- Train a model: ```bash .\u002Fscripts\u002Ftrain_siggraph.sh```. This is a 2 stage training process. First, the network is trained for automatic colorization using classification loss. Results are in `.\u002Fcheckpoints\u002Fsiggraph_class`. Then, the network is fine-tuned for interactive colorization using regression loss. Final results are in `.\u002Fcheckpoints\u002Fsiggraph_reg2`.\n\n- To view training results and loss plots, run `python -m visdom.server` and click the URL http:\u002F\u002Flocalhost:8097. The following values are monitored:\n    * `G_CE` is a cross-entropy loss between predicted color distribution and ground truth color.\n    * `G_entr` is the entropy of the predicted distribution.\n    * `G_entr_hint` is the entropy of the predicted distribution at points where a color hint is given.\n    * `G_L1_max` is the L1 distance between the ground truth color and argmax of the predicted color distribution.\n    * `G_L1_mean` is the L1 distance between the ground truth color and mean of the predicted color distribution.\n    * `G_L1_reg` is the L1 distance between the ground truth color and the predicted color.\n    * `G_fake_real` is the L1 distance between the predicted color and the ground truth color (in locations where a hint is given).\n    * `G_fake_hint` is the L1 distance between the predicted color and the input hint color (in locations where a hint is given). It's a measure of how much the network \"trusts\" the input hint.\n    * `G_real_hint` is the L1 distance between the ground truth color and the input hint color (in locations where a hint is given).\n\n\n### Testing interactive colorization\n- Get a model. Either:\n    * (1) download the pretrained model by running ```bash pretrained_models\u002Fdownload_siggraph_model.sh```, which will give you a few models.\n        * Original caffe weights [Recommended] `.\u002Fcheckpoints\u002Fsiggraph_caffemodel\u002Flatest_net_G.pth` is the original caffemodel weights, converted to PyTorch. It is recommended. Be sure to set `--mask_cent 0` when running it.\n        * Retrained model: `.\u002Fcheckpoints\u002Fsiggraph_retrained\u002Flatest_net_G.pth`. The model achieves better PSNR but performs qualitatively differently. Note that this repository is an approximate reimplementation of the siggraph paper.\n    * (2) train your own model (as described in the section above), which will leave a model in `.\u002Fcheckpoints\u002Fsiggraph_reg2\u002Flatest_net_G.pth`\n\n- Test the model on validation data:\n    * ```python test.py --name siggraph_caffemodel --mask_cent 0``` for original caffemodel weights\n    * ```python test.py --name siggraph_retrained ``` for retrained weights.\n    * ```python test.py --name siggraph_reg2 ``` if you retrained your own model\n    The test results will be saved to an HTML file in `.\u002Fresults\u002F[[NAME]]\u002Flatest_val\u002Findex.html`. For each image in the validation set, it will test (1) automatic colorization, (2) interactive colorization with a few random hints, and (3) interactive colorization with lots of random hints.\n\n- Test the model by making PSNR vs. the number of hints plot: ```python test_sweep.py --name [[NAME]] ```. This plot was used in Figure 6 of the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999). This test randomly reveals 6x6 color hint patches to the network and sees how accurate the colorization is with respect to the ground truth.\n\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frichzhang_colorization-pytorch_readme_765002fcb60b.png\" height=\"300\"\u002F>\n\n- Test the model interactively with the original official [repository](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization). Follow installation instructions in that repo and run `python ideepcolor.py --backend pytorch --color_model [[PTH\u002FTO\u002FMODEL]] --dist_model [[PTH\u002FTO\u002FMODEL]]`.\n\n\n### Citation\nIf you use this code for your research, please cite our paper:\n```\n@article{zhang2017real,\n  title={Real-Time User-Guided Image Colorization with Learned Deep Priors},\n  author={Zhang, Richard and Zhu, Jun-Yan and Isola, Phillip and Geng, Xinyang and Lin, Angela S and Yu, Tianhe and Efros, Alexei A},\n  journal={ACM Transactions on Graphics (TOG)},\n  volume={9},\n  number={4},\n  year={2017},\n  publisher={ACM}\n}\n```\n\n## Acknowledgments\nThis code borrows heavily from the [pytorch-CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) repository.\n","# PyTorch 中的交互式深度彩色化\n[项目页面](https:\u002F\u002Frichzhang.github.io\u002Fideepcolor\u002F) |  [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999) | [视频](https:\u002F\u002Fyoutu.be\u002FeL5ilZgM89Q) | [演讲](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=rp5LUSbdsys) | [UI 代码](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002F)\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frichzhang_colorization-pytorch_readme_cc9f66239bfa.gif' width=600>  \n\n基于学习的深度先验的实时用户引导图像彩色化。  \n[Richard Zhang](https:\u002F\u002Frichzhang.github.io\u002F)\\*, [Jun-Yan Zhu](http:\u002F\u002Fpeople.csail.mit.edu\u002Fjunyanz\u002F)\\*, [Phillip Isola](http:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~isola\u002F), [Xinyang Geng](http:\u002F\u002Fyoung-geng.xyz\u002F), Angela S. Lin, Tianhe Yu, 和 [Alexei A. Efros](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~efros\u002F)。  \n发表于 ACM 图形学汇刊（SIGGRAPH 2017）。  \n\n这是我们由 [Richard Zhang](https:\u002F\u002Fgithub.com\u002Frichzhang) 和 [Jun-Yan Zhu](https:\u002F\u002Fgithub.com\u002Fjunyanz) 编写的交互式图像彩色化的 PyTorch 重实现。\n\n本仓库包含训练用法。原始的官方 GitHub 仓库（带有交互式 GUI，最初基于 Caffe 后端）位于 [这里](https:\u002F\u002Frichzhang.github.io\u002Fideepcolor\u002F)。官方仓库已更新以支持后端的 PyTorch 模型，这些模型可以在此仓库中进行训练。\n\n## 前置条件\n- Linux 或 macOS\n- Python 2 或 3\n- CPU 或 NVIDIA GPU + CUDA CuDNN\n\n## 快速入门\n### 安装\n- 从 http:\u002F\u002Fpytorch.org 安装 PyTorch 0.4+ 和 torchvision，以及其他依赖项（例如 [visdom](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom) 和 [dominate](https:\u002F\u002Fgithub.com\u002FKnio\u002Fdominate)）。您可以通过以下命令安装所有依赖项：\n```bash\npip install -r requirements.txt\n```\n- 克隆本仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\ncd colorization-pytorch\n```\n\n### 数据集准备\n- 下载 ILSVRC 2012 数据集，并运行以下脚本准备数据：\n`python make_ilsvrc_dataset.py --in_path \u002FPATH\u002FTO\u002FILSVRC12`。这将为训练集创建符号链接，并将 ILSVRC 验证集划分为用于彩色化的验证集和测试集。\n\n### 训练交互式彩色化\n- 训练一个模型：```bash .\u002Fscripts\u002Ftrain_siggraph.sh```。这是一个两阶段的训练过程。首先，网络使用分类损失进行自动彩色化训练，结果保存在 `.\u002Fcheckpoints\u002Fsiggraph_class` 中。然后，网络使用回归损失进行交互式彩色化的微调，最终结果保存在 `.\u002Fcheckpoints\u002Fsiggraph_reg2` 中。\n\n- 要查看训练结果和损失曲线，请运行 `python -m visdom.server`，并点击 http:\u002F\u002Flocalhost:8097。以下指标会被监控：\n    * `G_CE` 是预测颜色分布与真实颜色之间的交叉熵损失。\n    * `G_entr` 是预测分布的熵。\n    * `G_entr_hint` 是在网络接收到颜色提示的位置上，预测分布的熵。\n    * `G_L1_max` 是真实颜色与预测颜色分布的众数之间的 L1 距离。\n    * `G_L1_mean` 是真实颜色与预测颜色分布的均值之间的 L1 距离。\n    * `G_L1_reg` 是真实颜色与预测颜色之间的 L1 距离。\n    * `G_fake_real` 是预测颜色与真实颜色之间的 L1 距离（在网络接收到提示的地方）。\n    * `G_fake_hint` 是预测颜色与输入提示颜色之间的 L1 距离（在网络接收到提示的地方），它衡量了网络对输入提示的信任程度。\n    * `G_real_hint` 是真实颜色与输入提示颜色之间的 L1 距离（在网络接收到提示的地方）。\n\n\n\n### 测试交互式彩色化\n- 获取一个模型。可以选择：\n    * (1) 下载预训练模型，运行 ```bash pretrained_models\u002Fdownload_siggraph_model.sh```，这将为您提供几个模型。\n        * 原始 Caffe 权重 [推荐] `.\u002Fcheckpoints\u002Fsiggraph_caffemodel\u002Flatest_net_G.pth` 是原始 Caffe 模型权重转换为 PyTorch 格式后的版本，推荐使用。运行时请务必设置 `--mask_cent 0`。\n        * 重新训练的模型：`.\u002Fcheckpoints\u002Fsiggraph_retrained\u002Flatest_net_G.pth`。该模型具有更高的 PSNR，但在定性表现上有所不同。请注意，本仓库是对 SIGGRAPH 论文的近似重实现。\n    * (2) 自行训练一个模型（如上文所述），训练完成后会在 `.\u002Fcheckpoints\u002Fsiggraph_reg2\u002Flatest_net_G.pth` 中生成一个模型。\n\n- 在验证数据上测试模型：\n    * 对于原始 Caffe 权重：```python test.py --name siggraph_caffemodel --mask_cent 0```。\n    * 对于重新训练的权重：```python test.py --name siggraph_retrained```。\n    * 如果您自己训练了模型：```python test.py --name siggraph_reg2```。\n    测试结果将保存到 `.\u002Fresults\u002F[[NAME]]\u002Flatest_val\u002Findex.html` 的 HTML 文件中。对于验证集中的每一张图片，它将测试 (1) 自动彩色化，(2) 使用少量随机提示的交互式彩色化，以及 (3) 使用大量随机提示的交互式彩色化。\n\n- 通过绘制 PSNR 与提示数量的关系图来测试模型：```python test_sweep.py --name [[NAME]]```。该图曾用于 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999) 的图 6。此测试会随机向网络展示 6x6 的彩色提示区域，以观察其彩色化结果与真实值的接近程度。\n\n   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frichzhang_colorization-pytorch_readme_765002fcb60b.png\" height=\"300\"\u002F>\n\n- 使用原始官方 [仓库](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization) 以交互方式测试模型。按照该仓库的安装说明操作，并运行 `python ideepcolor.py --backend pytorch --color_model [[PTH\u002FTO\u002FMODEL]] --dist_model [[PTH\u002FTO\u002FMODEL]]`。\n\n\n### 引用\n如果您在研究中使用此代码，请引用我们的论文：\n```\n@article{zhang2017real,\n  title={Real-Time User-Guided Image Colorization with Learned Deep Priors},\n  author={Zhang, Richard and Zhu, Jun-Yan and Isola, Phillip and Geng, Xinyang and Lin, Angela S and Yu, Tianhe and Efros, Alexei A},\n  journal={ACM Transactions on Graphics (TOG)},\n  volume={9},\n  number={4},\n  year={2017},\n  publisher={ACM}\n}\n```\n\n## 致谢\n此代码大量借鉴了 [pytorch-CycleGAN](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Fpytorch-CycleGAN-and-pix2pix) 仓库。","# colorization-pytorch 快速上手指南\n\n本项目是 SIGGRAPH 2017 论文《Real-Time User-Guided Image Colorization with Learned Deep Priors》的 PyTorch 复现版本，支持交互式图像上色。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS\n*   **Python 版本**: Python 2 或 Python 3\n*   **硬件加速**: CPU 或 NVIDIA GPU (需安装 CUDA 和 CuDNN)\n*   **核心依赖**: PyTorch 0.4+ 及 torchvision\n\n> **国内开发者提示**：建议配置国内镜像源以加速依赖下载。\n> *   PyTorch 国内镜像安装参考：https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F (选择对应版本后查看 \"Run this Command\" 中的 pip 源替换方案，通常使用 `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple ...`)\n\n## 安装步骤\n\n### 1. 安装依赖库\n克隆仓库后，使用 pip 一键安装所需依赖（包括 `visdom` 和 `dominate` 等）：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\ncd colorization-pytorch\npip install -r requirements.txt\n```\n*(注：若网络较慢，可添加清华源参数：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n### 2. 准备数据集 (可选)\n如需从头训练模型，需下载 ILSVRC 2012 数据集并运行脚本进行预处理（创建软链接并划分验证\u002F测试集）：\n\n```bash\npython make_ilsvrc_dataset.py --in_path \u002FPATH\u002FTO\u002FILSVRC12\n```\n\n## 基本使用\n\n对于大多数用户，直接使用预训练模型进行测试是最快的上手方式。\n\n### 1. 下载预训练模型\n运行官方脚本下载模型权重。推荐使用转换后的原始 Caffe 权重 (`siggraph_caffemodel`)，效果最接近原论文：\n\n```bash\npretrained_models\u002Fdownload_siggraph_model.sh\n```\n\n### 2. 执行测试\n使用下载的模型对验证集数据进行上色测试。根据下载的模型类型选择对应的命令：\n\n**方案 A：使用推荐的原始 Caffe 转换权重**\n```bash\npython test.py --name siggraph_caffemodel --mask_cent 0\n```\n\n**方案 B：使用本项目重新训练的权重**\n```bash\npython test.py --name siggraph_retrained\n```\n\n### 3. 查看结果\n测试完成后，结果将保存为 HTML 文件。请在浏览器中打开以下路径查看自动上色及交互式上色的对比效果：\n\n```text\n.\u002Fresults\u002F[[NAME]]\u002Flatest_val\u002Findex.html\n```\n*(将 `[[NAME]]` 替换为你使用的模型名称，例如 `siggraph_caffemodel`)*\n\n> **进阶提示**：若需体验图形化界面（GUI）进行实时交互式上色，请前往官方交互代码库 [interactive-deep-colorization](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002F)，并指定后端为 pytorch 及上述下载的模型路径运行 `ideepcolor.py`。","一位数字档案管理员正在处理一批珍贵的 20 世纪黑白历史照片，需要将其转化为彩色版本用于线上展览，同时必须确保色彩还原符合历史事实且允许专家手动修正。\n\n### 没有 colorization-pytorch 时\n- 传统自动上色算法完全“盲猜”颜色，经常给军装染上错误的粉色或让天空呈现诡异的绿色，缺乏人工干预接口。\n- 若想让 AI 听从指挥，开发人员需从零构建复杂的深度学习框架，手动编写提示点（Hint）与图像融合的底层代码，耗时数周。\n- 修改过程是非实时的，每次调整一个像素的颜色提示，都需要重新运行漫长的推理脚本，无法即时预览效果。\n- 模型难以平衡“自动填充”与“用户指定”的关系，往往要么忽略用户的颜色提示，要么只渲染提示点而周围区域保持黑白。\n\n### 使用 colorization-pytorch 后\n- 利用其交互式深度先验技术，管理员只需在黑白照片的关键区域（如旗帜、制服）点击并涂抹参考色，AI 即可实时生成符合语境的彩色图像。\n- 直接复用官方提供的预训练 PyTorch 模型，无需重复训练，几分钟内即可部署具备“理解用户意图”能力的上色服务。\n- 支持实时反馈循环，当发现某处色调不准时，只需微调提示点颜色，系统瞬间更新全局光影和色调，极大提升修图效率。\n- 算法能智能融合用户提示与自动推断，既尊重了人工指定的历史考据色，又保证了未标记区域（如背景植被、皮肤）的自然过渡。\n\ncolorization-pytorch 将原本僵化的自动上色流程转变为高效的人机协作模式，让历史照片的修复既精准又充满创造力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frichzhang_colorization-pytorch_cc9f6623.gif","richzhang","Richard Zhang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frichzhang_bcf0d593.jpg","Research Scientist @adobe | PhD UC Berkeley || Computer vision | deep learning | graphics | machine learning","@adobe ","San Francisco, CA",null,"rzhang88","richzhang.github.io","https:\u002F\u002Fgithub.com\u002Frichzhang",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",96.9,{"name":88,"color":89,"percentage":90},"Shell","#89e051",3.1,602,110,"2026-04-13T10:50:48","MIT","Linux, macOS","非必需（支持 CPU 或 NVIDIA GPU + CUDA CuDNN），具体型号和显存大小未说明","未说明",{"notes":99,"python":100,"dependencies":101},"该工具是 SIGGRAPH 2017 论文的 PyTorch 复现版本。训练过程分为两个阶段：先使用分类损失进行自动上色训练，再使用回归损失进行交互式微调。若使用官方提供的原始 Caffe 权重转换模型，运行测试时需设置参数 '--mask_cent 0'。项目依赖 ILSVRC 2012 数据集进行训练准备。","2 或 3",[102,103,104,105],"PyTorch>=0.4","torchvision","visdom","dominate",[15,14],[108,109,110,111,112,113,114],"convolutional-neural-networks","computer-vision","computer-graphics","pytorch","image-colorization","siggraph","deep-learning","2026-03-27T02:49:30.150509","2026-04-14T04:42:48.151734",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},32513,"数据加载是否支持多线程？如何正确设置 num_threads 或 nThreads 参数来加速训练？","是的，项目原本存在参数命名不一致的问题（opt.nThreads 与 opt.num_threads）。要启用多线程数据加载以加速训练，需要在 train.py 中调用 torch.utils.data.DataLoader 时显式添加 num_workers 参数。具体做法是将代码修改为：DataLoader(dataset, batch_size=opt.batch_size, shuffle=True, num_workers=int(opt.nThreads))。维护者已确认需要更新代码以统一这些参数。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F13",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},32514,"为什么 SIGGRAPHGenerator 的分类输出通道数是 529 而不是预期的 313？","529 代表所有可能的 (a,b) 颜色分箱数量（23*23=529），而 313 仅代表色域内（in-gamut）的有效颜色值。原始的 Caffe 实现只保留了 313 个色域内的值，但 PyTorch 重制版为了简化编码逻辑，保留了全部 529 个分箱。在实际测试中，那些非色域内的 216 个分箱（529-313）输出的概率接近于 0，因此不会影响最终结果。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F7",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},32515,"预训练模型中是否包含判别器（Discriminator）？如何使用带判别器的模型进行训练？","虽然代码中定义了判别器（当 lambda_GAN > 0 时），但维护者明确表示并未使用判别器进行预训练，且未提供相关的超参数配置。目前的预训练模型是不含判别器的。部分判别器代码继承自 pix2pix 项目，用户可以尝试自行集成和训练，但官方未验证其在此项目中的功能性。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},32516,"项目中是否包含全局提示（Global Hints）网络模块？","不包含。该 PyTorch 仓库仅实现了局部提示（Local Hints）模块，全局提示网络（Global Hints Network）并未在此代码库中提供。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F16",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},32517,"在 util.py 的 add_color_patches_rand_gt 函数中，平均补丁值的计算是否存在维度错误？","用户指出第 248 行计算均值时维度可能错误，建议将 dim=1 改为 dim=-1。但维护者回复称，原始代码在批量大小（batch size）大于 1 时没有问题，该潜在错误仅在图像维度为 1*C*H*W（即单张图片且无批次维度的特定情况）下才会显现。对于常规训练流程，原代码是可用的。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F22",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},32518,"代码中的下采样（Subsampling）操作为什么不使用卷积层来实现？","这里的下采样操作（减半）并非通过卷积实现，而是直接采用“隔点取值”的方式，即简单地选取每隔一个的像素值来完成尺寸减半。","https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch\u002Fissues\u002F8",[]]