[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-junyanz--interactive-deep-colorization":3,"tool-junyanz--interactive-deep-colorization":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":115,"github_topics":116,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":161},5530,"junyanz\u002Finteractive-deep-colorization","interactive-deep-colorization","Deep learning software for colorizing black and white images with a few clicks.","interactive-deep-colorization 是一款基于深度学习的开源软件，旨在让用户通过简单的点击操作，轻松为黑白照片添加色彩。它主要解决了传统自动上色工具缺乏可控性、难以精准还原用户预期色彩的痛点，让修复老照片或艺术创作变得更加直观高效。\n\n这款工具非常适合摄影师、设计师、数字艺术家以及对图像修复感兴趣的研究人员使用。对于具备一定编程基础的开发者，它还提供了完整的训练代码和多种演示模式（包括轻量级的 iPython 笔记和本地图形界面），便于进行二次开发或算法研究。\n\n其核心技术亮点在于采用了“交互式局部提示网络”（Local Hints Network）。与传统全自动方案不同，它允许用户在图像的关键位置手动标记颜色提示点，系统会结合深度学习先验知识，实时将这些局部色彩智能地扩散至整张图片。这种“人机协作”的模式既保留了 AI 的高效，又赋予了用户对最终效果的精确控制权。此外，项目支持 Caffe 和 PyTorch 双后端，并曾集成于 Adobe Photoshop Elements 2020 中，展现了其技术的成熟度与实用性。","\n# Interactive Deep Colorization\n\n[Project Page](https:\u002F\u002Frichzhang.github.io\u002FInteractiveColorization) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999) | [Demo Video](https:\u002F\u002Fyoutu.be\u002FeL5ilZgM89Q) | [SIGGRAPH Talk](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=rp5LUSbdsys)\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_cc9f66239bfa.gif' width=600>  \n\n\n\u003Cb>04\u002F10\u002F2020 Update\u003C\u002Fb>: [@mabdelhack](mabdelhack) provided a windows installation guide for the PyTorch model in Python 3.6. Check out the Windows [branch](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Ftree\u002Fwindows) for the guide.\n\n\u003Cb>10\u002F3\u002F2019 Update\u003C\u002Fb>: Our technology is also now available in Adobe Photoshop Elements 2020. See this [blog](https:\u002F\u002Fhelpx.adobe.com\u002Fphotoshop-elements\u002Fusing\u002Fcolorize-photo.html) and [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tmXg4N4YlJg) for more details.\n\n\n\u003Cb>9\u002F3\u002F2018 Update\u003C\u002Fb>:  The code now supports a backend PyTorch model (with PyTorch 0.5.0+). Please find the Local Hints Network training code in the [colorization-pytorch](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch) repository.\n\nReal-Time User-Guided Image Colorization with Learned Deep Priors.  \n[Richard Zhang](https:\u002F\u002Frichzhang.github.io\u002F)\\*, [Jun-Yan Zhu](https:\u002F\u002Fwww.cs.cmu.edu\u002F~junyanz\u002F)\\*, [Phillip Isola](http:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~isola\u002F), [Xinyang Geng](http:\u002F\u002Fyoung-geng.xyz\u002F), Angela S. Lin, Tianhe Yu, and [Alexei A. Efros](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~efros\u002F).  \nIn ACM Transactions on Graphics (SIGGRAPH 2017).  \n(\\*indicates equal contribution)\n\nWe first describe the system \u003Cb>(0) Prerequisities\u003C\u002Fb> and steps for \u003Cb>(1) Getting started\u003C\u002Fb>. We then describe the interactive colorization demo \u003Cb>(2) Interactive Colorization (Local Hints Network)\u003C\u002Fb>. There are two demos: (a) a \"barebones\" version in iPython notebook and (b) the full GUI we used in our paper. We then provide an example of the \u003Cb>(3) Global Hints Network\u003C\u002Fb>.\n\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_a55e2e359011.jpg' width=800>\n\n### (0) Prerequisites\n- Linux or OSX\n- [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) or PyTorch\n- CPU or NVIDIA GPU + CUDA CuDNN.\n\n### (1) Getting Started\n- Clone this repo:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization ideepcolor\ncd ideepcolor\n```\n\n- Download the reference model\n```\nbash .\u002Fmodels\u002Ffetch_models.sh\n```\n\n- Install [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) or [PyTorch]() and 3rd party Python libraries ([OpenCV](http:\u002F\u002Fopencv.org\u002F), [scikit-learn](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002Finstall.html) and [scikit-image](https:\u002F\u002Fgithub.com\u002Fscikit-image\u002Fscikit-image)). See the [Requirements](#Requirements) for more details.\n\n### (2) Interactive Colorization (Local Hints Network)\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_3711848453ca.jpg' width=800>\n\nWe provide a \"barebones\" demo in iPython notebook, which does not require QT. We also provide our full GUI demo.\n\n#### (2a) Barebones Interactive Colorization Demo\n\n- Run `ipython notebook` and click on [`DemoInteractiveColorization.ipynb`](.\u002FDemoInteractiveColorization.ipynb).\n\nIf you need to convert the Notebook to an older version, use `jupyter nbconvert --to notebook --nbformat 3 .\u002FDemoInteractiveColorization.ipynb`.\n\n#### (2b) Full Demo GUI\n\n- Install [Qt5](https:\u002F\u002Fdoc.qt.io\u002Fqt-5\u002Fgettingstarted.html) and [QDarkStyle](https:\u002F\u002Fgithub.com\u002FColinDuquesnoy\u002FQDarkStyleSheet). (See [Installation](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization#installation))\n\n- Run the UI: `python ideepcolor.py --gpu [GPU_ID] --backend [CAFFE OR PYTORCH]`. Arguments are described below:\n```\n--win_size    [512] GUI window size\n--gpu         [0] GPU number\n--image_file  ['.\u002Ftest_imgs\u002Fmortar_pestle.jpg'] path to the image file\n--backend     ['caffe'] either use 'caffe' or 'pytorch'; 'caffe' is the official model from siggraph 2017, and 'pytorch' is the same weights converted\n```\n\n- User interactions\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_2d5ffd431161.jpg' width=800>\n\n- \u003Cb>Adding points\u003C\u002Fb>: Left-click somewhere on the input pad\n- \u003Cb>Moving points\u003C\u002Fb>: Left-click and hold on a point on the input pad, drag to desired location, and let go\n- \u003Cb>Changing colors\u003C\u002Fb>: For currently selected point, choose a recommended color (middle-left) or choose a color on the ab color gamut (top-left)\n- \u003Cb>Removing points\u003C\u002Fb>: Right-click on a point on the input pad\n- \u003Cb>Changing patch size\u003C\u002Fb>: Mouse wheel changes the patch size from 1x1 to 9x9\n- \u003Cb>Load image\u003C\u002Fb>: Click the load image button and choose desired image\n- \u003Cb>Restart\u003C\u002Fb>: Click on the restart button. All points on the pad will be removed.\n- \u003Cb>Save result\u003C\u002Fb>: Click on the save button. This will save the resulting colorization in a directory where the ```image_file``` was, along with the user input ab values.\n- \u003Cb>Quit\u003C\u002Fb>: Click on the quit button.\n\n### (3) Global Hints Network\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_f785e32a9810.jpg' width=800>\n\nWe include an example usage of our Global Hints Network, applied to global histogram transfer. We show its usage in an iPython notebook.\n\n- Add `.\u002Fcaffe_files` to your `PYTHONPATH`\n\n- Run `ipython notebook`. Click on [`.\u002FDemoGlobalHistogramTransfer.ipynb`](.\u002FDemoGlobalHistogramTransfer.ipynb)\n\n### Installation\n- Install Caffe or PyTorch. The Caffe model is official. PyTorch is a reimplementation.\n\n  - Install Caffe: see the Caffe [installation](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) and Ubuntu installation [document](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstall_apt.html). Please compile the Caffe with the python layer [support](https:\u002F\u002Fchrischoy.github.io\u002Fresearch\u002Fcaffe-python-layer\u002F) (set `WITH_PYTHON_LAYER=1` in the `Makefile.config`) and build Caffe python library by `make pycaffe`.\n\n  You also need to add `pycaffe` to your `PYTHONPATH`. Use `vi ~\u002F.bashrc` to edit the environment variables.\n  ```bash\n  PYTHONPATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fpython:$PYTHONPATH\n  LD_LIBRARY_PATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fbuild\u002Flib:$LD_LIBRARY_PATH\n  ```\n\n  - Install PyTorch: see the PyTorch [installation](https:\u002F\u002Fpytorch.org\u002F) guide.\n\n- Install scikit-image, scikit-learn, opencv, Qt5, and QDarkStyle pacakges:\n```bash\n# .\u002Finstall\u002Finstall_deps.sh\nsudo pip install scikit-image\nsudo pip install scikit-learn\nsudo apt-get install python-opencv\nsudo apt-get install qt5-default\nsudo pip install qdarkstyle\n```\nFor Conda users, type the following command lines (this may work for full Anaconda but not Miniconda):\n```bash\n# .\u002Finstall\u002Finstall_conda.sh\nconda install -c anaconda protobuf  ## photobuf\nconda install -c anaconda scikit-learn=0.19.1 ## scikit-learn\nconda install -c anaconda scikit-image=0.13.0  ## scikit-image\nconda install -c menpo opencv=2.4.11   ## opencv\nconda install -c anaconda qt ## qt5\nconda install -c auto qdarkstyle  ## qdarkstyle\n```\n\nFor Docker users, please follow the Docker [document](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Ftree\u002Fmaster\u002Fdocker). \n\n- **Docker**: [[OSX Docker file](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fvbisbest\u002Fideepcolor_osx\u002F)] and [[OSX Installation video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IORcb4lQlxQ)] by @vbisbest,  [[Docker file 2](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fswallner\u002Fideepcolor\u002F)] (by @sabrinawallner) based on [DL Docker](https:\u002F\u002Fgithub.com\u002Ffloydhub\u002Fdl-docker).\n\n- More installation [help](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F10) (by @SleepProgger).\n\n### Training\n\nPlease find a PyTorch reimplementation of the Local Hints Network training code in the [colorization-pytorch](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch) repository.\n\n### Citation\nIf you use this code for your research, please cite our paper:\n```\n@article{zhang2017real,\n  title={Real-Time User-Guided Image Colorization with Learned Deep Priors},\n  author={Zhang, Richard and Zhu, Jun-Yan and Isola, Phillip and Geng, Xinyang and Lin, Angela S and Yu, Tianhe and Efros, Alexei A},\n  journal={ACM Transactions on Graphics (TOG)},\n  volume={9},\n  number={4},\n  year={2017},\n  publisher={ACM}\n}\n```\n\n### Cat Paper Collection\nOne of the authors objects to the inclusion of this list, due to an allergy. Another author objects on the basis that cats are silly creatures and this is a serious, scientific paper. However, if you love cats, and love reading cool graphics, vision, and learning papers, please check out the Cat Paper Collection: [[Github]](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002FCatPapers) [[Webpage]](https:\u002F\u002Fwww.cs.cmu.edu\u002F~junyanz\u002Fcat\u002Fcat_papers.html)\n","# 交互式深度着色\n\n[项目页面](https:\u002F\u002Frichzhang.github.io\u002FInteractiveColorization) | [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.02999) | [演示视频](https:\u002F\u002Fyoutu.be\u002FeL5ilZgM89Q) | [SIGGRAPH演讲](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=rp5LUSbdsys)\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_cc9f66239bfa.gif' width=600>  \n\n\n\u003Cb>2020年4月10日更新\u003C\u002Fb>：[@mabdelhack](mabdelhack) 提供了在 Python 3.6 环境下安装 PyTorch 模型的 Windows 指南。请查看 Windows [分支](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Ftree\u002Fwindows) 获取该指南。\n\n\u003Cb>2019年10月3日更新\u003C\u002Fb>：我们的技术现在也已集成到 Adobe Photoshop Elements 2020 中。更多详情请参阅此 [博客](https:\u002F\u002Fhelpx.adobe.com\u002Fphotoshop-elements\u002Fusing\u002Fcolorize-photo.html) 和 [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tmXg4N4YlJg)。\n\n\n\u003Cb>2018年9月3日更新\u003C\u002Fb>：代码现已支持基于 PyTorch 的后端模型（需 PyTorch 0.5.0 或更高版本）。本地提示网络的训练代码可在 [colorization-pytorch](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch) 仓库中找到。\n\n基于学习的深度先验知识的实时用户引导图像着色。  \n[Richard Zhang](https:\u002F\u002Frichzhang.github.io\u002F)\\*, [Jun-Yan Zhu](https:\u002F\u002Fwww.cs.cmu.edu\u002F~junyanz\u002F)\\*, [Phillip Isola](http:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~isola\u002F)、[Xinyang Geng](http:\u002F\u002Fyoung-geng.xyz\u002F)、Angela S. Lin、Tianhe Yu，以及 [Alexei A. Efros](https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~efros\u002F)。  \n发表于 ACM 图形学汇刊（SIGGRAPH 2017）。  \n(\\*表示共同第一作者)\n\n我们首先介绍系统 \u003Cb>(0) 前置条件\u003C\u002Fb>及\u003Cb>(1) 入门步骤\u003C\u002Fb>。随后我们将描述交互式着色演示 \u003Cb>(2) 交互式着色（局部提示网络）\u003C\u002Fb>。共有两个演示：(a) iPython 笔记本中的“精简版”；(b) 我们论文中使用的完整 GUI 版本。接下来我们还将提供一个\u003Cb>(3) 全局提示网络\u003C\u002Fb>的示例。\n\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_a55e2e359011.jpg' width=800>\n\n### (0) 前置条件\n- Linux 或 macOS\n- [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) 或 PyTorch\n- CPU 或 NVIDIA 显卡 + CUDA CuDNN。\n\n### (1) 入门\n- 克隆此仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization ideepcolor\ncd ideepcolor\n```\n\n- 下载参考模型\n```\nbash .\u002Fmodels\u002Ffetch_models.sh\n```\n\n- 安装 [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) 或 [PyTorch]() 以及第三方 Python 库（[OpenCV](http:\u002F\u002Fopencv.org\u002F)、[scikit-learn](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002Finstall.html) 和 [scikit-image](https:\u002F\u002Fgithub.com\u002Fscikit-image\u002Fscikit-image)）。更多细节请参阅 [要求](#Requirements)。\n\n### (2) 交互式着色（局部提示网络）\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_3711848453ca.jpg' width=800>\n\n我们提供了一个 iPython 笔记本中的“精简版”演示，无需 QT。同时我们也提供了完整的 GUI 演示。\n\n#### (2a) 精简版交互式着色演示\n\n- 运行 `ipython notebook` 并点击 [`DemoInteractiveColorization.ipynb`](.\u002FDemoInteractiveColorization.ipynb)。\n\n如果需要将笔记本转换为旧版本，请使用 `jupyter nbconvert --to notebook --nbformat 3 .\u002FDemoInteractiveColorization.ipynb`。\n\n#### (2b) 完整 GUI 演示\n\n- 安装 [Qt5](https:\u002F\u002Fdoc.qt.io\u002Fqt-5\u002Fgettingstarted.html) 和 [QDarkStyle](https:\u002F\u002Fgithub.com\u002FColinDuquesnoy\u002FQDarkStyleSheet)。（详见 [安装](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization#installation)）\n\n- 运行界面：`python ideepcolor.py --gpu [GPU_ID] --backend [CAFFE OR PYTORCH]`。参数说明如下：\n```\n--win_size    [512] GUI窗口大小\n--gpu         [0] GPU编号\n--image_file  ['.\u002Ftest_imgs\u002Fmortar_pestle.jpg'] 图像文件路径\n--backend     ['caffe'] 可选择 'caffe' 或 'pytorch'；'caffe' 是 SIGGRAPH 2017 的官方模型，而 'pytorch' 则是相同权重的转换版本\n```\n\n- 用户交互\n\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_2d5ffd431161.jpg' width=800>\n\n- \u003Cb>添加点\u003C\u002Fb>：在输入板上左键单击某处\n- \u003Cb>移动点\u003C\u002Fb>：在输入板上按住某个点并拖动至所需位置后松开\n- \u003Cb>更改颜色\u003C\u002Fb>：对于当前选中的点，可从中间左侧推荐的颜色中选择，或从左上角的 ab 色域中选取颜色\n- \u003Cb>删除点\u003C\u002Fb>：在输入板上右键单击某点\n- \u003Cb>调整补丁大小\u003C\u002Fb>：通过鼠标滚轮可将补丁大小从 1x1 调整至 9x9\n- \u003Cb>加载图片\u003C\u002Fb>：点击加载图片按钮并选择所需图片\n- \u003Cb>重置\u003C\u002Fb>：点击重置按钮，输入板上的所有点将被清除。\n- \u003Cb>保存结果\u003C\u002Fb>：点击保存按钮，生成的着色结果将与用户输入的 ab 值一同保存在 ```image_file``` 所在目录中。\n- \u003Cb>退出\u003C\u002Fb>：点击退出按钮。\n\n### (3) 全局提示网络\n\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_readme_f785e32a9810.jpg' width=800>\n\n我们包含了一个全局提示网络的应用示例，用于全局直方图迁移。其用法将在 iPython 笔记本中展示。\n\n- 将 `.\u002Fcaffe_files` 添加到你的 `PYTHONPATH`\n\n- 运行 `ipython notebook`。点击 [`.\u002FDemoGlobalHistogramTransfer.ipynb`](.\u002FDemoGlobalHistogramTransfer.ipynb)\n\n### 安装\n- 安装 Caffe 或 PyTorch。Caffe 模型为官方版本。PyTorch 为重新实现。\n\n  - 安装 Caffe：请参考 Caffe [安装指南](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html) 和 Ubuntu 安装 [文档](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstall_apt.html)。请务必编译带有 Python 层支持的 Caffe（在 `Makefile.config` 中设置 `WITH_PYTHON_LAYER=1`），并通过 `make pycaffe` 构建 Caffe 的 Python 库。\n\n  此外，还需将 `pycaffe` 添加到你的 `PYTHONPATH` 中。使用 `vi ~\u002F.bashrc` 编辑环境变量。\n  ```bash\n  PYTHONPATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fpython:$PYTHONPATH\n  LD_LIBRARY_PATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fbuild\u002Flib:$LD_LIBRARY_PATH\n  ```\n\n  - 安装 PyTorch：请参考 PyTorch [安装指南](https:\u002F\u002Fpytorch.org\u002F)。\n\n- 安装 scikit-image、scikit-learn、opencv、Qt5 和 QDarkStyle 包：\n```bash\n# .\u002Finstall\u002Finstall_deps.sh\nsudo pip install scikit-image\nsudo pip install scikit-learn\nsudo apt-get install python-opencv\nsudo apt-get install qt5-default\nsudo pip install qdarkstyle\n```\n对于 Conda 用户，可执行以下命令（这可能适用于完整的 Anaconda，但不适用于 Miniconda）：\n```bash\n\n# .\u002Finstall\u002Finstall_conda.sh\nconda install -c anaconda protobuf  ## photobuf\nconda install -c anaconda scikit-learn=0.19.1 ## scikit-learn\nconda install -c anaconda scikit-image=0.13.0  ## scikit-image\nconda install -c menpo opencv=2.4.11   ## opencv\nconda install -c anaconda qt ## qt5\nconda install -c auto qdarkstyle  ## qdarkstyle\n```\n\n对于 Docker 用户，请按照 Docker [文档](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Ftree\u002Fmaster\u002Fdocker) 操作。\n\n- **Docker**: [[OSX Docker 文件](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fvbisbest\u002Fideepcolor_osx\u002F)] 和 [[OSX 安装视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=IORcb4lQlxQ)] 由 @vbisbest 提供，[[Docker 文件 2](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fswallner\u002Fideepcolor\u002F)]（由 @sabrinawallner 提供）基于 [DL Docker](https:\u002F\u002Fgithub.com\u002Ffloydhub\u002Fdl-docker)。\n\n- 更多安装 [帮助](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F10)（由 @SleepProgger 提供）。\n\n### 训练\n\n请在 [colorization-pytorch](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization-pytorch) 仓库中找到本地提示网络训练代码的 PyTorch 重实现。\n\n### 引用\n如果您在研究中使用此代码，请引用我们的论文：\n```\n@article{zhang2017real,\n  title={实时用户引导图像上色：基于学习的深度先验},\n  author={Zhang, Richard and Zhu, Jun-Yan and Isola, Phillip and Geng, Xinyang and Lin, Angela S and Yu, Tianhe and Efros, Alexei A},\n  journal={ACM 图形学汇刊 (TOG)},\n  volume={9},\n  number={4},\n  year={2017},\n  publisher={ACM}\n}\n```\n\n### 猫论文集\n其中一位作者因对猫过敏而反对将此列表收录。另一位作者则认为猫是愚蠢的生物，而本文是一篇严肃的科学论文，因此也持反对意见。然而，如果您喜爱猫，并且喜欢阅读酷炫的图形学、视觉和机器学习相关论文，请查看猫论文集：[[Github]](https:\u002F\u002Fgithub.com\u002Fjunyanz\u002FCatPapers) [[网页]](https:\u002F\u002Fwww.cs.cmu.edu\u002F~junyanz\u002Fcat\u002Fcat_papers.html)","# Interactive Deep Colorization 快速上手指南\n\nInteractive Deep Colorization 是一个基于深度学习的实时交互式图像上色工具。用户可以通过在灰度图上点击少量颜色提示点，引导模型生成自然且符合预期的彩色图像。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户可参考项目仓库的 `windows` 分支）。\n*   **硬件**：CPU 或 NVIDIA GPU（推荐 GPU + CUDA + CuDNN 以获得实时交互体验）。\n*   **核心框架**（二选一）：\n    *   [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002Finstallation.html)（官方原始模型，需编译支持 Python 层）\n    *   [PyTorch](https:\u002F\u002Fpytorch.org\u002F) (0.5.0+，社区复现版本)\n*   **Python 依赖库**：\n    *   OpenCV\n    *   scikit-learn\n    *   scikit-image\n    *   Qt5 及 QDarkStyle（仅完整 GUI 模式需要）\n\n> **国内加速建议**：安装 Python 包时，建议使用清华源或阿里源加速下载。例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`。\n\n## 安装步骤\n\n### 1. 克隆项目并下载模型\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization ideepcolor\ncd ideepcolor\n\n# 下载预训练模型\nbash .\u002Fmodels\u002Ffetch_models.sh\n```\n\n### 2. 安装依赖库\n\n您可以根据自身环境选择 `pip`、`conda` 或手动编译 Caffe。\n\n#### 方案 A：使用 pip 安装（推荐 PyTorch 用户）\n\n```bash\n# 建议先升级 pip\npip install --upgrade pip\n\n# 安装核心图像处理库（使用国内镜像加速）\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple scikit-image scikit-learn opencv-python qdarkstyle\n\n# 安装 Qt5 (Ubuntu\u002FDebian 示例)\nsudo apt-get install qt5-default\n```\n\n#### 方案 B：使用 Conda 安装\n\n如果您使用 Anaconda\u002FMiniconda，可以运行以下命令：\n\n```bash\nconda install -c anaconda protobuf\nconda install -c anaconda scikit-learn=0.19.1\nconda install -c anaconda scikit-image=0.13.0\nconda install -c menpo opencv=2.4.11\nconda install -c anaconda qt\nconda install -c auto qdarkstyle\n```\n\n#### 方案 C：配置 Caffe（仅当使用 Caffe 后端时）\n\n若需使用原始的 Caffe 模型，请确保编译 Caffe 时开启了 Python 支持：\n1. 修改 `Makefile.config`，设置 `WITH_PYTHON_LAYER := 1`。\n2. 执行 `make pycaffe`。\n3. 将 Caffe Python 路径加入环境变量：\n   ```bash\n   export PYTHONPATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fpython:$PYTHONPATH\n   export LD_LIBRARY_PATH=\u002Fpath\u002Fto\u002Fcaffe\u002Fbuild\u002Flib:$LD_LIBRARY_PATH\n   ```\n\n## 基本使用\n\n本项目提供两种使用方式：轻量级的 Jupyter Notebook 演示和完整的图形界面（GUI）。\n\n### 方式一：轻量级演示 (Jupyter Notebook)\n\n无需安装 Qt 即可快速体验核心功能。\n\n1. 启动 Jupyter Notebook：\n   ```bash\n   jupyter notebook\n   ```\n2. 在浏览器中打开并运行 [`DemoInteractiveColorization.ipynb`](.\u002FDemoInteractiveColorization.ipynb)。\n3. 按照笔记中的步骤加载图片并添加颜色提示点。\n\n### 方式二：完整图形界面 (GUI)\n\n这是论文中展示的完整交互界面，支持实时调整。\n\n1. 运行启动命令（根据您安装的后端选择 `caffe` 或 `pytorch`）：\n   ```bash\n   python ideepcolor.py --gpu 0 --backend pytorch --image_file '.\u002Ftest_imgs\u002Fmortar_pestle.jpg'\n   ```\n   *参数说明：*\n   *   `--gpu`: GPU 编号，若无 GPU 可移除该参数或使用 CPU 模式。\n   *   `--backend`: 指定后端，可选 `'caffe'` 或 `'pytorch'`。\n   *   `--image_file`: 输入灰度图的路径。\n\n2. **交互操作指南**：\n   *   **添加提示点**：在左侧输入面板上**左键单击**。\n   *   **移动提示点**：**左键按住**某点并拖动到目标位置。\n   *   **更改颜色**：选中点后，在中间左侧选择推荐色，或在左上角 ab 色域图中选取自定义颜色。\n   *   **删除提示点**：在某点上**右键单击**。\n   *   **调整笔刷大小**：滚动**鼠标滚轮**（范围 1x1 到 9x9）。\n   *   **保存结果**：点击 \"Save\" 按钮，结果将保存在原图片所在目录。\n   *   **重置**：点击 \"Restart\" 清除所有提示点。\n\n### 全局直方图迁移（可选）\n\n如果需要体验全局色彩风格迁移（Global Hints Network），请运行：\n\n```bash\nexport PYTHONPATH=.\u002Fcaffe_files:$PYTHONPATH\njupyter notebook\n# 打开并运行 .\u002FDemoGlobalHistogramTransfer.ipynb\n```","一位档案管理员正在紧急修复一批 20 世纪初的黑白家族老照片，需要在极短时间内为数百张模糊的人像照还原真实色彩，以筹备即将到来的家族百年庆典展览。\n\n### 没有 interactive-deep-colorization 时\n- **人工上色效率极低**：设计师必须使用 Photoshop 手动建立图层、选取区域并逐笔涂抹颜色，处理一张照片平均耗时数小时。\n- **色彩还原缺乏依据**：由于缺乏历史参考，衣物和环境颜色全靠猜测，容易导致肤色不均或出现违背时代背景的违和配色。\n- **修改成本高昂**：一旦客户对某处颜色不满意（如衬衫颜色太深），需要撤销多层操作重新绘制，难以进行微调。\n- **边缘处理生硬**：手动填色很难完美贴合人物发丝或复杂背景的边缘，常出现颜色溢出或边界锯齿，显得非常假。\n\n### 使用 interactive-deep-colorization 后\n- **交互式秒级上色**：用户只需在黑白照片的关键部位（如脸颊、衣服）点击几个点，深度学习模型即可基于“局部提示网络”实时生成全图色彩。\n- **智能语义理解**：工具自动识别图像内容，确保皮肤呈现自然肉色、草地为绿色，且光影过渡符合物理规律，无需人工干预细节。\n- **动态即时调整**：若对结果不满意，只需移动或新增提示点，系统会立即重新计算并刷新画面，实现了“所见即所得”的流畅体验。\n- **边缘融合自然**：算法能精准理解物体轮廓，将颜色平滑地渲染到发丝和复杂纹理中，彻底消除了人工涂色的生硬边界感。\n\ninteractive-deep-colorization 通过将专家级的色彩先验知识封装为简单的点击交互，把原本需要专业美工数小时的工作压缩至几分钟，让老旧影像的复活变得触手可及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjunyanz_interactive-deep-colorization_cc9f6623.gif","junyanz","Jun-Yan Zhu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjunyanz_aea33318.jpg","Understanding and creating pixels."," Carnegie Mellon University:","Pittsburgh, PA",null,"junyanz89","https:\u002F\u002Fwww.cs.cmu.edu\u002F~junyanz\u002F","https:\u002F\u002Fgithub.com\u002Fjunyanz",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",98.3,{"name":88,"color":89,"percentage":90},"Shell","#89e051",1.5,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0.2,2697,450,"2026-03-29T10:25:39","MIT",4,"Linux, macOS, Windows","可选（支持 CPU 或 NVIDIA GPU + CUDA CuDNN），未指定具体型号和显存大小","未说明",{"notes":104,"python":105,"dependencies":106},"该项目提供 Caffe 和 PyTorch 两种后端，Caffe 为官方模型，PyTorch 为复现版本。若使用 Caffe 后端，编译时需设置 WITH_PYTHON_LAYER=1 并执行 make pycaffe，同时需配置 PYTHONPATH 和 LD_LIBRARY_PATH 环境变量。GUI 演示需要安装 Qt5 和 QDarkStyle。Windows 用户可参考专门的分支指南。训练代码需前往 colorization-pytorch 仓库获取。","3.6+ (Windows 指南明确提及 Python 3.6)",[107,108,109,110,111,112,113,114],"Caffe (需开启 Python 层支持) 或 PyTorch (0.5.0+)","opencv","scikit-learn (推荐 0.19.1)","scikit-image (推荐 0.13.0)","Qt5","QDarkStyle","protobuf","jupyter",[15,14],[117,118,119,120,121,122,123],"colorization","automatic-colorization","deep-learning","deep-learning-algorithms","computer-vision","caffe","interactive","2026-03-27T02:49:30.150509","2026-04-08T20:51:03.657010",[127,132,137,142,147,152,156],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},25101,"如何在没有 NVIDIA GPU 的情况下以 CPU 模式运行？","虽然 Caffe 支持仅 CPU 模式，但该项目的默认配置可能强制使用 GPU。维护者指出，可以通过设置 `--gpu -1` 或使用 `--cpu` 标志来禁用 GPU 并强制使用 CPU 模式。注意 GPU ID 是从 0 开始计数的，-1 通常表示不使用 GPU。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F4",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},25102,"遇到 'out of memory' (显存不足) 错误怎么办？","该错误通常发生在显存（VRAM）不足时。例如在 GeForce 970M (3GB VRAM) 上运行完整 GUI 演示可能会失败。解决方案包括：1. 使用显存更大的显卡（如 Titan X 12GB 被确认可行）；2. 尝试减小输入图像尺寸或调整批处理大小配置以减少显存占用。如果问题依旧，可能需要检查是否还有其他进程占用了显存。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F9",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},25103,"Windows 用户遇到 'OSError: [WinError 126] The specified module could not be found' 错误如何解决？","这是 Windows 上常见的依赖缺失问题，特别是在使用 PyTorch 后端时。解决方法包括：1. 确保安装了正确的 Visual C++ 可再发行组件；2. 有用户反馈修改代码 `gui_draw.py` 第 48 行，将 `self.read_image(image_file.encode('utf-8'))` 改为 `self.read_image(image_file)` 可以解决部分编码导致的加载问题；3. 建议参考社区维护的 Windows 兼容分支进行安装，因为主版本可能需要额外的补丁才能在 Windows 上正常运行。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F76",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},25104,"运行 DemoGlobalHistogramTransfer 时提示找不到 'dummy.caffemodel' 文件怎么办？","该模型文件可能未包含在自动下载脚本中或链接已失效。用户可以尝试手动从相关论文项目页面查找，或者检查 `models\u002Ffetch_models.sh` 脚本。此外，如果是路径配置问题，有用户通过修改 `caffe_files\u002Fcaffe_datalayers.py` 中的 `ENC_DIR` 路径（例如改为 `'data\u002Fcolor_bins'`）解决了相关问题，但需确保在正确的项目根目录下运行。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F1",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},25105,"遇到 Protobuf 解析错误 'Message type caffe.LayerParameter has no field named input_param' 是什么原因？","这通常是因为安装的 Caffe 版本与项目使用的 `.prototxt` 配置文件不兼容。较新版本的 Caffe 可能移除了 `input_param` 字段。解决方法包括：1. 确认并安装项目推荐的特定 Caffe 版本；2. 或者根据报错信息，临时注释掉或修改调用全局直方图迁移功能的相关代码行（如 `data\u002Fcolorize_image.py` 中的特定行），以绕过对该字段的依赖。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F43",{"id":153,"question_zh":154,"answer_zh":155,"source_url":146},25106,"代码中遇到类型转换错误或 scikit-learn 相关的问题如何处理？","如果遇到类似 `Could not open file` 或类型转换错误，可能是由于 `scikit-learn` 版本差异导致的。旧版本可能自动进行类型转换，而新版本需要显式转换。尝试将相关变量（如神经网络参数）显式转换为整数（int）。此外，检查您的 `scikit-learn` 版本（例如 0.18.1），如果不确定，可以尝试升级或降级到与项目兼容的版本。",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},25107,"Windows 平台是否支持该项目？安装步骤是什么？","该项目主要面向 Linux\u002FMac 开发，但社区用户已在 Windows 10 上成功运行。由于官方未提供详细的 Windows 安装指南，建议用户：1. 先安装好 Python 环境和必要的依赖（如 Caffe 或 PyTorch 的 Windows 版本）；2. 关注 Issue 中社区成员分享的修复补丁（特别是针对路径分隔符和编码问题的修改）；3. 推荐使用社区维护的专门针对 Windows 优化的分支代码，而不是直接使用主分支。","https:\u002F\u002Fgithub.com\u002Fjunyanz\u002Finteractive-deep-colorization\u002Fissues\u002F16",[]]