[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-msracver--Deep-Image-Analogy":3,"tool-msracver--Deep-Image-Analogy":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":123,"env_os":124,"env_gpu":125,"env_ram":126,"env_deps":127,"category_tags":137,"github_topics":138,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":141,"updated_at":142,"faqs":143,"releases":177},5641,"msracver\u002FDeep-Image-Analogy","Deep-Image-Analogy","The source code of 'Visual Attribute Transfer through Deep Image Analogy'.","Deep-Image-Analogy 是一款由微软研究院开源的图像处理技术，旨在通过深度学习实现两幅图像之间具有语义意义的密集对应关系查找。它核心解决了传统图像类比方法难以理解内容语义的痛点，能够精准地将一幅图像的视觉风格、纹理或色彩迁移到另一幅图像的结构上，同时保持内容的自然与连贯。\n\n该工具基于深度卷积神经网络（DCNN）提取特征，结合改进的 PatchMatch 算法，在照片转艺术风格、艺术品风格互换、草图还原为真实照片以及时序照片色彩转换等场景中表现卓越。其独特的技术亮点在于利用深层网络特征来指导像素级的匹配过程，使得风格迁移不仅停留在表面纹理，更能理解物体的语义结构。\n\nDeep-Image-Analogy 主要面向计算机视觉研究人员、AI 开发者以及需要高质量风格迁移算法的数字艺术家。由于官方实现基于 C++ 和 CUDA，并依赖 Caffe 框架，且主要在 Windows 环境下经过测试，因此使用者需要具备一定的编程基础和深度学习环境配置能力。对于希望深入探索图像语义匹配机制或构建自定义风格迁移应用的专业人士而言，这是一个极具参考价值的经典开源项目。","\n\n# Deep Image Analogy\n\nThe major contributors of this repository include [Jing Liao](https:\u002F\u002Fliaojing.github.io\u002Fhtml\u002Findex.html), [Yuan Yao](http:\u002F\u002Fyuanyao.info\u002F), [Lu Yuan](http:\u002F\u002Fwww.lyuan.org\u002F), [Gang Hua](http:\u002F\u002Fwww.ganghua.org\u002F) and [Sing Bing Kang](http:\u002F\u002Fwww.singbingkang.com\u002Fpublications\u002F) at Microsoft Research.\n\n## Introduction\n\n**Deep Image Analogy** is a technique to find semantically-meaningful dense correspondences between two input images. It adapts the notion of image analogy with features extracted from a Deep Convolutional Neural Network.\n\n**Deep Image Analogy** is initially described in a [SIGGRAPH 2017 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.01088)\n\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_7f50360b099d.png)\n\n\n## Disclaimer\n\nThis is an official C++ combined with CUDA implementation of [Deep Image Analogy](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.01088). It is worth noticing that:\n- Our codes are based on [Caffe](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe).\n- Our codes only have been tested on Windows 10 and Windows Server 2012 R2 with CUDA 8 or 7.5.\n- Our codes only have been tested on several Nvidia GPU: Titan X, Titan Z, K40, GTX770.\n- The size of input image is limited, mostly should not be large than 700x500 if you use 1.0 for parameter **ratio**.\n\n\n## License\n\n© Microsoft, 2017. Licensed under a MIT license.\n\n## Citation\nIf you find **Deep Image Analogy** (include deep patchmatch) helpful for your research, please consider citing:\n\n```\n@article{Liao:2017:VAT:3072959.3073683,\n author = {Liao, Jing and Yao, Yuan and Yuan, Lu and Hua, Gang and Kang, Sing Bing},\n title = {Visual Attribute Transfer Through Deep Image Analogy},\n journal = {ACM Trans. Graph.},\n issue_date = {July 2017},\n volume = {36},\n number = {4},\n month = jul,\n year = {2017},\n issn = {0730-0301},\n pages = {120:1--120:15},\n articleno = {120},\n numpages = {15},\n url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F3072959.3073683},\n doi = {10.1145\u002F3072959.3073683},\n acmid = {3073683},\n publisher = {ACM},\n address = {New York, NY, USA},\n keywords = {deep matching, image analogy, transfer},\n} \n```\n\n## Application\n\n### Photo to Style\n\nOne major application of our code is to transfer the style from a painting to a photo.\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_701af6753efe.png\"\u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_17e6636362c0.png\"\u002F>\n\u003C\u002Fdiv>\n\n### Style to Style\n\nIt can also swap the styles between two artworks.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_b3b2eda06f8e.png)\n\n### Style to Photo\n\nThe most challenging application is converting a sketch or a painting to a photo.\n\n\u003Cimg src = \"https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fblob\u002Fmaster\u002Fwindows\u002Fdeep_image_analogy\u002Fexample\u002Freadme\u002Fs2p3.png\">\n\n\u003Cimg src = \"https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fblob\u002Fmaster\u002Fwindows\u002Fdeep_image_analogy\u002Fexample\u002Freadme\u002Fs2p4.png\">\n\n### Photo to Photo\n\nIt can do color transfer between two photos, such as generating time lapse.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_a0b30c0b5534.png)\n\n## Getting Started\n\n### Prerequisite\n\n- Windows 7\u002F8\u002F10 (for linux or mac os x user, please check branch [linux](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Ftree\u002Flinux).)\n- CUDA 8 or 7.5\n- Visual Studio 2013\n\n### Build\n\n- Build [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002F) at first. Just follow the tutorial [here](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe).\n- Edit ```deep_image_analogy.vcxproj``` under ```windows\u002Fdeep_image_analogy``` to make the CUDA version in it match yours .\n- Open solution ```Caffe``` and add ```deep_image_analogy``` project.\n- Build project ```deep_image_analogy```.\n\n### Download models\n\nYou need to download models VGG-19 model before start to run a demo. Go to ```windows\u002Fdeep_image_analogy\u002Fmodels\u002Fvgg19\u002F``` folder and download:\n- http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fsoftware\u002Fvery_deep\u002Fcaffe\u002FVGG_ILSVRC_19_layers.caffemodel\n\n### Demo\n\nOpen ```main.cpp``` in ```windows\u002Fdeep_image_analogy\u002Fsource\u002F``` to see how to run a demo. You need to set several parameters which have been mentioned in the paper. To be more specific, you need to set\n\n- **path_model**, where the VGG-19 model is.\n- **path_A**, the input image A.\n- **path_BP**, the input image BP.\n- **path_output**, the output path.\n- **GPU Number**, GPU ID you want to run this experiment.\n- **Ratio**, the ratio to resize the inputs before sending them into the network.\n- **Blend Weight**, the level of weights in blending process.\n- **Flag of WLS Filter**, if you are trying to do photo style transfer, we recommend to switch this on to keep the structure of original photo.\n\n### Direct Run\n\nWe also provide a pre-built executable file in folder ```windows\u002Fdeep_image_analogy\u002Fexe\u002F```, don't hesitate to try it.\n\nTo run this ```deep_image_analogy.exe```, you need to write a command line as:\n\n```\ndeep_image_analogy.exe ..\u002Fmodels\u002F ..\u002Fdemo\u002Fcontent.png ..\u002Fdemo\u002Fstyle.png ..\u002Fdemo\u002Foutput\u002F 0 0.5 2 0\n```\n\nwhich means\n- **path_model**=```..\u002Fmodels\u002F```\n- **path_A**=```..\u002Fdemo\u002Fcontent.png```\n- **path_BP**=```..\u002Fdemo\u002Fstyle.png```\n- **path_output**=```..\u002Fdemo\u002Foutput\u002F```\n- **GPU Number**=```0```\n- **Ratio**=```0.5```\n- **Blend Weight**=```2```\n- **Flag of WLS Filter**=```0```( ```0```: WLS filter disabled, ```1```: WLS filter enabled, only required for the case of photo to photo)\n\n### Tips\n\n- We often test images of size 600x400 and 448x448.\n- We set ratio to 1.0 by default. Specifically, for face (portrait) cases, we find ratio = 0.5 often make the results better.\n- Blend weight controls the result appearance. If you want the result to be more like original content photo, please increase it; if you want the result more faithful to the style, please reduce it.\n- For the four applications, our settings are mostly (but not definitely):\n  - Photo to Style: blend weight=3, ratio=0.5 for face and ratio=1 for other cases.\n  - Style to Style: blend weight=3, ratio=1.\n  - Style to Photo: blend weight=2, ratio=0.5.\n  - Photo to Photo: blend weight=3, ratio=1.\n\n## Acknowledgments\n\nOur codes acknowledge [Eigen](http:\u002F\u002Feigen.tuxfamily.org\u002Findex.php?title=Main_Page), [PatchMatch](http:\u002F\u002Fgfx.cs.princeton.edu\u002Fgfx\u002Fpubs\u002FBarnes_2009_PAR\u002Findex.php), [CudaLBFGS](https:\u002F\u002Fgithub.com\u002Fjwetzl\u002FCudaLBFGS) and [Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe). We also acknowledge to the authors of our image and style examples but we do not own the copyrights of them.\n","# 深度图像类比\n\n本仓库的主要贡献者包括微软研究院的廖晶、姚远、袁璐、华刚以及康圣炳。\n\n## 简介\n\n**深度图像类比**是一种在两张输入图像之间寻找语义上有意义的密集对应关系的技术。它利用从深度卷积神经网络中提取的特征来实现图像类比的概念。\n\n**深度图像类比**最初在一篇 [SIGGRAPH 2017 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.01088) 中被描述。\n\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_7f50360b099d.png)\n\n\n## 免责声明\n\n这是 [深度图像类比](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.01088) 的官方 C++ 结合 CUDA 实现。需要注意的是：\n- 我们的代码基于 [Caffe](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe)。\n- 我们的代码仅在 Windows 10 和 Windows Server 2012 R2 上，并使用 CUDA 8 或 7.5 进行过测试。\n- 我们的代码仅在以下几款 Nvidia GPU 上进行过测试：Titan X、Titan Z、K40、GTX770。\n- 输入图像的尺寸有限，如果参数 **ratio** 设置为 1.0，通常不应超过 700x500 像素。\n\n\n## 许可证\n\n© 微软，2017。根据 MIT 许可证授权。\n\n## 引用\n如果您发现 **深度图像类比**（包括深度 patchmatch）对您的研究有所帮助，请考虑引用以下文献：\n\n```\n@article{Liao:2017:VAT:3072959.3073683,\n author = {Liao, Jing and Yao, Yuan and Yuan, Lu and Hua, Gang and Kang, Sing Bing},\n title = {Visual Attribute Transfer Through Deep Image Analogy},\n journal = {ACM Trans. Graph.},\n issue_date = {July 2017},\n volume = {36},\n number = {4},\n month = jul,\n year = {2017},\n issn = {0730-0301},\n pages = {120:1--120:15},\n articleno = {120},\n numpages = {15},\n url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F3072959.3073683},\n doi = {10.1145\u002F3072959.3073683},\n acmid = {3073683},\n publisher = {ACM},\n address = {New York, NY, USA},\n keywords = {deep matching, image analogy, transfer},\n} \n```\n\n## 应用\n\n### 照片到风格\n\n我们代码的一个主要应用是将一幅画作的风格迁移到照片上。\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_701af6753efe.png\"\u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_17e6636362c0.png\"\u002F>\n\u003C\u002Fdiv>\n\n### 风格到风格\n\n它也可以在两幅艺术作品之间交换风格。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_b3b2eda06f8e.png)\n\n### 风格到照片\n\n最具挑战性的应用是将草图或绘画转换为照片。\n\n\u003Cimg src = \"https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fblob\u002Fmaster\u002Fwindows\u002Fdeep_image_analogy\u002Fexample\u002Freadme\u002Fs2p3.png\">\n\n\u003Cimg src = \"https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fblob\u002Fmaster\u002Fwindows\u002Fdeep_image_analogy\u002Fexample\u002Freadme\u002Fs2p4.png\">\n\n### 照片到照片\n\n它还可以在两张照片之间进行颜色迁移，例如生成延时摄影效果。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_readme_a0b30c0b5534.png)\n\n## 快速入门\n\n### 前提条件\n\n- Windows 7\u002F8\u002F10（对于 Linux 或 macOS 用户，请查看 [linux](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Ftree\u002Flinux) 分支。）\n- CUDA 8 或 7.5\n- Visual Studio 2013\n\n### 构建\n\n- 首先构建 [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002F)。请按照此处的教程操作：[Microsoft Caffe](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe)。\n- 编辑 ```windows\u002Fdeep_image_analogy``` 下的 ```deep_image_analogy.vcxproj``` 文件，确保其中的 CUDA 版本与您系统中的版本一致。\n- 打开解决方案 ```Caffe``` 并添加 ```deep_image_analogy``` 项目。\n- 构建 ```deep_image_analogy``` 项目。\n\n### 下载模型\n\n在运行演示之前，您需要下载 VGG-19 模型。请前往 ```windows\u002Fdeep_image_analogy\u002Fmodels\u002Fvgg19\u002F``` 文件夹并下载：\n- http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fsoftware\u002Fvery_deep\u002Fcaffe\u002FVGG_ILSVRC_19_layers.caffemodel\n\n### 演示\n\n打开 ```windows\u002Fdeep_image_analogy\u002Fsource\u002F``` 中的 ```main.cpp``` 文件，查看如何运行演示。您需要设置论文中提到的几个参数。具体来说，您需要设置：\n\n- **path_model**，即 VGG-19 模型所在的路径。\n- **path_A**，输入图像 A。\n- **path_BP**，输入图像 BP。\n- **path_output**，输出路径。\n- **GPU Number**，您希望用于本次实验的 GPU ID。\n- **Ratio**，在将输入送入网络之前调整其大小的比例。\n- **Blend Weight**，混合过程中的权重级别。\n- **WLS 滤波器标志**，如果您尝试进行照片风格迁移，建议将其打开，以保持原始照片的结构。\n\n### 直接运行\n\n我们还在 ```windows\u002Fdeep_image_analogy\u002Fexe\u002F``` 文件夹中提供了一个预编译的可执行文件，您可以随时尝试。\n\n要运行此 ```deep_image_analogy.exe```，您需要编写如下命令行：\n\n```\ndeep_image_analogy.exe ..\u002Fmodels\u002F ..\u002Fdemo\u002Fcontent.png ..\u002Fdemo\u002Fstyle.png ..\u002Fdemo\u002Foutput\u002F 0 0.5 2 0\n```\n\n其含义如下：\n- **path_model**=```..\u002Fmodels\u002F```\n- **path_A**=```..\u002Fdemo\u002Fcontent.png```\n- **path_BP**=```..\u002Fdemo\u002Fstyle.png```\n- **path_output**=```..\u002Fdemo\u002Foutput\u002F```\n- **GPU Number**=```0```\n- **Ratio**=```0.5```\n- **Blend Weight**=```2```\n- **WLS 滤波器标志**=```0```（```0```：禁用 WLS 滤波器；```1```：启用 WLS 滤波器，仅在照片到照片的情况下需要）\n\n### 小贴士\n\n- 我们通常测试 600x400 和 448x448 大小的图像。\n- 默认情况下，我们将 ratio 设置为 1.0。特别地，在处理人脸（肖像）图像时，我们发现将 ratio 设置为 0.5 通常能得到更好的结果。\n- Blend weight 控制最终结果的外观。如果您希望结果更接近原始内容照片，请增加该值；如果您希望结果更忠实于风格，请降低该值。\n- 对于四种应用场景，我们的设置大致如下（但并非绝对）：\n  - 照片到风格：blend weight=3，ratio=0.5（人脸）或 1.0（其他情况）。\n  - 风格到风格：blend weight=3，ratio=1.0。\n  - 风格到照片：blend weight=2，ratio=0.5。\n  - 照片到照片：blend weight=3，ratio=1.0。\n\n## 致谢\n\n我们的代码感谢 [Eigen](http:\u002F\u002Feigen.tuxfamily.org\u002Findex.php?title=Main_Page)、[PatchMatch](http:\u002F\u002Fgfx.cs.princeton.edu\u002Fgfx\u002Fpubs\u002FBarnes_2009_PAR\u002Findex.php)、[CudaLBFGS](https:\u002F\u002Fgithub.com\u002Fjwetzl\u002FCudaLBFGS) 和 [Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe) 的贡献。同时，我们也感谢我们所使用的图像和风格示例的作者，但我们并不拥有这些图片的版权。","# Deep Image Analogy 快速上手指南\n\nDeep Image Analogy 是一种利用深度卷积神经网络特征，在两张输入图像之间寻找语义密集对应关系的技术。主要用于风格迁移（如照片转油画、草图转照片）和属性转移。\n\n## 环境准备\n\n本项目官方实现基于 **C++** 和 **CUDA**，主要支持 **Windows** 平台（Linux\u002FMac 用户请参考项目的 `linux` 分支）。\n\n### 系统要求\n- **操作系统**: Windows 7 \u002F 8 \u002F 10 (或 Windows Server 2012 R2)\n- **GPU**: NVIDIA显卡 (已测试型号：Titan X, Titan Z, K40, GTX770 等)\n- **CUDA**: 版本 7.5 或 8.0\n- **编译器**: Visual Studio 2013\n\n### 前置依赖\n- **Caffe**: 代码基于 Microsoft 版本的 Caffe (`https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe`)。\n- **输入限制**: 建议输入图像分辨率不超过 700x500（当参数 `ratio` 设为 1.0 时），显存不足时可适当缩小图片。\n\n## 安装步骤\n\n### 1. 编译 Caffe\n首先需要根据官方教程编译 Caffe 框架：\n- 访问 `https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fcaffe` 并按照其教程完成构建。\n\n### 2. 配置项目\n- 打开 `windows\u002Fdeep_image_analogy` 目录。\n- 编辑 `deep_image_analogy.vcxproj` 文件，确保其中配置的 CUDA 版本与你本地安装的版本一致（7.5 或 8.0）。\n\n### 3. 构建项目\n- 使用 Visual Studio 打开 `Caffe` 解决方案。\n- 将 `deep_image_analogy` 项目添加到解决方案中。\n- 编译 `deep_image_analogy` 项目。\n\n### 4. 下载模型\n运行前需下载 VGG-19 预训练模型。\n- 进入目录：`windows\u002Fdeep_image_analogy\u002Fmodels\u002Fvgg19\u002F`\n- 下载文件：[VGG_ILSVRC_19_layers.caffemodel](http:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Fsoftware\u002Fvery_deep\u002Fcaffe\u002FVGG_ILSVRC_19_layers.caffemodel)\n- *注：若下载速度慢，请自行搜索国内镜像源获取该 Caffe 模型文件。*\n\n## 基本使用\n\n你可以选择直接运行预编译的可执行文件，无需重新编译即可体验。\n\n### 命令行运行示例\n在 `windows\u002Fdeep_image_analogy\u002Fexe\u002F` 目录下，使用以下命令格式运行：\n\n```bash\ndeep_image_analogy.exe ..\u002Fmodels\u002F ..\u002Fdemo\u002Fcontent.png ..\u002Fdemo\u002Fstyle.png ..\u002Fdemo\u002Foutput\u002F 0 0.5 2 0\n```\n\n**参数详解：**\n1. `..\u002Fmodels\u002F`: VGG-19 模型所在路径。\n2. `..\u002Fdemo\u002Fcontent.png`: 输入图像 A（内容图）。\n3. `..\u002Fdemo\u002Fstyle.png`: 输入图像 BP（风格图）。\n4. `..\u002Fdemo\u002Foutput\u002F`: 输出结果保存路径。\n5. `0`: GPU ID (指定使用的显卡编号)。\n6. `0.5`: Ratio (输入图像缩放比例。**提示**: 人脸肖像建议设为 0.5，其他场景默认为 1.0)。\n7. `2`: Blend Weight (混合权重。数值越大结果越接近原内容图结构，数值越小越贴近风格图)。\n8. `0`: WLS Filter 标志 (`0`: 禁用, `1`: 启用)。**提示**: 进行“照片到照片”的风格迁移时建议设为 1 以保留结构，其他情况通常设为 0。\n\n### 推荐参数配置参考\n针对不同应用场景，推荐的参数组合如下：\n\n| 应用场景 | Blend Weight | Ratio (非人脸) | Ratio (人脸) | WLS Filter |\n| :--- | :---: | :---: | :---: | :---: |\n| **Photo to Style** (照片转风格) | 3 | 1.0 | 0.5 | 0 |\n| **Style to Style** (风格互换) | 3 | 1.0 | 1.0 | 0 |\n| **Style to Photo** (风格\u002F草图转照片) | 2 | 0.5 | 0.5 | 0 |\n| **Photo to Photo** (照片间色彩迁移) | 3 | 1.0 | 1.0 | 1 |\n\n*注意：输入图像尺寸建议在 600x400 或 448x448 左右以获得最佳效果与速度平衡。*","一位数字艺术家需要将一张现代城市照片转化为梵高《星夜》风格的画作，同时严格保留原图中建筑、街道和车辆的几何结构与语义位置。\n\n### 没有 Deep-Image-Analogy 时\n- 传统风格迁移算法往往只关注整体纹理统计，导致建筑物轮廓扭曲或窗户位置错位，破坏了画面的空间逻辑。\n- 艺术家不得不手动在 Photoshop 中逐层蒙版修复变形区域，耗时数小时甚至数天来对齐细节。\n- 难以处理复杂的语义对应关系，例如无法准确将“天空”的笔触仅映射到目标图的天空区域，容易污染地面景物。\n- 调整参数缺乏直观反馈，每次尝试都需要重新渲染整图，迭代效率极低。\n\n### 使用 Deep-Image-Analogy 后\n- 利用深度卷积神经网络提取特征，自动建立两张图像间语义一致的稠密对应关系，确保建筑风格转换时结构丝毫不乱。\n- 一键生成高质量结果，原本需要数小时的手工修图工作缩短至几分钟，大幅释放创作精力。\n- 精准实现属性转移，能将《星夜》的漩涡笔触完美限定在天空区域，而街道和车辆则保持清晰锐利且风格统一。\n- 支持从草图到照片、照片到照片等多种模式，为艺术家提供灵活的创作流，快速验证不同艺术风格的视觉效果。\n\nDeep-Image-Analogy 通过深度学习实现了语义级的图像类比，让风格迁移从“模糊滤镜”进化为“可控的结构化重绘”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmsracver_Deep-Image-Analogy_2e052d59.png","msracver","MSRA CVer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmsracver_0ca0c2ce.png","Computer vision fanatics from Microsoft Research Asia",null,"https:\u002F\u002Fgithub.com\u002Fmsracver",[79,83,87,91,95,99,103,107,111,115],{"name":80,"color":81,"percentage":82},"C++","#f34b7d",90.2,{"name":84,"color":85,"percentage":86},"Python","#3572A5",3.8,{"name":88,"color":89,"percentage":90},"Cuda","#3A4E3A",3.4,{"name":92,"color":93,"percentage":94},"CMake","#DA3434",1.2,{"name":96,"color":97,"percentage":98},"C","#555555",0.5,{"name":100,"color":101,"percentage":102},"MATLAB","#e16737",0.4,{"name":104,"color":105,"percentage":106},"Makefile","#427819",0.3,{"name":108,"color":109,"percentage":110},"Shell","#89e051",0.2,{"name":112,"color":113,"percentage":114},"Batchfile","#C1F12E",0.1,{"name":116,"color":117,"percentage":118},"PowerShell","#012456",0,1374,231,"2026-03-07T04:06:22","MIT",5,"Windows","必需 NVIDIA GPU，已测试型号包括 Titan X, Titan Z, K40, GTX770，需 CUDA 7.5 或 8.0","未说明",{"notes":128,"python":129,"dependencies":130},"Linux 和 macOS 用户需切换至专门的 'linux' 分支。输入图像尺寸受限，若参数 ratio 设为 1.0，建议图像大小不超过 700x500 像素。运行前需手动下载 VGG-19 模型文件。主要代码为 C++ 结合 CUDA 实现，非 Python 项目。","未说明 (基于 C++ 实现)",[131,132,133,134,135,136],"Caffe (Microsoft 分支)","CUDA","Visual Studio 2013","Eigen","PatchMatch","CudaLBFGS",[14],[139,140],"style-transfer","deep-learning","2026-03-27T02:49:30.150509","2026-04-09T05:25:12.967556",[144,149,154,159,164,169,173],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},25597,"运行演示时遇到 'CUDNN_STATUS_EXECUTION_FAILED (8 vs. 0)' 错误怎么办？","这通常是因为单个 CUDA 启动时间超过了 Windows 的默认超时限制（TDR，通常为 2 秒）。解决方法有两种：\n1. 减小输入图片的尺寸或使用较低的比例参数。\n2. 禁用 TDR 时间限制：打开注册表编辑器 (regedit.exe)，找到相关键值（通常涉及 TdrDelay 等），将其修改为较大的数值（例如 60000）。\n参考链接：https:\u002F\u002Fwww.pugetsystems.com\u002Flabs\u002Fhpc\u002FWorking-around-TDR-in-Windows-for-a-better-GPU-computing-experience-777\u002F","https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fissues\u002F11",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},25598,"程序在处理大图像或高比例时崩溃，如何调整最大图像尺寸限制？","为了防止崩溃，程序将最大图像尺寸硬编码为 700 像素。如果需要处理更大的图像，可以手动修改源代码：\n1. 打开 `DeepAnalogy.cu` 文件。\n2. 查找数值 `700` 并将其替换为更大的值（例如 `7000000`）。\n3. 重新编译项目。\n注意：如果输入的图像过大且显存不足，程序仍可能崩溃。","https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fissues\u002F25",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},25599,"在 Linux\u002FUbuntu 系统下找不到 'demo' 可执行文件，如何构建？","该项目主要提供 Windows 下的预编译文件，Linux 用户需要自行编译。\n1. 确保已安装所有依赖项（包括 CUDA 和 cuDNN）。\n2. 使用 CMake 进行配置和构建。\n3. 如果在编译过程中遇到标志问题，可以尝试在 `CMakeLists.txt` 中添加特定的编译标志，例如：`set(CMAKE_CXX_FLAGS \"${CMAKE_CXX_FLAGS} -fPIC -Wall\" \"-D_MWAITXINTRIN_H_INCLUDED -D_FORCE_INLINES\" CACHE STRING \"compile flags\" FORCE)`。\n4. 如果遇到具体的构建错误，需根据报错信息检查环境配置。","https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fissues\u002F32",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},25600,"运行预编译的可执行文件时报错 'invalid device function' 如何解决？","这个错误通常是因为预编译的二进制文件与您的 GPU 架构不兼容（例如显卡太旧或架构未包含在编译选项中）。\n解决方案是自行从头构建项目：\n1. 编辑 `deep_image_analogy.vcxproj`（Windows）或相应的构建配置文件，确保 CUDA 版本与您安装的版本一致。\n2. 设置正确的 CUDA 架构（CudaArchitecture），以匹配您的 GPU（例如 compute_30, sm_30 等）。\n3. 重新编译整个项目生成专属的可执行文件。","https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fissues\u002F23",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},25601,"macOS 用户如何编译该项目？","该项目主要基于 Windows 的 Visual Studio (.vcxproj) 工程文件，macOS 无法直接打开或编译这些文件。\nVisual Studio for Mac 和 VS Code 仅是简化版，不支持完整的 .vcxproj 编译流程。\n建议尝试以下方法：\n1. 使用工具（如 vcxproj2cmake）尝试将 .vcxproj 转换为 CMake 或 Makefile 指令。\n2. 或者在 macOS 上通过 Boot Camp 安装 Windows 系统进行编译。\n3. 也可以尝试在 Linux 环境下编译，因为两者构建逻辑较为接近。","https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy\u002Fissues\u002F2",{"id":170,"question_zh":171,"answer_zh":172,"source_url":148},25602,"运行时出现 'Reading dangerously large protocol message' 警告是否正常？","这是正常的警告信息，源于 protobuf 库检测到读取的模型文件较大（约 574MB）。\n只要程序没有因此停止解析，可以忽略此警告。\n该警告提示如果消息超过 2147483647 字节解析将停止，但当前的模型大小未达到该极限。如果想消除警告或增加限制，可以在代码中调用 `CodedInputStream::SetTotalBytesLimit()` 进行调整，但这通常不是必须的。",{"id":174,"question_zh":175,"answer_zh":176,"source_url":148},25603,"为什么指定模型路径时代码会自动添加 'vgg19\u002F' 后缀？","这是代码中的硬编码行为。当用户在命令行指定模型路径时，程序内部逻辑会自动追加 \"vgg19\u002F\" 子目录。\n解决方法：\n1. 在提供路径时，不要包含最后的 \"vgg19\" 文件夹名，只提供其父目录路径。\n2. 或者修改源代码，移除自动添加路径的逻辑，以便完全自定义模型路径。",[]]