[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-weslynn--AlphaTree-graphic-deep-neural-network":3,"tool-weslynn--AlphaTree-graphic-deep-neural-network":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":79,"stars":82,"forks":83,"last_commit_at":84,"license":79,"difficulty_score":23,"env_os":85,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":91,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":96,"updated_at":97,"faqs":98,"releases":99},3248,"weslynn\u002FAlphaTree-graphic-deep-neural-network","AlphaTree-graphic-deep-neural-network","AI Roadmap:机器学习(Machine Learning)、深度学习(Deep Learning)、对抗神经网络(GAN），图神经网络（GNN），NLP，大数据相关的发展路书(roadmap), 并附海量源码（python，pytorch）带大家消化基本知识点，突破面试，完成从新手到合格工程师的跨越，其中深度学习相关论文附有tensorflow caffe官方源码，应用部分含推荐算法和知识图谱","AlphaTree-graphic-deep-neural-network 是一份专为人工智能学习者打造的可视化成长路书。它系统梳理了从机器学习、深度学习到 GAN、图神经网络（GNN）、NLP 及大数据等核心领域的发展脉络，旨在解决初学者“懂公式却不懂工程”、难以跟进快速迭代的前沿技术以及面试准备缺乏实战指引的痛点。\n\n该项目独特的亮点在于“论文 + 代码 + 可视化图示”的三维学习模式。针对同一模型在不同论文中描述差异大的问题，AlphaTree 将复杂的学术概念转化为直观的图形，并配套海量 Python、PyTorch、TensorFlow 及 Caffe 官方源码，涵盖推荐算法与知识图谱等应用场景。通过拆解经典模型（如从 LeNet 到 NASNet）的演进逻辑，帮助用户深入理解网络结构改进与训练技巧。\n\n无论是希望突破面试瓶颈的求职者、需要拓宽技术视野的应用工程师，还是渴望快速掌握多领域知识的 AI 研究者，都能从中获益。AlphaTree 致力于陪伴用户完成从新手到合格深度学习工程师的跨越，在技术爆炸的时代扎实构建核心竞争力。","![title](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_7ebfb20b951a.png)\n\n# AlphaTree : DNN && GAN && NLP && BIG DATA    从新手到深度学习应用工程师\n\n\n\n从AI研究的角度来说，AI的学习和跟进是有偏向性的，更多的精英是擅长相关的一到两个领域，在这个领域做到更好。而从AI应用工程师的角度来说，每一个工程都可能涉及很多个AI的方向，而他们需要了解掌握不同的方向才能更好的开发和设计。\n\n但是AI中每一个领域都在日新月异的成长。而每一位研究人员写paper的风格都不一样，相似的模型，为了突出不同的改进点，他们对模型的描述和图示都可能大不相同。为了帮助更多的人在不同领域能够快速跟进前沿技术，我们构建了“AlphaTree计划”，每一篇文章都会对应文章，代码，然后进行图示输出。\n\n在面试到一些同学的时候，他们总是信誓旦旦的表示要转深度学习，但是存在能推导公式，但是一到深入理念，或者工程项目细节就两眼一抹黑。有没有一个项目，能一个一个项目帮助大家理解深度学习的发展的同时也提高应用能力。\n\n基于这种想法，邀请了几位资深程序员加入这个项目。希望丰富的资源能够帮助到大家。\n\n版权申明：CC-BY-NC-SA 知识共享-署名-非商业性-相同方式共享\n---------------------------------------------------------------------------------------------------\n\n\n1 AI千集 [aiqianji.com](https:\u002F\u002Faiqianji.com\u002Fblog\u002Farticles) 以AI应用为目的 的一个社区。 \n（  AI+ Creation = Change the world。 AI千集在研究一些智能创作的事情，现在每天都会更新AI自己筛选的文章等等。\n试试让AI 来服务于大家，）\n\n目前已经开始可以全自动中英文翻译加论文简报。受欢迎的 还会做ppt输出。\n如何服务大家 还在计划中。\n\nPPT生成已经上线。参与社区的活跃分子 每天获取积分 就能免费使用了。\nhttps:\u002F\u002Faiqianji.com\u002Fblog\u002Fppt\u002Fhome\n\n还做了一些学术专用的技能，主要是偏数学和公式的。是目前其他做ppt的没有的。开发小哥哥说，只要有用户了，就给大家上。 欢迎大家来这个地方留言。\n\n公众号 千集助理\n\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_13b2e8073bdc.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_13b2e8073bdc.png\" width=\"300\"> \u003C\u002Fa>\n\n\n\n导航网站 没人维护，已经被开发小哥哥干掉了，做了个飞书云文档 ，自己用的，也分享给大家\n飞书链接：https:\u002F\u002Fdqhl68ssqm.feishu.cn\u002Fwiki\u002FEfICwwVc1il4uQkHMUUc0p8dnXb?from=from_copylink   密码：aiqianji.com\n\n\n\n小程序： 千集助理\n\n智能创作 以前接了gpt，但是因为管控，改接了其他家gpt模型都已经接入，因为懒得和AI聊太多，希望他尽快干活，所以做了些优化。\n譬如一些指令大师，长文改写大师， 毕竟工作日常还是很多文档需求的，如专利，软著，报告等。AI真是治脱发神器\n当然如果需要，我们做知识库也用的很多大家流传的 prompt 都可以继续无偿分享给大家，加客服就可以领取。\n\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_c854df720103.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_c854df720103.png\" width=\"600\"> \u003C\u002Fa>\n\n\nAI绘图我们也做了很久，给to b训了很多独家模型。最近AI视频真的很厉害，最近内测了好几家，效果也很杰出了。2025年估计价格能打到非常低的情况。\n\n客服可以加：\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4414d6eeab94.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4414d6eeab94.png\" width=\"600\"> \u003C\u002Fa>\n\n\n年底了，这个项目  基本也是年更。每年年底，就会发现技术爆炸。 而当美丽的烟花绚烂之后，就将沉寂下来，托举无数的AI应用。\n\n这是个最神奇的年代，希望你们，每一个人，在这个时代，创造奇迹。\n\n也希望更多的人，能够真正的了解AI，了解用户，做出更好的应用。\n\n\n\n\n## AI视频\n\nvidu   www.vidu.cn\n\n2025年初 目前常用的视频产品和对应价格。 \n\n|AI视频产品 |标准档月度会员价格|积分\u002F秒 |每秒价格(元)|官网|\n|:---:|:---:|:---:|:---:|:---:|\n|Vidu 2.0|69元(800积分)|3积分\u002F秒|0.258|www.vidu.cn|\n|Pika|约等于73元(700积分)|3积分\u002F秒|0.313|https:\u002F\u002Fpika.art\u002F|\n|海螺|68元(1000积分)|5积分\u002F秒|0.34|https:\u002F\u002Fhailuoai.com\u002F|\n|luma|约等于73元(3200积分)|16积分\u002F秒|0.365|https:\u002F\u002Flumalabs.ai\u002F|\n|PixVerse|约等于73元(1200分)|6积分\u002F秒 |0.365|https:\u002F\u002Fapp.pixverse.ai\u002F|\n|可灵1.5\u002F1.6|66元(660积分)|4积分\u002F秒|0.4|https:\u002F\u002Fkling.kuaishou.com\u002F|\n|即梦2.0Pro|79元(520积分)|4积分\u002F秒|0.608|https:\u002F\u002Fjimeng.jianying.com\u002Fai-tool\u002Fhome|\n|Runway (Gen-3 Alpha Turbo)|约等于110元(625积分)|5积分\u002F秒|0.88|https:\u002F\u002Fapp.runwayml.com\u002F|\n|Sora (720p)|约等于147元(1000积分)|12积分\u002F秒|1.764|https:\u002F\u002Fopenai.com\u002Fsora|\n\n\nhttps:\u002F\u002Fdqhl68ssqm.feishu.cn\u002Fwiki\u002FEfICwwVc1il4uQkHMUUc0p8dnXb?fromScene=spaceOverview\n\n\nSora 相关\n\n官网 ：https:\u002F\u002Fopenai.com\u002Fsora\n\nhttps:\u002F\u002Fgithub.com\u002Fhpcaitech\u002FOpen-Sora\n\nhttps:\u002F\u002Fgithub.com\u002Flichao-sun\u002Fmora\n\n\n\n\n# 经典部分\n\n\n\n深度学习在解决分类问题上非常厉害。让它声名大噪的也是对于图像分类问题的解决。也产生了很多很经典的模型。其他方向的模型发展很多都是源于这各部分，它是很多模型的基础工作。因此我们首先了解一下它们。\n\n\n![object classification](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_36e14d6eff0f.png)\n\n\n从模型的发展过程中，随着准确率的提高，网络结构也在不断的进行改进，现在主要是两个方向，一是深度，二是复杂度。此外还有卷积核的变换等等。\n\n深度神经网络的发展要从经典的LeNet模型说起，那是1998年提出的一个模型，在手写数字识别上达到商用标准。之后神经网络的发展就由于硬件和数据的限制，调参的难度等各种因素进入沉寂期。\n\n到了2012年，Alex Krizhevsky 设计了一个使用ReLu做激活函数的AlexNet 在当年的ImageNet图像分类竞赛中(ILSVRC 2012)，以top-5错误率15.3%拿下第一。 他的top-5错误率比上一年的冠军下降了十个百分点，而且远远超过当年的第二名。而且网络针对多GPU训练进行了优化设计。从此开始了深度学习的黄金时代。\n\n大家发表的paper一般可以分为两大类，一类是网络结构的改进，一类是训练过程的改进，如droppath，loss改进等。\n\n之后网络结构设计发展主要有两条主线，一条是Inception系列（即上面说的复杂度），从GoogLeNet 到Inception V2 V3 V4，Inception ResNet。 Inception module模块在不断变化，一条是VGG系列（即深度），用简单的结构，尽可能的使得网络变得更深。从VGG 发展到ResNet ，再到DenseNet ，DPN等。 \n\n最终Google Brain用500块GPU训练出了比人类设计的网络结构更优的网络NASNet,最近训出了mNasNet。\n\n此外，应用方面更注重的是，如何将模型设计得更小，这中间就涉及到很多卷积核的变换。这条路线则包括 SqueezeNet，MobileNet V1 V2 Xception shuffleNet等。\n\nResNet的变种ResNeXt 和SENet 都是从小模型的设计思路发展而来。\n\n输入:图片   输出:类别标签\n\n![allmodel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_1bf936c5871e.png)\n\n\n\n|模型名 |AlexNet |ZFNet|VGG |GoogLeNet |ResNet|\n|:---:|:---:|:---:|:---:|:---:|:---:|\n|初入江湖  |2012 |2013 |2014  |2014  |2015|\n|层数  |8 |8 |19 |22  |152|\n|Top-5错误 |16.4% |11.2%|7.3%  |6.7%  |3.57%|\n|Data Augmentation |+ |+ |+ |+ |+|\n|Inception(NIN)  |– |– |– |+ |–|\n|卷积层数  |5 |5 |16  |21  |151|\n|卷积核大小 |11,5,3 | 7,5,3| 3 |7,1,3,5 |7,1,3|\n|全连接层数 |3 |3 |3 |1 |1|\n|全连接层大小  |4096,4096,1000|4096,4096,1000|4096,4096,1000  |1000  |1000|\n|Dropout |+|+|+ |+ |+|\n|Local Response Normalization  |+|+|– |+ |–|\n|Batch Normalization |–|–|– |– |+|\n\nILSVRC2016\n2016 年的 ILSVRC，来自中国的团队大放异彩：\n\nCUImage（商汤和港中文），Trimps-Soushen（公安部三所），CUvideo（商汤和港中文），HikVision（海康威视），SenseCUSceneParsing（商汤和香港城市大学），NUIST（南京信息工程大学）包揽了各个项目的冠军。\n\nCUImage（商汤科技和港中文）：目标检测第一；\nTrimps-Soushen（公安部三所）：目标定位第一；\nCUvideo（商汤和港中文）：视频中物体检测子项目第一；\nNUIST（南京信息工程大学）：视频中的物体探测两个子项目第一；\nHikVision（海康威视）：场景分类第一；\nSenseCUSceneParsing（商汤和港中文）：场景分析第一。\n\n其中，Trimps-Soushen 以 2.99% 的 Top-5 分类误差率和 7.71% 的定位误差率赢得了 ImageNet 分类任务的胜利。该团队使用了分类模型的集成（即 Inception、Inception-ResNet、ResNet 和宽度残差网络模块的平均结果）和基于标注的定位模型 Faster R-CNN 来完成任务。训练数据集有 1000 个类别共计 120 万的图像数据，分割的测试集还包括训练未见过的 10 万张测试图像。\n\nILSVRC 2017\nMomenta 提出的SENet 获得了最后一届 ImageNet 2017 竞赛 Image Classification 任务的冠军， 2.251% Top-5 错误率\n\n\n[模型总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C) \u003C- 之前展示所有模型的主页挪到这里来了。点这里 点这里\n\n\n--------------------------------------------------------------------------\n\n\n模型索引： \n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FLeNet.md\">LeNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FAlexNet.md\">AlexNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FGoogLeNet.md\">GoogLeNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FInceptionV3.md\">Inception V3\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FVGG.md\">VGG\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FResNet.md\">ResNet and ResNeXt\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>    \n    \u003Ctr>      \n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FInceptionResnetV2.md\">Inception-Resnet-V2\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FDenseNet.md\">DenseNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FDPN.md\">DPN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FPolyNet.md\">PolyNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FSENet.md\">SENet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">NasNet\u003C\u002Fa>\u003C\u002Ftd>      \n    \u003C\u002Ftr>    \n\u003C\u002Ftable>\n\n\n--------------------------------------------------------------------------\n\n\n## 深度学习应用\n\n\u003Ca href=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fmaster\u002Fmap\u002Fmapclean_1.5.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_eed8dcf0f8d0.png\" width=\"1200\"> \u003C\u002Fa>\n\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">轻量级模型 & 剪枝\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20detection%20and%20segmentation%20%E7%89%A9%E4%BD%93%E6%A3%80%E6%B5%8B%E4%B8%8E%E5%88%86%E5%89%B2\">物体检测Object Detection \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20detection%20and%20segmentation%20%E7%89%A9%E4%BD%93%E6%A3%80%E6%B5%8B%E4%B8%8E%E5%88%86%E5%89%B2\">物体分割Object Segmentation\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002FOCR%E5%AD%97%E7%AC%A6%E8%AF%86%E5%88%AB\">OCR\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>   \n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fface%20detection%20and%20recognition%E4%BA%BA%E8%84%B8%E6%A3%80%E6%B5%8B%E4%B8%8E%E8%AF%86%E5%88%AB\">人脸检测Face Detection\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fface%20detection%20and%20recognition%E4%BA%BA%E8%84%B8%E6%A3%80%E6%B5%8B%E4%B8%8E%E8%AF%86%E5%88%AB\">人脸识别Face Recognition\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">肢体检测Pose Detection(coming soon)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">3D(coming soon)\u003C\u002Fa>\u003C\u002Ftd>      \n\u003C\u002Ftable>\n\n\n\n![ObjectDetection&Seg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_48bcde4633da.png)\n\n物体分类（物体识别）解决的是这个东西是什么的问题（What）。而物体检测则是要解决这个东西是什么，具体位置在哪里（What and Where）。\n物体分割则将物体和背景进行区分出来，譬如人群，物体分割中的实例分割则将人群中的每个人都分割出来。\n输入:图片   输出:类别标签和bbox(x,y,w,h)\n![pic1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_26b6928c6aa7.jpg)\n\n\n-----------------------------------------------------------------------\n\n\n## GAN基础\n\n \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4d4451ab7314.png\">\u003C\u002Fa>\n\n参考Mohammad KHalooei的教程，我也将GAN分为4个level，第四个level将按照应用层面进行拓展。 这里基础部分包括Gan的定义，GAN训练上的改进，那些优秀的GAN.具体可以参见 [GAN 对抗生成网络发展总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C)\n\n### GAN的定义 Level 0: Definition of GANs\n\n\n\n|Level| Title|  Co-authors| Publication|  Links|\n|:---:|:---:|:---:|:---:|:---:|\n|Beginner|  GAN : Generative Adversarial Nets|  Goodfellow & et al.|  NeurIPS (NIPS) 2014 |[link](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5423-generative-adversarial-nets.pdf) |\n|Beginner|  GAN : Generative Adversarial Nets (Tutorial)| Goodfellow & et al.|  NeurIPS (NIPS) 2016 Tutorial| [link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.00160.pdf)|\n|Beginner|  CGAN : Conditional Generative Adversarial Nets| Mirza & et al.| -- 2014 |[link](https:\u002F\u002Fgist.github.com\u002Fshagunsodhani\u002F5d726334de3014defeeb701099a3b4b3) |\n|Beginner|  InfoGAN : Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets|  Chen & et al.|  NeuroIPS (NIPS) 2016  ||\n\n\n模型结构的发展：\n\n![ganmodule](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_000ef5a551c0.png)\n\n\n--------------------------------------------------------------------------\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">CGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">LAPGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">IcGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">ACGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">SemiGan \u002FSSGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">InfoGan\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n--------------------------------------------------------------------------\n\n### GAN训练上的改进 Level1：Improvements of GANs training\n\n然后看看 loss、参数、权重的改进：\n\n|Level| Title|  Co-authors| Publication|  Links|\n|:---:|:---:|:---:|:---:|:---:|\n|Beginner |LSGAN : Least Squares Generative Adversarial Networks  |Mao & et al.|  ICCV 2017|[link](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8237566)| \n|Advanced |Improved Techniques for Training GANs  |Salimans & et al.| NeurIPS (NIPS) 2016 |[link](https:\u002F\u002Fceit.aut.ac.ir\u002Fhttp:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6125-improved-techniques-for-training-gans.pdf)| \n|Advanced |WGAN : Wasserstein GAN |Arjovsky & et al.| ICML 2017|[link](http:\u002F\u002Fproceedings.mlr.press\u002Fv70\u002Farjovsky17a\u002Farjovsky17a.pdf)|\n|Advanced |WGAN-GP : improved Training of Wasserstein GANs|  2017|[link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.00028v3.pdf)|\n|Advanced |Certifying Some Distributional Robustness with Principled Adversarial Training |Sinha & et al.|ICML 2018|[link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.10571.pdf) [code](https:\u002F\u002Fgithub.com\u002Fduchi-lab\u002Fcertifiable-distributional-robustness)|\n\n\nLoss Functions:\n\n## LSGAN(Least Squares Generative Adversarial Networks)\n\nLS-GAN - Guo-Jun Qi, arxiv: 1701.06264\n\n   [2] Mao et al., 2017.4 [pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.04076.pdf)\n\n https:\u002F\u002Fgithub.com\u002Fhwalsuklee\u002Ftensorflow-generative-model-collections\n https:\u002F\u002Fgithub.com\u002Fguojunq\u002Flsgan\n\n用了最小二乘损失函数代替了GAN的损失函数,缓解了GAN训练不稳定和生成图像质量差多样性不足的问题。\n\n但缺点也是明显的, LSGAN对离离群点的过度惩罚, 可能导致样本生成的'多样性'降低, 生成样本很可能只是对真实样本的简单模仿和细微改动.\n\n## WGAN\nWGAN - Martin Arjovsky, arXiv:1701.07875v1\n\nWGAN：\n在初期一个优秀的GAN应用需要有良好的训练方法，否则可能由于神经网络模型的自由性而导致输出不理想。 \n\n为啥难训练？  令人拍案叫绝的Wasserstein GAN 中做了如下解释 ：\n原始GAN不稳定的原因就彻底清楚了：判别器训练得太好，生成器梯度消失，生成器loss降不下去；判别器训练得不好，生成器梯度不准，四处乱跑。只有判别器训练得不好不坏才行，但是这个火候又很难把握，甚至在同一轮训练的前后不同阶段这个火候都可能不一样，所以GAN才那么难训练。\n\nhttps:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F25071913\n\nWGAN 针对loss改进 只改了4点：\n1.判别器最后一层去掉sigmoid\n2.生成器和判别器的loss不取log\n3.每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c\n4.不要用基于动量的优化算法（包括momentum和Adam），推荐RMSProp，SGD也行\n\nhttps:\u002F\u002Fgithub.com\u002Fmartinarjovsky\u002FWassersteinGAN\n\n\n## WGAN-GP\nRegularization and Normalization of the Discriminator:\n\n![wgangp](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_ebde64e8b2ee.png)\n\nWGAN-GP：\n\nWGAN的作者Martin Arjovsky不久后就在reddit上表示他也意识到没能完全解决GAN训练稳定性，认为关键在于原设计中Lipschitz限制的施加方式不对，并在新论文中提出了相应的改进方案--WGAN-GP ,从weight clipping到gradient penalty,提出具有梯度惩罚的WGAN（WGAN with gradient penalty）替代WGAN判别器中权重剪枝的方法(Lipschitz限制)：\n\n[1704.00028] Gulrajani et al., 2017,improved Training of Wasserstein GANs[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.00028v3.pdf)\n\nTensorflow实现：https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training\n\npytorch https:\u002F\u002Fgithub.com\u002Fcaogang\u002Fwgan-gp\n\n\n\n\n## GAN的实现 Level 2: Implementation skill\n\n\n\n|Title| Co-authors| Publication|Links| size |FID\u002FIS|\n|:---:|:---:|:---:|:---:|:---:|:---:|\n|Keras Implementation of GANs|  Linder-Norén| Github  |[link](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FKeras-GAN)|||\n|GAN implementation hacks|  Salimans paper & Chintala|  World research  |[link](https:\u002F\u002Fgithub.com\u002Fsoumith\u002Fganhacks) [paper](https:\u002F\u002Fceit.aut.ac.ir\u002F~khalooei\u002Ftutorials\u002Fgan\u002F#gan-hack-paper-2016)|||\n|DCGAN : Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks|  Radford & et al.|ICLR 2016  |[link](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FDCGAN-tensorflow) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434.pdf)| 64x64 human||\n|ProGAN:Progressive Growing of GANs for Improved Quality, Stability, and Variation|Tero Karras|2017|[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.10196.pdf) [link](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans)|1024x1024 human|8.04|\n|SAGAN：Self-Attention Generative Adversarial Networks| Han Zhang & Ian Goodfellow|2018.05|[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.08318.pdf) [link](https:\u002F\u002Fgithub.com\u002Ftaki0112\u002FSelf-Attention-GAN-Tensorflow)|128x128 obj|18.65\u002F52.52|\n|BigGAN:Large Scale GAN Training for High Fidelity Natural Image Synthesis|Brock et al.|ICLR 2019|[demo](https:\u002F\u002Ftfhub.dev\u002Fdeepmind\u002Fbiggan-256) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.11096.pdf) [link](https:\u002F\u002Fgithub.com\u002FAaronLeong\u002FBigGAN-pytorch)|512x512 obj|9.6\u002F166.3|\n|StyleGAN:A Style-Based Generator Architecture for Generative Adversarial Networks|Tero Karras|2018|[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.04948.pdf) [link]( https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan)|1024x1024 human|4.04|\n\n\n指标：\n\n1 Inception Score (IS，越大越好) IS用来衡量GAN网络的两个指标：1. 生成图片的质量 和2. 多样性\n\n2 Fréchet Inception Distance (FID，越小越好) 在FID中我们用相同的inception network来提取中间层的特征。然后我们使用一个均值为 μμ 方差为 ΣΣ 的正态分布去模拟这些特征的分布。较低的FID意味着较高图片的质量和多样性。FID对模型坍塌更加敏感。\n\nFID和IS都是基于特征提取，也就是依赖于某些特征的出现或者不出现。但是他们都无法描述这些特征的空间关系。\n\n物体的数据在Imagenet数据库上比较，人脸的 progan 和stylegan 在CelebA-HQ和FFHQ上比较。上表列的为FFHQ指标。\n\n具体可以参见 [GAN 对抗生成网络发展总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C)\n\n\n\n## GAN的应用 Level 3： GANs Applications \n\n### 3-1 GANs Applications in CV\n\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FImage-translation图像翻译\">图像翻译 (Image Translation)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FSuper-Resolution超分辨率\">超分辨率 (Super-Resolution)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FColourful-Image%20Colorization图像上色%20%20\">图像上色(Colourful Image Colorization)\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>   \n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FGAN对抗生成网络\u002FImage%20Inpainting图像修复\u002FREADME.md\"> 图像修复(Image Inpainting)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FImage-denoising图像去噪\">图像去噪(Image denoising)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002F交互式图像生成\">交互式图像生成\u003C\u002Fa>\u003C\u002Ftd>   \n\u003C\u002Ftable>\n\n\n特殊领域与应用\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002Fcomic-anime-manga漫画\">漫画 (comic、anime、manga)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002Fface-changing换脸\">换脸 (face changing)\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n### 3-2 GANs Applications in Video\n\n\n\n### 3-3 GANs Applications in NLP\u002FSpeech\n\n-------------------------------------------\n### 风格迁移\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C\u002FNeural-Style%E9%A3%8E%E6%A0%BC%E8%BF%81%E7%A7%BB\">风格迁移\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n-------------------------------\n# 语音克隆 Voice Cloning  \n如何训练个性化语音\n\n|模型名 |特点 |文章名称|文章链接 |Github |\n|:---:|:---:|:---:|:---:|:---:|\n|WaveNet|  不是端到端的，输入并不是raw text而是经过处理的特征，代替了传统TTS pipeline的后端 | Wavenet:a generative model for raw audio| |[link](https:\u002F\u002Fgithub.com\u002Fibab\u002Ftensorflow-wavenet)|\n|WaveRNN | 一般作为Tacotron的Vocoder来合成音频| Efficient Neural Audio Synthesis |[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1802.08435)| [link](https:\u002F\u002Fgithub.com\u002Ffatchord\u002FWaveRNN)|\n|Tacotron |第一个端对端的TTS神经网络模型 vocoder 需要改进|| |[link](https:\u002F\u002Fgithub.com\u002Fkeithito\u002Ftacotron) |\n|Tacotron 2|||| https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Ftacotron2|\n||中文语音合成||| https:\u002F\u002Fgithub.com\u002Flturing\u002Ftacotronv2_wavernn_chinese|\n|SV2TTS| Google | Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis |[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.04558.pdf)| https:\u002F\u002Fgithub.com\u002FCorentinJ\u002FReal-Time-Voice-Cloning |\n||中文语音合成|||[link](https:\u002F\u002Fgithub.com\u002Fiwater\u002FReal-Time-Voice-Cloning-Chinese) [link](https:\u002F\u002Fgithub.com\u002Fbabysor\u002FMockingBird)|\n\n\n-------------------------------------------------------------------------------------------\n\n## NLP (comging soon)\n\n\n-------------------------------------------------------------------------------------------\n\n\n## BIG DATA(comging soon)\n\n\n\n\n## AIGC\n\n### stable diffusion\n\n▶Automatic 1111：目前功能最完善最好用的stable diffusion网页版 [网页链接](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FTheLastBen\u002Ffast-stable-diffusion\u002Fblob\u002Fmain\u002Ffast_stable_diffusion_AUTOMATIC1111.ipynb?ref=FutureTools.io#scrollTo=PjzwxTkPSPHf)\n\n### DreamBooth\n\n▶DreamBooth：finetune（微调训练）自己的stable diffusion模型 [网页链接](https:\u002F\u002Fdreambooth.github.io\u002F)\n\n\n### 工具类\n\n▶AdCreative.ai：专注于广告平面内容生成的AI [网页链接](https:\u002F\u002Fwww.adcreative.ai\u002F)\n\n▶AutoDraw：一个能够将你丑丑的简笔画自动平滑修复的网页工具 [网页链接](https:\u002F\u002Fwww.autodraw.com\u002F)\n\n▶Clip Interrogator：text to image的逆向工程——根据你上传的图片给出生成这个图片最可能的prompt引导词 [网页链接](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fpharma\u002FCLIP-Interrogator)\n\n\n\n一树一获者，谷也；一树十获者，木也；一树百获者；人也。 希望我们每一个人的努力，能够建立一片森林，为后人投下一片树荫。\n\n每一位加入的作者，都可以选取植物的名称来表示自己，然后logo和名字将会作为自己的署名。\n\n我希望，这终将成为一片森林。\n\n\n\n此外，关于深度学习系统中模型结构要怎样设计，特定的任务要不要加入特定的结构和方法，Yann LeCun 和 Christopher Manning 有一个讨论 ，大家可以看一看 https:\u002F\u002Fyoutu.be\u002FfKk9KhGRBdI \n雷锋网有介绍 https:\u002F\u002Fwww.leiphone.com\u002Fnews\u002F201804\u002F6l2mAsZQCQG2qYbi.html\n","![title](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_7ebfb20b951a.png)\n\n# AlphaTree : DNN && GAN && NLP && BIG DATA    从新手到深度学习应用工程师\n\n\n\n从AI研究的角度来说，AI的学习和跟进是有偏向性的，更多的精英是擅长相关的一到两个领域，在这个领域做到更好。而从AI应用工程师的角度来说，每一个工程都可能涉及很多个AI的方向，而他们需要了解掌握不同的方向才能更好的开发和设计。\n\n但是AI中每一个领域都在日新月异的成长。而每一位研究人员写paper的风格都不一样，相似的模型，为了突出不同的改进点，他们对模型的描述和图示都可能大不相同。为了帮助更多的人在不同领域能够快速跟进前沿技术，我们构建了“AlphaTree计划”，每一篇文章都会对应文章，代码，然后进行图示输出。\n\n在面试到一些同学的时候，他们总是信誓旦旦的表示要转深度学习，但是存在能推导公式，但是一到深入理念，或者工程项目细节就两眼一抹黑。有没有一个项目，能一个一个项目帮助大家理解深度学习的发展的同时也提高应用能力。\n\n基于这种想法，邀请了几位资深程序员加入这个项目。希望丰富的资源能够帮助到大家。\n\n版权申明：CC-BY-NC-SA 知识共享-署名-非商业性-相同方式共享\n---------------------------------------------------------------------------------------------------\n\n\n1 AI千集 [aiqianji.com](https:\u002F\u002Faiqianji.com\u002Fblog\u002Farticles) 以AI应用为目的 的一个社区。 \n（  AI+ Creation = Change the world。 AI千集在研究一些智能创作的事情，现在每天都会更新AI自己筛选的文章等等。\n试试让AI 来服务于大家，）\n\n目前已经开始可以全自动中英文翻译加论文简报。受欢迎的 还会做ppt输出。\n如何服务大家 还在计划中。\n\nPPT生成已经上线。参与社区的活跃分子 每天获取积分 就能免费使用了。\nhttps:\u002F\u002Faiqianji.com\u002Fblog\u002Fppt\u002Fhome\n\n还做了一些学术专用的技能，主要是偏数学和公式的。是目前其他做ppt的没有的。开发小哥哥说，只要有用户了，就给大家上。 欢迎大家来这个地方留言。\n\n公众号 千集助理\n\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_13b2e8073bdc.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_13b2e8073bdc.png\" width=\"300\"> \u003C\u002Fa>\n\n\n\n导航网站 没人维护，已经被开发小哥哥干掉了，做了个飞书云文档 ，自己用的，也分享给大家\n飞书链接：https:\u002F\u002Fdqhl68ssqm.feishu.cn\u002Fwiki\u002FEfICwwVc1il4uQkHMUUc0p8dnXb?from=from_copylink   密码：aiqianji.com\n\n\n\n小程序： 千集助理\n\n智能创作 以前接了gpt，但是因为管控，改接了其他家gpt模型都已经接入，因为懒得和AI聊太多，希望他尽快干活，所以做了些优化。\n譬如一些指令大师，长文改写大师， 毕竟工作日常还是很多文档需求的，如专利，软著，报告等。AI真是治脱发神器\n当然如果需要，我们做知识库也用的很多大家流传的 prompt 都可以继续无偿分享给大家，加客服就可以领取。\n\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_c854df720103.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_c854df720103.png\" width=\"600\"> \u003C\u002Fa>\n\n\nAI绘图我们也做了很久，给to b训了很多独家模型。最近AI视频真的很厉害，最近内测了好几家，效果也很杰出了。2025年估计价格能打到非常低的情况。\n\n客服可以加：\n\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4414d6eeab94.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4414d6eeab94.png\" width=\"600\"> \u003C\u002Fa>\n\n\n年底了，这个项目  基本也是年更。每年年底，就会发现技术爆炸。 而当美丽的烟花绚烂之后，就将沉寂下来，托举无数的AI应用。\n\n这是个最神奇的年代，希望你们，每一个人，在这个时代，创造奇迹。\n\n也希望更多的人，能够真正的了解AI，了解用户，做出更好的应用。\n\n\n\n\n## AI视频\n\nvidu   www.vidu.cn\n\n2025年初 目前常用的视频产品和对应价格。 \n\n|AI视频产品 |标准档月度会员价格|积分\u002F秒 |每秒价格(元)|官网|\n|:---:|:---:|:---:|:---:|:---:|\n|Vidu 2.0|69元(800积分)|3积分\u002F秒|0.258|www.vidu.cn|\n|Pika|约等于73元(700积分)|3积分\u002F秒|0.313|https:\u002F\u002Fpika.art\u002F|\n|海螺|68元(1000积分)|5积分\u002F秒|0.34|https:\u002F\u002Fhailuoai.com\u002F|\n|luma|约等于73元(3200积分)|16积分\u002F秒|0.365|https:\u002F\u002Flumalabs.ai\u002F|\n|PixVerse|约等于73元(1200分)|6积分\u002F秒 |0.365|https:\u002F\u002Fapp.pixverse.ai\u002F|\n|可灵1.5\u002F1.6|66元(660积分)|4积分\u002F秒|0.4|https:\u002F\u002Fkling.kuaishou.com\u002F|\n|即梦2.0Pro|79元(520积分)|4积分\u002F秒|0.608|https:\u002F\u002Fjimeng.jianying.com\u002Fai-tool\u002Fhome|\n|Runway (Gen-3 Alpha Turbo)|约等于110元(625积分)|5积分\u002F秒|0.88|https:\u002F\u002Fapp.runwayml.com\u002F|\n|Sora (720p)|约等于147元(1000积分)|12积分\u002F秒|1.764|https:\u002F\u002Fopenai.com\u002Fsora|\n\n\nhttps:\u002F\u002Fdqhl68ssqm.feishu.cn\u002Fwiki\u002FEfICwwVc1il4uQkHMUUc0p8dnXb?fromScene=spaceOverview\n\n\nSora 相关\n\n官网 ：https:\u002F\u002Fopenai.com\u002Fsora\n\nhttps:\u002F\u002Fgithub.com\u002Fhpcaitech\u002FOpen-Sora\n\nhttps:\u002F\u002Fgithub.com\u002Flichao-sun\u002Fmora\n\n# 经典部分\n\n\n\n深度学习在解决分类问题上非常厉害。让它声名大噪的也是对于图像分类问题的解决。也产生了很多很经典的模型。其他方向的模型发展很多都是源于这各部分，它是很多模型的基础工作。因此我们首先了解一下它们。\n\n\n![object classification](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_36e14d6eff0f.png)\n\n\n从模型的发展过程中，随着准确率的提高，网络结构也在不断的进行改进，现在主要是两个方向，一是深度，二是复杂度。此外还有卷积核的变换等等。\n\n深度神经网络的发展要从经典的LeNet模型说起，那是1998年提出的一个模型，在手写数字识别上达到商用标准。之后神经网络的发展就由于硬件和数据的限制，调参的难度等各种因素进入沉寂期。\n\n到了2012年，Alex Krizhevsky 设计了一个使用ReLu做激活函数的AlexNet 在当年的ImageNet图像分类竞赛中(ILSVRC 2012)，以top-5错误率15.3%拿下第一。 他的top-5错误率比上一年的冠军下降了十个百分点，而且远远超过当年的第二名。而且网络针对多GPU训练进行了优化设计。从此开始了深度学习的黄金时代。\n\n大家发表的paper一般可以分为两大类，一类是网络结构的改进，一类是训练过程的改进，如droppath，loss改进等。\n\n之后网络结构设计发展主要有两条主线，一条是Inception系列（即上面说的复杂度），从GoogLeNet 到Inception V2 V3 V4，Inception ResNet。 Inception module模块在不断变化，一条是VGG系列（即深度），用简单的结构，尽可能的使得网络变得更深。从VGG 发展到ResNet ，再到DenseNet ，DPN等。 \n\n最终Google Brain用500块GPU训练出了比人类设计的网络结构更优的网络NASNet,最近训出了mNasNet。\n\n此外，应用方面更注重的是，如何将模型设计得更小，这中间就涉及到很多卷积核的变换。这条路线则包括 SqueezeNet，MobileNet V1 V2 Xception shuffleNet等。\n\nResNet的变种ResNeXt 和SENet 都是从小模型的设计思路发展而来。\n\n输入:图片   输出:类别标签\n\n![allmodel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_1bf936c5871e.png)\n\n\n\n|模型名 |AlexNet |ZFNet|VGG |GoogLeNet |ResNet|\n|:---:|:---:|:---:|:---:|:---:|:---:|\n|初入江湖  |2012 |2013 |2014  |2014  |2015|\n|层数  |8 |8 |19 |22  |152|\n|Top-5错误 |16.4% |11.2%|7.3%  |6.7%  |3.57%|\n|Data Augmentation |+ |+ |+ |+ |+|\n|Inception(NIN)  |– |– |– |+ |–|\n|卷积层数  |5 |5 |16  |21  |151|\n|卷积核大小 |11,5,3 | 7,5,3| 3 |7,1,3,5 |7,1,3|\n|全连接层数 |3 |3 |3 |1 |1|\n|全连接层大小  |4096,4096,1000|4096,4096,1000|4096,4096,1000  |1000  |1000|\n|Dropout |+|+|+ |+ |+|\n|Local Response Normalization  |+|+|– |+ |–|\n|Batch Normalization |–|–|– |– |+|\n\nILSVRC2016\n2016 年的 ILSVRC，来自中国的团队大放异彩：\n\nCUImage（商汤和港中文），Trimps-Soushen（公安部三所），CUvideo（商汤和港中文），HikVision（海康威视），SenseCUSceneParsing（商汤和香港城市大学），NUIST（南京信息工程大学）包揽了各个项目的冠军。\n\nCUImage（商汤科技和港中文）：目标检测第一；\nTrimps-Soushen（公安部三所）：目标定位第一；\nCUvideo（商汤和港中文）：视频中物体检测子项目第一；\nNUIST（南京信息工程大学）：视频中的物体探测两个子项目第一；\nHikVision（海康威视）：场景分类第一；\nSenseCUSceneParsing（商汤和港中文）：场景分析第一。\n\n其中，Trimps-Soushen 以 2.99% 的 Top-5 分类误差率和 7.71% 的定位误差率赢得了 ImageNet 分类任务的胜利。该团队使用了分类模型的集成（即 Inception、Inception-ResNet、ResNet 和宽度残差网络模块的平均结果）和基于标注的定位模型 Faster R-CNN 来完成任务。训练数据集有 1000 个类别共计 120 万的图像数据，分割的测试集还包括训练未见过的 10 万张测试图像。\n\nILSVRC 2017\nMomenta 提出的SENet 获得了最后一届 ImageNet 2017 竞赛 Image Classification 任务的冠军， 2.251% Top-5 错误率\n\n\n[模型总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C) \u003C- 之前展示所有模型的主页挪到这里来了。点这里 点这里\n\n\n--------------------------------------------------------------------------\n\n\n模型索引： \n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FLeNet.md\">LeNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FAlexNet.md\">AlexNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FGoogLeNet.md\">GoogLeNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FInceptionV3.md\">Inception V3\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FVGG.md\">VGG\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FResNet.md\">ResNet and ResNeXt\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>    \n    \u003Ctr>      \n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FInceptionResnetV2.md\">Inception-Resnet-V2\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FDenseNet.md\">DenseNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FDPN.md\">DPN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FPolyNet.md\">PolyNet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fblob\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20classification%20%E7%89%A9%E4%BD%93%E5%88%86%E7%B1%BB\u002FSENet.md\">SENet\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">NasNet\u003C\u002Fa>\u003C\u002Ftd>      \n    \u003C\u002Ftr>    \n\u003C\u002Ftable>\n\n\n--------------------------------------------------------------------------\n\n## 深度学习应用\n\n\u003Ca href=\"https:\u002F\u002Fraw.githubusercontent.com\u002Fweslynn\u002Fgraphic-deep-neural-network\u002Fmaster\u002Fmap\u002Fmapclean_1.5.png\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_eed8dcf0f8d0.png\" width=\"1200\"> \u003C\u002Fa>\n\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">轻量级模型 & 剪枝\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20detection%20and%20segmentation%20%E7%89%A9%E4%BD%93%E6%A3%80%E6%B5%8B%E4%B8%8E%E5%88%86%E5%89%B2\">物体检测Object Detection \u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fobject%20detection%20and%20segmentation%20%E7%89%A9%E4%BD%93%E6%A3%80%E6%B5%8B%E4%B8%8E%E5%88%86%E5%89%B2\">物体分割Object Segmentation\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002FOCR%E5%AD%97%E7%AC%A6%E8%AF%86%E5%88%AB\">OCR\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>   \n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fface%20detection%20and%20recognition%E4%BA%BA%E8%84%B8%E6%A3%80%E6%B5%8B%E4%B8%8E%E8%AF%86%E5%88%AB\">人脸检测Face Detection\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FDNN%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C\u002Fface%20detection%20and%20recognition%E4%BA%BA%E8%84%B8%E6%A3%80%E6%B5%8B%E4%B8%8E%E8%AF%86%E5%88%AB\">人脸识别Face Recognition\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">肢体检测Pose Detection(coming soon)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">3D(coming soon)\u003C\u002Fa>\u003C\u002Ftd>      \n\u003C\u002Ftable>\n\n\n\n![ObjectDetection&Seg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_48bcde4633da.png)\n\n物体分类（物体识别）解决的是这个东西是什么的问题（What）。而物体检测则是要解决这个东西是什么，具体位置在哪里（What and Where）。\n物体分割则将物体和背景进行区分出来，譬如人群，物体分割中的实例分割则将人群中的每个人都分割出来。\n输入:图片   输出:类别标签和bbox(x,y,w,h)\n![pic1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_26b6928c6aa7.jpg)\n\n\n-----------------------------------------------------------------------\n\n\n## GAN基础\n\n \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_4d4451ab7314.png\">\u003C\u002Fa>\n\n参考Mohammad KHalooei的教程，我也将GAN分为4个level，第四个level将按照应用层面进行拓展。 这里基础部分包括Gan的定义，GAN训练上的改进，那些优秀的GAN.具体可以参见 [GAN 对抗生成网络发展总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C)\n\n### GAN的定义 Level 0: Definition of GANs\n\n\n\n|Level| Title|  Co-authors| Publication|  Links|\n|:---:|:---:|:---:|:---:|:---:|\n|Beginner|  GAN : Generative Adversarial Nets|  Goodfellow & et al.|  NeurIPS (NIPS) 2014 |[link](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5423-generative-adversarial-nets.pdf) |\n|Beginner|  GAN : Generative Adversarial Nets (Tutorial)| Goodfellow & et al.|  NeurIPS (NIPS) 2016 Tutorial| [link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.00160.pdf)|\n|Beginner|  CGAN : Conditional Generative Adversarial Nets| Mirza & et al.| -- 2014 |[link](https:\u002F\u002Fgist.github.com\u002Fshagunsodhani\u002F5d726334de3014defeeb701099a3b4b3) |\n|Beginner|  InfoGAN : Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets|  Chen & et al.|  NeuroIPS (NIPS) 2016  ||\n\n\n模型结构的发展：\n\n![ganmodule](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_000ef5a551c0.png)\n\n\n--------------------------------------------------------------------------\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">CGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">LAPGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">IcGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">ACGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">SemiGan \u002FSSGAN\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"\">InfoGan\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n--------------------------------------------------------------------------\n\n### GAN训练上的改进 Level1：Improvements of GANs training\n\n然后看看 loss、参数、权重的改进：\n\n|Level| Title|  Co-authors| Publication|  Links|\n|:---:|:---:|:---:|:---:|:---:|\n|Beginner |LSGAN : Least Squares Generative Adversarial Networks  |Mao & et al.|  ICCV 2017|[link](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8237566)| \n|Advanced |Improved Techniques for Training GANs  |Salimans & et al.| NeurIPS (NIPS) 2016 |[link](https:\u002F\u002Fceit.aut.ac.ir\u002Fhttp:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6125-improved-techniques-for-training-gans.pdf)| \n|Advanced |WGAN : Wasserstein GAN |Arjovsky & et al.| ICML 2017|[link](http:\u002F\u002Fproceedings.mlr.press\u002Fv70\u002Farjovsky17a\u002Farjovsky17a.pdf)|\n|Advanced |WGAN-GP : improved Training of Wasserstein GANs|  2017|[link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.00028v3.pdf)|\n|Advanced |Certifying Some Distributional Robustness with Principled Adversarial Training |Sinha & et al.|ICML 2018|[link](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.10571.pdf) [code](https:\u002F\u002Fgithub.com\u002Fduchi-lab\u002Fcertifiable-distributional-robustness)|\n\n\nLoss Functions:\n\n## LSGAN(Least Squares Generative Adversarial Networks)\n\nLS-GAN - Guo-Jun Qi, arxiv: 1701.06264\n\n   [2] Mao et al., 2017.4 [pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.04076.pdf)\n\n https:\u002F\u002Fgithub.com\u002Fhwalsuklee\u002Ftensorflow-generative-model-collections\n https:\u002F\u002Fgithub.com\u002Fguojunq\u002Flsgan\n\n用了最小二乘损失函数代替了GAN的损失函数,缓解了GAN训练不稳定和生成图像质量差多样性不足的问题。\n\n但缺点也是明显的, LSGAN对离离群点的过度惩罚, 可能导致样本生成的'多样性'降低, 生成样本很可能只是对真实样本的简单模仿和细微改动.\n\n## WGAN\nWGAN - Martin Arjovsky, arXiv:1701.07875v1\n\nWGAN：\n在初期一个优秀的GAN应用需要有良好的训练方法，否则可能由于神经网络模型的自由性而导致输出不理想。 \n\n为啥难训练？  令人拍案叫绝的Wasserstein GAN 中做了如下解释 ：\n原始GAN不稳定的原因就彻底清楚了：判别器训练得太好，生成器梯度消失，生成器loss降不下去；判别器训练得不好，生成器梯度不准，四处乱跑。只有判别器训练得不好不坏才行，但是这个火候又很难把握，甚至在同一轮训练的前后不同阶段这个火候都可能不一样，所以GAN才那么难训练。\n\nhttps:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F25071913\n\nWGAN 针对loss改进 只改了4点：\n1.判别器最后一层去掉sigmoid\n2.生成器和判别器的loss不取log\n3.每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c\n4.不要用基于动量的优化算法（包括momentum和Adam），推荐RMSProp，SGD也行\n\nhttps:\u002F\u002Fgithub.com\u002Fmartinarjovsky\u002FWassersteinGAN\n\n\n## WGAN-GP\nRegularization and Normalization of the Discriminator:\n\n![wgangp](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_readme_ebde64e8b2ee.png)\n\nWGAN-GP：\n\nWGAN的作者Martin Arjovsky不久后就在reddit上表示他也意识到没能完全解决GAN训练稳定性，认为关键在于原设计中Lipschitz限制的施加方式不对，并在新论文中提出了相应的改进方案--WGAN-GP ,从weight clipping到gradient penalty,提出具有梯度惩罚的WGAN（WGAN with gradient penalty）替代WGAN判别器中权重剪枝的方法(Lipschitz限制)：\n\n[1704.00028] Gulrajani et al., 2017,improved Training of Wasserstein GANs[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1704.00028v3.pdf)\n\nTensorflow实现：https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training\n\npytorch https:\u002F\u002Fgithub.com\u002Fcaogang\u002Fwgan-gp\n\n## GAN的实现 Level 2: Implementation skill\n\n\n\n|标题| 合著者| 发表|链接| 尺寸 |FID\u002FIS|\n|:---:|:---:|:---:|:---:|:---:|:---:|\n|Keras实现GANs|  林德-诺伦| Github  |[链接](https:\u002F\u002Fgithub.com\u002Feriklindernoren\u002FKeras-GAN)|||\n|GAN实现技巧|  萨利曼论文 & 钦塔拉|  世界研究  |[链接](https:\u002F\u002Fgithub.com\u002Fsoumith\u002Fganhacks) [论文](https:\u002F\u002Fceit.aut.ac.ir\u002F~khalooei\u002Ftutorials\u002Fgan\u002F#gan-hack-paper-2016)|||\n|DCGAN：使用深度卷积生成对抗网络进行无监督表示学习|  拉德福德等|ICLR 2016  |[链接](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002FDCGAN-tensorflow) [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.06434.pdf)| 64x64 人像||\n|ProGAN：用于提升质量、稳定性和多样性的GAN渐进式增长|特罗·卡拉斯|2017年|[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.10196.pdf) [链接](https:\u002F\u002Fgithub.com\u002Ftkarras\u002Fprogressive_growing_of_gans)|1024x1024 人像|8.04|\n|SAGAN：自注意力生成对抗网络|韩张 & 伊恩·古德费洛|2018年5月|[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.08318.pdf) [链接](https:\u002F\u002Fgithub.com\u002Ftaki0112\u002FSelf-Attention-GAN-Tensorflow)|128x128 物体|18.65\u002F52.52|\n|BigGAN：大规模GAN训练以实现高保真自然图像合成|布洛克等|ICLR 2019|[演示](https:\u002F\u002Ftfhub.dev\u002Fdeepmind\u002Fbiggan-256) [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1809.11096.pdf) [链接](https:\u002F\u002Fgithub.com\u002FAaronLeong\u002FBigGAN-pytorch)|512x512 物体|9.6\u002F166.3|\n|StyleGAN：基于风格的生成器架构用于生成对抗网络|特罗·卡拉斯|2018年|[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.04948.pdf) [链接]( https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan)|1024x1024 人像|4.04|\n\n\n指标：\n\n1 Inception Score (IS，越大越好) IS用来衡量GAN网络的两个指标：1. 生成图片的质量 和2. 多样性\n\n2 Fréchet Inception Distance (FID，越小越好) 在FID中我们用相同的inception network来提取中间层的特征。然后我们使用一个均值为 μμ 方差为 ΣΣ 的正态分布去模拟这些特征的分布。较低的FID意味着较高图片的质量和多样性。FID对模型坍塌更加敏感。\n\nFID和IS都是基于特征提取，也就是依赖于某些特征的出现或者不出现。但是他们都无法描述这些特征的空间关系。\n\n物体的数据在Imagenet数据库上比较，人脸的 progan 和stylegan 在CelebA-HQ和FFHQ上比较。上表列的为FFHQ指标。\n\n具体可以参见 [GAN 对抗生成网络发展总览](https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C)\n\n\n\n## GAN的应用 Level 3： GANs Applications \n\n### 3-1 GANs Applications in CV\n\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FImage-translation图像翻译\">图像翻译 (Image Translation)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FSuper-Resolution超分辨率\">超分辨率 (Super-Resolution)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FColourful-Image%20Colorization图像上色%20%20\">图像上色(Colourful Image Colorization)\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>   \n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Fblob\u002Fmaster\u002FGAN对抗生成网络\u002FImage%20Inpainting图像修复\u002FREADME.md\"> 图像修复(Image Inpainting)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002FImage-denoising图像去噪\">图像去噪(Image denoising)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002F交互式图像生成\">交互式图像生成\u003C\u002Fa>\u003C\u002Ftd>   \n\u003C\u002Ftable>\n\n\n特殊领域与应用\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002Fcomic-anime-manga漫画\">漫画 (comic、anime、manga)\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN对抗生成网络\u002Fface-changing换脸\">换脸 (face changing)\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n### 3-2 GANs Applications in Video\n\n\n\n### 3-3 GANs Applications in NLP\u002FSpeech\n\n-------------------------------------------\n### 风格迁移\n\n\n\u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\u002Ftree\u002Fmaster\u002FGAN%E5%AF%B9%E6%8A%97%E7%94%9F%E6%88%90%E7%BD%91%E7%BB%9C\u002FNeural-Style%E9%A3%8E%E6%A0%BC%E8%BF%81%E7%A7%BB\">风格迁移\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>  \n\u003C\u002Ftable>\n\n-------------------------------\n# 语音克隆 Voice Cloning  \n如何训练个性化语音\n\n|模型名 |特点 |文章名称|文章链接 |Github |\n|:---:|:---:|:---:|:---:|:---:|\n|WaveNet|  不是端到端的，输入并不是raw text而是经过处理的特征，代替了传统TTS pipeline的后端 | Wavenet:a generative model for raw audio| |[链接](https:\u002F\u002Fgithub.com\u002Fibab\u002Ftensorflow-wavenet)|\n|WaveRNN |  一般作为Tacotron的Vocoder来合成音频| Efficient Neural Audio Synthesis |[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1802.08435)| [链接](https:\u002F\u002Fgithub.com\u002Ffatchord\u002FWaveRNN)|\n|Tacotron |第一个端对端的TTS神经网络模型 vocoder 需要改进|| |[链接](https:\u002F\u002Fgithub.com\u002Fkeithito\u002Ftacotron) |\n|Tacotron 2|||| https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Ftacotron2|\n||中文语音合成||| https:\u002F\u002Fgithub.com\u002Flturing\u002Ftacotronv2_wavernn_chinese|\n|SV2TTS| Google | Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis |[pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.04558.pdf)| https:\u002F\u002Fgithub.com\u002FCorentinJ\u002FReal-Time-Voice-Cloning |\n||中文语音合成|||[链接](https:\u002F\u002Fgithub.com\u002Fiwater\u002FReal-Time-Voice-Cloning-Chinese) [链接](https:\u002F\u002Fgithub.com\u002Fbabysor\u002FMockingBird)|\n\n\n-------------------------------------------------------------------------------------------\n\n## NLP (comming soon)\n\n\n-------------------------------------------------------------------------------------------\n\n\n## BIG DATA(comming soon)\n\n\n\n\n## AIGC\n\n### stable diffusion\n\n▶Automatic 1111：目前功能最完善最好用的stable diffusion网页版 [网页链接](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FTheLastBen\u002Ffast-stable-diffusion\u002Fblob\u002Fmain\u002Ffast_stable_diffusion_AUTOMATIC1111.ipynb?ref=FutureTools.io#scrollTo=PjzwxTkPSPHf)\n\n### DreamBooth\n\n▶DreamBooth：finetune（微调训练）自己的stable diffusion模型 [网页链接](https:\u002F\u002Fdreambooth.github.io\u002F)\n\n\n### 工具类\n\n▶AdCreative.ai：专注于广告平面内容生成的AI [网页链接](https:\u002F\u002Fwww.adcreative.ai\u002F)\n\n▶AutoDraw：一个能够将你丑丑的简笔画自动平滑修复的网页工具 [网页链接](https:\u002F\u002Fwww.autodraw.com\u002F)\n\n▶Clip Interrogator：text to image的逆向工程——根据你上传的图片给出生成这个图片最可能的prompt引导词 [网页链接](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fpharma\u002FCLIP-Interrogator)\n\n\n\n一树一获者，谷也；一树十获者，木也；一树百获者；人也。 希望我们每一个人的努力，能够建立一片森林，为后人投下一片树荫。\n\n每一位加入的作者，都可以选取植物的名称来表示自己，然后logo和名字将会作为自己的署名。\n\n我希望，这终将成为一片森林。\n\n\n\n此外，关于深度学习系统中模型结构要怎样设计，特定的任务要不要加入特定的结构和方法，Yann LeCun 和 Christopher Manning 有一个讨论 ，大家可以看一看 https:\u002F\u002Fyoutu.be\u002FfKk9KhGRBdI \n雷锋网有介绍 https:\u002F\u002Fwww.leiphone.com\u002Fnews\u002F201804\u002F6l2mAsZQCQG2qYbi.html","# AlphaTree 快速上手指南\n\nAlphaTree 是一个旨在帮助开发者从新手进阶为深度学习应用工程师的开源项目。它通过可视化的方式（图示、代码、论文对应）梳理了 DNN（深度神经网络）、GAN（生成对抗网络）、NLP 及大数据领域的经典模型与发展脉络，涵盖从 LeNet 到 ResNet、DenseNet 等主流架构，以及物体检测、分割、人脸识别等应用场景。\n\n本项目主要作为**学习资源库**和**知识图谱**存在，核心内容为 Markdown 文档、架构图示和指向原始论文\u002F代码的链接，而非一个需要编译安装的单一软件包。以下是获取和使用该资源的指南。\n\n## 环境准备\n\n本项目无需特殊的运行时环境，只需具备基础的文档阅读条件和访问 GitHub 的能力。\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux 均可。\n*   **前置依赖**：\n    *   Web 浏览器（推荐 Chrome 或 Edge，用于查看渲染后的 Markdown 和高清大图）。\n    *   Git（可选，用于克隆仓库到本地离线阅读）。\n    *   Markdown 编辑器（可选，如 VS Code + Markdown Preview Enhanced，用于本地更好地查看图表和公式）。\n*   **网络要求**：由于资源托管在 GitHub，建议配置好网络环境以确保图片和链接加载顺畅。\n\n## 安装步骤\n\n你可以通过在线浏览或克隆到本地两种方式获取内容。\n\n### 方式一：在线浏览（推荐）\n直接访问 GitHub 仓库页面，利用 GitHub 自带的渲染引擎查看结构化的知识图谱。\n\n1.  访问项目主页：\n    ```text\n    https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network\n    ```\n2.  进入 `DNN 深度神经网络`、`GAN 对抗生成网络` 等文件夹，点击具体的模型文件（如 `ResNet.md`, `AlexNet.md`）即可阅读详细解析。\n\n### 方式二：本地克隆（适合离线学习与二次编辑）\n如果你希望将资料保存到本地或进行笔记整理，请使用以下命令：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fweslynn\u002FAlphaTree-graphic-deep-neural-network.git\ncd AlphaTree-graphic-deep-neural-network\n```\n\n> **提示**：国内用户若遇到克隆速度慢的问题，可使用国内镜像源（如 Gitee 镜像，若有）或配置 Git 代理加速。\n\n## 基本使用\n\nAlphaTree 的核心价值在于其**模型索引**和**可视化演进路线**。以下是最高效的使用路径：\n\n### 1. 查阅经典模型演进\n想要了解图像分类模型的发展史（从浅层到深层），请直接查看对象分类目录：\n\n*   **路径**：`DNN 深度神经网络\u002Fobject classification 物体分类\u002F`\n*   **操作**：打开 `LeNet.md` 开始，按时间顺序阅读 `AlexNet.md` -> `VGG.md` -> `GoogLeNet.md` -> `ResNet.md`。\n*   **内容**：每个文件包含模型结构图、核心改进点（如 ReLU, Dropout, Batch Normalization）、参数量对比及 Top-5 错误率数据。\n\n### 2. 探索应用领域\n根据实际工程需求，查找特定任务的解决方案：\n\n*   **物体检测与分割**：\n    访问 `DNN 深度神经网络\u002Fobject detection and segmentation 物体检测与分割\u002F`\n    > 理解 \"What\" (分类) 与 \"What + Where\" (检测) 的区别，查看相关算法图示。\n*   **人脸识别**：\n    访问 `DNN 深度神经网络\u002Fface detection and recognition 人脸检测与识别\u002F`\n*   **OCR 字符识别**：\n    访问 `DNN 深度神经网络\u002FOCR 字符识别\u002F`\n\n### 3. 学习 GAN 生成网络\n项目将 GAN 学习路径分为不同等级（Level），适合循序渐进：\n\n*   **入口**：`GAN 对抗生成网络\u002F`\n*   **起步**：先阅读 `Level 0: Definition of GANs` 理解基础定义。\n*   **进阶**：后续章节涵盖训练改进技巧及艺术生成等应用案例。\n\n### 4. 参考外部资源\n文档中包含了大量指向原始论文（Paper）、官方代码库及竞赛（如 ILSVRC）结果的链接。在阅读具体模型文档时，点击文中的 `[link]` 或超链接即可跳转至源头资料进行深入研读。\n\n---\n*注：本项目遵循 CC-BY-NC-SA 协议（知识共享 - 署名 - 非商业性 - 相同方式共享），请在非商业用途下注明出处使用。*","某互联网公司的初级算法工程师李明，正面临从理论推导到落地复杂深度学习项目的转型瓶颈，急需构建系统的知识体系以应对新的推荐系统开发任务。\n\n### 没有 AlphaTree-graphic-deep-neural-network 时\n- **知识碎片化严重**：面对 Inception、ResNet 等不同风格的论文，难以统一理解模型演进逻辑，常因图示和描述差异陷入困惑。\n- **理论与工程脱节**：虽然能手推反向传播公式，但面对 PyTorch 或 TensorFlow 的实际源码时束手无策，无法将数学原理转化为代码实现。\n- **学习路径迷茫**：在机器学习、GAN、图神经网络等众多方向中缺乏清晰的路线图，不知道如何从新手跨越到合格工程师。\n- **面试准备低效**：被问及项目细节或深层理念时“两眼一抹黑”，只能背诵概念而无法结合具体源码和案例进行深度阐述。\n\n### 使用 AlphaTree-graphic-deep-neural-network 后\n- **可视化脉络清晰**：通过工具提供的标准化图谱，直观掌握了从 LeNet 到 NASNet 的网络结构演变主线，快速消化了不同论文的改进点。\n- **源码对照实战**：直接利用附带的海量 Python\u002FPyTorch 源码及 TensorFlow\u002FCaffe 官方实现，边看代码边理解经典模型，迅速补齐工程短板。\n- **系统化进阶指引**：依托涵盖 NLP、大数据及推荐算法的完整路书，制定了明确的学习计划，顺利完成了从单一分类任务到复杂知识图谱应用的技能跨越。\n- **面试从容应对**：借助“文章 + 代码 + 图示”的三维学习模式，能够深入剖析项目细节，在技术面试中流畅展示从理论推导到落地优化的全过程。\n\nAlphaTree-graphic-deep-neural-network 通过“图文码”三位一体的结构化资源，成功帮助开发者打破了学术理论与工程实践之间的壁垒，实现了从入门到精通的高效跃迁。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fweslynn_AlphaTree-graphic-deep-neural-network_0b0924d1.png","weslynn","gingo白果","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fweslynn_8e584ec1.jpg","AI Engineer \r\n AI工程师\r\n我在这里 AI在那里 你在哪里？ ",null,"https:\u002F\u002Faiqianji.com\u002F","https:\u002F\u002Fgithub.com\u002Fweslynn",2976,614,"2026-04-03T17:00:40","","未说明",{"notes":88,"python":86,"dependencies":89},"该 README 主要是一个深度学习知识图谱和项目索引（涵盖 DNN、GAN、NLP 等），介绍了模型发展史、相关论文链接及外部社区资源。文中未提供具体的代码运行环境配置、依赖库列表或硬件需求说明。提到的'500 块 GPU'是指 Google Brain 训练 NASNet 的历史背景，而非本项目的运行需求。",[],[13,14],[92,93,94,95],"deep-learning","image-classification","machine-learning","neural-network","2026-03-27T02:49:30.150509","2026-04-06T08:46:03.887641",[],[]]