[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yarkable--Awesome-Computer-Vision-Paper-List":3,"tool-yarkable--Awesome-Computer-Vision-Paper-List":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":98,"github_topics":99,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":133},1337,"yarkable\u002FAwesome-Computer-Vision-Paper-List","Awesome-Computer-Vision-Paper-List","This repository contains all the papers accepted in top conference of computer vision, with convenience to search related papers.","Awesome-Computer-Vision-Paper-List 把 CVPR、ICCV、ECCV、AAAI、ICML 等顶级会议历年被接收的论文一次性打包整理，并按年份与会议分门别类。想确认自己的点子是否已被发表、快速浏览某个细分领域的最新进展，或只是单纯“追新”，都能在这里用关键词秒搜到官方来源的准确信息。它尤其适合计算机视觉、机器学习方向的研究生、博士生、算法工程师和高校教师，帮你省下四处爬官网、翻 PDF 的琐碎时间。数据全部从会议官网直接抓取，确保标题、作者、链接零误差，点开即用，无需注册登录。","## Introduction\n\n\n\nThis repository aims to collect recently accepted papers on AI conferences. One can search here if there already exists some papers that have same idea as his\u002Fhers conveniently, or search all the papers with different research areas. Papers are grabbed from official website to ensure all the information are correct. Just enjoy it :D\n\n\n\n**The following conferences have been collected (Click the titles to see details)**\n\n\n\n\n\n\u003Cdetails>\n    \u003Csummary> AAAI (Association for the Advancement of Artificial Intelligence) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='AAAI\u002FAAAI-18-Accepted-Paper-List.Web_.pdf'>AAAI 2016\u003C\u002Fa>\n    \u003Ca href='AAAI\u002Faaai17accepted-papers.pdf'>AAAI 2017\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-18-Accepted-Paper-List.Web_.pdf'>AAAI 2018\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-19_Accepted_Papers.pdf'>AAAI 2019\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-20-Accepted-Paper-List.pdf'>AAAI 2020\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-21_Accepted-Paper-List.Main_.Technical.Track__2.pdf'>AAAI 2021\u003C\u002Fa>\u003C\u002Fpre> \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> ACCV (Asian Conference on Computer Vision) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ACCV\u002Faccv2020.md'>ACCV 2020\u003C\u002Fa>\n    \u003Ca href='ACCV\u002Faccv2022.md'>ACCV 2022\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> ACM MM (ACM Multimedia) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ACM%20MM\u002Facmmm2016.md'>ACM MM 2016\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2017.md'>ACM MM 2017\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2018.md'>ACM MM 2018\u003C\u002Fa> \n    \u003Ca href='ACM%20MM\u002Facmmm2019.md'>ACM MM 2019\u003C\u002Fa> \n    \u003Ca href='ACM%20MM\u002Facmmm2020.md'>ACM MM 2020\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2021.md'>ACM MM 2021\u003C\u002Fa>\u003C\u002Fpre>      \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> BMVC (British Machine Vision Conference) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='BMVC\u002Fbmvc2016.md'>BMVC 2016\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2017.md'>BMVC 2017\u003C\u002Fa> \n    \u003Ca href='BMVC\u002Fbmvc2018.md'>BMVC 2018\u003C\u002Fa> \n    \u003Ca href='BMVC\u002Fbmvc2019.md'>BMVC 2019\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2020.md'>BMVC 2020\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2021.md'>BMVC 2021\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2022.md'>BMVC 2022\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2023.md'>BMVC 2023\u003C\u002Fa>\u003C\u002Fpre>      \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> CVPR (Conference on Computer Vision and Pattern Recognition) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='CVPR\u002Fcvpr2013.md'>CVPR 2013\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2014.md'>CVPR 2014\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2015.md'>CVPR 2015\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2016.md'>CVPR 2016\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2017.md'>CVPR 2017\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2018.md'>CVPR 2018\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2019.md'>CVPR 2019\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2020.md'>CVPR 2020\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2021.md'>CVPR 2021\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2022.md'>CVPR 2022\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2023.md'>CVPR 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> ECCV (European Conference on Computer Vision) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ECCV\u002Feccv2018.md'>ECCV 2018\u003C\u002Fa>\n    \u003Ca href='ECCV\u002Feccv2020.md'>ECCV 2020\u003C\u002Fa>\n    \u003Ca href='ECCV\u002Feccv2022.md'>ECCV 2022\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> ICCV (International Conference on Computer Vision) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ICCV\u002Ficcv2013.md'>ICCV 2013\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2015.md'>ICCV 2015\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2017.md'>ICCV 2017\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2019.md'>ICCV 2019\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2021.md'>ICCV 2021\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2023.md'>ICCV 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> ICML (International Conference on Machine Learning) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ICML\u002Ficml2013.md'>ICML 2013\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2014.md'>ICML 2014\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2015.md'>ICML 2015\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2016.md'>ICML 2016\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2017.md'>ICML 2017\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2018.md'>ICML 2018\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2019.md'>ICML 2019\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2020.md'>ICML 2020\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2021.md'>ICML 2021\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2022.md'>ICML 2022\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2023.md'>ICML 2023\u003C\u002Fa>\u003C\u002Fpre>    \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> IJCAI (International Joint Conference on Artificial Intelligence) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='IJCAI\u002Fijcai2015.md'>IJCAI 2015\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2016.md'>IJCAI 2016\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2017.md'>IJCAI 2017\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2018.md'>IJCAI 2018\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2019.md'>IJCAI 2019\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2020.md'>IJCAI 2020\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2021.md'>IJCAI 2021\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2022.md'>IJCAI 2022\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2023.md'>IJCAI 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> NeurIPS (Conference on Neural Information Processing Systems) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='NeurIPS\u002F'>NeurIPS 1987-2010\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2011.md'>NeurIPS 2011\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2012.md'>NeurIPS 2012\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2013.md'>NeurIPS 2013\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2014.md'>NeurIPS 2014\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2015.md'>NeurIPS 2015\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2016.md'>NeurIPS 2016\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2017.md'>NeurIPS 2017\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2018.md'>NeurIPS 2018\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2019.md'>NeurIPS 2019\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2020.md'>NeurIPS 2020\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2021.md'>NeurIPS 2021\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2022.md'>NeurIPS 2022\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2023.md'>NeurIPS 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary> WACV (Workshop on Applications of Computer Vision) \u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='WACV\u002Fwacv2020.md'>WACV 2020\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2021.md'>WACV 2021\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2022.md'>WACV 2022\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2023.md'>WACV 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\n---\n\n\n**Tips：** In order to verify whether your idea was published in the previous conferences, an easy way is to search your keyword `In this repository`, and the corresponding results will be shown on the right.\n\n\n\n\n\n![image.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyarkable_Awesome-Computer-Vision-Paper-List_readme_21f1ef685b10.png)\n\n\n\n\n---\n\n## Update\n \n- 2021.12.20, NIPS 2021\n- 2021.12.20, BMVC series\n- 2021.12.20, WACV series\n- 2022.01.10, ACM MM 2017, 2021\n- 2022.06.11, CVPR 2022\n- 2022.12.27, ECCV 2022, revise BMVC series\n- 2024.04.07, Commit to prove that I'm still alive\n---\n\n## TODO\n\n\n\n- [x] WACV\n- [x] BMVC\n- [ ] ICLR\n- [ ] ACM MM 2022~2023\n- [ ] AAAI 2022~2023\n- [x] ACM MM 2017 (website unavailable)\n","## 简介\n\n\n\n本仓库旨在收集近期被人工智能领域会议录用的论文。您可以在此便捷地检索是否存在与自己研究思路相同的论文，或按不同研究方向浏览所有论文。所有论文均从官方渠道获取，以确保信息准确无误。尽情享用吧 :D\n\n\n\n**目前已收录以下会议（点击标题查看详细信息）**\n\n\n\n\u003Cdetails>\n    \u003Csummary>AAAI（美国人工智能促进协会）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='AAAI\u002FAAAI-18-Accepted-Paper-List.Web_.pdf'>AAAI 2018\u003C\u002Fa>\n    \u003Ca href='AAAI\u002Faaai17accepted-papers.pdf'>AAAI 2017\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-19_Accepted_Papers.pdf'>AAAI 2019\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-20-Accepted-Paper-List.pdf'>AAAI 2020\u003C\u002Fa> \n    \u003Ca href='AAAI\u002FAAAI-21_Accepted-Paper-List.Main_.Technical.Track__2.pdf'>AAAI 2021\u003C\u002Fa>\u003C\u002Fpre> \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>ACCV（亚洲计算机视觉大会）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ACCV\u002Faccv2020.md'>ACCV 2020\u003C\u002Fa>\n    \u003Ca href='ACCV\u002Faccv2022.md'>ACCV 2022\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>ACM MM（ACM多媒体会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ACM%20MM\u002Facmmm2016.md'>ACM MM 2016\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2017.md'>ACM MM 2017\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2018.md'>ACM MM 2018\u003C\u002Fa> \n    \u003Ca href='ACM%20MM\u002Facmmm2019.md'>ACM MM 2019\u003C\u002Fa> \n    \u003Ca href='ACM%20MM\u002Facmmm2020.md'>ACM MM 2020\u003C\u002Fa>\n    \u003Ca href='ACM%20MM\u002Facmmm2021.md'>ACM MM 2021\u003C\u002Fa>\u003C\u002Fpre>      \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>BMVC（英国机器视觉会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='BMVC\u002Fbmvc2016.md'>BMVC 2016\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2017.md'>BMVC 2017\u003C\u002Fa> \n    \u003Ca href='BMVC\u002Fbmvc2018.md'>BMVC 2018\u003C\u002Fa> \n    \u003Ca href='BMVC\u002Fbmvc2019.md'>BMVC 2019\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2020.md'>BMVC 2020\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2021.md'>BMVC 2021\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2022.md'>BMVC 2022\u003C\u002Fa>\n    \u003Ca href='BMVC\u002Fbmvc2023.md'>BMVC 2023\u003C\u002Fa>\u003C\u002Fpre>      \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>CVPR（计算机视觉与模式识别会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='CVPR\u002Fcvpr2013.md'>CVPR 2013\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2014.md'>CVPR 2014\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2015.md'>CVPR 2015\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2016.md'>CVPR 2016\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2017.md'>CVPR 2017\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2018.md'>CVPR 2018\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2019.md'>CVPR 2019\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2020.md'>CVPR 2020\u003C\u002Fa> \n    \u003Ca href='CVPR\u002Fcvpr2021.md'>CVPR 2021\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2022.md'>CVPR 2022\u003C\u002Fa>\n    \u003Ca href='CVPR\u002Fcvpr2023.md'>CVPR 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>ECCV（欧洲计算机视觉大会）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ECCV\u002Feccv2018.md'>ECCV 2018\u003C\u002Fa>\n    \u003Ca href='ECCV\u002Feccv2020.md'>ECCV 2020\u003C\u002Fa>\n    \u003Ca href='ECCV\u002Feccv2022.md'>ECCV 2022\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>ICCV（国际计算机视觉大会）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ICCV\u002Ficcv2013.md'>ICCV 2013\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2015.md'>ICCV 2015\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2017.md'>ICCV 2017\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2019.md'>ICCV 2019\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2021.md'>ICCV 2021\u003C\u002Fa>\n    \u003Ca href='ICCV\u002Ficcv2023.md'>ICCV 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>ICML（国际机器学习会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='ICML\u002Ficml2013.md'>ICML 2013\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2014.md'>ICML 2014\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2015.md'>ICML 2015\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2016.md'>ICML 2016\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2017.md'>ICML 2017\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2018.md'>ICML 2018\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2019.md'>ICML 2019\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2020.md'>ICML 2020\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2021.md'>ICML 2021\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2022.md'>ICML 2022\u003C\u002Fa>\n    \u003Ca href='ICML\u002Ficml2023.md'>ICML 2023\u003C\u002Fa>\u003C\u002Fpre>    \n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>IJCAI（国际人工智能联合会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='IJCAI\u002Fijcai2015.md'>IJCAI 2015\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2016.md'>IJCAI 2016\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2017.md'>IJCAI 2017\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2018.md'>IJCAI 2018\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2019.md'>IJCAI 2019\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2020.md'>IJCAI 2020\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2021.md'>IJCAI 2021\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2022.md'>IJCAI 2022\u003C\u002Fa>\n    \u003Ca href='IJCAI\u002Fijcai2023.md'>IJCAI 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>NeurIPS（神经信息处理系统会议）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='NeurIPS\u002F'>NeurIPS 1987-2010\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2011.md'>NeurIPS 2011\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2012.md'>NeurIPS 2012\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2013.md'>NeurIPS 2013\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2014.md'>NeurIPS 2014\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2015.md'>NeurIPS 2015\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2016.md'>NeurIPS 2016\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2017.md'>NeurIPS 2017\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2018.md'>NeurIPS 2018\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2019.md'>NeurIPS 2019\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2020.md'>NeurIPS 2020\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2021.md'>NeurIPS 2021\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2022.md'>NeurIPS 2022\u003C\u002Fa>\n    \u003Ca href='NeurIPS\u002Fnips2023.md'>NeurIPS 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n    \u003Csummary>WACV（计算机视觉应用研讨会）\u003C\u002Fsummary>\n    \u003Cpre>\n    \u003Ca href='WACV\u002Fwacv2020.md'>WACV 2020\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2021.md'>WACV 2021\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2022.md'>WACV 2022\u003C\u002Fa>\n    \u003Ca href='WACV\u002Fwacv2023.md'>WACV 2023\u003C\u002Fa>\u003C\u002Fpre>\n\u003C\u002Fdetails>\n\n\n---\n\n\n**提示：** 为验证您的研究思路是否已在以往会议上发表，一种简便方法是搜索关键词“在本仓库中”，相应的检索结果将显示在右侧。\n\n\n\n![image.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyarkable_Awesome-Computer-Vision-Paper-List_readme_21f1ef685b10.png)\n\n\n\n\n---\n\n## 更新\n\n- 2021年12月20日，NIPS 2021\n- 2021年12月20日，BMVC系列\n- 2021年12月20日，WACV系列\n- 2022年1月10日，ACM MM 2017、2021\n- 2022年6月11日，CVPR 2022\n- 2022年12月27日，ECCV 2022，修订BMVC系列\n- 2024年4月7日，提交一次commit以证明我还活着\n---\n\n## 待办事项\n\n\n\n- [x] WACV\n- [x] BMVC\n- [ ] ICLR\n- [ ] ACM MM 2022~2023\n- [ ] AAAI 2022~2023\n- [x] ACM MM 2017（网站不可用）","# Awesome-Computer-Vision-Paper-List 快速上手指南\n\n## 环境准备\n- 操作系统：任意支持 Git 的系统（Windows \u002F macOS \u002F Linux）\n- 前置依赖：已安装 Git 和浏览器（Chrome \u002F Edge \u002F Firefox 均可）\n\n## 安装步骤\n1. 克隆仓库（国内用户可使用镜像加速）  \n   ```bash\n   # GitHub 原始地址\n   git clone https:\u002F\u002Fgithub.com\u002FAmusi\u002FAwesome-Computer-Vision-Paper-List.git\n   \n   # 国内镜像（如 GitHub 访问慢，可替换为 fastgit 镜像）\n   git clone https:\u002F\u002Fhub.fastgit.org\u002FAmusi\u002FAwesome-Computer-Vision-Paper-List.git\n   ```\n\n2. 进入目录  \n   ```bash\n   cd Awesome-Computer-Vision-Paper-List\n   ```\n\n## 基本使用\n1. 打开浏览器，进入仓库根目录的 `README.md`。\n2. 在页面右上角搜索框输入关键词（如 `transformer`、`segmentation`），即可在右侧实时过滤出包含该关键词的论文列表。\n3. 点击各会议名称（如 `CVPR 2023`）即可展开对应年份的论文清单，直接浏览或下载 PDF。","李明是某高校研二的计算机视觉方向学生，正在准备一篇关于“基于扩散模型的低光图像增强”的论文，需要在两周内完成文献综述并确定创新点。\n\n### 没有 Awesome-Computer-Vision-Paper-List 时\n- 得分别打开 CVPR、ICCV、ECCV、AAAI 等官网，逐个年份下载 PDF 列表，手动合并成 Excel，耗时 3 天还没整理完 2023 年的数据。\n- 用 Google Scholar 搜 “low-light diffusion” 时，返回大量 arXiv 预印本，真假难辨，无法确认哪些已被顶会接收。\n- 发现一篇疑似撞车的 BMVC 2023 论文，但学校没订阅，折腾半天才通过导师要到原文，结果只是标题相似，白跑一趟。\n- 想统计近五年“扩散模型+图像增强”的论文数量，只能人工计数，漏掉两篇 ICCV Workshop，导致“研究空白”结论被导师质疑。\n\n### 使用 Awesome-Computer-Vision-Paper-List 后\n- 直接在 GitHub 页面里 `Ctrl+F` 输入 “low-light” 或 “diffusion”，30 秒内列出 CVPR 2023、ICCV 2021、AAAI 2022 等 7 篇相关论文，附带官方链接。\n- 所有条目都标注了会议与年份，一眼区分顶会与预印本，省去验证真伪的麻烦。\n- 发现 BMVC 2023 确实有篇相似工作，点击 md 文件即可跳转官方 PDF，5 分钟读完摘要，确认方法不同，放心继续。\n- 用同一关键词在 2019-2023 区间快速扫一遍，准确得到 11 篇相关论文，自动生成图表写进综述，导师一次性通过。\n\n核心价值：Awesome-Computer-Vision-Paper-List 把分散在十几个顶会的数万篇论文变成可全文检索的“一页纸”，让研究者把时间花在创新而不是翻网页上。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyarkable_Awesome-Computer-Vision-Paper-List_21f1ef68.png","yarkable","Kevin Ye","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyarkable_8e60c8a9.jpg","Hacking for fun！","Ex-ByteDancer. Now at DJI Innovation","Shenzhen",null,"szukevin.site","https:\u002F\u002Fgithub.com\u002Fyarkable",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,759,80,"2026-04-02T12:15:44","MIT",1,"未说明",{"notes":96,"python":94,"dependencies":97},"该仓库仅为会议论文列表的静态 Markdown\u002FPDF 集合，无需安装任何依赖，可直接在浏览器或本地文本编辑器查看；如需全文搜索，可将仓库克隆到本地后使用 grep 等工具。",[],[14,13],[100,101,102,103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119],"cvpr","iccv","nips","computer-vision","artificial-intelligence","paper","eccv","neurips","icml","iclr","ijcai","deep-learning","acmmm","aaai","wacv","bmvc","accv2020","accv2018","machine-learning","awesome-list","2026-03-27T02:49:30.150509","2026-04-06T05:35:38.235965",[123,128],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},6107,"BMVC 列表中的论文标题出现重复，如何修复？","维护者已确认该格式问题，并承诺在当天完成修复。","https:\u002F\u002Fgithub.com\u002Fyarkable\u002FAwesome-Computer-Vision-Paper-List\u002Fissues\u002F1",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},6106,"这个仓库还在持续更新和维护吗？","是的，仓库仍在维护。维护者 yarkable 表示最近因工作较忙，但会在本周晚些时候继续更新。","https:\u002F\u002Fgithub.com\u002Fyarkable\u002FAwesome-Computer-Vision-Paper-List\u002Fissues\u002F2",[]]