[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-paperswithcode--releasing-research-code":3,"tool-paperswithcode--releasing-research-code":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":79,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":87,"env_os":78,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":93,"github_topics":94,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":99,"updated_at":100,"faqs":101,"releases":107},2969,"paperswithcode\u002Freleasing-research-code","releasing-research-code","Tips for releasing research code in Machine Learning (with official NeurIPS 2020 recommendations)","releasing-research-code 是一份专为机器学习研究者打造的开源代码发布指南，汇集了顶级社区的最佳实践，并已被 NeurIPS 会议采纳为官方推荐标准。它旨在解决科研代码常因文档缺失、依赖不明或缺少关键脚本而难以复现的痛点，帮助作者提升代码的可读性与复用性。\n\n该资源特别适合从事人工智能算法研究的研究人员、需要开源项目的开发者以及希望规范代码仓库的学术团队使用。其核心亮点在于提供了一套经过数据验证的\"ML 代码完整性清单”，涵盖依赖说明、训练与评估代码、预训练模型及包含复现命令的结果表格等五大关键要素。数据分析显示，完整包含这些组件的仓库往往能获得更多社区关注与星标。此外，项目还附带了标准化的 README 模板，指导用户如何清晰展示实验细节。通过遵循这些建议，研究者不仅能降低他人的复现门槛，还能让自己的成果更易于被同行理解、信任并在此基础上进一步创新。","# Tips for Publishing Research Code\n\n\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fen\u002Fthumb\u002F0\u002F08\u002FLogo_for_Conference_on_Neural_Information_Processing_Systems.svg\u002F1200px-Logo_for_Conference_on_Neural_Information_Processing_Systems.svg.png\" width=200>\n\n**💡 Collated best practices from most popular ML research repositories - *now official guidelines at NeurIPS 2021!*** \n\nBased on analysis of more than 200 Machine Learning repositories, these recommendations facilitate reproducibility and correlate with GitHub stars - for more details, see our [our blog post](https:\u002F\u002Fmedium.com\u002Fpaperswithcode\u002Fml-code-completeness-checklist-e9127b168501). \n\nFor NeurIPS 2021 code submissions it is recommended (but not mandatory) to use the [README.md template](templates\u002FREADME.md) and check as many items on the ML Code Completeness Checklist (described below) as possible. \n\n## 📋 README.md template\n\nWe provide a [README.md template](templates\u002FREADME.md) that you can use for releasing ML research repositories. The sections in the template were derived by looking at existing repositories, seeing which had the best reception in the community, and then looking at common components that correlate with popularity.\n\n## ✓ ML Code Completeness Checklist\n\nWe compiled this checklist by looking at what's common to the most popular ML research repositories. In addition, we prioritized items that facilitate reproducibility and make it easier for others build upon research code.\n\nThe ML Code Completeness Checklist consists of five items:\n\n1. **Specification of dependencies**\n2. **Training code** \n3. **Evaluation code**\n4. **Pre-trained models**\n5. **README file including table of results accompanied by precise commands to run\u002Fproduce those results**\n\nWe verified that repositories that check more items on the checklist also tend to have a higher number of GitHub stars. This was verified by analysing official NeurIPS 2019 repositories - more details in the [blog post](https:\u002F\u002Fmedium.com\u002Fpaperswithcode\u002Fml-code-completeness-checklist-e9127b168501). We also provide the [data](notebooks\u002Fcode_checklist-neurips2019.csv) and [notebook](notebooks\u002Fcode_checklist-analysis.pdf) to reproduce this analysis from the post. \n\nNeurIPS 2019 repositories that had all five of these components had the highest number of GitHub stars (median of 196 and mean of 2,664 stars). \n\nWe explain each item on the checklist in detail blow. \n\n#### 1. Specification of dependencies\n\nIf you are using Python, this means providing a `requirements.txt` file (if using `pip` and `virtualenv`), providing `environment.yml` file (if using anaconda), or a `setup.py` if your code is a library. \n\nIt is good practice to provide a section in your README.md that explains how to install these dependencies. Assume minimal background knowledge and be clear and comprehensive - if users cannot set up your dependencies they are likely to give up on the rest of your code as well. \n\nIf you wish to provide whole reproducible environments, you might want to consider using Docker and upload a Docker image of your environment into Dockerhub. \n\n#### 2. Training code\n\nYour code should have a training script that can be used to obtain the principal results stated in the paper. This means you should include hyperparameters and any tricks that were used in the process of getting your results. To maximize usefulness, ideally this code should be written with extensibility in mind: what if your user wants to use the same training script on their own dataset?\n\nYou can provide a documented command line wrapper such as `train.py` to serve as a useful entry point for your users. \n\n#### 3. Evaluation code\n\nModel evaluation and experiments often depend on subtle details that are not always possible to explain in the paper. This is why including the exact code you used to evaluate or run experiments is helpful to give a complete description of the procedure. In turn, this helps the user to trust, understand and build on your research.\n\nYou can provide a documented command line wrapper such as `eval.py` to serve as a useful entry point for your users.\n\n#### 4. Pre-trained models\n\nTraining a model from scratch can be time-consuming and expensive. One way to increase trust in your results is to provide a pre-trained model that the community can evaluate to obtain the end results. This means users can see the results are credible without having to train afresh.\n\nAnother common use case is fine-tuning for downstream task, where it's useful to release a pretrained model so others can build on it for application to their own datasets.\n\nLastly, some users might want to try out your model to see if it works on some example data. Providing pre-trained models allows your users to play around with your work and aids understanding of the paper's achievements.\n\n#### 5. README file includes table of results accompanied by precise command to run to produce those results\n\nAdding a table of results into README.md lets your users quickly understand what to expect from the repository (see the [README.md template](templates\u002FREADME.md) for an example). Instructions on how to reproduce those results (with links to any relevant scripts, pretrained models etc) can provide another entry point for the user and directly facilitate reproducibility. In some cases, the main result of a paper is a Figure, but that might be more difficult for users to understand without reading the paper. \n\nYou can further help the user understand and contextualize your results by linking back to the full leaderboard that has up-to-date results from other papers. There are [multiple leaderboard services](#results-leaderboards) where this information is stored.  \n\n## 🎉 Additional awesome resources for releasing research code\n\n### Hosting pretrained models files\n\n1. [Zenodo](https:\u002F\u002Fzenodo.org) - versioning, 50GB, free bandwidth, DOI, provides long-term preservation\n2. [GitHub Releases](https:\u002F\u002Fhelp.github.com\u002Fen\u002Fgithub\u002Fadministering-a-repository\u002Fmanaging-releases-in-a-repository) - versioning, 2GB file limit, free bandwidth\n3. [OneDrive](https:\u002F\u002Fwww.onedrive.com\u002F) - versioning, 2GB (free)\u002F 1TB (with Office 365), free bandwidth\n4. [Google Drive](https:\u002F\u002Fdrive.google.com) - versioning, 15GB, free bandwidth\n5. [Dropbox](https:\u002F\u002Fdropbox.com) - versioning, 2GB (paid unlimited), free bandwidth\n6. [AWS S3](https:\u002F\u002Faws.amazon.com\u002Fs3\u002F) - versioning, paid only, paid bandwidth\n7. [huggingface_hub](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fhuggingface_hub) - versioning, no size limitations, free bandwidth\n8. [DAGsHub](https:\u002F\u002Fdagshub.com\u002F) - versioning, no size limitations, free bandwith\n9. [CodaLab Worksheets](https:\u002F\u002Fworksheets.codalab.org\u002F) - 10GB, free bandwith\n \n### Managing model files\n\n1. [RClone](https:\u002F\u002Frclone.org\u002F) - provides unified access to many different cloud storage providers\n\n### Standardized model interfaces\n\n1. [PyTorch Hub](https:\u002F\u002Fpytorch.org\u002Fhub\u002F)\n2. [Tensorflow Hub](https:\u002F\u002Fwww.tensorflow.org\u002Fhub)\n3. [Hugging Face NLP models](https:\u002F\u002Fhuggingface.co\u002Fmodels)\n4. [ONNX](https:\u002F\u002Fonnx.ai\u002F)\n\n### Results leaderboards\n\n1. [Papers with Code leaderboards](https:\u002F\u002Fpaperswithcode.com\u002Fsota) - with 4000+ leaderboards\n2. [CodaLab Competitions](https:\u002F\u002Fcompetitions.codalab.org\u002F) - with 450+ leaderboards\n3. [EvalAI](https:\u002F\u002Feval.ai\u002F) - with 100+ leaderboards\n4. [NLP Progress](https:\u002F\u002Fnlpprogress.com\u002F) - with 90+ leaderboards\n5. [Collective Knowledge](https:\u002F\u002FcKnowledge.io\u002Freproduced-results) - with 40+ leaderboards\n6. [Weights & Biases - Benchmarks](https:\u002F\u002Fwww.wandb.com\u002Fbenchmarks) - with 9+ leaderboards\n\n### Making project pages\n\n1. [GitHub pages](https:\u002F\u002Fpages.github.com\u002F)\n2. [Fastpages](https:\u002F\u002Fgithub.com\u002Ffastai\u002Ffastpages)\n\n### Making demos, tutorials, executable papers\n\n1. [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002F)\n2. [Binder](https:\u002F\u002Fmybinder.org\u002F)\n3. [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)\n4. [CodaLab Worksheets](https:\u002F\u002Fworksheets.codalab.org\u002F)\n\n## Contributing\n\nIf you'd like to contribute, or have any suggestions for these guidelines, you can contact us at hello@paperswithcode.com or open an issue on this GitHub repository. \n\nAll contributions welcome! All content in this repository is licensed under the MIT license.\n","# 发布研究代码的提示\n\n\u003Cimg src=\"https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fen\u002Fthumb\u002F0\u002F08\u002FLogo_for_Conference_on_Neural_Information_Processing_Systems.svg\u002F1200px-Logo_for_Conference_on_Neural_Information_Processing_Systems.svg.png\" width=200>\n\n**💡 汇总了最受欢迎的机器学习研究仓库中的最佳实践——现已正式成为 NeurIPS 2021 的官方指南！**\n\n基于对200多个机器学习仓库的分析，这些建议有助于提高可重复性，并且与 GitHub 星数呈正相关。更多详情请参阅我们的[博客文章](https:\u002F\u002Fmedium.com\u002Fpaperswithcode\u002Fml-code-completeness-checklist-e9127b168501)。\n\n对于 NeurIPS 2021 的代码提交，建议（但非强制）使用 [README.md 模板](templates\u002FREADME.md)，并尽可能勾选下方 ML 代码完整性检查清单中的各项内容。\n\n## 📋 README.md 模板\n\n我们提供了一个 [README.md 模板](templates\u002FREADME.md)，供您发布机器学习研究仓库时使用。该模板中的各部分内容是通过对现有仓库进行考察得出的：我们关注哪些仓库在社区中反响最好，并从中提炼出与受欢迎程度相关的常见组件。\n\n## ✓ ML 代码完整性检查清单\n\n我们通过梳理最受欢迎的机器学习研究仓库中的共性，编制了这份检查清单。此外，我们还优先考虑那些能够促进可重复性、便于他人在此基础上进一步开发研究代码的条目。\n\nML 代码完整性检查清单包含以下五项：\n\n1. **依赖项说明**\n2. **训练代码**\n3. **评估代码**\n4. **预训练模型**\n5. **README 文件，包含结果表格及用于运行或重现这些结果的精确命令**\n\n我们验证发现，勾选检查清单中更多项目的仓库，往往拥有更多的 GitHub 星数。这一结论是通过对 NeurIPS 2019 官方仓库的分析得出的——更多细节请参见[博客文章](https:\u002F\u002Fmedium.com\u002Fpaperswithcode\u002Fml-code-completeness-checklist-e9127b168501)。我们还提供了用于复现该分析的[数据](notebooks\u002Fcode_checklist-neurips2019.csv)和[笔记本](notebooks\u002Fcode_checklist-analysis.pdf)。\n\nNeurIPS 2019 中同时具备上述五个要素的仓库，其 GitHub 星数最高（中位数为196颗，平均值为2,664颗）。\n\n下面我们详细解释检查清单中的每一项。\n\n#### 1. 依赖项说明\n\n如果您使用的是 Python，这意味着需要提供 `requirements.txt` 文件（如果使用 `pip` 和 `virtualenv`），或者提供 `environment.yml` 文件（如果使用 Anaconda），又或者如果是库形式的代码，则需要提供 `setup.py` 文件。\n\n良好的做法是在 README.md 中添加一个专门的部分，说明如何安装这些依赖项。假设用户只有最基本的背景知识，因此说明应清晰全面——如果用户无法成功设置您的依赖环境，他们很可能会放弃继续使用您的代码。\n\n如果您希望提供完整的可复现环境，可以考虑使用 Docker，并将您的环境镜像上传至 Docker Hub。\n\n#### 2. 训练代码\n\n您的代码应包含一个训练脚本，能够用于重现论文中所陈述的主要结果。这意味着您需要记录训练过程中使用的超参数以及任何技巧。为了最大化实用性，理想情况下，这段代码应具有一定的扩展性：例如，如果用户想将自己的数据集用于相同的训练流程，是否可行？\n\n您可以提供一个文档化的命令行接口，如 `train.py`，作为用户使用代码的便捷入口。\n\n#### 3. 評估代码\n\n模型评估和实验往往依赖于一些难以在论文中详尽描述的细微之处。因此，附上您实际用于评估或开展实验的完整代码，有助于全面展示实验流程。这不仅能让用户更信任、理解并在此基础上进一步开发您的研究成果。\n\n同样地，您可以提供一个文档化的命令行接口，如 `eval.py`，作为用户使用代码的便捷入口。\n\n#### 4. 预训练模型\n\n从头开始训练模型可能耗时且成本高昂。提升他人对您成果信任度的一种方式，就是提供一个预训练好的模型，供社区直接评估以获得最终结果。这样一来，用户无需重新训练即可验证结果的可信性。\n\n另一个常见的应用场景是针对下游任务进行微调。在这种情况下，发布预训练模型可以让其他人基于此模型，结合自己的数据集开展应用开发。\n\n此外，有些用户可能只是想简单试用一下您的模型，看看它在示例数据上的表现如何。提供预训练模型能够让用户轻松上手，从而更好地理解论文的核心贡献。\n\n#### 5. README 文件应包含结果表格，并附上用于重现这些结果的精确命令\n\n在 README.md 中添加结果表格，可以帮助用户快速了解该仓库能提供什么（示例请参阅 [README.md 模板](templates\u002FREADME.md)）。同时，提供重现这些结果的具体步骤说明（包括相关脚本、预训练模型等的链接），可以为用户提供另一个切入点，直接促进代码的可重复性。有时，论文的主要成果可能是一张图表，但如果没有阅读论文，用户可能难以理解其含义。\n\n为了帮助用户更好地理解和定位您的成果，还可以链接到包含其他论文最新结果的完整排行榜。目前有[多种排行榜服务](#results-leaderboards)可用于存储此类信息。\n\n## 🎉 发布研究代码的其他实用资源\n\n### 预训练模型文件托管\n\n1. [Zenodo](https:\u002F\u002Fzenodo.org) - 版本控制，50GB 存储空间，免费带宽，DOI，长期保存\n2. [GitHub Releases](https:\u002F\u002Fhelp.github.com\u002Fen\u002Fgithub\u002Fadministering-a-repository\u002Fmanaging-releases-in-a-repository) - 版本控制，文件大小上限 2GB，免费带宽\n3. [OneDrive](https:\u002F\u002Fwww.onedrive.com\u002F) - 版本控制，2GB（免费）\u002F 1TB（需 Office 365），免费带宽\n4. [Google Drive](https:\u002F\u002Fdrive.google.com) - 版本控制，15GB 存储空间，免费带宽\n5. [Dropbox](https:\u002F\u002Fdropbox.com) - 版本控制，2GB（付费版无限制），免费带宽\n6. [AWS S3](https:\u002F\u002Faws.amazon.com\u002Fs3\u002F) - 版本控制，仅限付费用户，需支付带宽费用\n7. [huggingface_hub](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fhuggingface_hub) - 版本控制，无大小限制，免费带宽\n8. [DAGsHub](https:\u002F\u002Fdagshub.com\u002F) - 版本控制，无大小限制，免费带宽\n9. [CodaLab Worksheets](https:\u002F\u002Fworksheets.codalab.org\u002F) - 10GB 存储空间，免费带宽\n\n### 模型文件管理工具\n\n1. [RClone](https:\u002F\u002Frclone.org\u002F) - 提供对多种云存储服务的统一访问接口\n\n### 标准化模型接口\n\n1. [PyTorch Hub](https:\u002F\u002Fpytorch.org\u002Fhub\u002F)\n2. [TensorFlow Hub](https:\u002F\u002Fwww.tensorflow.org\u002Fhub)\n3. [Hugging Face NLP 模型](https:\u002F\u002Fhuggingface.co\u002Fmodels)\n4. [ONNX](https:\u002F\u002Fonnx.ai\u002F)\n\n### 结果排行榜\n\n1. [Papers with Code 排行榜](https:\u002F\u002Fpaperswithcode.com\u002Fsota) - 拥有超过 4000 个排行榜\n2. [CodaLab 竞赛](https:\u002F\u002Fcompetitions.codalab.org\u002F) - 拥有超过 450 个排行榜\n3. [EvalAI](https:\u002F\u002Feval.ai\u002F) - 拥有超过 100 个排行榜\n4. [NLP Progress](https:\u002F\u002Fnlpprogress.com\u002F) - 拥有超过 90 个排行榜\n5. [Collective Knowledge](https:\u002F\u002FcKnowledge.io\u002Freproduced-results) - 拥有超过 40 个排行榜\n6. [Weights & Biases - 基准测试](https:\u002F\u002Fwww.wandb.com\u002Fbenchmarks) - 拥有 9 个以上的排行榜\n\n### 创建项目页面\n\n1. [GitHub Pages](https:\u002F\u002Fpages.github.com\u002F)\n2. [FastPages](https:\u002F\u002Fgithub.com\u002Ffastai\u002Ffastpages)\n\n### 制作演示、教程和可执行论文\n\n1. [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002F)\n2. [Binder](https:\u002F\u002Fmybinder.org\u002F)\n3. [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)\n4. [CodaLab 工作表](https:\u002F\u002Fworksheets.codalab.org\u002F)\n\n## 贡献说明\n\n如果您希望贡献内容，或对这些指南有任何建议，欢迎通过 hello@paperswithcode.com 联系我们，或在此 GitHub 仓库中提交问题。  \n\n我们欢迎所有贡献！本仓库中的所有内容均采用 MIT 许可证授权。","# releasing-research-code 快速上手指南\n\n本指南基于 NeurIPS 2021 官方推荐的机器学习研究代码发布最佳实践，旨在帮助开发者构建高可复现性、易用的开源项目。\n\n## 环境准备\n\n在开始整理和发布代码前，请确保满足以下基础要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (推荐 Linux 环境以保证复现性)\n*   **版本控制**：已安装 Git\n*   **编程语言**：Python (主流 ML 研究语言)\n*   **依赖管理工具**：根据项目需求选择以下任一：\n    *   `pip` + `virtualenv`\n    *   `conda` (Anaconda\u002FMiniconda)\n    *   `Docker` (用于提供完整的可复现环境)\n\n> **提示**：若需提升国内下载速度，建议配置清华源或阿里源：\n> *   Pip: `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage>`\n> *   Conda: 配置 `.condarc` 使用 `https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F`\n\n## 安装步骤\n\n本项目并非一个直接运行的软件库，而是一套**代码组织规范**。请按照以下步骤将您的研究代码整理为符合标准的仓库：\n\n### 1. 创建依赖说明文件\n根据您使用的包管理器，在项目根目录生成对应的依赖文件：\n\n*   **使用 pip**:\n    ```bash\n    pip freeze > requirements.txt\n    ```\n*   **使用 conda**:\n    ```bash\n    conda env export > environment.yml\n    ```\n*   **作为库发布**:\n    编写 `setup.py` 文件。\n\n### 2. 整合核心代码脚本\n确保仓库中包含以下两个关键入口脚本（若缺失请补充）：\n*   `train.py`: 包含复现论文主要结果所需的训练逻辑及超参数。\n*   `eval.py`: 包含评估模型和运行实验的确切代码。\n\n### 3. 准备预训练模型\n将训练好的模型文件上传至稳定的托管平台（推荐国内访问速度较好的方案）：\n*   **Hugging Face Hub**: `huggingface_hub` (无大小限制，带宽免费)\n*   **DAGsHub**: 无大小限制，带宽免费\n*   **其他选项**: Zenodo, GitHub Releases (限 2GB), 或对象存储 (AWS S3, 阿里云 OSS)\n\n### 4. 应用 README 模板\n复制并修改官方提供的 [README.md template](templates\u002FREADME.md)。务必在 README 中包含：\n*   依赖安装说明\n*   **结果表格** (Table of Results)\n*   复现结果的**精确命令**\n\n## 基本使用\n\n遵循此规范后，您的仓库应具备清晰的“开箱即用”体验。以下是用户（或您自己测试）的标准使用流程示例：\n\n### 1. 安装环境\n```bash\n# 方式 A: 使用 pip\npip install -r requirements.txt\n\n# 方式 B: 使用 conda\nconda env create -f environment.yml\nconda activate \u003Cyour-env-name>\n```\n\n### 2. 运行训练 (复现结果)\n使用提供的封装脚本启动训练，确保能复现论文中的核心指标：\n```bash\npython train.py --config configs\u002Fmy_experiment.yaml\n```\n\n### 3. 运行评估\n加载预训练模型或直接评估刚训练好的模型：\n```bash\npython eval.py --model_path checkpoints\u002Fbest_model.pth --data test_set\n```\n\n### 4. 验证结果\n对照 `README.md` 中的结果表格，确认输出的指标（如 Accuracy, F1 Score 等）与文档一致。\n\n---\n*注：本指南内容源自 Papers With Code 整理的 ML 代码完整性清单 (ML Code Completeness Checklist)，遵循 MIT 协议。*","某高校实验室团队刚在 NeurIPS 发表了一篇关于图像分割的论文，急需开源代码以响应社区复现需求并提升学术影响力。\n\n### 没有 releasing-research-code 时\n- **环境配置地狱**：仅口头说明“需要 PyTorch\"，未提供 `requirements.txt` 或 Docker 镜像，导致下游用户因依赖版本冲突无法运行代码，纷纷在 Issue 区抱怨后放弃。\n- **复现结果失败**：缺少独立的训练脚本和超参数记录，他人无法重现论文中的核心指标，质疑研究的可信度。\n- **评估过程黑盒**：未公开具体的评估代码，用户不清楚数据预处理细节，难以在新数据集上迁移应用。\n- **模型获取困难**：未提供预训练权重文件，迫使使用者从头训练，耗费数天算力和时间。\n- **文档指引缺失**：README 缺乏清晰的命令表格，用户不知道如何一键跑出结果，导致仓库星数（Stars）增长缓慢。\n\n### 使用 releasing-research-code 后\n- **一键环境部署**：遵循指南提供了完整的 `environment.yml` 和 Docker 配置，用户可快速搭建一致的运行环境，大幅降低上手门槛。\n- **训练完全透明**：包含了带详细注释的 `train.py` 及所有超参数，确保他人能精准复现论文结果，甚至轻松替换为自己的数据集。\n- **评估逻辑开源**：公开了完整的评估脚本，消除了实验细节的模糊地带，增强了研究的透明度与可信度。\n- **开箱即用模型**：直接上传预训练模型权重，让用户能立即验证效果并进行二次开发，极大提升了代码实用性。\n- **标准化文档引导**：采用官方推荐的 README 模板，清晰列出“命令 - 结果”对照表，显著提升了仓库的专业度和 GitHub 星数。\n\n通过落实这套最佳实践，团队不仅消除了复现障碍，更将代码仓库打造成了高引用、高关注的行业标杆。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpaperswithcode_releasing-research-code_a0e2c13a.png","paperswithcode","Papers with code","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpaperswithcode_829d689c.png","",null,"hello@paperswithcode.com","https:\u002F\u002Fpaperswithcode.com","https:\u002F\u002Fgithub.com\u002Fpaperswithcode",2892,741,"2026-04-03T17:43:15","MIT",1,"未说明",{"notes":90,"python":91,"dependencies":92},"该仓库并非具体的 AI 模型或工具代码，而是一份关于如何发布机器学习研究代码的指南和最佳实践清单。因此，它本身没有特定的操作系统、GPU、内存或依赖库要求。文档建议用户在发布自己的代码时，应提供 requirements.txt、environment.yml 或 setup.py 来指定依赖，并推荐使用 Docker 构建可复现环境。","未说明具体版本，但提及支持 Python 环境",[],[13],[95,96,97,98],"machine-learning","awesome-list","neurips","neurips-2020","2026-03-27T02:49:30.150509","2026-04-06T05:15:30.548798",[102],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},13705,"在提交论文时提供 GitHub 仓库链接是否会违反匿名评审的要求？","是的，直接提供公开的 GitHub 链接可能会违反匿名评审规定。官方建议是将代码仓库打包成匿名的 zip 文件，与论文一起提交。待论文被录用后，再附上公开的 GitHub 仓库链接。","https:\u002F\u002Fgithub.com\u002Fpaperswithcode\u002Freleasing-research-code\u002Fissues\u002F4",[]]