[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-falloutdurham--beginners-pytorch-deep-learning":3,"tool-falloutdurham--beginners-pytorch-deep-learning":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":23,"env_os":108,"env_gpu":109,"env_ram":110,"env_deps":111,"category_tags":119,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":152},3397,"falloutdurham\u002Fbeginners-pytorch-deep-learning","beginners-pytorch-deep-learning","Repository for scripts and notebooks from the book: Programming PyTorch for Deep Learning","beginners-pytorch-deep-learning 是配套书籍《Programming PyTorch for Deep Learning》的官方代码仓库，汇集了书中所有的脚本与 Jupyter Notebook 示例。它旨在帮助学习者跨越从理论到实践的鸿沟，解决深度学习入门过程中环境配置复杂、数据获取困难以及代码复现门槛高等痛点。\n\n该项目不仅提供了完整的图像、文本和音频数据处理流程，还针对部分失效的数据链接提供了备用下载方案，确保学习路径畅通无阻。内容覆盖广泛，既包含基础模型构建，也涉及模型量化、GPT-2 文本生成以及图像自监督学习等前沿技术更新。此外，项目详细文档指导用户如何通过 Conda 或 pip 快速搭建虚拟环境，并支持在 Google Colab 和本地 Jupyter 环境中无缝运行。\n\n这套资源非常适合深度学习初学者、高校学生以及希望系统掌握 PyTorch 框架的开发者使用。无论你是想从零开始理解神经网络原理，还是寻求可落地的部署参考案例，beginners-pytorch-deep-learning 都能提供结构清晰、即拿即用的实践指南，助你轻松开","beginners-pytorch-deep-learning 是配套书籍《Programming PyTorch for Deep Learning》的官方代码仓库，汇集了书中所有的脚本与 Jupyter Notebook 示例。它旨在帮助学习者跨越从理论到实践的鸿沟，解决深度学习入门过程中环境配置复杂、数据获取困难以及代码复现门槛高等痛点。\n\n该项目不仅提供了完整的图像、文本和音频数据处理流程，还针对部分失效的数据链接提供了备用下载方案，确保学习路径畅通无阻。内容覆盖广泛，既包含基础模型构建，也涉及模型量化、GPT-2 文本生成以及图像自监督学习等前沿技术更新。此外，项目详细文档指导用户如何通过 Conda 或 pip 快速搭建虚拟环境，并支持在 Google Colab 和本地 Jupyter 环境中无缝运行。\n\n这套资源非常适合深度学习初学者、高校学生以及希望系统掌握 PyTorch 框架的开发者使用。无论你是想从零开始理解神经网络原理，还是寻求可落地的部署参考案例，beginners-pytorch-deep-learning 都能提供结构清晰、即拿即用的实践指南，助你轻松开启深度探索之旅。","# PyTorch for Deep Learning: Creating and Deploying Deep Learning Applications\n\nRepository for scripts and notebooks from the book: Programming PyTorch for Deep Learning: Creating and Deploying Deep Learning Applications\n\n## Download of dataset for chapter 2 ([download.py](https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fblob\u002Fmaster\u002Fchapter2\u002Fdownload.py))\n\nSince some links are broken meanwhile, you can also find a downloadable version of the image dataset here (zip file): https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16h8E7dnj5TpxF_ex4vF2do20iMWziM70\n\n## Updates\n\n* 2020\u002F05\u002F25: Chapter 9.75 — Image Self-Supervised Learning\n\n* 2020\u002F03\u002F01: Chapter 9.5 - Text Generation With GPT-2 And (only) PyTorch, or Semi\u002FSelf-Supervision Learning Part 1 (Letters To Charlotte)\n\n* 2020\u002F05\u002F03: Chapter 7.5 - Quantizing Models \n\n________________\n\n# Deutschsprachige Ausgabe\n## PyTorch für Deep Learning: Anwendungen für Bild-, Ton- und Textdaten entwickeln und deployen\n\n--> [https:\u002F\u002Fdpunkt.de\u002Fprodukt\u002Fpytorch-fuer-deep-learning\u002F]()\n\n## Hinweis zum Download des Datensatzes in Kapitel 2 ([download.py](https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fblob\u002Fmaster\u002Fchapter2\u002Fdownload.py))\n\nDa einige URLs inzwischen leider veraltet sind, stehen Ihnen die Bilddateien zusätzlich als Download (Zip-Datei) bereit: https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16h8E7dnj5TpxF_ex4vF2do20iMWziM70 \n\n## Installationshinweise\n\n - [Python - Downloads und Dokumentation](https:\u002F\u002Fwww.python.org\u002F)\n - [Anaconda - Dokumentation mit Installationshinweisen](https:\u002F\u002Fdocs.anaconda.com\u002Fanaconda\u002F)\n - [pip - Installationshinweise](https:\u002F\u002Fpypi.org\u002Fproject\u002Fpip\u002F)\n - [PyTorch - Installationshinweise](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)\n   + falls Installation nicht mit `conda env create --file environment.yml`\u002F`pip3 install -r requirements.txt\n   \u002Frequirements_cuda_available.txt` erfolgt; ansonsten siehe Abschnitt [_Versionskontrolle_](#Versionskontrolle)\n - [Jupyter Notebook \u002F JupyterLab - Installation und Dokumentation](https:\u002F\u002Fjupyter.org\u002F)\n - [Google Colaboratory - Einführung und weitergehende Hinweise insb. zum Einlesen von Daten](https:\u002F\u002Fcolab.research.google.com\u002Fnotebooks\u002Fintro.ipynb)\n - [Github - Forken und Klonen eines Repositorys](https:\u002F\u002Fdocs.github.com\u002Fen\u002Ffree-pro-team@latest\u002Fgithub\u002Fgetting-started-with-github\u002Ffork-a-repo)\n \n## Versionskontrolle\n\nNachdem Sie das Github-Repository lokal geklont (bzw. zuvor geforkt) haben!\n\n### Conda\n\n1.) Wechseln Sie zunächst in den Zielordner (`cd beginners-pytorch-deep-learning`), erstellen Sie dann eine (lokale) virtuelle Umgebung und installieren Sie die benötigten Bibliotheken und Pakete:\n\n`conda env create --file environment.yml`\n\n2.) Anschließend aktivieren Sie die virtuelle Umgebung:\n\n`conda activate myenv`\n\n3.) Zum Deaktivieren nutzen Sie den Befehl:\n\n`conda deactivate`\n\n### pip\n\n1.) Wechseln Sie zunächst in den Zielordner (`cd beginners-pytorch-deep-learning`) und erstellen Sie anschließend eine\n virtuelle Umgebung:\n\n`python3 -m venv myenv`\n\n2.) Aktivieren Sie die virtuelle Umgebung (https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html):\n\n`source myenv\u002Fbin\u002Factivate` (Ubuntu\u002FMac)\n`myenv\\Scripts\\activate.bat` (Windows)\n \n3.) Erstellen Sie eine (lokale) virtuelle Umgebung und installieren Sie die benötigten Bibliotheken und Pakete:\n\n`pip3 install -r requirements.txt`\n\n\n4.) Zum Deaktivieren nutzen Sie den Befehl:\n\n`deactivate`\n\n### Bei Nutzung von Jupyter Notebook\n\n1.) Zunächst müssen Sie Jupyter Notebook installieren:\n\n `conda install -c conda-forge notebook` oder `pip3 install notebook`\n\n2.) Nach Aktivierung Ihrer virtuellen Umgebung (s.o.) geben Sie den folgenden Befehl in Ihre Kommandozeile ein, um die\n `ipykernel`-Bibliothek herunterzuladen:\n \n `conda install ipykernel` oder `pip3 install ipykernel`\n \n3.) Installieren Sie einen Kernel mit Ihrer virtuellen Umgebung:\n\n `ipython kernel install --user --name=myenv`\n\n4.) Starten Sie Jupyter Notebook:\n\n `jupyter notebook`\n \n5.) Nach Öffnen des Jupyter-Notebook-Startbildschirms wählen Sie auf der rechten Seite das Feld _New_ (bzw. in der\n Notebook-Ansischt den Reiter _Kernel_\u002F_Change Kernel_) und wählen Sie _myenv_ aus.\n \n### Google Colaboratory\n\nHier stehen Ihnen hier für mehrere Stunden leistungsfähige GPUs zur Verfügung, die das Training der Modelle merklich beschleunigen können. In Google Colab stehen Ihnen standardmäßig einige Pakete bereits vorinstalliert zur Verfügung. Da sich\n Neuinstallationen immer nur auf ein Notebook beziehen, können Sie von einer Einrichtung einer virtuellen Umgebung\n  absehen und direkt die Pakete durch Ausführen der Zellen bzw. Zeilen, in denen ein **!** vorangestellt ist, installieren.\n","# PyTorch深度学习：构建与部署深度学习应用\n\n本书《使用PyTorch进行深度学习编程：构建与部署深度学习应用》中的脚本和笔记本的仓库。\n\n## 第2章数据集下载（[download.py](https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fblob\u002Fmaster\u002Fchapter2\u002Fdownload.py)）\n\n由于部分链接已失效，您也可以在此处找到可下载的图像数据集压缩包：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16h8E7dnj5TpxF_ex4vF2do20iMWziM70\n\n## 更新内容\n\n* 2020年5月25日：第9.75章——图像自监督学习\n\n* 2020年3月1日：第9.5章——使用GPT-2及仅PyTorch进行文本生成，或半\u002F自监督学习第一部分（致夏洛特的信）\n\n* 2020年5月3日：第7.5章——模型量化\n\n________________\n\n# 德语版\n## PyTorch深度学习：开发并部署图像、音频和文本数据的应用\n\n--> [https:\u002F\u002Fdpunkt.de\u002Fprodukt\u002Fpytorch-fuer-deep-learning\u002F]()\n\n## 关于第2章数据集下载的说明（[download.py](https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fblob\u002Fmaster\u002Fchapter2\u002Fdownload.py)）\n\n由于部分URL现已失效，我们额外提供了该图像数据集的下载链接（压缩包）：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16h8E7dnj5TpxF_ex4vF2do20iMWziM70 \n\n## 安装说明\n\n - [Python下载与文档](https:\u002F\u002Fwww.python.org\u002F)\n - [Anaconda安装与文档](https:\u002F\u002Fdocs.anaconda.com\u002Fanaconda\u002F)\n - [pip安装说明](https:\u002F\u002Fpypi.org\u002Fproject\u002Fpip\u002F)\n - [PyTorch安装说明](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)\n   + 如果未通过`conda env create --file environment.yml`或`pip3 install -r requirements.txt \u002Frequirements_cuda_available.txt`进行安装；否则请参阅[_版本控制_](#Versionskontrolle)一节\n - [Jupyter Notebook \u002F JupyterLab安装与文档](https:\u002F\u002Fjupyter.org\u002F)\n - [Google Colaboratory入门及更多关于数据导入的说明](https:\u002F\u002Fcolab.research.google.com\u002Fnotebooks\u002Fintro.ipynb)\n - [Github仓库的fork与克隆](https:\u002F\u002Fdocs.github.com\u002Fen\u002Ffree-pro-team@latest\u002Fgithub\u002Fgetting-started-with-github\u002Ffork-a-repo)\n\n## 版本控制\n\n在本地克隆（或事先fork）GitHub仓库之后！\n\n### Conda\n\n1.) 首先切换到目标文件夹（`cd beginners-pytorch-deep-learning`），然后创建一个本地虚拟环境，并安装所需的库和包：\n\n`conda env create --file environment.yml`\n\n2.) 接着激活虚拟环境：\n\n`conda activate myenv`\n\n3.) 若要停用虚拟环境，请使用以下命令：\n\n`conda deactivate`\n\n### pip\n\n1.) 首先切换到目标文件夹（`cd beginners-pytorch-deep-learning`），然后创建一个虚拟环境：\n\n`python3 -m venv myenv`\n\n2.) 激活虚拟环境（参考Python官方文档）：\n\n`source myenv\u002Fbin\u002Factivate`（Ubuntu\u002FMac）\n`myenv\\Scripts\\activate.bat`（Windows）\n \n3.) 创建本地虚拟环境并安装所需库和包：\n\n`pip3 install -r requirements.txt`\n\n\n4.) 若要停用虚拟环境，请使用以下命令：\n\n`deactivate`\n\n### 使用Jupyter Notebook时\n\n1.) 首先需要安装Jupyter Notebook：\n\n`conda install -c conda-forge notebook` 或 `pip3 install notebook`\n\n2.) 在激活虚拟环境后（如上所述），在命令行中输入以下命令以下载`ipykernel`库：\n\n`conda install ipykernel` 或 `pip3 install ipykernel`\n \n3.) 使用您的虚拟环境安装内核：\n\n`ipython kernel install --user --name=myenv`\n\n4.) 启动Jupyter Notebook：\n\n`jupyter notebook`\n \n5.) 打开Jupyter Notebook主界面后，在右侧选择“New”选项（或在Notebook视图中点击“Kernel”\u002F“Change Kernel”标签），然后选择“myenv”。\n\n### Google Colaboratory\n\n在这里，您可以使用高性能GPU长达数小时，从而显著加速模型训练。Google Colab默认预装了一些软件包。由于每次重新安装仅针对单个Notebook生效，因此您可以省略设置虚拟环境的步骤，直接通过运行带有**!**前缀的单元格或行来安装所需的软件包。","# beginners-pytorch-deep-learning 快速上手指南\n\n本指南基于《Programming PyTorch for Deep Learning》配套代码库，帮助开发者快速搭建环境并运行深度学习示例。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Windows, macOS, 或 Linux (Ubuntu 推荐)\n- **Python 版本**: Python 3.6+\n- **硬件**: 可选配 NVIDIA GPU (用于加速训练)，若使用 CPU 亦可运行大部分示例\n\n### 前置依赖\n请确保已安装以下基础工具：\n- [Python](https:\u002F\u002Fwww.python.org\u002F)\n- [Git](https:\u002F\u002Fgit-scm.com\u002F)\n- 包管理工具：**Conda** (推荐) 或 **pip**\n\n> **国内加速建议**：\n> - 安装 Conda 时推荐使用 [清华镜像源](https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fhelp\u002Fanaconda\u002F)。\n> - 安装 PyTorch 时，请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 并根据提示选择 `conda` 或 `pip`，在命令中替换为国内源（如 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`）。\n\n---\n\n## 2. 安装步骤\n\n### 第一步：克隆项目\n打开终端（Terminal）或命令行，执行以下命令获取代码：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning.git\ncd beginners-pytorch-deep-learning\n```\n\n### 第二步：创建虚拟环境并安装依赖\n\n#### 方案 A：使用 Conda (推荐)\n1. 创建环境：\n   ```bash\n   conda env create --file environment.yml\n   ```\n   *若下载缓慢，可尝试指定清华源：*\n   ```bash\n   conda env create --file environment.yml --channel https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F\n   ```\n\n2. 激活环境：\n   ```bash\n   conda activate myenv\n   ```\n\n#### 方案 B：使用 pip\n1. 创建虚拟环境：\n   ```bash\n   python3 -m venv myenv\n   ```\n\n2. 激活环境：\n   - **Linux\u002FmacOS**: `source myenv\u002Fbin\u002Factivate`\n   - **Windows**: `myenv\\Scripts\\activate.bat`\n\n3. 安装依赖：\n   ```bash\n   pip3 install -r requirements.txt\n   ```\n   *国内加速:* `pip3 install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 第三步：配置 Jupyter Notebook (可选)\n若需在 Jupyter 中运行 `.ipynb` 文件，请在激活的虚拟环境中执行：\n\n```bash\n# 安装 notebook 和 ipykernel\npip3 install notebook ipykernel\n# 或将上面命令换为 conda install -c conda-forge notebook ipykernel\n\n# 将当前环境注册为 Jupyter Kernel\nipython kernel install --user --name=myenv\n```\n\n启动 Jupyter：\n```bash\njupyter notebook\n```\n在浏览器打开后，新建 Notebook 时请在右侧 **Kernel** 菜单中选择 `myenv`。\n\n---\n\n## 3. 基本使用\n\n### 数据集下载说明\n第 2 章的部分图片数据源链接可能已失效。如果运行 `chapter2\u002Fdownload.py` 失败，请手动下载备用数据包：\n- **下载地址**: [Google Drive 备份 (ZIP)](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16h8E7dnj5TpxF_ex4vF2do20iMWziM70)\n- 下载后解压至项目对应章节目录即可。\n\n### 运行示例脚本\n环境配置完成后，您可以直接运行书中的示例脚本。例如，运行第 2 章的数据下载脚本（需先修复链接或使用手动下载的数据）：\n\n```bash\npython chapter2\u002Fdownload.py\n```\n\n或者在 Jupyter Notebook 中打开对应的章节笔记（如 `chapter2\u002F*.ipynb`），按顺序执行单元格即可开始深度学习模型的构建与训练。\n\n### 使用 Google Colab (免本地配置)\n如果您没有本地 GPU 或希望快速体验：\n1. 将本项目 Fork 到您的 GitHub 账号。\n2. 访问 [Google Colaboratory](https:\u002F\u002Fcolab.research.google.com\u002F)。\n3. 选择 \"GitHub\" 标签页，加载您的仓库。\n4. 在笔记本中直接运行带有 `!` 前缀的命令单元格来安装依赖（Colab 已预装大部分基础库），并利用免费的 GPU 资源进行模型训练。","某高校计算机系研究生李明正试图复现《Programming PyTorch for Deep Learning》书中的图像分类实验，以完成他的课程论文。\n\n### 没有 beginners-pytorch-deep-learning 时\n- **环境配置耗时极长**：手动安装 PyTorch、Jupyter 及各类依赖库时，常因版本不兼容导致报错，半天时间都花在解决“依赖地狱”上。\n- **数据获取受阻**：书中提供的原始数据集下载链接已失效，不得不花费大量精力去全网搜寻替代数据或联系作者，严重拖慢进度。\n- **代码复现困难**：缺乏标准化的笔记和脚本，需从零编写数据加载和模型训练代码，极易在细节处引入难以排查的 Bug。\n- **前沿技术脱节**：难以直接获取书中后续更新的自监督学习或模型量化等进阶章节代码，知识体系停留在旧版本。\n\n### 使用 beginners-pytorch-deep-learning 后\n- **一键搭建环境**：通过仓库提供的 `environment.yml` 或 `requirements.txt`，利用 Conda 或 pip 即可瞬间创建隔离且版本正确的虚拟环境。\n- **数据无缝衔接**：直接使用仓库中修复后的 `download.py` 脚本或提供的 Google Drive 备用链接，秒级获取完整的实验数据集。\n- **开箱即用的代码**：直接运行配套的 Jupyter Notebook 和脚本，不仅快速复现了基础实验，还能清晰理解每一步的实现逻辑。\n- **同步最新成果**：轻松访问并运行关于 GPT-2 文本生成及模型量化等最新更新章节的代码，确保研究内容与行业前沿同步。\n\nbeginners-pytorch-deep-learning 将原本数天的环境搭建与数据清洗工作压缩至分钟级，让开发者能真正专注于深度学习算法的核心探索与创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffalloutdurham_beginners-pytorch-deep-learning_af7b8f44.png","falloutdurham","Ian Pointer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffalloutdurham_75bd320a.jpg",null,"https:\u002F\u002Fgithub.com\u002Ffalloutdurham",[82,86,90,94,97,100],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",98.2,{"name":87,"color":88,"percentage":89},"Python","#3572A5",1.5,{"name":91,"color":92,"percentage":93},"Shell","#89e051",0.1,{"name":95,"color":96,"percentage":93},"CMake","#DA3434",{"name":98,"color":99,"percentage":93},"Dockerfile","#384d54",{"name":101,"color":102,"percentage":103},"C++","#f34b7d",0,524,282,"2026-03-28T15:18:30","MIT","Linux, macOS, Windows","非必需（CPU 可运行），但推荐使用 NVIDIA GPU 以加速训练（支持 Google Colab GPU 环境），具体型号、显存及 CUDA 版本未说明","未说明",{"notes":112,"python":113,"dependencies":114},"项目提供 Conda (environment.yml) 和 pip (requirements.txt) 两种环境配置方式。第二章的图片数据集部分原始链接已失效，需从提供的 Google Drive 链接手动下载 ZIP 文件。若在 Jupyter Notebook 中使用虚拟环境，需额外安装 ipykernel 并注册内核。Google Colab 用户可直接运行带 '!' 的单元格安装依赖，无需手动配置虚拟环境。","未说明（需安装 Python，建议使用 Anaconda 或 venv）",[115,116,117,118],"torch","jupyter","ipykernel","notebook",[13],"2026-03-27T02:49:30.150509","2026-04-06T07:11:47.486087",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},15610,"为什么运行代码时提示找不到 '.\u002Ftrain' 目录或文件？","这通常是因为数据集未正确下载或解压。部分用户反馈下载的 zip 文件中缺少许多文件，或者图片大小为 0 字节\u002F尺寸错误。请确保已完整下载并解压了猫\u002F鱼数据集（cat\u002Ffish dataset），并检查文件完整性。如果链接失效，脚本可能无法继续下载缺失的文件。","https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fissues\u002F13",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},15611,"仓库中是否缺少书本对应的代码章节？","是的，初期代码并未完全同步。维护者表示第 7 章及部分第 9 章已上传，并计划填补第 8 和 9 章的空缺。第 2 至 6 章的 Notebook 也已陆续更新。由于书名在过程中有所更改，可能导致仓库名称与书本略有混淆，请以当前仓库内容为准。","https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fissues\u002F1",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},15612,"运行 Chapter 2 代码时出现 'Implicit dimension choice for softmax has been deprecated' 警告怎么办？","需要在调用 `softmax` 和 `max` 函数时显式指定 `dim` 参数。将代码修改为：`correct = torch.eq(torch.max(F.softmax(output, dim=1), dim=1)[1], targets)`。确保 `softmax()` 和 `max()` 中的 `dim` 参数都设置为 1，以匹配书中正确的写法并消除警告。","https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fissues\u002F7",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},15613,"将 Chapter 2 的模型替换为 Chapter 3 的 CNN 模型后，预测时报错 'mat1 and mat2 shapes cannot be multiplied' 如何解决？","这是因为单张图片输入的张量形状不符合模型预期的批次维度。需要使用 `.unsqueeze(0)` 在索引 0 处添加一个“批次”维度，将形状从 `[3, 64, 64]` 转换为 `[1, 3, 64, 64]`。\n修正代码如下：\n```python\nimg = Image.open(\"file.jpg\") \nimg = img_transforms(img).unsqueeze(0)  # 关键步骤\nprediction = F.softmax(alexcnnmodel(img))\nprediction = prediction.argmax()\n```","https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fissues\u002F78",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},15614,"如何评估 Chapter 3 中的 CNN 模型或对单张图片进行预测？","对单张图片预测时，必须确保输入张量包含批次维度。使用 `torch.unsqueeze(img, 0)` 将图像张量形状转换为 `[1, 3, 64, 64]`。\n示例代码：\n```python\nlabels = ['cat','fish']\nimg = Image.open(FILENAME)\nimg = img_transforms(img).to(device)\nimg = torch.unsqueeze(img, 0)  # 添加批次维度\ncnnnet.eval()\nprediction = F.softmax(cnnnet(img), dim=1)\nprediction = prediction.argmax()\nprint(labels[prediction])\n```\n若需批量预测，可直接使用测试数据加载器（test_data_loader），无需手动添加维度。","https:\u002F\u002Fgithub.com\u002Ffalloutdurham\u002Fbeginners-pytorch-deep-learning\u002Fissues\u002F52",{"id":149,"question_zh":150,"answer_zh":151,"source_url":147},15615,"如何使用测试数据加载器批量获取带文件名的预测结果？","可以通过访问 `test_data_loader.dataset.samples` 获取图像路径列表，并结合循环处理批次数据。示例如下：\n```python\ntest_data = torchvision.datasets.ImageFolder(root=test_data_path, transform=img_transforms, is_valid_file=check_image)\ntest_data_loader = torch.utils.data.DataLoader(test_data, batch_size=64, shuffle=True)\n\nimg_names = list(test_data_loader.dataset.samples)\ncnnnet.eval()\nfor batch in test_data_loader:\n    inputs, targets = batch\n    inputs = inputs.to(device)\n    output = cnnnet(inputs)\n    prediction = F.softmax(output, dim=1)\n    _, predicted_indices = torch.max(prediction, dim=1)\n    predictions = predicted_indices.tolist()\n    # 此处可将 predictions 与 img_names 对应起来保存结果\n```",[]]