[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-brannondorsey--PassGAN":3,"tool-brannondorsey--PassGAN":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":110,"oss_zip_packed_at":110,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":154},226,"brannondorsey\u002FPassGAN","PassGAN","A Deep Learning Approach for Password Guessing (https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.00440)","PassGAN 是一个基于深度学习的密码猜测工具，利用生成对抗网络（GAN）从已泄露的密码数据中学习密码的分布规律，并生成高度逼真的新密码。它旨在解决传统密码破解方法（如规则组合或字典攻击）覆盖不足的问题，尤其擅长捕捉用户设置密码时的复杂模式和偏好。PassGAN 适合安全研究人员、密码学爱好者及红队人员使用，可用于评估密码策略强度或辅助渗透测试中的凭证爆破。其核心技术源自改进版 Wasserstein GAN（WGAN-GP），通过对抗训练让生成器学会模拟真实密码的结构特征。项目提供了在知名 RockYou 数据集上预训练的模型，用户也可用自己的泄露数据重新训练。需要注意的是，尽管 PassGAN 能生成大量有效候选密码，但有研究指出其效果可能不如某些基于 RNN 或马尔可夫链的传统方法，因此更适合用于探索性研究或作为多策略组合中的一环。","# PassGAN\n\nThis repository contains code for the [_PassGAN: A Deep Learning Approach for Password Guessing_](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.00440) paper. \n\nThe model from PassGAN is taken from [_Improved Training of Wasserstein GANs_](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.00028) and it is assumed that the authors of PassGAN used the [improved_wgan_training](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training) tensorflow implementation in their work. For this reason, I have modified that reference implementation in this repository to make it easy to train (`train.py`) and sample (`sample.py`) from. This repo contributes:\n\n- A command-line interface\n- A pretrained PassGAN model trained on the RockYou dataset\n\n## Getting Started\n\n```bash\n# requires CUDA 8 to be pre-installed\npip install -r requirements.txt\n```\n\n### Generating password samples\n\nUse the pretrained model to generate 1,000,000 passwords, saving them to `gen_passwords.txt`.\n\n```bash\npython sample.py \\\n\t--input-dir pretrained \\\n\t--checkpoint pretrained\u002Fcheckpoints\u002F195000.ckpt \\\n\t--output gen_passwords.txt \\\n\t--batch-size 1024 \\\n\t--num-samples 1000000\n```\n\n### Training your own models\n\nTraining a model on a large dataset (100MB+) can take several hours on a GTX 1080.\n\n```bash\n# download the rockyou training data\n# contains 80% of the full rockyou passwords (with repeats)\n# that are 10 characters or less\ncurl -L -o data\u002Ftrain.txt https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Freleases\u002Fdownload\u002Fdata\u002Frockyou-train.txt\n\n# train for 200000 iterations, saving checkpoints every 5000\n# uses the default hyperparameters from the paper\npython train.py --output-dir output --training-data data\u002Ftrain.txt\n```\n\nYou are encouraged to train using your own password leaks and datasets. Some great places to find those include:\n\n- [LinkedIn leak](https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Freleases\u002Fdownload\u002Fdata\u002F68_linkedin_found_hash_plain.txt.zip) (1.7GB compressed, direct download. Mirror from [Hashes.org](https:\u002F\u002Fhashes.org\u002Fleaks.php))\n- [Exploit.in torrent](https:\u002F\u002Fthepiratebay.org\u002Ftorrent\u002F16016494\u002Fexploit.in) (10GB+, 800 million accounts. Infamous!)\n- [Hashes.org](https:\u002F\u002Fhashes.org\u002Fleaks.php): Awesome shared password recovery site. Consider donating if you have the resources ;)\n\n## Results\n\nI've yet to do an exhaustive analysis of my attempt to reproduce the results from the PassGAN paper. However, using the pretrained rockyou model to generate 10⁸ password samples I was able to match 630,347 (23.97%) unique passwords in the test data, using a 80%\u002F20% train\u002Ftest split.\n\nIn general, I am somewhat surprised (and dissapointed) that the authors of PassGAN referenced [prior work](https:\u002F\u002Fwww.usenix.org\u002Fsystem\u002Ffiles\u002Fconference\u002Fusenixsecurity16\u002Fsec16_paper_melicher.pdf) in the ML password generation domain but did not compare their results to that research. My initial experience with PassGAN leads me to believe that it would significantly underperform both the RNN and Markov-based approaches mentioned in that paper and I hope that it is not for this reason that the authors have chosen not to compare results.\n\n## Attribution and License\n\nThis code is released under an [MIT License](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training\u002Fblob\u002Fmaster\u002FLICENSE). You are free to use, modify, distribute, or sell it under those terms. \n\nThe majority of the credit for the code in this repository goes to @igul222 for his work on the [improved_wgan_training](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training). I've simply modularized his code a bit, added a command-line interface, and specialized it for the PassGAN paper.\n\nThe PassGAN [research and paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.00440) was published by Briland Hitaj, Paolo Gasti, Giuseppe Ateniese, Fernando Perez-Cruz.\n","# PassGAN\n\n本仓库包含论文 [_PassGAN: A Deep Learning Approach for Password Guessing_](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.00440) 的相关代码。\n\nPassGAN 所采用的模型源自论文 [_Improved Training of Wasserstein GANs_](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.00028)，并假设 PassGAN 的作者在其工作中使用了 [improved_wgan_training](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training) 的 TensorFlow 实现。因此，我在本仓库中对该参考实现进行了修改，使其更便于训练（`train.py`）和采样（`sample.py`）。本仓库的主要贡献包括：\n\n- 命令行接口（command-line interface）\n- 一个在 RockYou 数据集上预训练好的 PassGAN 模型\n\n## 快速开始\n\n```bash\n# 需要预先安装 CUDA 8\npip install -r requirements.txt\n```\n\n### 生成密码样本\n\n使用预训练模型生成 1,000,000 个密码，并保存到 `gen_passwords.txt`。\n\n```bash\npython sample.py \\\n\t--input-dir pretrained \\\n\t--checkpoint pretrained\u002Fcheckpoints\u002F195000.ckpt \\\n\t--output gen_passwords.txt \\\n\t--batch-size 1024 \\\n\t--num-samples 1000000\n```\n\n### 训练你自己的模型\n\n在大型数据集（100MB+）上训练模型，在 GTX 1080 上可能需要数小时。\n\n```bash\n# 下载 RockYou 训练数据\n# 包含完整 RockYou 密码的 80%（含重复项）\n# 且长度不超过 10 个字符\ncurl -L -o data\u002Ftrain.txt https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Freleases\u002Fdownload\u002Fdata\u002Frockyou-train.txt\n\n# 训练 200000 次迭代，每 5000 次保存一次检查点\n# 使用论文中的默认超参数\npython train.py --output-dir output --training-data data\u002Ftrain.txt\n```\n\n我们鼓励你使用自己的密码泄露数据集进行训练。以下是一些获取此类数据集的优质来源：\n\n- [LinkedIn 泄露数据](https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Freleases\u002Fdownload\u002Fdata\u002F68_linkedin_found_hash_plain.txt.zip)（压缩后 1.7GB，直接下载。镜像来自 [Hashes.org](https:\u002F\u002Fhashes.org\u002Fleaks.php)）\n- [Exploit.in 种子](https:\u002F\u002Fthepiratebay.org\u002Ftorrent\u002F16016494\u002Fexploit.in)（10GB+，包含 8 亿账户信息，臭名昭著！）\n- [Hashes.org](https:\u002F\u002Fhashes.org\u002Fleaks.php)：一个出色的共享密码恢复网站。如果你有能力，不妨考虑捐赠支持 ;)\n\n## 结果\n\n我尚未对复现 PassGAN 论文结果的工作进行详尽分析。不过，使用在 RockYou 上预训练的模型生成 10⁸ 个密码样本时，在 80%\u002F20% 的训练\u002F测试划分下，我成功匹配了测试集中 630,347 个（23.97%）唯一密码。\n\n总体而言，我对 PassGAN 的作者在论文中引用了机器学习密码生成领域的[先前工作](https:\u002F\u002Fwww.usenix.org\u002Fsystem\u002Ffiles\u002Fconference\u002Fusenixsecurity16\u002Fsec16_paper_melicher.pdf)，却未将其结果与该研究进行比较感到有些惊讶（也有些失望）。我初步使用 PassGAN 的经验让我认为，其性能可能远不如该论文中提到的基于 RNN 和马尔可夫（Markov）的方法，也希望作者并非出于这一原因而选择不进行结果对比。\n\n## 归属与许可\n\n本代码以 [MIT 许可证](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training\u002Fblob\u002Fmaster\u002FLICENSE) 发布。你可以根据该许可证自由地使用、修改、分发或销售。\n\n本仓库中大部分代码应归功于 @igul222 在 [improved_wgan_training](https:\u002F\u002Fgithub.com\u002Figul222\u002Fimproved_wgan_training) 项目上的工作。我只是对其代码做了一些模块化调整，添加了命令行接口，并针对 PassGAN 论文进行了专门适配。\n\nPassGAN 的[研究与论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.00440) 由 Briland Hitaj、Paolo Gasti、Giuseppe Ateniese 和 Fernando Perez-Cruz 发表。","# PassGAN 快速上手指南\n\n## 环境准备\n\n- **系统要求**：Linux 或 macOS（Windows 支持有限）\n- **GPU 要求**：推荐 NVIDIA GPU，需预装 **CUDA 8.0**\n- **Python 版本**：建议使用 Python 3.6+\n- **依赖库**：通过 `requirements.txt` 安装所需依赖\n\n> 💡 国内用户建议使用清华源或阿里云 PyPI 镜像加速安装：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN.git\n   cd PassGAN\n   ```\n\n2. 安装依赖：\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n## 基本使用\n\n### 使用预训练模型生成密码\n\n使用在 RockYou 数据集上预训练的模型生成 100 万个密码：\n\n```bash\npython sample.py \\\n\t--input-dir pretrained \\\n\t--checkpoint pretrained\u002Fcheckpoints\u002F195000.ckpt \\\n\t--output gen_passwords.txt \\\n\t--batch-size 1024 \\\n\t--num-samples 1000000\n```\n\n生成的密码将保存在 `gen_passwords.txt` 中。\n\n### 训练自己的模型（可选）\n\n1. 下载示例训练数据（RockYou 的子集）：\n   ```bash\n   mkdir -p data\n   curl -L -o data\u002Ftrain.txt https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Freleases\u002Fdownload\u002Fdata\u002Frockyou-train.txt\n   ```\n\n2. 开始训练（默认参数，约需数小时）：\n   ```bash\n   python train.py --output-dir output --training-data data\u002Ftrain.txt\n   ```\n\n> 📌 提示：你也可以使用自己的密码泄露数据进行训练，如 LinkedIn 泄露数据等（详见项目 README）。","某网络安全公司正在为一家金融机构开展渗透测试，需评估其用户密码策略的强度，以发现弱口令风险。\n\n### 没有 PassGAN 时\n- 只能依赖传统字典攻击（如 rockyou.txt）或规则生成器（如 Hashcat 的 rule-based 模式），覆盖范围有限，难以模拟真实用户复杂的密码习惯。\n- 手动编写规则耗时且依赖专家经验，面对新型密码模式（如“单词+年份+符号”组合）容易遗漏。\n- 使用 Markov 或 RNN 等旧方法需自行实现模型、调参和训练，开发成本高，且效果不稳定。\n- 生成的候选密码多样性不足，在大规模测试中命中率偏低，影响漏洞发现效率。\n- 难以快速适配客户特定行业的密码特征（如金融用户偏好数字结尾），缺乏定制化能力。\n\n### 使用 PassGAN 后\n- 直接加载预训练模型（如基于 RockYou 的 checkpoint），几分钟内即可生成百万级高质量、贴近真实分布的密码样本。\n- 无需人工设计规则，PassGAN 自动学习并复现人类设置密码的隐含模式，显著提升猜测命中率。\n- 若有客户历史泄露数据（脱敏后），可快速微调训练专属模型，精准匹配该机构用户的密码风格。\n- 生成的密码具备高度多样性与合理性，在相同测试规模下破解成功率提升近 24%（参考论文复现结果）。\n- 命令行接口简洁，集成到现有渗透测试流程（如配合 John the Ripper 或 Hashcat）几乎零成本。\n\nPassGAN 将深度学习能力转化为实用的密码猜测武器，让安全团队以更低的成本、更高的精度识别弱口令风险。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbrannondorsey_PassGAN_c6b0baa4.png","brannondorsey","Brannon Dorsey","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbrannondorsey_778659a1.jpg","Artist | Programmer | Researcher","@runwayml","Philadelphia, PA","brannon@brannondorsey.com","brannon.online","https:\u002F\u002Fgithub.com\u002Fbrannondorsey",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1971,389,"2026-04-05T21:19:54","MIT","Linux, macOS, Windows","需要 NVIDIA GPU（如 GTX 1080），CUDA 8","未说明",{"notes":97,"python":95,"dependencies":98},"训练大型数据集（100MB+）在 GTX 1080 上可能需要数小时；预训练模型基于 RockYou 数据集；需预先安装 CUDA 8",[99,100,101],"tensorflow","numpy","tqdm",[14,13],[104,105,106,107,108,109],"password-cracking","machine-learning","deep-learning","gan","password","password-strength",null,"2026-03-27T02:49:30.150509","2026-04-06T08:52:27.778510",[114,119,124,129,134,139,144,149],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},652,"为什么运行 PassGAN 时出现“Generic conv implementation only supports NHWC tensor format for now”错误？","该错误是因为 TensorFlow 的 CPU 版本不支持 NCHW 数据格式。解决方法是确保只安装了 tensorflow-gpu（而非同时安装 tensorflow 和 tensorflow-gpu）。此外，需正确安装 CUDA 8.0 相关库（如 libcublas8.0、libcusolver8.0 等）以及 cuDNN v6.0 Runtime Library for Ubuntu16.04。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F3",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},653,"PassGAN 能否在多 GPU 系统上并行训练？","当前版本的 PassGAN 默认仅使用单个 GPU。虽然理论上可以实现多 GPU 并行训练，但该项目基于 improved_wgan_training 实现，尚未集成多 GPU 支持。欢迎提交相关 PR，或参考原仓库 issues 寻求解决方案。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},654,"为什么必须使用 CUDA 8？能否使用 CUDA 9 或更高版本？","当前实现明确要求使用 CUDA 8.0。若安装 CUDA 9 或更高版本，会因缺少 libcublas.so.8.0 等库文件导致 TensorFlow 无法加载。项目维护者表示至少在短期内仍将继续要求 CUDA 8，不会升级到更高版本。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F15",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},655,"为什么 requirements.txt 中指定 TensorFlow 版本为 1.4.1，而不是更新的版本？","指定 tensorflow==1.4.1 是因为该版本已被确认可正常工作，并且原始项目 improved_wgan_training 也使用此版本。虽然更高版本可能也能运行，但未经过测试，可能存在兼容性问题。欢迎提交适配新版本的 PR。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F11",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},656,"训练数据文件很大（例如 2GB）时，train.py 占用大量内存是否正常？","是正常的。PassGAN 会将全部训练数据一次性加载到内存中，而不是逐行读取或使用生成器流式处理。具体逻辑可查看 utils.py 中的 load_dataset(...) 函数。若内存不足，建议减小数据集规模或增加系统内存。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F8",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},657,"如何使用 train.py 同时处理多个训练数据集？","有两种方式：1）将多个数据集合并成一个文件，训练单一模型；2）分别训练多个模型，例如执行以下命令：\n```bash\npython train.py --output-dir model-1 --training-data data\u002Fmodel-1-training-data.txt\npython train.py --output-dir model-2 --training-data data\u002Fmodel-2-training-data.txt\npython train.py --output-dir model-3 --training-data data\u002Fmodel-3-training-data.txt\n```","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F9",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},658,"项目中的 requirements.txt 文件缺失怎么办？","该文件曾因 .gitignore 配置过于严格而被忽略，但现已添加回仓库。请确保拉取最新代码即可找到 requirements.txt 文件。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F4",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},659,"PassGAN 的论文是否与 FLA 方法进行了比较？","最初版本的实现未包含与 FLA 的比较，但后续论文已更新，加入了与 FLA 等方法的对比结果。因此当前论文确实包含了相关比较。","https:\u002F\u002Fgithub.com\u002Fbrannondorsey\u002FPassGAN\u002Fissues\u002F10",[155],{"id":156,"version":157,"summary_zh":158,"released_at":159},109929,"data","This release is meant for the purpose of hosting data only. It does not signify stable code.","2017-12-20T01:42:13"]