[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HyperGAN--HyperGAN":3,"tool-HyperGAN--HyperGAN":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":67,"owner_name":67,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":10,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":115,"github_topics":116,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":163},3774,"HyperGAN\u002FHyperGAN","HyperGAN","Composable GAN framework with api and user interface","HyperGAN 是一个基于 PyTorch 构建的生成对抗网络（GAN）框架，旨在让开发者、研究人员和艺术家能够轻松创建、训练并分享自己的 AI 模型。它核心解决了传统 GAN 开发中代码复杂、配置繁琐且难以复用的痛点，通过“可组合”的设计理念，让用户像搭积木一样灵活构建网络结构。\n\n无论是想快速验证想法的研究者，还是希望将生成式 AI 融入创作流程的设计师，亦或是需要稳定底层支持的开发者，都能从中受益。HyperGAN 提供了友好的命令行工具和清晰的 Python API，支持从数据加载、模型训练到样本生成的全流程操作。其独特的技术亮点在于内置了丰富的预设配置模板，用户只需简单命令即可启动训练，同时也允许深度自定义以满足特定实验需求。目前项目处于开放测试阶段，拥有活跃的社区支持和详尽的文档教程，帮助用户低门槛地探索图像生成、风格转换等前沿应用，是进入生成式人工智能领域的实用利器。","# README\n\n## HyperGAN 1.0\n\n[![docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgitbook-docs-yellowgreen)](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002F) [![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-brightgreen.svg)](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF) [![Twitter](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftwitter-follow-blue.svg)](https:\u002F\u002Ftwitter.com\u002Fhypergan)\n\nA composable GAN built for developers, researchers, and artists.\n\nHyperGAN is in pre-release and open beta.\n\n![Colorizer 0.9 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHyperGAN_HyperGAN_readme_d6e1c7a6c4ec.gif)\n\n_Logos generated with_ [_examples\u002Fcolorizer_](.\u002Fexamples\u002Fcolorizer.py)\n\nSee more on the [hypergan youtube](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCU33XvBbMnS8002_NB7JSvA)\n\n## Table of contents\n\n* [About](#about)\n* [Documentation](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002F)\n* [Changelog](.\u002Fchangelog.md)\n* [Quick start](#quick-start)\n  * [Requirements](#requirements)\n  * [Install](#install)\n  * [Train](#train)\n* [API](#api)\n  * [Using a trained hypergan model](#using-a-trained-hypergan-model)\n  * [Training a gan](#training-a-gan)\n  * [Examples](#examples)\n  * [Tutorials](#tutorials)\n* [The pip package hypergan](#the-pip-package-hypergan)\n  * [Training](#training)\n  * [Sampling](#sampling)\n  * [Additional Arguments](#additional-arguments)\n  * [Running on CPU](#running-on-cpu)\n  * [Troubleshooting](#troubleshooting)\n  * [Development Mode](#development-mode)\n* [Datasets](#datasets)\n  * [Creating a Dataset](#creating-a-dataset)\n  * [Downloadable Datasets](#downloadable-datasets)\n  * [Cleaning up data](#cleaning-up-data)\n* [Features](#features)\n* [Showcase](#showcase)\n* [Sponsors](#sponsors)\n* [Contributing](.\u002F#contributing.md)\n* [Versioning](#Versioning)\n* [Citation](#citation)\n\n## About\n\nHyperGAN builds generative adversarial networks in pytorch and makes them easy to train and share.\n\nFor a general introduction to GANs see [http:\u002F\u002Fblog.aylien.com\u002Fintroduction-generative-adversarial-networks-code-tensorflow\u002F](http:\u002F\u002Fblog.aylien.com\u002Fintroduction-generative-adversarial-networks-code-tensorflow\u002F)\n\nJoin the community [discord](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF).\n\n## Documentation\n\n* [Gitbook documentation](https:\u002F\u002Fhypergan.gitbook.io\u002F)\n\n## Changelog\n\nSee the full changelog here: [Changelog.md](changelog.md)\n\n## Quick start\n\n### Requirements\n\nOS: Windows, OSX, Linux\n\nFor training:\n\nGPU: Nvidia, GTX 1080+ recommended\n\n### Install\n\n1. Install HyperGAN\n  For users: `pip3 install hypergan`\n\n  For developers: Download this repo and run `python3 setup.py develop`\n\n2. Test it out\n  * `hypergan train preset:celeba -s 128x128x3`\n\n3. Join the community\n  * Once you've made something cool, be sure to share it on the Discord \\([https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)\\).\n\n### Create a new model\n\n```bash\n  hypergan new mymodel\n```\n\nThis will create a mymodel.json based off the default configuration. You can change configuration templates with the `-c` flag.\n\n### List configuration templates\n\n```bash\n  hypergan new mymodel -l\n```\n\nSee all configuration templates with `--list-templates` or `-l`.\n\n### Train\n\n```bash\n  hypergan train folder\u002F -s 32x32x3 -c mymodel --resize\n```\n\n## API\n\n```python\nimport hypergan as hg\n```\n\nNote this API is currently under work in 1.0. If you are reading this before 1.0 is released check the examples.\n\nSee the [gitbook documentation](https:\u002F\u002Fhypergan.gitbook.io\u002F) for more details.\n\n### Using a trained hypergan model\n\n```python\nmy_gan = hg.GAN('model.hypergan')\nbatch_sample = my_gan.sample()\n```\n\n### Training a gan\n\n```python\ngan = hg.GAN(\"default.json\", inputs=hg.inputs.ImageLoader(...))\ntrainable_gan = hg.TrainableGAN(gan)\nfor step in trainable_gan.train():\n    print(\"I'm on step \", step)\n```\n\n### Examples\n\nSee the examples [https:\u002F\u002Fgithub.com\u002Fhypergan\u002FHyperGAN\u002Ftree\u002Fmaster\u002Fexamples](https:\u002F\u002Fgithub.com\u002Fhypergan\u002FHyperGAN\u002Ftree\u002Fmaster\u002Fexamples)\n\n### Tutorials\n\nSee the tutorials [https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002Ftutorials](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002Ftutorials)\n\n## The pip package hypergan\n\n```bash\npip install hypergan\n```\n\n### Training\n\n```bash\n  # Train a 32x32 gan with batch size 32 on a folder of pngs\n  hypergan train [folder] -s 32x32x3 -b 32 --config [name]\n```\n\n### Sampling\n\n```bash\n  hypergan sample [folder] -s 32x32x3 -b 32 --config [name] --sampler batch_walk --save_samples\n```\n\nBy default hypergan will not save training samples to disk. To change this, use `--save_samples`.\n\n### Additional Arguments\n\nTo see a detailed list, run\n\n```bash\n  hypergan -h\n```\n\n### Running on CPU\n\nYou can switch the backend with:\n\n```bash\n  hypergan [...] -B cpu\n```\n\nDon't train on CPU! It's too slow.\n\n### Troubleshooting\n\nMake sure that your cuda, nvidia drivers, pillow, pytorch, and pytorch vision are the latest version.\n\nCheck the discord for help.\n\n### Development mode\n\nIf you wish to modify hypergan\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhypergan\u002Fhypergan\ncd hypergan\npython3 setup.py develop\n```\n\nMake sure to `pip3 uninstall hypergan` to avoid version conflicts.\n\n## Datasets\n\nTo build a new network you need a dataset.\n\n### Creating a Dataset\n\nDatasets in HyperGAN are meant to be simple to create. Just use a folder of images. Nested folders work too.\n\n### Cleaning up data\n\nHyperGAN is built to be resilient to all types of unclean data. By default images are resized then cropped if necessary.\n\nSee `--nocrop`, `--random_crop` and `--resize` for additional image scaling options.\n\n## Features\n\nA list of features in the 1.0 release:\n\n* API\n* CLI\n* Viewer - an electron app to explore and create models\n* Cross platform - Windows, OSX, Linux\n* Inference - Add AI content generation to your project\n* Training - Train custom models using accelerated parallel training backends\n* Sharing - Share built models with each other. Use them in python projects as hypergan models, or in any project as onxx models\n* Customizable - Define custom architectures in the json, or replace any component with your own pytorch creation\n* Data - Built to work on unclean data and multiple data types\n* Unsupervised learning\n* Unsupervised alignment - Align one distribution to another or discover new novel distributions.\n* Transfer learning\n* Online learning\n\n## Showcase\n\n### 1.0 models are still training\n\nSubmit your showcase with a pull request!\n\nFor more, see the \\#showcase room in [![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-brightgreen.svg)](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)\n\n## Sponsors\n\nWe are now accepting financial sponsors. Sponsor to (optionally) be listed here.\n\nhttps:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhypergan\n\n## Contributing\n\nContributions are welcome and appreciated! We have many open issues in the _Issues_ tab. Join the discord.\n\nSee [how to contribute.](.\u002F)\n\n## Versioning\n\nHyperGAN uses semantic versioning. [http:\u002F\u002Fsemver.org\u002F](http:\u002F\u002Fsemver.org\u002F)\n\nTLDR: _x.y.z_\n\n* _x_ is incremented on stable public releases.\n* _y_ is incremented on API breaking changes.  This includes configuration file changes and graph construction changes.\n* _z_ is incremented on non-API breaking changes.  _z_ changes will be able to reload a saved graph.\n\n## Citation\n\n```text\n  HyperGAN Community\n  HyperGAN, (2016-2020+), \n  GitHub repository, \n  https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\n```\n\nHyperGAN comes with no warranty or support.\n\n","# 自述文件\n\n## HyperGAN 1.0\n\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgitbook-docs-yellowgreen)](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002F) [![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-brightgreen.svg)](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF) [![Twitter](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftwitter-follow-blue.svg)](https:\u002F\u002Ftwitter.com\u002Fhypergan)\n\n一个为开发者、研究人员和艺术家打造的可组合生成对抗网络。\n\nHyperGAN 处于预发布和公开测试阶段。\n\n![Colorizer 0.9 1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHyperGAN_HyperGAN_readme_d6e1c7a6c4ec.gif)\n\n_由_ [_examples\u002Fcolorizer_](.\u002Fexamples\u002Fcolorizer.py) _生成的标志_\n\n更多内容请访问 [hypergan 的 YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCU33XvBbMnS8002_NB7JSvA)\n\n## 目录\n\n* [简介](#about)\n* [文档](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002F)\n* [更新日志](.\u002Fchangelog.md)\n* [快速入门](#quick-start)\n  * [要求](#requirements)\n  * [安装](#install)\n  * [训练](#train)\n* [API](#api)\n  * [使用已训练的 HyperGAN 模型](#using-a-trained-hypergan-model)\n  * [训练 GAN](#training-a-gan)\n  * [示例](#examples)\n  * [教程](#tutorials)\n* [pip 包 hypergan](#the-pip-package-hypergan)\n  * [训练](#training)\n  * [采样](#sampling)\n  * [附加参数](#additional-arguments)\n  * [在 CPU 上运行](#running-on-cpu)\n  * [故障排除](#troubleshooting)\n  * [开发模式](#development-mode)\n* [数据集](#datasets)\n  * [创建数据集](#creating-a-dataset)\n  * [可下载的数据集](#downloadable-datasets)\n  * [清理数据](#cleaning-up-data)\n* [特性](#features)\n* [展示](#showcase)\n* [赞助商](#sponsors)\n* [贡献](.\u002F#contributing.md)\n* [版本控制](#Versioning)\n* [引用](#citation)\n\n## 关于\n\nHyperGAN 使用 PyTorch 构建生成对抗网络，并使其易于训练和分享。\n\n有关 GAN 的一般介绍，请参阅 [http:\u002F\u002Fblog.aylien.com\u002Fintroduction-generative-adversarial-networks-code-tensorflow\u002F](http:\u002F\u002Fblog.aylien.com\u002Fintroduction-generative-adversarial-networks-code-tensorflow\u002F)\n\n加入社区 [Discord](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)。\n\n## 文档\n\n* [Gitbook 文档](https:\u002F\u002Fhypergan.gitbook.io\u002F)\n\n## 更新日志\n\n完整的更新日志请见：[Changelog.md](changelog.md)\n\n## 快速入门\n\n### 要求\n\n操作系统：Windows、OSX、Linux\n\n用于训练：\n\n显卡：Nvidia，推荐 GTX 1080 或更高\n\n### 安装\n\n1. 安装 HyperGAN\n  对于用户：`pip3 install hypergan`\n\n  对于开发者：下载此仓库并运行 `python3 setup.py develop`\n\n2. 进行测试\n  * `hypergan train preset:celeba -s 128x128x3`\n\n3. 加入社区\n  * 当你创造出一些有趣的东西时，请务必在 Discord 上分享（[https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)）。\n\n### 创建新模型\n\n```bash\n  hypergan new mymodel\n```\n\n这将基于默认配置创建一个 mymodel.json 文件。你可以使用 `-c` 标志来更改配置模板。\n\n### 列出配置模板\n\n```bash\n  hypergan new mymodel -l\n```\n\n使用 `--list-templates` 或 `-l` 可查看所有配置模板。\n\n### 训练\n\n```bash\n  hypergan train folder\u002F -s 32x32x3 -c mymodel --resize\n```\n\n## API\n\n```python\nimport hypergan as hg\n```\n\n请注意，该 API 目前仍在 1.0 版本中开发中。如果您在 1.0 版本发布之前阅读本文，请参考示例。\n\n更多详细信息请参阅 [Gitbook 文档](https:\u002F\u002Fhypergan.gitbook.io\u002F)。\n\n### 使用已训练的 HyperGAN 模型\n\n```python\nmy_gan = hg.GAN('model.hypergan')\nbatch_sample = my_gan.sample()\n```\n\n### 训练 GAN\n\n```python\ngan = hg.GAN(\"default.json\", inputs=hg.inputs.ImageLoader(...))\ntrainable_gan = hg.TrainableGAN(gan)\nfor step in trainable_gan.train():\n    print(\"I'm on step \", step)\n```\n\n### 示例\n\n请参阅示例：[https:\u002F\u002Fgithub.com\u002Fhypergan\u002FHyperGAN\u002Ftree\u002Fmaster\u002Fexamples](https:\u002F\u002Fgithub.com\u002Fhypergan\u002FHyperGAN\u002Ftree\u002Fmaster\u002Fexamples)\n\n### 教程\n\n请参阅教程：[https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002Ftutorials](https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002Ftutorials)\n\n## pip 包 hypergan\n\n```bash\npip install hypergan\n```\n\n### 训练\n\n```bash\n  # 在包含 PNG 图像的文件夹上训练一个 32x32 的 GAN，批次大小为 32\n  hypergan train [folder] -s 32x32x3 -b 32 --config [name]\n```\n\n### 采样\n\n```bash\n  hypergan sample [folder] -s 32x32x3 -b 32 --config [name] --sampler batch_walk --save_samples\n```\n\n默认情况下，HyperGAN 不会将训练样本保存到磁盘。要更改此设置，请使用 `--save_samples`。\n\n### 附加参数\n\n要查看详细列表，请运行\n\n```bash\n  hypergan -h\n```\n\n### 在 CPU 上运行\n\n你可以通过以下命令切换后端：\n\n```bash\n  hypergan [...] -B cpu\n```\n\n请勿在 CPU 上进行训练！速度太慢了。\n\n### 故障排除\n\n请确保你的 CUDA、NVIDIA 驱动程序、Pillow、PyTorch 和 PyTorch Vision 均为最新版本。\n\n如需帮助，请查看 Discord。\n\n### 开发模式\n\n如果你想修改 HyperGAN\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhypergan\u002Fhypergan\ncd hypergan\npython3 setup.py develop\n```\n\n请务必 `pip3 uninstall hypergan` 以避免版本冲突。\n\n## 数据集\n\n要构建一个新的网络，你需要一个数据集。\n\n### 创建数据集\n\nHyperGAN 中的数据集设计得非常容易创建。只需使用一个包含图像的文件夹即可。嵌套文件夹也可以使用。\n\n### 清理数据\n\nHyperGAN 能够很好地处理各种不干净的数据。默认情况下，图像会被调整大小，必要时还会进行裁剪。\n\n使用 `--nocrop`、`--random_crop` 和 `--resize` 可获得更多图像缩放选项。\n\n## 特性\n\n1.0 版本中的功能列表：\n\n* API\n* CLI\n* 查看器 - 一个 Electron 应用程序，用于探索和创建模型\n* 跨平台 - Windows、OSX、Linux\n* 推理 - 将 AI 内容生成添加到你的项目中\n* 训练 - 使用加速的并行训练后端训练自定义模型\n* 分享 - 相互分享构建好的模型。可以作为 HyperGAN 模型用于 Python 项目，或作为 ONXX 模型用于任何项目\n* 可定制 - 在 JSON 中定义自定义架构，或用你自己的 PyTorch 模型替换任何组件\n* 数据 - 专为处理不干净的数据和多种数据类型而设计\n* 无监督学习\n* 无监督对齐 - 将一个分布对齐到另一个分布，或发现新的独特分布\n* 迁移学习\n* 在线学习\n\n## 展示\n\n### 1.0 版本的模型仍在训练中\n\n请通过拉取请求提交你的展示！\n\n更多信息请访问 [![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-join%20chat-brightgreen.svg)](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF) 中的 \\#showcase 频道。\n\n## 赞助商\n\n我们现在接受财务赞助。赞助者可以选择在此处列出。\n\nhttps:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhypergan\n\n## 贡献\n\n我们欢迎并感谢您的贡献！我们在“问题”选项卡中有许多开放的问题。请加入 Discord。\n\n请参阅 [如何贡献。](.\u002F)\n\n## 版本控制\n\nHyperGAN 采用语义化版本控制。[http:\u002F\u002Fsemver.org\u002F](http:\u002F\u002Fsemver.org\u002F)\n\n简而言之：_x.y.z_\n\n* _x_ 在发布稳定公开版本时递增。\n* _y_ 在出现破坏性 API 变更时递增。这包括配置文件的更改以及图结构的变更。\n* _z_ 在非破坏性 API 变更时递增。_z_ 的变更允许重新加载已保存的图。\n\n## 引用\n\n```text\n  HyperGAN 社区\n  HyperGAN, (2016-2020+), \n  GitHub 仓库, \n  https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\n```\n\nHyperGAN 不提供任何担保或支持。","# HyperGAN 快速上手指南\n\nHyperGAN 是一个基于 PyTorch 构建的可组合生成对抗网络（GAN）框架，专为开发者、研究人员和艺术家设计，旨在简化 GAN 的训练、共享与部署。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS (OSX), 或 Linux\n*   **硬件要求（训练用）**：推荐使用 NVIDIA GPU (GTX 1080 或更高版本)。\n    *   *注意：虽然支持 CPU 运行，但训练速度极慢，仅建议用于调试。*\n*   **软件依赖**：\n    *   Python 3\n    *   CUDA 驱动及 NVIDIA 显卡驱动（需为最新版本）\n    *   PyTorch 及 Torchvision（需为最新版本）\n    *   Pillow\n\n## 安装步骤\n\n### 1. 安装 HyperGAN\n\n**普通用户安装：**\n直接使用 pip 安装稳定版：\n```bash\npip3 install hypergan\n```\n*(国内用户若下载缓慢，可尝试指定清华源：`pip3 install hypergan -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n**开发者安装（源码模式）：**\n如果您需要修改框架源码或参与贡献：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhypergan\u002Fhypergan\ncd hypergan\n# 先卸载可能存在的 pip 版本以避免冲突\npip3 uninstall hypergan \npython3 setup.py develop\n```\n\n### 2. 验证安装\n安装完成后，可以通过查看帮助文档确认安装成功：\n```bash\nhypergan -h\n```\n\n## 基本使用\n\n### 1. 创建新模型配置\n创建一个基于默认配置的模型文件（例如 `mymodel.json`）：\n```bash\nhypergan new mymodel\n```\n如需查看所有可用的配置模板，可运行：\n```bash\nhypergan new mymodel -l\n```\n\n### 2. 训练模型\n准备一个包含图片的文件夹（支持嵌套子文件夹），然后运行训练命令。\n以下示例将使用 `mymodel` 配置，训练尺寸为 32x32x3 的模型，并自动调整图片大小：\n\n```bash\nhypergan train folder\u002F -s 32x32x3 -c mymodel --resize\n```\n\n*   `folder\u002F`：存放训练图片的目录路径。\n*   `-s`：指定输入图像尺寸 (宽 x 高 x 通道数)。\n*   `-c`：指定使用的配置文件名称。\n*   `--resize`：自动缩放图片以适应指定尺寸。\n\n*(快速测试：您可以直接运行官方预设进行体验：`hypergan train preset:celeba -s 128x128x3`)*\n\n### 3. 生成样本 (Sampling)\n训练完成后，使用以下命令从模型中生成新图像：\n\n```bash\nhypergan sample [model_folder] -s 32x32x3 -b 32 --config mymodel --sampler batch_walk --save_samples\n```\n*   `--save_samples`：默认情况下样本不会保存到磁盘，添加此参数可将生成的图片保存下来。\n\n### 4. Python API 调用\n您也可以直接在 Python 代码中加载和训练模型：\n\n**加载已训练好的模型：**\n```python\nimport hypergan as hg\n\nmy_gan = hg.GAN('model.hypergan')\nbatch_sample = my_gan.sample()\n```\n\n**从头开始训练：**\n```python\nimport hypergan as hg\n\n# 初始化 GAN\ngan = hg.GAN(\"default.json\", inputs=hg.inputs.ImageLoader(...))\n# 包装为可训练对象\ntrainable_gan = hg.TrainableGAN(gan)\n\n# 开始训练循环\nfor step in trainable_gan.train():\n    print(\"I'm on step \", step)\n```","一位独立游戏开发者需要为复古风格的角色扮演游戏快速生成大量统一画风但细节各异的像素风道具图标。\n\n### 没有 HyperGAN 时\n- 开发者必须手动绘制数百个图标，或雇佣画师，导致项目预算超支且周期漫长。\n- 若尝试自行搭建 GAN 模型，需深入钻研 PyTorch 底层代码，配置复杂的网络架构，技术门槛极高。\n- 调整生成风格（如从“石器”变为“铁器”）需要重新编写大量代码并从头训练，无法灵活复用已有模块。\n- 缺乏可视化的调试界面，难以直观判断训练进度和生成质量，排查问题如同“盲人摸象”。\n\n### 使用 HyperGAN 后\n- 利用 HyperGAN 的预置配置模板，开发者仅需几行命令即可启动训练，将数周的美术工作缩短至几天。\n- 通过其模块化组合框架，只需替换少量配置文件参数，就能在同一基础模型上快速衍生出不同材质的图标系列。\n- 借助内置的 API 和用户界面，开发者能实时采样查看生成效果，并根据反馈即时调整训练策略。\n- 社区提供的丰富数据集和教程让非 AI 专家也能轻松上手，专注于创意实现而非底层算法调试。\n\nHyperGAN 将高深的生成对抗网络技术转化为可组合、易调用的开发组件，让创意人员能以极低门槛实现高质量的自动化内容生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHyperGAN_HyperGAN_f18a5735.png","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHyperGAN_c9254034.png","",null,"https:\u002F\u002Fgithub.com\u002FHyperGAN",[80,84,88,92,96],{"name":81,"color":82,"percentage":83},"Python","#3572A5",98.7,{"name":85,"color":86,"percentage":87},"Cuda","#3A4E3A",1.1,{"name":89,"color":90,"percentage":91},"C++","#f34b7d",0.1,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0,{"name":97,"color":98,"percentage":95},"Batchfile","#C1F12E",1188,160,"2026-03-17T07:12:29","MIT","Windows, macOS, Linux","训练必需：推荐 NVIDIA GTX 1080 或更高版本；支持通过 `-B cpu` 参数在 CPU 上运行（但不推荐用于训练，速度过慢）","未说明",{"notes":107,"python":108,"dependencies":109},"故障排查建议确保 CUDA、NVIDIA 驱动、Pillow、PyTorch 和 TorchVision 均为最新版本。开发模式下需先卸载已安装的 pip 包以避免版本冲突。默认支持处理未清洗的数据集（自动调整大小或裁剪）。","3.x (文档中命令示例使用 python3\u002Fpip3)",[110,111,112,113,114],"pytorch","torchvision","pillow","cuda","nvidia-drivers",[53,13,14],[117,118,119,120,121,122,123,124,125,110,126,127],"gan","unsupervised-learning","generative-adversarial-network","artificial-intelligence","machine-learning","machine-learning-api","python","online-learning","computer-vision","sponsors","hypergan","2026-03-27T02:49:30.150509","2026-04-06T05:16:10.571051",[131,136,141,146,151,155,159],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},17290,"在 Raspberry Pi 或 ARM 架构设备上安装 TensorFlow 失败怎么办？","由于 pip 无法直接获取适用于 ARM 架构的 TensorFlow，请手动下载并安装预编译的 wheel 文件。具体步骤如下：\n1. 更新 Python：`sudo apt update` 和 `sudo apt install python3 --upgrade`\n2. 下载专用 wheel 文件：`wget https:\u002F\u002Fgithub.com\u002Flhelontra\u002Ftensorflow-on-arm\u002Freleases\u002Fdownload\u002Fv1.14.0-buster\u002Ftensorflow-1.14.0-cp37-none-linux_armv7l.whl`\n3. 安装该文件：`pip3 install tensorflow-1.14.0-cp37-none-linux_armv7l.whl`\n4. 重启设备。\n如果命令 `hypergan` 仍无法运行，尝试使用 `python3 -m hypergan` 代替。注意：在没有 GPU 的设备上运行 `hypergan test` 可能会报错，但功能通常仍可用。","https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\u002Fissues\u002F205",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},17291,"安装后运行 'hypergan' 命令提示 'command not found' 如何解决？","这通常是因为安装脚本未正确将可执行文件链接到系统路径，或者在 Windows 上缺少对应的 bin 文件夹。维护者表示该问题在 1.0 版本中通过简化安装流程已得到修复。如果是旧版本用户，建议升级到最新版。对于 Windows 用户，官方计划发布专门的安装程序，目前可能需要手动检查 Python Scripts 目录下是否存在 `hypergan` 文件，并将其添加到环境变量 PATH 中，或者直接通过 `python -m hypergan` 方式运行。","https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\u002Fissues\u002F115",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},17292,"运行测试时出现 'no default GPU device available' 警告是否正常？","是的，这是正常现象。该警告表示系统未检测到可用的 GPU 设备（例如在 Mac 或未配置 CUDA 的 Linux 上）。HyperGAN 仍然可以使用 CPU 正常运行，只是速度会较慢。此外，项目后续版本（1.0+）已迁移至 PyTorch 框架，相关的底层错误信息和处理方式可能会有所变化。","https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\u002Fissues\u002F241",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},17293,"导入 hypergan 时遇到 'SyntaxError: name is used prior to global declaration' 错误怎么办？","这是一个代码兼容性 Bug，通常发生在特定的 Python 版本（如 Python 3.6）与旧版 HyperGAN 之间。由于该项目已重构并迁移到 PyTorch（1.0 开发分支），强烈建议卸载当前版本并安装最新的开发版或正式版，以解决此类语法错误和兼容性问题。","https:\u002F\u002Fgithub.com\u002FHyperGAN\u002FHyperGAN\u002Fissues\u002F55",{"id":152,"question_zh":153,"answer_zh":154,"source_url":145},17294,"运行脚本时提示找不到 'hyperchamber', 'natsort' 等模块缺失怎么办？","这是因为依赖项未完全安装。请根据报错信息，逐个使用 pip 安装缺失的模块。例如：`pip3 install hyperchamber --upgrade --force-reinstall`，`pip3 install natsort --upgrade --force-reinstall`，以及 `pillow` 和 `nashpy` 等。建议使用 `--force-reinstall` 参数确保覆盖可能损坏的旧版本。安装完所有缺失依赖后，再次运行命令即可。",{"id":156,"question_zh":157,"answer_zh":158,"source_url":150},17295,"命令行参数指向文件时报错，正确的用法是什么？","CLI 参数应当指向包含数据文件的文件夹，而不是单个文件。例如，不要直接指向某个 jpg 文件，而应指向存放所有 jpg 文件的目录。正确用法示例：`python3 super-resolution.py -f jpg \u002FVolumes\u002FAppdata\u002FML-models\u002Fmscoco-hypergan`。如果需要处理多个文件，请将它们统一放入一个子文件夹中，然后将该文件夹路径作为参数传入。",{"id":160,"question_zh":161,"answer_zh":162,"source_url":135},17296,"项目未来会支持 PyTorch 吗？当前的 TensorFlow 版本问题如何解决？","是的，项目已经切换到 PyTorch 框架（1.0 开发分支）。许多现有的安装指令和基于 TensorFlow 的错误（如 GPU 配置、特定版本的依赖冲突）在切换到 PyTorch 后将不再适用或会被新的流程取代。维护者建议用户关注 PyTorch 相关的新线程或文档，以避免混淆，并期待新架构带来更简单的安装体验。",[164,169,174,179,184,189,194],{"id":165,"version":166,"summary_zh":167,"released_at":168},99506,"1.0.0-rc2","更新日志：\n\n* 修复 Windows 系统中缺失 hypergan.cmd 文件的问题（感谢 @IIIBlueberry）\n* 修正了文档链接（感谢 @AI-Spawn）\n* 更好的默认配置\n* 整体清理了未使用的功能\n* 在配置中强制要求指定 HyperGAN 版本\n* 更新了颜色化器的配置\n* 新增颜色化器\u002F超分辨率配置\n* 新增分类任务示例配置\n* 修复了当图像宽度和高度不一致时使用 --crop 参数的问题\n* 修复了 `cat` 层的输出形状问题\n* pip 包持续更新中","2020-08-09T13:41:47",{"id":170,"version":171,"summary_zh":172,"released_at":173},99507,"1.0.0-rc1","# HyperGAN 1.0 RC 1\n\nHyperGAN 1.0 是我们历时约一年、有针对性地致力于稳定和加速训练的成果。\n\n项目启动之初，我们就定下目标：只有当拥有一套稳定且能收敛的默认配置时，才会发布 1.0 版本。如今这一目标终于实现，我们非常激动地向大家推出 HyperGAN 1.0！\n\n伴随此次发布，我们还宣布启动 GitHub 赞助计划。请支持我们，共同将 HyperGAN 打造成为我们心目中理想的 GAN 框架！\n\nhttps:\u002F\u002Fgithub.com\u002Fsponsors\u002Fhypergan\n\n如果您之前已经试用过 HyperGAN，请再尝试一次；如果您是新用户，欢迎加入 Discord 社区，与我们分享您的应用场景。\n\n## 变更内容\n\n * HyperGAN 1.0 现已改用 PyTorch，不再使用 TensorFlow 1.0！\n * 全新的 GitBook 文档！https:\u002F\u002Fhypergan.gitbook.io\u002Fhypergan\u002F\n * 新增规范化的 HyperGAN 层定义语言，用于自定义网络架构。\n * 独立发现的全新稳定性技术，在其他框架中尚无类似实现。详情请参阅默认配置。\n * UI 界面优化。\n * 训练速度更快。\n * 启动时间大幅缩短。\n * 输入处理更加健壮——即使是 0 字节的文件也不再成为问题！\n * `--crop` 参数现先进行缩放，再执行裁剪，以尽可能完整地捕捉目标图像的内容。\n * 修复并新增更多采样器。\n * 支持在训练过程中通过菜单切换采样器。\n * 新增 `--width` 参数，用于指定采样器列数。\n * 更新了配置文件。\n * 提供全新的可用默认配置。\n * 新增 AlignedGAN，用于将一个分布对齐到另一个分布。\n * 新增 AlignedInterpolatedGAN，用于探索新颖的分布。\n * 增加 TOML 格式支持（#240）。\n * 引入大量新层，包括令人兴奋的 multi_head_attention 等层。更多细节请参阅自动生成的文档。\n * 提供其他框架中未见的独特层，例如显著提升生成器容量的 `segment_softmax`。\n * 以及更多精彩内容……\n\n我们努力保留了 HyperGAN 的优点，并去除了其中较为复杂难用的部分。目前文档仍在不断完善中，但整体运行良好，现已可供测试使用。\n\n## 未完待续……\n\n针对本次发布，我们仍有诸多计划。诚挚邀请您立即开始体验 HyperGAN 1.0，并在 Discord 社区中告诉我们您的想法！","2020-08-02T00:42:23",{"id":175,"version":176,"summary_zh":177,"released_at":178},99508,"0.10.1","错误修复","2019-07-28T04:23:33",{"id":180,"version":181,"summary_zh":182,"released_at":183},99509,"0.10.0","\r\n# HyperGAN 0.10.0 已发布\r\n\r\n我们很自豪地宣布，HyperGAN 0.10.0 正式发布！\r\n\r\nHyperGAN 0.10 带来了许多新特性。最终结果是在更少的硬件资源上，生成器的表现更好、多样性更强。\n\n## 新特性\n\n以下是 HyperGAN 中的一些新功能：\n- HIP（HyperGAN 改进提案）框架，允许社区参与路线图的制定；\n- 一种新的默认配置，具有丰富的多样性，并且可以扩展到任意规模；\n- “可配置组件”，允许您使用 JSON 文件定义模型架构；\n- 全新的查看器；\n- 新的 Android 应用程序及源代码（即将发布）；\n- 支持 1 通道（黑白）、3 通道（RGB）或 4 通道（RGBA）；\n- 还有更多：全新的训练器、优化器、组件，几乎一切都是新的。\n\n此外，我们还进行了优化。`hypergan build` 可以将一个需要 6GB 显存才能训练的模型，在推理时压缩至不到 10MB。这使其非常适合嵌入到移动设备或网页中。\n\n## 升级说明\n\n请确保先卸载旧版本的 HyperGAN，然后运行 `pip install hypergan`。如果您使用的是 Windows，请在 Discord 上查看相关说明。\n\n## 加入我们\n\n欢迎加入我们的 [Discord](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)，在那里您可以找到独家内容。\n\n想参与贡献吗？随着 0.10.0 版本和 HIPs 的发布，现在正是最佳时机。您可以创建一个 HIP、设计一个模型、解决一个问题、分享一个数据集，或者展示您的项目成果。这里有许多有趣的活动和酷炫的项目等待您去探索和实现。\n\n## 更多精彩即将呈现\n\n我们还有几项令人期待的新功能，将在 0.10 版本中与大家分享。敬请关注！\n\n## 社交媒体\n\n请在 [Twitter](https:\u002F\u002Ftwitter.com\u002Fhypergan) 上关注我们。同时，请点赞并订阅我们的 [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCU33XvBbMnS8002_NB7JSvA) 频道，我们将陆续发布新视频。别忘了为我们的 [GitHub](https:\u002F\u002Fgithub.com\u002Fhypergan\u002Fhypergan) 仓库点个星。当然，如果您还没有加入，也欢迎加入我们的 [Discord](https:\u002F\u002Fdiscord.gg\u002Ft4WWBPF)——这对我们来说真的很有帮助。\n\n## 感谢\n\n在此，我们要感谢 HyperGAN 社区中的每一位成员。感谢大家在这个开发周期中进行测试、给予支持、提出建议、共同构建模型，并始终展现出卓越的精神风貌。","2019-07-27T07:05:11",{"id":185,"version":186,"summary_zh":187,"released_at":188},99510,"0.9.5","* 修复跨平台 Pygame 查看器（感谢 @sbuckleybonanno）\n* `hypergan build` 会构建 .pbgraph 文件\n* 文档更新","2017-07-24T11:28:41",{"id":190,"version":191,"summary_zh":192,"released_at":193},99511,"0.9.4","# 0.9.4 \n\n* 引入对 Python 3.5 以下版本的支持（感谢 @andrewyang96）\n* 添加了一个跨平台查看器，使用 Pygame 实现（已在 macOS 和 Linux 上测试，应在 Windows 上也能正常工作）","2017-07-11T07:11:43",{"id":195,"version":196,"summary_zh":197,"released_at":198},99512,"0.9.1","# 0.9\n\n本次发布包含了大规模的代码重构和大量新功能。变更内容过多，无法在此一一列出，请参阅 #66 获取完整详情。","2017-07-11T07:13:05"]