GeneticAlgorithmPython
PyGAD 是一个基于 Python 3 开发的开源库,旨在帮助用户轻松构建遗传算法并优化机器学习模型。它主要解决了在复杂问题中寻找最优解的难题,特别是在需要调整大量参数或处理多目标优化的场景下,能够自动化地搜索最佳解决方案,从而减少人工试错的成本。
这款工具非常适合开发者、数据科学家以及研究人员使用。无论你是希望提升 Keras 或 PyTorch 模型的训练效果,还是需要解决传统的单目标或多目标优化问题,PyGAD 都能提供强有力的支持。其设计初衷是“易用性”,即使没有深厚的进化计算背景,用户也能通过自定义适应度函数快速上手。
PyGAD 的技术亮点在于其高度的灵活性和广泛的兼容性。它不仅支持多种交叉、变异和父代选择策略,允许用户根据具体问题定制算法行为,还无缝集成了主流深度学习框架。此外,项目背后还有一个名为"Optimization Gadget"的云端的可视化工具,进一步降低了使用门槛,让优化过程更加直观。作为一个持续活跃更新的开源项目,PyGAD 致力于为用户提供稳定且高效的优化体验。
使用场景
某金融科技团队正在构建一个高频交易预测模型,需要利用深度学习网络从海量历史数据中挖掘规律,但模型超参数组合过于庞大,传统方法难以找到全局最优解。
没有 GeneticAlgorithmPython 时
- 工程师只能依赖手动试错或简单的网格搜索来调整神经网络的层数、学习率等关键参数,耗时数周仍可能陷入局部最优。
- 面对多目标优化需求(如同时最大化收益率并最小化回撤),缺乏原生支持,需自行编写复杂的加权算法,代码维护成本极高。
- 从零实现遗传算法的交叉、变异和选择算子不仅容易出错,还难以适配 Keras 或 PyTorch 框架,导致模型训练流程频繁中断。
- 每次参数迭代都需要重写大量样板代码,团队无法快速验证新的假设,严重拖慢了策略上线的节奏。
使用 GeneticAlgorithmPython 后
- 通过调用现成的 API,团队在几天内就完成了对深度学习模型超参数的自动化寻优,迅速锁定了全局最佳配置。
- 利用其内置的多目标优化功能,轻松平衡了收益与风险指标,无需再为设计复杂的适应度函数而头疼。
- 直接无缝对接现有的 Keras 和 PyTorch 模型,灵活配置多种交叉与变异策略,大幅降低了集成难度和报错率。
- 标准化的开发流程让研究人员能专注于策略逻辑本身,将原本数周的参数调优工作压缩至数小时,显著提升了迭代效率。
GeneticAlgorithmPython 将复杂的进化计算转化为简洁的代码调用,让开发者能以最低成本释放机器学习模型的最大潜能。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
PyGAD:Python中的遗传算法
PyGAD 是一个开源、易于使用的 Python 3 库,用于构建遗传算法并优化机器学习算法。它支持 Keras 和 PyTorch。PyGAD 可以用于优化单目标和多目标问题。
试试 Optimization Gadget,这是一款由 PyGAD 提供支持的免费云端工具。它通过减少或消除编码需求来简化优化过程,同时提供富有洞察力的可视化效果。
请查阅 PyGAD 的文档。

PyGAD 支持多种类型的交叉、变异和父代选择。通过自定义适应度函数,PyGAD 能够使用遗传算法优化不同类型的问题。
该库目前仍在积极开发中,功能也在不断更新。如果您希望新增某项功能,请查看“联系我们”部分提交请求。
捐赠
- 信用卡/借记卡: https://donate.stripe.com/eVa5kO866elKgM0144
- Open Collective: opencollective.com/pygad
- PayPal: 使用此链接:paypal.me/ahmedfgad 或电子邮件地址 ahmed.f.gad@gmail.com
- Interac e-Transfer:使用电子邮件地址 ahmed.f.gad@gmail.com
安装
要安装 PyGAD,只需使用 pip 从 PyPI(Python 包索引)下载并安装该库。该库在 PyPI 上的页面为:https://pypi.org/project/pygad。
使用以下命令安装 PyGAD:
pip install pygad
要开始使用 PyGAD,请阅读位于 Read The Docs 的文档:https://pygad.readthedocs.io。
PyGAD 源代码
PyGAD 各模块的源代码位于以下 GitHub 项目中:
- pygad: (https://github.com/ahmedfgad/GeneticAlgorithmPython)
- pygad.nn: https://github.com/ahmedfgad/NumPyANN
- pygad.gann: https://github.com/ahmedfgad/NeuralGenetic
- pygad.cnn: https://github.com/ahmedfgad/NumPyCNN
- pygad.gacnn: https://github.com/ahmedfgad/CNNGenetic
- pygad.kerasga: https://github.com/ahmedfgad/KerasGA
- pygad.torchga: https://github.com/ahmedfgad/TorchGA
PyGAD 的文档可在 Read The Docs 上找到:https://pygad.readthedocs.io。
PyGAD 文档
PyGAD 库的文档可在 Read The Docs 上找到,链接为:https://pygad.readthedocs.io。文档详细介绍了 PyGAD 支持的模块、所有类、方法、属性和函数,并为每个模块提供了多个示例。
如果在使用 PyGAD 时遇到问题,欢迎在 GitHub 仓库 中提交问题:https://github.com/ahmedfgad/GeneticAlgorithmPython,或者发送邮件至 ahmed.f.gad@gmail.com。
如果您使用 PyGAD 构建了某个项目,请将以下信息发送至 ahmed.f.gad@gmail.com,以便将您的项目收录到文档中:
- 项目标题
- 简要描述
- 最好附上指向您项目的链接
更多联系方式请参阅“联系我们”部分。
PyGAD 的生命周期
下图列出了 pygad.GA 类实例生命周期中的各个阶段。请注意,当所有代数都已完成,或者当传递给 on_generation 参数的函数返回字符串 stop 时,PyGAD 将停止运行。

以下代码实现了所有回调函数,以跟踪遗传算法的执行过程。每个回调函数都会打印其名称。
import pygad
import numpy
function_inputs = [4,-2,3.5,5,-11,-4.7]
desired_output = 44
def fitness_func(ga_instance, solution, solution_idx):
output = numpy.sum(solution*function_inputs)
fitness = 1.0 / (numpy.abs(output - desired_output) + 0.000001)
return fitness
fitness_function = fitness_func
def on_start(ga_instance):
print("on_start()")
def on_fitness(ga_instance, population_fitness):
print("on_fitness()")
def on_parents(ga_instance, selected_parents):
print("on_parents()")
def on_crossover(ga_instance, offspring_crossover):
print("on_crossover()")
def on_mutation(ga_instance, offspring_mutation):
print("on_mutation()")
def on_generation(ga_instance):
print("on_generation()")
def on_stop(ga_instance, last_population_fitness):
print("on_stop()")
ga_instance = pygad.GA(num_generations=3,
num_parents_mating=5,
fitness_func=fitness_function,
sol_per_pop=10,
num_genes=len(function_inputs),
on_start=on_start,
on_fitness=on_fitness,
on_parents=on_parents,
on_crossover=on_crossover,
on_mutation=on_mutation,
on_generation=on_generation,
on_stop=on_stop)
ga_instance.run()
根据为 num_generations 参数指定的 3 个代数,以下是输出结果。
on_start()
on_fitness()
on_parents()
on_crossover()
on_mutation()
on_generation()
on_fitness()
on_parents()
on_crossover()
on_mutation()
on_generation()
on_fitness()
on_parents()
on_crossover()
on_mutation()
on_generation()
on_stop()
示例
有关此示例实现的信息,请参阅 PyGAD 的文档。它解决的是一个单目标优化问题。
import pygad
import numpy
"""
已知以下函数:
y = f(w1:w6) = w1x1 + w2x2 + w3x3 + w4x4 + w5x5 + w6x6
其中 (x1,x2,x3,x4,x5,x6)=(4,-2,3.5,5,-11,-4.7),且 y=44
那么,这 6 个权重(w1 至 w6)的最佳值是多少?我们将使用遗传算法来优化这个函数。
"""
function_inputs = [4,-2,3.5,5,-11,-4.7] # 函数输入。
desired_output = 44 # 函数输出。
def fitness_func(ga_instance, solution, solution_idx):
# 计算当前种群中每个解的适应度值。
# 适应度函数计算每个输入与其对应权重的乘积之和。
output = numpy.sum(solution*function_inputs)
fitness = 1.0 / numpy.abs(output - desired_output)
return fitness
fitness_function = fitness_func
num_generations = 100 # 代数。
num_parents_mating = 7 # 作为交配池中父母的解的数量。
# 准备初始种群有两种方式:
# 1) 自己准备并将其传递给 initial_population 参数。这种方式适用于用户希望从自定义初始种群开始运行遗传算法的情况。
# 2) 为 sol_per_pop 和 num_genes 参数分配有效的整数值。如果提供了 initial_population 参数,则 sol_per_pop 和 num_genes 参数将不起作用。
sol_per_pop = 50 # 种群中的解的数量。
num_genes = len(function_inputs)
last_fitness = 0
def callback_generation(ga_instance):
global last_fitness
print(f"代数 = {ga_instance.generations_completed}")
print(f"适应度值 = {ga_instance.best_solution()[1]}")
print(f"变化 = {ga_instance.best_solution()[1] - last_fitness}")
last_fitness = ga_instance.best_solution()[1]
# 在 ga 模块中创建 GA 类的实例。一些参数在构造函数中初始化。
ga_instance = pygad.GA(num_generations=num_generations,
num_parents_mating=num_parents_mating,
fitness_func=fitness_function,
sol_per_pop=sol_per_pop,
num_genes=num_genes,
on_generation=callback_generation)
# 运行 GA 以优化函数的参数。
ga_instance.run()
# 代数完成后,会显示一些图表,总结输出/适应度值随代数的变化情况。
ga_instance.plot_fitness()
# 返回最佳解的详细信息。
solution, solution_fitness, solution_idx = ga_instance.best_solution()
print(f"最佳解的参数:{solution}")
print(f"最佳解的适应度值 = {solution_fitness}")
print(f"最佳解的索引:{solution_idx}")
prediction = numpy.sum(numpy.array(function_inputs)*solution)
print(f"基于最佳解的预测输出:{prediction}")
if ga_instance.best_solution_generation != -1:
print(f"最佳适应度值在第 {ga_instance.best_solution_generation} 代达到。")
# 保存 GA 实例。
filename = 'genetic' # 保存实例的文件名,不带扩展名。
ga_instance.save(filename=filename)
# 加载保存的 GA 实例。
loaded_ga_instance = pygad.load(filename=filename)
loaded_ga_instance.plot_fitness()
更多信息
有许多资源可以帮助您入门遗传算法,并在 Python 中构建它。
教程:在 Python 中实现遗传算法
要开始编写遗传算法代码,可以查看题为Python 中的遗传算法实现的教程,该教程可通过以下链接访问:
本教程基于该项目的早期版本编写,但仍然是开始学习遗传算法编程的一个不错资源。
教程:遗传算法简介
通过阅读题为遗传算法优化入门的教程,开始学习遗传算法。该教程可通过以下链接访问:
教程:用遗传算法优化神经网络
通过题为使用遗传算法和 Python 优化人工神经网络的教程,了解如何利用遗传算法训练神经网络。该教程可通过以下链接访问:
书籍:使用 CNN 的深度学习进行实用计算机视觉应用
您还可以查阅我的著作,即Ahmed Fawzy Gad,《使用 CNN 的深度学习进行实用计算机视觉应用》。2018 年 12 月,Apress 出版社,ISBN:978-1-4842-4167-7,书中讨论了神经网络、卷积神经网络、深度学习、遗传算法等内容。
您可以通过以下链接找到该书:

引用 PyGAD - BibTeX 格式引用
如果您使用了 PyGAD,请考虑在关于 PyGAD 的论文中添加以下引用:
@article{gad2023pygad,
title={Pygad: 一个直观的遗传算法 Python 库},
author={Gad, Ahmed Fawzy},
journal={多媒体工具与应用},
pages={1--14},
year={2023},
publisher={Springer}
}
联系我们
版本历史
3.5.02025/07/093.4.02025/01/073.3.12024/02/173.3.02024/01/293.2.02023/09/083.1.02023/06/203.0.12023/04/203.0.02023/04/082.19.22023/02/232.19.12023/02/222.18.32023/02/142.18.22023/02/142.18.12022/09/192.18.02022/09/092.17.02022/07/082.16.32022/02/032.16.12021/09/292.16.02021/06/202.15.12021/06/182.15.02021/06/18常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备






