[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-EMI-Group--evox":3,"tool-EMI-Group--evox":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":24,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":154},10073,"EMI-Group\u002Fevox","evox","Distributed GPU-Accelerated Framework for Evolutionary Computation. Comprehensive Library of Evolutionary Algorithms & Benchmark Problems.","EvoX 是一个专为进化计算打造的分布式 GPU 加速框架，深度兼容 PyTorch 生态。它主要解决了传统进化算法在处理大规模问题时计算效率低、难以利用现代硬件加速的痛点，通过异构硬件支持（CPU\u002FGPU）和分布式工作流，可实现高达 100 倍以上的速度提升，让复杂的优化任务变得高效可行。\n\n该平台内置了 50 多种进化算法和 100 多个基准测试问题，全面覆盖单目标与多目标优化场景，并采用分层架构设计，能够轻松应对元学习、超参数优化及神经进化等高难度任务。对于用户而言，EvoX 提供了友好的编程模型和一键安装体验，大幅降低了开发门槛。\n\nEvoX 特别适合人工智能研究人员、算法工程师以及需要解决复杂优化问题的开发者使用。无论是进行学术探索，还是构建工业级应用，它都能提供强大的算力支持和丰富的算法库，帮助用户快速验证想法并部署高性能解决方案。","\u003Ch1 align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"docs\u002Fsource\u002F_static\u002Fevox_brand_light.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"docs\u002Fsource\u002F_static\u002Fevox_brand_dark.svg\">\n    \u003Cimg alt=\"EvoX Logo\" height=\"128\" width=\"500px\" src=\"docs\u002Fsource\u002F_static\u002Fevox_brand_dark.svg\">\n  \u003C\u002Fpicture>\n\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Fpso_result.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_f27b7ff43445.gif\" alt=\"PSO Result\" height=\"150\">\n  \u003C\u002Fpicture>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Frvea_result.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_6758098e6b61.gif\" alt=\"RVEA Result\" height=\"150\">\n  \u003C\u002Fpicture>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Fhalfcheetah_200.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_3187f95f4b29.gif\" alt=\"HalfCheetah 200\" height=\"150\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12457\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-2212.05652-red\" alt=\"arXiv\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Findex.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Freadthedocs-docs-green?logo=readthedocs\" alt=\"Documentation\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fevox\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fevox?logo=python\" alt=\"PyPI Version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fevox\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10+-orange?logo=python\" alt=\"Python Version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FVbtgcpy7G4\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-evox-%235865f2?logo=discord\" alt=\"Discord Server\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fqm.qq.com\u002Fq\u002FvTPvoMUGAw\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FQQ-297969717-%231db4f4?logo=tencentqq\" alt=\"QQ Group\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FEnglish-f6f5f4\" alt=\"English README\">\u003C\u002Fa>\n  \u003Ca href=\".\u002FREADME_ZH.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F中文-f6f5f4\" alt=\"中文 README\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\u003Ch3 align=\"center\"> 🌟Distributed GPU-accelerated Framework for Scalable Evolutionary Computation🌟 \u003C\u002Fh3>\n\n---\n\n\n## Table of Contents\n\n1. [Overview](#Overview)\n2. [Key Features](#key-features)\n3. [Main Contents](#main-contents)\n4. [Installation Guide](#installation-guide)\n5. [Quick Start](#quick-start)\n6. [Sister Projects](#sister-projects)\n7. [Community & Support](#community--support)\n\n## Overview\n\nEvoX is a distributed GPU-accelerated evolutionary computation framework compatible with **PyTorch**.  With a user-friendly programming model, it offers a comprehensive suite of **50+ Evolutionary Algorithms (EAs)** and a wide range of **100+ Benchmark Problems\u002FEnvironments**. For more details, please refer to our [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12457) and [Documentation](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Findex.html) \u002F [文档](https:\u002F\u002Fevox.readthedocs.io\u002Fzh_CN\u002Flatest\u002Findex.html).\n\n> [!NOTE]\n> Users of the previous **JAX-based version** can access it on the **v0.9.0 branch**.\n\n\n## Key Features\n\n### 💻 High-Performance Computing\n\n#### 🚀 Ultra Performance\n- Supports acceleration on heterogeneous hardware, including both **CPUs** and **GPUs**, achieving over **100x speedups**.\n- Integrates **distributed workflows** that scale seamlessly across multiple nodes or devices.\n\n#### 🌐 All-in-One Solution\n- Includes **50+ algorithms** for a wide range of use cases, fully supporting **single- and multi-objective optimization**.\n- Provides a **hierarchical architecture** for complex tasks such as **meta learning**, **hyperparameter optimization**, and **neuroevolution**.\n\n#### 🛠️ Easy-to-Use Design\n- Fully compatible with **PyTorch** and its ecosystem, simplifying algorithmic development with a **tailored programming model**.\n- Ensures effortless setup with **one-click installation** for Windows users.\n\n\n### 📊 Versatile Benchmarking\n\n#### 📚 Extensive Benchmark Suites\n- Features **100+ benchmark problems** spanning single-objective optimization, multi-objective optimization, and real-world engineering challenges.\n\n#### 🎮 Support for Physics Engines\n- Integrates seamlessly with physics engines like **Brax** and other popular frameworks for reinforcement learning.\n\n#### ⚙️ Customizable Problems\n- Provides an **encapsulated module** for defining and evaluating custom problems tailored to user needs, with seamless integration into real-world applications and datasets.\n\n\n### 📈 Flexible Visualization\n\n#### 🔍 Ready-to-Use Tools\n- Offers a comprehensive set of **visualization tools** for analyzing evolutionary processes across various tasks.\n\n#### 🛠️ Customizable Modules\n- Enables users to integrate their own **visualization code**, allowing for tailored and flexible visualizations.\n\n#### 📂 Real-Time Data Streaming\n- Leverages the tailored **.exv format** to simplify and accelerate real-time data streaming.\n\n## Main Contents\n\n\u003Ctable border=\"1\" cellspacing=\"0\" cellpadding=\"8\" style=\"border-collapse: collapse; width: 100%; text-align: left;\">\n  \u003Cthead>\n    \u003Ctr style=\"background-color: #f2f2f2;\">\n      \u003Cth>Category\u003C\u002Fth>\n      \u003Cth>Subcategory\u003C\u002Fth>\n      \u003Cth>Notable Algorithms \u002F Benchmark Problems\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">Single-objective Optimization\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>Differential Evolution\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>CoDE, JaDE, SaDE, SHADE, IMODE, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>Evolution Strategy\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>CMA-ES, PGPE, OpenES, CR-FM-NES, xNES, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>Particle Swarm Optimization\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>FIPS, CSO, CPSO, CLPSO, SL-PSO, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">Multi-objective Optimization\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>Dominance-based\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>NSGA-II, NSGA-III, SPEA2, BiGE, KnEA, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>Decomposition-based\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>MOEA\u002FD, RVEA, t-DEA, MOEAD-M2M, EAG-MOEAD, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>Indicator-based\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>IBEA, HypE, SRA, MaOEA-IGD, AR-MOEA, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"2\">Benchmark Problems \u002F Environments\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>Numerical\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>DTLZ, LSMOP, MaF, ZDT, CEC'22, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>Neuroevolution \u002F RL\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>Brax, TorchVision Dataset, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\nFor a comprehensive list and detailed descriptions of all algorithms, please check the [Algorithms API](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Fapidocs\u002Fevox\u002Fevox.algorithms.html), and for benchmark problems\u002Fenvironments, refer to the [Problems API](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Fapidocs\u002Fevox\u002Fevox.problems.html).\n\n\n## Installation Guide\n\nInstall `evox` with default feature sets via `pip`:\n\n```bash\npip install \"evox[default]\"\n```\n\nInstall the latest version from the source code for testing or development:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox.git\ncd evox\npip install -e .\n```\n\n> [!TIP]\n> Windows users can use the [win-install.bat](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002F_downloads\u002F796714545d73f0b52e921d885369323d\u002Fwin-install.bat) script for installation.\n\n## Quick Start\n\nHere are some examples to get you started with EvoX:\n\n### Single-objective Optimization\n\nSolve the Ackley problem using the PSO algorithm:\n\n```python\nimport torch\nfrom evox.algorithms import PSO\nfrom evox.problems.numerical import Ackley\nfrom evox.workflows import StdWorkflow, EvalMonitor\n\n# torch.set_default_device(\"cuda\") # Uncomment this line if you want to use GPU by default\n\nalgorithm = PSO(pop_size=100, lb=-32 * torch.ones(10), ub=32 * torch.ones(10))\nproblem = Ackley()\nmonitor = EvalMonitor()\nworkflow = StdWorkflow(algorithm, problem, monitor)\nworkflow.init_step()\nfor i in range(100):\n    workflow.step()\n\nmonitor.plot() # or monitor.plot().show() if you are using headless mode\n```\n\n\u003Cdetails>\n  \u003Csummary>Example Output\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F1-single-objective-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_9169a9337e39.png\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n### Multi-objective Optimization\n\nSolve the DTLZ2 problem using the RVEA algorithm:\n\n```python\nimport torch\nfrom evox.algorithms import RVEA\nfrom evox.problems.numerical import DTLZ2\nfrom evox.workflows import StdWorkflow, EvalMonitor\n\n# torch.set_default_device(\"cuda\") # Uncomment this line if you want to use GPU by default\n\nprob = DTLZ2(m=2)\npf = prob.pf()\nalgo = RVEA(\n    pop_size=100,\n    n_objs=2,\n    lb=-torch.zeros(12),\n    ub=torch.ones(12)\n)\nmonitor = EvalMonitor()\nworkflow = StdWorkflow(algo, prob, monitor)\nworkflow.init_step()\nfor i in range(100):\n    workflow.step()\n\nmonitor.plot() # or monitor.plot().show() if you are using headless mode\n```\n\n\u003Cdetails>\n  \u003Csummary>Example Output\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F2-multi-objective-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_cfb88bf4de53.png\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n### Neuroevolution\n\nEvolving a simple MLP model to solve the Brax HalfCheetah environment:\n\n```python\nimport torch\nimport torch.nn as nn\nfrom evox.algorithms import PSO\nfrom evox.problems.neuroevolution.brax import BraxProblem\nfrom evox.utils import ParamsAndVector\nfrom evox.workflows import EvalMonitor, StdWorkflow\n\n# torch.set_default_device(\"cuda\") # Uncomment this line if you want to use GPU by default\n\nclass SimpleMLP(nn.Module):\n    def __init__(self):\n        super().__init__()\n        # observation space is 17-dim, action space is 6-dim.\n        self.features = nn.Sequential(nn.Linear(17, 8), nn.Tanh(), nn.Linear(8, 6))\n\n    def forward(self, x):\n        return torch.tanh(self.features(x))\n\n# Initialize the MLP model\nmodel = SimpleMLP()\nadapter = ParamsAndVector(dummy_model=model)\n# Set the population size\nPOP_SIZE = 1024\n# Get the bound of the PSO algorithm\nmodel_params = dict(model.named_parameters())\npop_center = adapter.to_vector(model_params)\nlb = torch.full_like(pop_center, -5)\nub = torch.full_like(pop_center, 5)\n# Initialize the PSO, and you can also use any other algorithms\nalgorithm = PSO(pop_size=POP_SIZE, lb=lb, ub=ub)\n# Initialize the Brax problem\nproblem = BraxProblem(\n    policy=model,\n    env_name=\"halfcheetah\",\n    max_episode_length=1000,\n    num_episodes=3,\n    pop_size=POP_SIZE,\n)\n# set an monitor, and it can record the top 3 best fitnesses\nmonitor = EvalMonitor(topk=3)\n# Initiate an workflow\nworkflow = StdWorkflow(\n    algorithm=algorithm,\n    problem=problem,\n    monitor=monitor,\n    opt_direction=\"max\",\n    solution_transform=adapter,\n)\nworkflow.init_step()\nfor i in range(50):\n    workflow.step()\n\nmonitor.plot() # or monitor.plot().show() if you are using headless mode\n```\n\n\u003Cdetails>\n  \u003Csummary>Example Output\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F3-neuroevolution-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_33de48c5f97a.gif\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n> [!NOTE]\n> For comprehensive guidance, please visit our [Documentation](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002F), where you'll find detailed installation steps, tutorials, practical examples, and complete API references.\n\n## Sister Projects\n- **EvoRL**: GPU-accelerated framework for Evolutionary Reinforcement Learning. Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevorl).\n- **EvoGP**: GPU-accelerated framework for Genetic Programming. Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevogp).\n- **EvoMO**: GPU-accelerated library for Evolutionary Multiobjective Optimization (EMO).Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevomo).\n- **TensorNEAT**: Tensorized NeuroEvolution of Augmenting Topologies (NEAT) for GPU Acceleration. Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Ftensorneat).\n- **TensorACO**: Tensorized Ant Colony Optimization (ACO) for GPU Acceleration. Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Ftensoraco).\n- **EvoXBench**: A real-world benchmark platform for solving various optimization problems, such as Neural Architecture Search (NAS). It operates without the need for GPUs\u002FPyTorch\u002FTensorFlow and supports multiple programming environments. Check out [here](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevoxbench).\n\nStay tuned - more exciting developments are on the way!  ✨\n\n## Community & Support\n\n- Join discussions on the [GitHub Discussion Board](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fdiscussions).\n- Connect via [Discord](https:\u002F\u002Fdiscord.gg\u002FVbtgcpy7G4) or QQ group (ID: 297969717).\n- Visit [Offical Website](https:\u002F\u002Fevox.group\u002F).\n\n## Citing EvoX\n\nIf EvoX contributes to your research, please cite it:\n\n```bibtex\n@article{evox,\n  title = {{EvoX}: {A} {Distributed} {GPU}-accelerated {Framework} for {Scalable} {Evolutionary} {Computation}},\n  author = {Huang, Beichen and Cheng, Ran and Li, Zhuozhao and Jin, Yaochu and Tan, Kay Chen},\n  journal = {IEEE Transactions on Evolutionary Computation},\n  year = 2024,\n  doi = {10.1109\u002FTEVC.2024.3388550}\n}\n```\n\n## License Notice\n\nEvoX is licensed under the **GNU General Public License v3.0 (GPL-3.0)**. For full terms and conditions, please refer to the [LICENSE](.\u002FLICENSE) file.\n\n\u003C!--\n## Star History\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_2aef6ac169ad.png)](https:\u002F\u002Fstar-history.com\u002F#EMI-Group\u002Fevox&Date)\n-->\n","\u003Ch1 align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"docs\u002Fsource\u002F_static\u002Fevox_brand_light.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"docs\u002Fsource\u002F_static\u002Fevox_brand_dark.svg\">\n    \u003Cimg alt=\"EvoX Logo\" height=\"128\" width=\"500px\" src=\"docs\u002Fsource\u002F_static\u002Fevox_brand_dark.svg\">\n  \u003C\u002Fpicture>\n\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Fpso_result.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_f27b7ff43445.gif\" alt=\"PSO Result\" height=\"150\">\n  \u003C\u002Fpicture>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Frvea_result.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_6758098e6b61.gif\" alt=\"RVEA Result\" height=\"150\">\n  \u003C\u002Fpicture>\n  &nbsp;&nbsp;&nbsp;&nbsp;\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002Fhalfcheetah_200.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_3187f95f4b29.gif\" alt=\"HalfCheetah 200\" height=\"150\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12457\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Farxiv-2212.05652-red\" alt=\"arXiv\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Findex.html\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Freadthedocs-docs-green?logo=readthedocs\" alt=\"Documentation\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fevox\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fevox?logo=python\" alt=\"PyPI Version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fevox\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10+-orange?logo=python\" alt=\"Python Version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FVbtgcpy7G4\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdiscord-evox-%235865f2?logo=discord\" alt=\"Discord Server\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fqm.qq.com\u002Fq\u002FvTPvoMUGAw\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FQQ-297969717-%231db4f4?logo=tencentqq\" alt=\"QQ Group\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002FREADME.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FEnglish-f6f5f4\" alt=\"English README\">\u003C\u002Fa>\n  \u003Ca href=\".\u002FREADME_ZH.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F中文-f6f5f4\" alt=\"中文 README\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\u003Ch3 align=\"center\"> 🌟面向可扩展进化计算的分布式GPU加速框架🌟 \u003C\u002Fh3>\n\n---\n\n\n## 目录\n\n1. [概述](#Overview)\n2. [关键特性](#key-features)\n3. [主要内容](#main-contents)\n4. [安装指南](#installation-guide)\n5. [快速入门](#quick-start)\n6. [姊妹项目](#sister-projects)\n7. [社区与支持](#community--support)\n\n## 概述\n\nEvoX是一个兼容**PyTorch**的分布式GPU加速进化计算框架。它采用用户友好的编程模型，提供超过**50种进化算法（EAs）**和**100多个基准问题\u002F环境**。更多详情请参阅我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12457)以及[文档](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Findex.html) \u002F [文档](https:\u002F\u002Fevox.readthedocs.io\u002Fzh_CN\u002Flatest\u002Findex.html)。\n\n> [!NOTE]\n> 使用过之前基于**JAX**版本的用户可以在**v0.9.0分支**上找到该版本。\n\n\n## 关键特性\n\n### 💻 高性能计算\n\n#### 🚀 超高性能\n- 支持在异构硬件上加速，包括**CPU**和**GPU**，实现超过**100倍的加速**。\n- 集成**分布式工作流**，可在多个节点或设备间无缝扩展。\n\n#### 🌐 一体化解决方案\n- 包含**50多种算法**，适用于广泛的使用场景，全面支持**单目标和多目标优化**。\n- 提供**分层架构**，用于处理复杂任务，如**元学习**、**超参数优化**和**神经进化**。\n\n#### 🛠️ 易用设计\n- 完全兼容**PyTorch**及其生态系统，通过**定制化的编程模型**简化算法开发。\n- 为Windows用户提供**一键安装**，确保轻松设置。\n\n\n### 📊 多样化基准测试\n\n#### 📚 丰富的基准套件\n- 拥有**100多个基准问题**，涵盖单目标优化、多目标优化以及现实世界的工程挑战。\n\n#### 🎮 物理引擎支持\n- 可与物理引擎如**Brax**及其他流行的强化学习框架无缝集成。\n\n#### ⚙️ 可自定义问题\n- 提供一个**封装模块**，用于定义和评估根据用户需求量身定制的问题，并可轻松集成到实际应用和数据集中。\n\n\n### 📈 灵活的可视化\n\n#### 🔍 即用工具\n- 提供一套全面的**可视化工具**，用于分析各种任务中的进化过程。\n\n#### 🛠️ 可定制模块\n- 允许用户集成自己的**可视化代码**，实现个性化和灵活的可视化效果。\n\n#### 📂 实时数据流\n- 利用定制的**.exv格式**，简化并加速实时数据流。\n\n\n## 主要内容\n\n\u003Ctable border=\"1\" cellspacing=\"0\" cellpadding=\"8\" style=\"border-collapse: collapse; width: 100%; text-align: left;\">\n  \u003Cthead>\n    \u003Ctr style=\"background-color: #f2f2f2;\">\n      \u003Cth>类别\u003C\u002Fth>\n      \u003Cth>子类别\u003C\u002Fth>\n      \u003Cth>值得关注的算法\u002F基准问题\u003C\u002Fth>\n    \u003C\u002Ftr>\n  \u003C\u002Fthead>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">单目标优化\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>差分进化\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>CoDE, JaDE, SaDE, SHADE, IMODE, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>进化策略\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>CMA-ES, PGPE, OpenES, CR-FM-NES, xNES, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>粒子群优化\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>FIPS, CSO, CPSO, CLPSO, SL-PSO, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"3\">多目标优化\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>基于支配关系\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>NSGA-II, NSGA-III, SPEA2, BiGE, KnEA, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>基于分解\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>MOEA\u002FD, RVEA, t-DEA, MOEAD-M2M, EAG-MOEAD, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>基于指标\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>IBEA, HypE, SRA, MaOEA-IGD, AR-MOEA, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd rowspan=\"2\">基准问题\u002F环境\u003C\u002Ftd>\n      \u003Ctd>\u003Cb>数值类\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>DTLZ, LSMOP, MaF, ZDT, CEC'22, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n      \u003Ctd>\u003Cb>神经进化\u002F强化学习\u003C\u002Fb>\u003C\u002Ftd>\n      \u003Ctd>Brax, TorchVision Dataset, ...\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n有关所有算法的完整列表及详细说明，请查看[算法API](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Fapidocs\u002Fevox\u002Fevox.algorithms.html)，而关于基准问题\u002F环境的详细信息则请参考[问题API](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Fapidocs\u002Fevox\u002Fevox.problems.html)。\n\n## 安装指南\n\n使用 `pip` 安装带有默认功能集的 `evox`：\n\n```bash\npip install \"evox[default]\"\n```\n\n从源代码安装最新版本以进行测试或开发：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox.git\ncd evox\npip install -e .\n```\n\n> [!TIP]\n> Windows 用户可以使用 [win-install.bat](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002F_downloads\u002F796714545d73f0b52e921d885369323d\u002Fwin-install.bat) 脚本来进行安装。\n\n## 快速入门\n\n以下是一些示例，帮助您快速上手 EvoX：\n\n### 单目标优化\n\n使用 PSO 算法求解 Ackley 问题：\n\n```python\nimport torch\nfrom evox.algorithms import PSO\nfrom evox.problems.numerical import Ackley\nfrom evox.workflows import StdWorkflow, EvalMonitor\n\n# torch.set_default_device(\"cuda\") # 如果您希望默认使用 GPU，请取消注释此行\n\nalgorithm = PSO(pop_size=100, lb=-32 * torch.ones(10), ub=32 * torch.ones(10))\nproblem = Ackley()\nmonitor = EvalMonitor()\nworkflow = StdWorkflow(algorithm, problem, monitor)\nworkflow.init_step()\nfor i in range(100):\n    workflow.step()\n\nmonitor.plot() # 或者如果您在无头模式下运行，则使用 monitor.plot().show()\n```\n\n\u003Cdetails>\n  \u003Csummary>示例输出\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F1-single-objective-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_9169a9337e39.png\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n### 多目标优化\n\n使用 RVEA 算法求解 DTLZ2 问题：\n\n```python\nimport torch\nfrom evox.algorithms import RVEA\nfrom evox.problems.numerical import DTLZ2\nfrom evox.workflows import StdWorkflow, EvalMonitor\n\n# torch.set_default_device(\"cuda\") # 如果您希望默认使用 GPU，请取消注释此行\n\nprob = DTLZ2(m=2)\npf = prob.pf()\nalgo = RVEA(\n    pop_size=100,\n    n_objs=2,\n    lb=-torch.zeros(12),\n    ub=torch.ones(12)\n)\nmonitor = EvalMonitor()\nworkflow = StdWorkflow(algo, prob, monitor)\nworkflow.init_step()\nfor i in range(100):\n    workflow.step()\n\nmonitor.plot() # 或者如果您在无头模式下运行，则使用 monitor.plot().show()\n```\n\n\u003Cdetails>\n  \u003Csummary>示例输出\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F2-multi-objective-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_cfb88bf4de53.png\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n### 神经进化\n\n进化一个简单的 MLP 模型来解决 Brax HalfCheetah 环境：\n\n```python\nimport torch\nimport torch.nn as nn\nfrom evox.algorithms import PSO\nfrom evox.problems.neuroevolution.brax import BraxProblem\nfrom evox.utils import ParamsAndVector\nfrom evox.workflows import EvalMonitor, StdWorkflow\n\n# torch.set_default_device(\"cuda\") # 如果您希望默认使用 GPU，请取消注释此行\n\nclass SimpleMLP(nn.Module):\n    def __init__(self):\n        super().__init__()\n        # 观测空间为 17 维，动作空间为 6 维。\n        self.features = nn.Sequential(nn.Linear(17, 8), nn.Tanh(), nn.Linear(8, 6))\n\n    def forward(self, x):\n        return torch.tanh(self.features(x))\n\n# 初始化 MLP 模型\nmodel = SimpleMLP()\nadapter = ParamsAndVector(dummy_model=model)\n# 设置种群大小\nPOP_SIZE = 1024\n# 获取 PSO 算法的边界\nmodel_params = dict(model.named_parameters())\npop_center = adapter.to_vector(model_params)\nlb = torch.full_like(pop_center, -5)\nub = torch.full_like(pop_center, 5)\n# 初始化 PSO，您也可以使用其他算法\nalgorithm = PSO(pop_size=POP_SIZE, lb=lb, ub=ub)\n# 初始化 Brax 问题\nproblem = BraxProblem(\n    policy=model,\n    env_name=\"halfcheetah\",\n    max_episode_length=1000,\n    num_episodes=3,\n    pop_size=POP_SIZE,\n)\n# 设置监控器，它可以记录前 3 名的最佳适应度值\nmonitor = EvalMonitor(topk=3)\n# 启动工作流\nworkflow = StdWorkflow(\n    algorithm=algorithm,\n    problem=problem,\n    monitor=monitor,\n    opt_direction=\"max\",\n    solution_transform=adapter,\n)\nworkflow.init_step()\nfor i in range(50):\n    workflow.step()\n\nmonitor.plot() # 或者如果您在无头模式下运行，则使用 monitor.plot().show()\n```\n\n\u003Cdetails>\n  \u003Csummary>示例输出\u003C\u002Fsummary>\n\n  \u003Cpicture>\n    \u003Csource type=\"image\u002Favif\" srcset=\"docs\u002Fsource\u002F_static\u002F3-neuroevolution-output.avif\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_33de48c5f97a.gif\">\n  \u003C\u002Fpicture>\n\n\u003C\u002Fdetails>\n\n> [!NOTE]\n> 如需全面指导，请访问我们的 [文档](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002F)。在那里，您将找到详细的安装步骤、教程、实用示例以及完整的 API 参考。\n\n## 子项目\n- **EvoRL**: 加速进化强化学习的 GPU 框架。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevorl)。\n- **EvoGP**: 加速遗传编程的 GPU 框架。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevogp)。\n- **EvoMO**: 加速进化多目标优化 (EMO) 的 GPU 库。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevomo)。\n- **TensorNEAT**: 用于 GPU 加速的张量化增强拓扑神经进化 (NEAT)。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Ftensorneat)。\n- **TensorACO**: 用于 GPU 加速的张量化蚁群优化 (ACO)。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Ftensoraco)。\n- **EvoXBench**: 一个用于解决各种优化问题（如神经架构搜索 NAS）的真实世界基准平台。它无需 GPU\u002FPyTorch\u002FTensorFlow 即可运行，并支持多种编程环境。请查看 [这里](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevoxbench)。\n\n敬请期待更多激动人心的进展！✨\n\n## 社区与支持\n\n- 加入 [GitHub 讨论区](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fdiscussions) 进行讨论。\n- 通过 [Discord](https:\u002F\u002Fdiscord.gg\u002FVbtgcpy7G4) 或 QQ 群（ID：297969717）联系。\n- 访问 [官方网站](https:\u002F\u002Fevox.group\u002F)。\n\n## 引用 EvoX\n\n如果 EvoX 对您的研究有所帮助，请引用如下：\n\n```bibtex\n@article{evox,\n  title = {{EvoX}: {A} {Distributed} {GPU}-accelerated {Framework} for {Scalable} {Evolutionary} {Computation}},\n  author = {Huang, Beichen and Cheng, Ran and Li, Zhuozhao and Jin, Yaochu and Tan, Kay Chen},\n  journal = {IEEE Transactions on Evolutionary Computation},\n  year = 2024,\n  doi = {10.1109\u002FTEVC.2024.3388550}\n}\n```\n\n## 许可声明\n\nEvoX 采用 **GNU 通用公共许可证 v3.0 (GPL-3.0)** 许可。有关完整条款和条件，请参阅 [LICENSE](.\u002FLICENSE) 文件。\n\n\u003C!--\n## 星标历史\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_readme_2aef6ac169ad.png)](https:\u002F\u002Fstar-history.com\u002F#EMI-Group\u002Fevox&Date)\n-->","# EvoX 快速上手指南\n\nEvoX 是一个基于 PyTorch 的分布式 GPU 加速进化计算框架，支持 50+ 种进化算法和 100+ 基准测试问题，适用于单目标\u002F多目标优化及神经进化任务。\n\n## 环境准备\n\n- **操作系统**：Windows \u002F Linux \u002F macOS\n- **Python 版本**：3.10 或更高\n- **核心依赖**：PyTorch（自动安装）\n- **硬件建议**：支持 CUDA 的 NVIDIA GPU 可获得百倍加速（可选，CPU 亦可运行）\n\n## 安装步骤\n\n### 方式一：通过 pip 安装（推荐）\n\n```bash\npip install \"evox[default]\"\n```\n\n> 💡 **国内用户加速建议**：如遇下载缓慢，可使用清华或阿里镜像源：\n> ```bash\n> pip install \"evox[default]\" -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 方式二：源码安装（开发版）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox.git\ncd evox\npip install -e .\n```\n\n> 💡 **Windows 用户提示**：可直接运行官方提供的 [win-install.bat](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002F_downloads\u002F796714545d73f0b52e921d885369323d\u002Fwin-install.bat) 脚本一键安装。\n\n## 基本使用\n\n以下示例展示如何使用 PSO 算法求解单目标优化问题（Ackley 函数）。\n\n### 单目标优化示例\n\n```python\nimport torch\nfrom evox.algorithms import PSO\nfrom evox.problems.numerical import Ackley\nfrom evox.workflows import StdWorkflow, EvalMonitor\n\n# 若需默认使用 GPU，请取消下行注释\n# torch.set_default_device(\"cuda\")\n\n# 初始化算法：种群大小 100，搜索空间 [-32, 32]^10\nalgorithm = PSO(pop_size=100, lb=-32 * torch.ones(10), ub=32 * torch.ones(10))\n\n# 初始化问题\nproblem = Ackley()\n\n# 初始化监控器与工作流\nmonitor = EvalMonitor()\nworkflow = StdWorkflow(algorithm, problem, monitor)\n\n# 运行优化\nworkflow.init_step()\nfor i in range(100):\n    workflow.step()\n\n# 可视化结果\nmonitor.plot() \n# 若无图形界面（如服务器环境），请使用 monitor.plot().show()\n```\n\n运行后将输出收敛曲线图，展示适应度随迭代次数的变化趋势。\n\n> 📚 更多示例（多目标优化、神经进化等）及完整 API 文档，请访问：[中文文档](https:\u002F\u002Fevox.readthedocs.io\u002Fzh_CN\u002Flatest\u002Findex.html)","某自动驾驶研发团队正在利用进化算法优化神经网络的超参数，以提升车辆在复杂路况下的决策稳定性。\n\n### 没有 evox 时\n- **训练耗时极长**：在单台 CPU 服务器上运行大规模种群迭代，一次完整的超参数搜索需要数天甚至数周，严重拖慢研发节奏。\n- **资源利用率低**：团队拥有的多张高性能 GPU 处于闲置状态，因为传统的进化算法库难以有效调用 GPU 进行并行加速。\n- **算法实现困难**：想要尝试最新的多目标优化算法（如 RVEA）或自定义变异策略，需要从头编写底层代码，极易出错且维护成本高。\n- **扩展性差**：当数据量增大或模型变复杂时，无法简单地通过增加机器节点来线性提升计算速度，只能被迫缩小搜索空间牺牲精度。\n\n### 使用 evox 后\n- **百倍加速体验**：利用 evox 的 GPU 加速特性，将原本需要数天的训练任务压缩至几小时内完成，整体效率提升超过 100 倍。\n- **硬件火力全开**：无缝对接 PyTorch 生态，自动调度异构硬件，让闲置的 GPU 集群瞬间转化为强大的进化计算引擎。\n- **开箱即用丰富算法**：直接调用内置的 50+ 种进化算法和 100+ 基准测试环境，研究人员可专注于策略设计而非底层实现。\n- **弹性分布式扩展**：支持多节点分布式工作流，随着任务复杂度增加，可轻松横向扩展算力，确保大规模搜索任务的可行性。\n\nevox 通过将进化计算带入 GPU 分布式时代，让原本昂贵的超参数调优变得高效、低成本且触手可及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEMI-Group_evox_6758098e.gif","EMI-Group","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FEMI-Group_8cf11550.png","Evolving Machine Intelligence (EMI) Group — Unleashing the Power of Evolutionary Computation.",null,"https:\u002F\u002Fwww.evox.group\u002F","https:\u002F\u002Fgithub.com\u002FEMI-Group",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.6,{"name":85,"color":86,"percentage":87},"Nix","#7e7eff",0.4,2184,302,"2026-04-20T03:39:41","GPL-3.0","Windows, Linux, macOS","非必需，但支持 GPU 加速（兼容 PyTorch 的 CUDA 环境），未明确具体型号和显存要求","未说明",{"notes":96,"python":97,"dependencies":98},"该工具是基于 PyTorch 的分布式 GPU 加速进化计算框架。Windows 用户可使用提供的一键安装脚本。旧版基于 JAX 的版本可在 v0.9.0 分支找到。支持 CPU 和 GPU 异构加速，分布式工作流可扩展至多节点。","3.10+",[99,100],"torch","brax (可选，用于神经进化\u002FRL)",[27,14],[103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120],"evolutionary-algorithms","neuroevolution","gpu-acceleration","ray","brax","derivative-free-optimization","evolutionary-optimization","evolutionary-reinforcement-learinig","gradient-free-optimization","jax","metaheuristics","multi-objective-optimization","population-based-optimization","gym","black-box-optimization","evolutionary-computation","evolutionary-strategies","pytorch","2026-03-27T02:49:30.150509","2026-04-20T19:23:42.210442",[124,129,134,139,144,149],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},45248,"如何在 EvoX 中实现或使用协同进化（Coevolution）方法？","取决于您的目标：\n1. **开发新的协同进化算法**：您可以使用 `Coevolution` 或 `VectorizedCoevolution` 类配合标准算法（参考官方文档），或者编写完全自定义的算法。前者限制为两种预定义策略，后者允许无限制地创建新逻辑。\n2. **设计新的协同进化框架**：建议参考 GitHub 仓库中的示例代码 (`src\u002Fevox\u002Falgorithms\u002Fcontainers\u002Fcoevolution.py`)。容器算法的核心概念是不直接实现 `ask` 和 `tell` 方法，而是将这些任务委托给内部的子算法处理。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F156",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},45249,"如何绘制多目标优化算法（如 NSGA-II, MOEA\u002FD）的帕累托前沿（Pareto Frontiers）？","可以使用 EvoX 内置的可视化工具。具体方法是调用 `evox\u002Fvis_tools\u002Fplot.py` 文件中提供的绘图函数来生成帕累托前沿图。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F4",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},45250,"为什么克隆 EvoX 仓库时文件体积过大（约 300MB），如何解决？","此前仓库中意外提交了日志文件和大型数据集，导致体积膨胀。维护者已清理了 Git 历史记录。如果您遇到此问题，请重新克隆仓库（`git clone`），清理后的版本体积已大幅减小，便于同步和使用。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F43",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},45251,"在使用 HPO（超参数优化）结合 Brax 问题时遇到 PyTorch 与 JAX  tensor 转换错误怎么办？","该问题的根本原因是 EvoX 基于 PyTorch，而 Brax 依赖 JAX，两者在 HPO 流程中进行张量转换时存在兼容性冲突（特别是 `torch.vmap` 的支持问题）。\n建议方案：如果您旨在构建基于种群的训练（PBT）工作流或强化学习（RL）相关工作流，建议尝试 EvoX 的姊妹项目 [EvoRL](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevorl)，它可能更适合此类场景。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F220",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},45252,"EvoX 是否支持最新的 Flax NNX 模块用于 Brax 问题？","目前不兼容且不再计划支持。由于最新的 Flax NNX 实现改变了模型权重的传递方式，导致与 EvoX 现有的 Brax `Problem` 接口签名不一致。维护团队已明确表示，EvoX 将不再依赖 JAX 或 Flax，因此不会针对此新版本进行适配更新。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F150",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},45253,"EvoX 论文中为何没有引用 EvoJAX 和 evosax？它们之间有何关系？","此前未引用是由于疏忽而非故意。维护团队已对此表示歉意，并已在 arXiv 上更新了论文版本，正式添加了关于 EvoJAX 和 evosax 的引用。EvoX 尊重这些项目作为利用 JAX 加速进化计算算法的先驱工作，并在修订版中明确了它们的地位。","https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fissues\u002F45",[155,160,165,170,175,180,185,190,195,200,205,210,215,220,225,230,235,240,245,250],{"id":156,"version":157,"summary_zh":158,"released_at":159},360116,"v1.3.0","## 🔖 发布说明：v1.3.0\n\n### 功能\n\n* 工作流现在接受 `opt_direction` 的列表。\n\n### 修复\n\n* @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F242 中修复了索引及其他多个 bug。\n* @ZaberKo 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F243 中修复了 Windows 安装程序。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F240 中重构了 cec2022，并修复和新增了 `basic.py` 中的函数。\n* 修复了在存在多个额外参数时使用 `use_state` 的问题。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.2.2...v1.3.0","2025-11-06T13:16:41",{"id":161,"version":162,"summary_zh":163,"released_at":164},360117,"v1.2.2","## 🔖 发布说明：v1.2.2\n\n这是一个仅包含错误修复的次要版本：\n\n* 移除了未使用的导入，以提高代码整洁度。\n* 修复了某些差分进化（DE）算法中出现的意外行为，即在 `init_step` 中调用了 `step`。\n* 对文档进行了多项修复。\n\n**完整变更日志**：[[v1.2.1...v1.2.2](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.2.1...v1.2.2)](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.2.1...v1.2.2)","2025-06-03T05:19:09",{"id":166,"version":167,"summary_zh":168,"released_at":169},360118,"v1.2.1","## 🔖 发布说明：v1.2.1\n\n这是一个次要版本，重点在于提升稳定性、修复已知问题，并进行了一些使用体验的优化。\n\n### ✨ 新特性\n\n* **新增基准测试函数**：添加了单目标数值优化函数 `Ellipsoid` 和 `Griewank`。\n\n### 🐛 问题修复\n\n* 修复了 `StdWorkflow` 在与继承自其他算法的算法配合时无法正常工作的问题。\n* 修正了 `latin_hypercube_sampling_standard` 函数中的一个错误。\n* 解决了在启用 `torch.compile` 时 `non_dominate` 函数可能失败的问题。\n* 修复了 `PSO` 算法在某些情况下未能正确使用默认设备的问题。\n\n### 🧹 重构与维护\n\n* 将常用工具重新导出到顶层命名空间，以方便使用，例如：\n  * 使用 `evox.compile` 替代 `evox.core.compile`；\n  * 使用 `evox.vmap` 替代 `evox.core.vmap`。\n* 移除了已弃用或冗余的代码。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.2.0...v1.2.1","2025-05-13T05:07:18",{"id":171,"version":172,"summary_zh":173,"released_at":174},360135,"v0.6.0","## What's Changed\r\n* New README.md.\r\n* Much improved document.\r\n* Add `init_ask` and `init_tell` support. This extension allows one to easily initialize the population, when the population size and the offspring size don't match.\r\n* `Workflow` now accept `opt_direction` parameter to configure the direction of the optimization process. it can be `\"min\"`, `\"max\"` or a `[\"min\"\u002F\"max\", ...]` to specific the direction for each objective.\r\n* `Monitor` works with `opt_direction` seamlessly. It will record the best solution according to the current opt_direction.\r\n* `Brax \u002F Gym` are updated to support dynamic work distribution, it works even when the population size can't be divided by the number of workers. For example, you now can configure the Gym to use 3 CPUs, when the population size is 10, and 10 % 3 != 0.\r\n* `State` now has `save` and `load` to save your state to the disk. With this, one can easily save and restore the optimization process.","2023-11-30T06:46:37",{"id":176,"version":177,"summary_zh":178,"released_at":179},360125,"v0.9.0","## 变更内容\n* 由 @weblate 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F139 中从托管的 Weblate 更新翻译\n* 由 @ranchengcn 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F140 中更新 README.md\n* 由 @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F141 中修复 MOEA\u002FD 的 bug\n* 由 @weblate 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F142 中再次从托管的 Weblate 更新翻译\n* 由 @ZaberKo 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F143 中进行 bug 修复及分布式训练优化\n* 由 @AlpAcA0072 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F147 中更新 evoxbench.py\n* 由 @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F145 中实现基于状态的 IO\n\n## 新贡献者\n* @AlpAcA0072 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F147 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.8.1...v0.9.0","2024-11-04T16:30:07",{"id":181,"version":182,"summary_zh":183,"released_at":184},360126,"v0.9.0rc2","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.9.0-rc1...v0.9.0rc2\r\n\r\nFixed various issues related to Brax integration.","2024-10-28T08:31:07",{"id":186,"version":187,"summary_zh":188,"released_at":189},360127,"v0.9.0-rc1","## What's Changed\r\n* Translations update from Hosted Weblate by @weblate in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F139\r\n* Update README.md by @ranchengcn in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F140\r\n* Fix bugs of MOEA\u002FD by @Zhenyu2Liang in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F141\r\n* Translations update from Hosted Weblate by @weblate in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F142\r\n* Bug Fix & Distributed Training Improvement by @ZaberKo in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F143\r\n* Update evoxbench.py by @AlpAcA0072 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F147\r\n* State-based IO and Stateful Policy support (RNN) in neuroevolution tasks by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F145\r\n\r\n## New Contributors\r\n* @AlpAcA0072 made their first contribution in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F147\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.8.1...v0.9.0-rc1","2024-10-23T13:28:08",{"id":191,"version":192,"summary_zh":193,"released_at":194},360128,"v0.8.1","## What's Changed\r\n\r\nInclude an important bug fix and introduces the Tensorflow Dataset\r\n\r\n* Introduce Tensorflow Dataset by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F134\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.8.0...v0.8.1","2024-04-23T13:55:13",{"id":196,"version":197,"summary_zh":198,"released_at":199},360129,"v0.8.0","## What's Changed\r\n* Optimize the NSGA-III and update IMMOEA for gpjax0.8.2 by @LiHao-MS in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F123\r\n* Update EMO algorithms by @Zhenyu2Liang in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F125\r\n* [Fix] Correct wrong signature in Algorithm by @ZaberKo in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F128\r\n* [Fix] Allow different `method` in non_dominated_sort after jitted by @ZaberKo in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F130\r\n* Core EvoX improvement by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F126\r\n* Add RVEAa algorithm by @Zhenyu2Liang in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F132\r\n* fix: avoid nan by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F131\r\n* Coevolution by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F133\r\n* Translations update\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.7.1...v0.8.0","2024-04-22T12:07:12",{"id":201,"version":202,"summary_zh":203,"released_at":204},360130,"v0.7.1","## What's Changed\r\nGeneral bug fixes, users at v0.7.0 are recommended to upgrade to v0.7.1.\r\n\r\n## New Contributors\r\n* @Tier123 made their first contribution in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F120\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.7.0...v0.7.1","2024-03-13T03:43:29",{"id":206,"version":207,"summary_zh":208,"released_at":209},360131,"v0.7.0","## What's Changed\r\n* Fix multiobjective algorithms and DTLZ problems by @Zhenyu2Liang in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F102\r\n* Monitor improve by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F109\r\n* Add IM-MOEA algorithm and Gaussian Process based on GPJax by @LiHao-MS in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F114\r\n\r\n## New Contributors\r\n* @ZaberKo made their first contribution in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F110\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.6.3...v0.7.0","2024-02-22T03:10:25",{"id":211,"version":212,"summary_zh":213,"released_at":214},360132,"v0.6.3","## What's Changed\r\n* Critical bug fixes\r\n  1. Fix the tournment selection operator. https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcommit\u002Fd2340bff3ce6a152b663bfa152aa565e8b779afa\r\n  2. Fix the CPSO-S algorithm. https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F98\r\n* Update README.md and document.\r\n* Chinese translation of the document.\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.6.2...v0.6.3","2024-01-10T08:59:49",{"id":216,"version":217,"summary_zh":218,"released_at":219},360133,"v0.6.2","General bug fix.\r\nUpdated documentation website.","2023-12-20T07:54:26",{"id":221,"version":222,"summary_zh":223,"released_at":224},360134,"v0.6.1","## What's Changed\r\n* New visualization function for RL Environments by @WLS2002 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F84\r\n* New ode algorithm by @starquakee in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F85\r\n* New schwefel function by @BillHuang2001 in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F90\r\n* General bug fixes\r\n\r\n## New Contributors\r\n* @starquakee made their first contribution in https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F85\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv0.6.0...v0.6.1","2023-12-19T07:21:37",{"id":226,"version":227,"summary_zh":228,"released_at":229},360119,"v1.2.0","## 🎉 EvoX v1.2.0 发布！ 🎉\n\n我们很高兴地宣布 **EvoX v1.2.0** 的正式发布！本次更新带来了多项新功能、性能优化以及重要的 bug 修复，进一步提升了框架在各个核心模块中的灵活性和运行效率。\n\n🔧 **亮点**：\n- 🚀 新增 `final_step()` 方法，并对 `hpo_wrapper` 和 `std_workflow` 进行了更新，使执行流程更加顺畅。\n- 🤖 推出 **Mujoco Playground**——一个用于强化学习实验的新环境。\n- 📘 发布全新的 [教程](https:\u002F\u002Fevox.readthedocs.io\u002Fen\u002Flatest\u002Ftutorial\u002F)，帮助用户快速上手。\n- 🔌 增加了 EvoX 扩展函数，支持与姊妹项目如 [EvoMO](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevomo\u002F) 的更好集成。\n- 🐞 修复了多个 bug，并更新了文档，以提升稳定性和可读性。\n\n---\n\n### 相关 Pull Request\n* 更新 MOEA 的 docstring，由 @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F230 中提交。\n* 修复 `hpo_wrapper.py` 中使用的 `vmap`，由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F232 中完成。\n* 添加 RVEAa 和 `final_step` 方法，并修改 DTLZ、IGD 和 RVEA，由 @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F231 中实现。\n* 更新 `hpo_wrapper` 和 `std_workflow`（包括 `final_step()`），由 @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F233 中完成。\n* 添加 Mujoco Playground 问题，由 @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F234 中实现。\n* 更新 docstring，由 @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F235 中完成。\n* 修复 Mujoco Playground 的 bug，由 @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F236 中解决。\n* 教程由 @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F237 中完成。\n\n🔗 **完整变更日志**：[v1.1.2 → v1.2.0](https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.1.2...v1.2.0)","2025-04-23T08:07:32",{"id":231,"version":232,"summary_zh":233,"released_at":234},360120,"v1.1.2","## 变更内容\n* @JiangTao97 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F225 中更新了 README，添加了使用说明和参数调整信息。\n* @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F226 中实现了部分 vmap 和超参数优化相关功能，并修复了一些 bug。\n* @JiangTao97 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F227 和 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F228 中修复了一些文档问题。\n* @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F229 中修复了基准测试代码中的若干问题。\n* 分布式工作流支持已初步实现！\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.1.1...v1.1.2","2025-03-31T08:01:17",{"id":236,"version":237,"summary_zh":238,"released_at":239},360121,"v1.1.1","## 变更内容\n\n此小版本主要包含错误修复和改进：\n\n- 修复了 `torch.compile` 无法正确捕获 `workflow.step` 的问题。\n- 修复了 `use_state` 导致图中断的问题。\n- 修复了一些模型缓冲区的错误用法。\n- 修复了在某些情况下 `monitor.plot` 无法按预期工作的问题。\n- 引入了一个新的包装器 `evox.compile`，以绕过 `torch.compile` 和 `torch.vmap` 的某些限制。\n- 解决了与 `BatchedTensor` 相关的多个问题：\n  - 修复了对带有 EvalMonitor 的工作流进行 vmap 操作可能导致 `BatchedTensor` 泄漏的 bug。\n  - 修复了阻止 HPOProblem 与 BraxProblem 配合使用的问题。\n- 对 RVEA 和 CSO 的实现进行了增强，以提高性能和可靠性。\n- 增强了 BraxProblem 的实现。\n- 各种小的修复和改进。\n\n## 相关 Pull 请求\n* @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F221 中添加了对 while 循环和外部函数的 compile 和 vmap 支持。\n* @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F222 中更新了 RVEA。\n* @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F223 中修复了 `std_workflow._evaluate` 无法被 `torch.compile` 捕获的 bug。\n* @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F224 中修复了 BatchedTensor 相关问题。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.1.0...v1.1.1","2025-03-16T06:44:30",{"id":241,"version":242,"summary_zh":243,"released_at":244},360122,"v1.1.0","## 主要变更  \n\n### **Dynamo 集成** 🚀  \n\n我们已将编译器后端切换为 `torch.compile`，取代了 TorchScript。此次更新简化了编译流程，使其更加易用，同时保持了高性能和高效率。  \n\n### **为何迁移到 `torch.compile`？**  \n\n此前，EvoX 使用追踪来获取计算图——1.0.0 版本之前使用 JAX 追踪，而 1.0.0 版本则采用 TorchScript。然而，追踪模式对用户来说较为复杂，且与许多 Python 函数（尤其是非 PyTorch 函数）不兼容，处理动态工作流时还需要手动干预。尽管追踪速度快并能生成完整的计算图，但其局限性使其灵活性不足、使用难度较高。  \n\n借助 `torch.compile`，EvoX 现在可以提供更流畅、更稳健的编译流程：  \n\n✅ **易于使用** – 无需显式脚本或追踪；只需调用 `torch.compile(workflow.step)`，代码即可自动优化。  \n✅ **性能更优** – `torch.compile` 后端得到积极维护和优化，性能优于以往的追踪方法，并支持更多硬件后端。  \n✅ **完全兼容 Python** – 可直接与 Python 代码及非 PyTorch 函数配合使用，彻底解决了兼容性问题。  \n✅ **面向未来** – 符合 PyTorch 的长期发展战略，使 `torch.compile` 成为推荐的计算图捕获方式。  \n\n此次迁移不仅提升了易用性，还确保了与 PyTorch 不断演进的生态系统的兼容性。\n\n## 具体变更\n* 翻译更新由 @weblate 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F209 中通过 Hosted Weblate 完成。\n* 修改 cec2022.py 文件以避免极端情况下的精度爆裂问题，由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F210 中完成。\n* 修复 DE_differential_sum 函数中可能存在的形状错误，由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F211 中完成。\n* Brax 现已支持单层 vmap（Hpo 问题），由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F212 中实现。\n* 修复 APD 计算中的 bug，由 @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F213 中完成。\n* 某些 vmap 相关改进由 @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F214 中完成。\n* 修复 Brax 问题在 jit.trace 和 vmap 中无法正确评估的问题，由 @sses7757 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F215 中解决。\n* 添加 NSGA3 算法，由 @LiHao-MS 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F216 中完成。\n* Dynamo 功能由 @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F217 中实现。\n* 添加 HypE 算法，由 @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F218 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.0.1...v1.1.0","2025-03-01T11:29:05",{"id":246,"version":247,"summary_zh":248,"released_at":249},360123,"v1.0.1","小版本发布，修复了若干 bug。\n\n## 变更内容\n* 由 @ZaberKo 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F204 中更新了 win-install.bat 文件。\n* 修复 (DE、ODE、JaDE)：由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F205 中实现了基于向量的真实随机选择。\n* 修复了 SHADE 算法中当种群大小 pop_size > 100 时出现的数组越界 bug，由 @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F206 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fcompare\u002Fv1.0.0...v1.0.1","2025-01-20T07:47:27",{"id":251,"version":252,"summary_zh":253,"released_at":254},360124,"v1.0.0a1","发布了 **EvoX 1.0.0a1** 🎉 — **EvoX 🤝 PyTorch**，实现完全兼容！对于希望使用之前基于 JAX 版本的用户，请参考 **v0.9.0 分支**。\n\n## 变更内容\n* @dandansamax 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F153 中修复了核心文档字符串中的拼写错误。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F158 中为 EvoXTorch 添加了 6 种 PSO 变体。\n* @liyc5929 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F159 中添加了 `SupervisedLearningProblem` 和 `ParamsAndVector` 组件，并为基于 PyTorch 的 EvoX 中的神经进化过程编写了测试。\n* @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F157 中对 EvoXTorch 的项目结构进行了调整。\n* @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F163 中更新了开发人员文档。\n* @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F166 中更新了 Evoxtorch 的开发文档。\n* @BillHuang2001 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F161 中添加了 RVEA 算法。\n* @generaldi 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F167 中添加了 HPO 开发者指南。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F171 中新增了 4 份文档。\n* @LYinMX 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F173 中修复了 CEC2022 相关问题。\n* @generaldi 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F176 中修改了 HPO 文档，并添加了容器相关内容。\n* @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F175 中更新了多目标算法示例文档。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F162 中添加了 CEC2022（12 个单目标问题）及其测试文件。\n* @XinyaoLi0212 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F177 中添加了 CMA-ES 算法。\n* @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F164 中修复了 de.py 选择中的 bug，并添加了 ode.py。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F172 中修改了 4 份文档。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F180 中尝试优化文档链接。\n* @starquakee 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F181 中添加了 JaDE 算法。\n* @generaldi 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F179 中为用户和开发者分别添加了 HPO 相关内容。\n* @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F182 中添加了 NSGA2 和 MOEA\u002FD。\n* @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F178 中升级了多目标算法示例页面。\n* @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F183 中优化了文本内容。\n* @generaldi 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F184 中添加了 jit wsd 部分。\n* @generaldi 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F185 中将 HPO 添加到索引中。\n* @Zhenyu2Liang 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F186 中添加了 hv 和 gd 指标。\n* @XinyaoLi0212 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F189 中完成了数值优化示例文档，并修复了 PSO 相关问题。\n* @LiHao-MS 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F190 中更新了 Evoxtorch-dev-lh。\n* @Nam-dada 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F193 中添加了链接。\n* @XU-Boqing 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox\u002Fpull\u002F188 中补充了 jit-vmap 文档的部分内容。\n* @JiangTao97 在 https:\u002F\u002Fgithub.com\u002FEMI-Group\u002Fevox 中添加了 EvoX 安装指南。","2025-01-14T09:35:11"]