[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-NVIDIA--cuopt":3,"tool-NVIDIA--cuopt":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":10,"env_os":122,"env_gpu":123,"env_ram":124,"env_deps":125,"category_tags":132,"github_topics":133,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":138,"updated_at":139,"faqs":140,"releases":156},6529,"NVIDIA\u002Fcuopt","cuopt","GPU accelerated decision optimization ","cuOpt 是 NVIDIA 推出的一款基于 GPU 加速的决策优化引擎，专为解决复杂的数学规划问题而设计。它擅长处理混合整数线性规划（MILP）、线性规划（LP）、二次规划（QP）以及车辆路径问题（VRP）。面对传统求解器难以应对的大规模场景，cuOpt 能够高效处理包含数百万变量和约束的线性规划，或数十万变量的混合整数规划，将原本需要数小时的计算缩短至近实时完成，显著提升了物流调度、资源分配等领域的决策效率。\n\n这款工具主要面向开发者、数据科学家及运筹学研究人员。如果你正在构建需要高性能计算后端的应用，或者希望加速现有的优化工作流，cuOpt 提供了友好的 Python 代数建模接口、C API 以及服务器端部署方案，能轻松集成到现有系统中并支持混合云环境。\n\n其核心技术亮点在于完全利用 GPU 并行计算能力，底层由 C++ 编写以确极致性能，同时保持了调用的便捷性。无论是解决经典的旅行商问题（TSP），还是复杂的配送路径规划，cuOpt 都能凭借强大的算力提供快速且精准的解决方案，帮助专业用户突破传统 CPU 求解的性能瓶颈。","\u003C!-- AI agents: Start by reading AGENTS.md -->\n# cuOpt - GPU-accelerated Optimization\n\n[![Build Status](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Factions\u002Fworkflows\u002Fbuild.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Factions\u002Fworkflows\u002Fbuild.yaml)\n[![Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-26.06.00-blue)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Freleases)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-brightgreen)](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fintroduction.html)\n[![Docker Hub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-nvidia%2Fcuopt-blue?logo=docker)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fnvidia\u002Fcuopt)\n[![Examples](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fexamples-cuopt--examples-orange)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt-examples)\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FNVIDIA\u002Fcuopt-examples\u002Fblob\u002Fcuopt_examples_launcher\u002Fcuopt_examples_launcher.ipynb)\n[![NVIDIA Launchable](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNVIDIA-Launchable-76b900?logo=nvidia)](https:\u002F\u002Fbrev.nvidia.com\u002Flaunchable\u002Fdeploy?launchableID=env-2qIG6yjGKDtdMSjXHcuZX12mDNJ)\n[![Videos and Tutorials](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVideos_and_Tutorials-red?logo=youtube)](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fresources.html#cuopt-examples-and-tutorials-videos)\n\n\n\nNVIDIA® cuOpt™ is a GPU-accelerated optimization engine that excels in mixed integer linear programming (MILP), linear programming (LP), quadratic programming (QP), and vehicle routing problems (VRP). It enables near real-time solutions for large-scale LPs with millions of variables and constraints, and MIPs with hundreds of thousands of variables. cuOpt offers easy integration into existing modeling languages and seamless deployment across hybrid and multi-cloud environments.\n\nThe core engine is written in C++ and wrapped with a C API, Python API and Server API.\n\nFor the latest version, ensure you are on the `main` branch.\n\n## Latest Documentation\n\n[cuOpt Documentation](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fintroduction.html)\n\n## Supported APIs\n\ncuOpt supports the following APIs:\n\n- C API support\n    - Linear Programming (LP)\n    - Mixed Integer Linear Programming (MILP)\n    - Quadratic Programming (QP)\n- C++ API support\n    - cuOpt is written in C++ and includes a native C++ API. However, we do not provide documentation for the C++ API at this time. We anticipate that the C++ API will change significantly in the future. Use it at your own risk.\n- Python support\n    - Routing (TSP, VRP, and PDP)\n    - Linear Programming (LP), Mixed Integer Linear Programming (MILP) and Quadratic Programming (QP)\n        - Algebraic modeling Python API allows users to easily build constraints and objectives\n- Server support\n    - Linear Programming (LP)\n    - Mixed Integer Linear Programming (MILP)\n    - Routing (TSP, VRP, and PDP)\n\nThis repo is also hosted as a [COIN-OR](http:\u002F\u002Fgithub.com\u002Fcoin-or\u002Fcuopt\u002F) project.\n\n## Latest Release Notes:\n\n[RELEASE-NOTES.md](RELEASE-NOTES.md)\n\n## Installation\n\n### CUDA\u002FGPU requirements\n\n* CUDA 12.0+ or CUDA 13.0+\n* NVIDIA driver >= 525.60.13 (Linux) and >= 527.41 (Windows)\n* Volta architecture or better (Compute Capability >=7.0)\n\n### Python requirements\n\n* Python >=3.11, \u003C=3.14\n\n### OS requirements\n\n* Only Linux is supported and Windows via WSL2\n    * x86_64 (64-bit)\n    * aarch64 (64-bit)\n\nNote: WSL2 is tested to run cuOpt, but not for building.\n\nMore details on system requirements can be found [here](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fsystem-requirements.html)\n\n### Pip\n\nPip wheels are easy to install and easy to configure. Users with existing workflows who uses pip as base to build their workflows can use pip to install cuOpt.\n\ncuOpt can be installed via `pip` from the NVIDIA Python Package Index.\nBe sure to select the appropriate cuOpt package depending\non the major version of CUDA available in your environment:\n\nFor CUDA 12.x:\n\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  nvidia-cuda-runtime-cu12==12.9.* \\\n  cuopt-server-cu12==26.06.* cuopt-sh-client==26.06.*\n```\n\nDevelopment wheels are available as nightlies, please update `--extra-index-url` to `https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F` to install latest nightly packages.\n```bash\npip install --pre \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  --extra-index-url=https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F \\\n  cuopt-server-cu12==26.06.* cuopt-sh-client==26.06.*\n```\n\nFor CUDA 13.x:\n\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  cuopt-server-cu13==26.06.* cuopt-sh-client==26.06.*\n```\n\nDevelopment wheels are available as nightlies, please update `--extra-index-url` to `https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F` to install latest nightly packages.\n```bash\npip install --pre \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  --extra-index-url=https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F \\\n  cuopt-server-cu13==26.06.* cuopt-sh-client==26.06.*\n```\n\n\n### Conda\n\ncuOpt can be installed with conda (via [miniforge](https:\u002F\u002Fgithub.com\u002Fconda-forge\u002Fminiforge)):\n\nAll other dependencies are installed automatically when `cuopt-server` and `cuopt-sh-client` are installed.\n\n```bash\nconda install -c rapidsai -c conda-forge -c nvidia cuopt-server=26.06.* cuopt-sh-client=26.06.*\n```\n\nWe also provide [nightly conda packages](https:\u002F\u002Fanaconda.org\u002Frapidsai-nightly) built from the HEAD\nof our latest development branch. Just replace `-c rapidsai` with `-c rapidsai-nightly`.\n\n### Container\n\nUsers can pull the cuOpt container from the NVIDIA container registry.\n\n```bash\n# For CUDA 12.x\ndocker pull nvidia\u002Fcuopt:latest-cuda12.9-py3.14\n\n# For CUDA 13.x\ndocker pull nvidia\u002Fcuopt:latest-cuda13.0-py3.14\n```\n\nNote: The ``latest`` tag is the latest stable release of cuOpt. If you want to use a specific version, you can use the ``\u003Cversion>-cuda12.9-py3.14`` or ``\u003Cversion>-cuda13.0-py3.14`` tag. For example, to use cuOpt 25.10.0, you can use the ``25.10.0-cuda12.9-py3.13`` or ``25.10.0-cuda13.0-py3.13`` tag. Please refer to `cuOpt dockerhub page \u003Chttps:\u002F\u002Fhub.docker.com\u002Fr\u002Fnvidia\u002Fcuopt\u002Ftags>`_ for the list of available tags.\n\nMore information about the cuOpt container can be found [here](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fcuopt-server\u002Fquick-start.html#container-from-docker-hub).\n\nUsers who are using cuOpt for quick testing or research can use the cuOpt container. Alternatively, users who are planning to plug cuOpt as a service in their workflow can quickly start with the cuOpt container. But users are required to build security layers around the service to safeguard the service from untrusted users.\n\n## Build from Source and Test\n\nPlease see our [guide for building cuOpt from source](CONTRIBUTING.md#setting-up-your-build-environment). This will be helpful if users want to add new features or fix bugs for cuOpt. This would also be very helpful in case users want to customize cuOpt for their own use cases which require changes to the cuOpt source code.\n\n## Release Timeline\n\ncuOpt follows the RAPIDS release schedule and is part of the **\"others\"** category in the release timeline. The release cycle consists of:\n\n- **Development**: Active feature development and bug fixes targeting `main`\n- **Burn Down**: Focus shifts to stabilization; new features should target the next release\n- **Code Freeze**: Only critical bug fixes allowed; PRs require admin approval\n- **Release**: Final testing, tagging, and official release\n\nFor current release timelines and dates, refer to the [RAPIDS Maintainers Docs](https:\u002F\u002Fdocs.rapids.ai\u002Fmaintainers\u002F).\n\n## For AI Coding Agents\n\nSee [AGENTS.md](.\u002FAGENTS.md) for agent-specific guidelines.\n\n## Contributing Guide\n\nReview the [CONTRIBUTING.md](CONTRIBUTING.md) file for information on how to contribute code and issues to the project.\n","\u003C!-- AI代理：请先阅读 AGENTS.md -->\n# cuOpt - GPU加速优化\n\n[![构建状态](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Factions\u002Fworkflows\u002Fbuild.yaml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Factions\u002Fworkflows\u002Fbuild.yaml)\n[![版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-26.06.00-blue)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Freleases)\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-latest-brightgreen)](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fintroduction.html)\n[![Docker Hub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-nvidia%2Fcuopt-blue?logo=docker)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fnvidia\u002Fcuopt)\n[![示例](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fexamples-cuopt--examples-orange)](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt-examples)\n[![在Colab中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FNVIDIA\u002Fcuopt-examples\u002Fblob\u002Fcuopt_examples_launcher\u002Fcuopt_examples_launcher.ipynb)\n[![NVIDIA Launchable](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FNVIDIA-Launchable-76b900?logo=nvidia)](https:\u002F\u002Fbrev.nvidia.com\u002Flaunchable\u002Fdeploy?launchableID=env-2qIG6yjGKDtdMSjXHcuZX12mDNJ)\n[![视频与教程](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVideos_and_Tutorials-red?logo=youtube)](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fresources.html#cuopt-examples-and-tutorials-videos)\n\n\n\nNVIDIA® cuOpt™ 是一款基于 GPU 加速的优化引擎，擅长混合整数线性规划 (MILP)、线性规划 (LP)、二次规划 (QP) 以及车辆路径问题 (VRP)。它能够为包含数百万个变量和约束的大规模 LP 以及包含数十万个变量的 MIP 提供近乎实时的解决方案。cuOpt 可轻松集成到现有的建模语言中，并可在混合云和多云环境中无缝部署。\n\n核心引擎使用 C++ 编写，并封装了 C API、Python API 和服务器 API。\n\n如需最新版本，请确保您位于 `main` 分支上。\n\n## 最新文档\n\n[cuOpt 文档](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fintroduction.html)\n\n## 支持的 API\n\ncuOpt 支持以下 API：\n\n- C API 支持\n    - 线性规划 (LP)\n    - 混合整数线性规划 (MILP)\n    - 二次规划 (QP)\n- C++ API 支持\n    - cuOpt 使用 C++ 编写，并提供原生 C++ API。然而，目前我们尚未提供 C++ API 的文档。预计未来 C++ API 将会有较大变化，请用户自行承担使用风险。\n- Python 支持\n    - 路由问题（TSP、VRP 和 PDP）\n    - 线性规划 (LP)、混合整数线性规划 (MILP) 和二次规划 (QP)\n        - 基于代数建模的 Python API 使用户能够轻松构建约束条件和目标函数\n- 服务器支持\n    - 线性规划 (LP)\n    - 混合整数线性规划 (MILP)\n    - 路由问题（TSP、VRP 和 PDP）\n\n此仓库同时也作为 [COIN-OR](http:\u002F\u002Fgithub.com\u002Fcoin-or\u002Fcuopt\u002F) 项目托管。\n\n## 最新发布说明：\n\n[RELEASE-NOTES.md](RELEASE-NOTES.md)\n\n## 安装\n\n### CUDA\u002FGPU 要求\n\n* CUDA 12.0+ 或 CUDA 13.0+\n* NVIDIA 驱动程序 ≥ 525.60.13（Linux）且 ≥ 527.41（Windows）\n* Volta 架构或更高（计算能力 ≥7.0）\n\n### Python 要求\n\n* Python ≥3.11, ≤3.14\n\n### 操作系统要求\n\n* 仅支持 Linux，Windows 则通过 WSL2 支持\n    * x86_64（64位）\n    * aarch64（64位）\n\n注意：WSL2 已被测试可用于运行 cuOpt，但不适用于构建。\n\n更多关于系统要求的详细信息，请参阅 [此处](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fsystem-requirements.html)\n\n### Pip\n\nPip 轮子易于安装且配置简单。对于以 pip 为基础构建工作流的用户来说，可以直接使用 pip 来安装 cuOpt。\n\ncuOpt 可通过 NVIDIA Python 包索引使用 `pip` 进行安装。\n请务必根据您环境中可用的 CUDA 主要版本选择合适的 cuOpt 包：\n\n对于 CUDA 12.x：\n\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  nvidia-cuda-runtime-cu12==12.9.* \\\n  cuopt-server-cu12==26.06.* cuopt-sh-client==26.06.*\n```\n\n开发版轮子以每日构建的形式提供，请将 `--extra-index-url` 更新为 `https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F` 以安装最新的每日构建包。\n```bash\npip install --pre \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  --extra-index-url=https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F \\\n  cuopt-server-cu12==26.06.* cuopt-sh-client==26.06.*\n```\n\n对于 CUDA 13.x：\n\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  cuopt-server-cu13==26.06.* cuopt-sh-client==26.06.*\n```\n\n开发版轮子同样以每日构建形式提供，请将 `--extra-index-url` 更新为 `https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F` 以安装最新的每日构建包。\n```bash\npip install --pre \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  --extra-index-url=https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F \\\n  cuopt-server-cu13==26.06.* cuopt-sh-client==26.06.*\n```\n\n\n### Conda\n\ncuOpt 可以通过 conda（借助 [miniforge](https:\u002F\u002Fgithub.com\u002Fconda-forge\u002Fminiforge)）进行安装：\n\n当安装 `cuopt-server` 和 `cuopt-sh-client` 时，所有其他依赖项都会自动安装。\n\n```bash\nconda install -c rapidsai -c conda-forge -c nvidia cuopt-server=26.06.* cuopt-sh-client=26.06.*\n```\n\n我们还提供了基于最新开发分支 HEAD 构建的 [夜间版 conda 包](https:\u002F\u002Fanaconda.org\u002Frapidsai-nightly)。只需将 `-c rapidsai` 替换为 `-c rapidsai-nightly` 即可。\n\n### 容器\n\n用户可以从 NVIDIA 容器注册表拉取 cuOpt 容器。\n\n```bash\n# 对于 CUDA 12.x\ndocker pull nvidia\u002Fcuopt:latest-cuda12.9-py3.14\n\n# 对于 CUDA 13.x\ndocker pull nvidia\u002Fcuopt:latest-cuda13.0-py3.14\n```\n\n注意：`latest` 标签代表 cuOpt 的最新稳定版本。如果您希望使用特定版本，可以使用 `\u003Cversion>-cuda12.9-py3.14` 或 `\u003Cversion>-cuda13.0-py3.14` 标签。例如，若要使用 cuOpt 25.10.0，可使用 `25.10.0-cuda12.9-py3.13` 或 `25.10.0-cuda13.0-py3.13` 标签。有关可用标签的完整列表，请参阅 cuOpt Docker Hub 页面 \u003Chttps:\u002F\u002Fhub.docker.com\u002Fr\u002Fnvidia\u002Fcuopt\u002Ftags>。\n\n有关 cuOpt 容器的更多信息，请参阅 [此处](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fcuopt-server\u002Fquick-start.html#container-from-docker-hub)。\n\n对于需要快速测试或进行研究的用户，可以使用 cuOpt 容器。此外，计划将 cuOpt 作为服务集成到工作流中的用户也可以从 cuOpt 容器开始。不过，用户需要在服务周围构建安全层，以保护服务免受不受信任的用户侵害。\n\n## 从源代码构建并测试\n\n请参阅我们的[从源代码构建 cuOpt 的指南](CONTRIBUTING.md#setting-up-your-build-environment)。如果用户希望为 cuOpt 添加新功能或修复 bug，此指南将非常有帮助。此外，若用户需要根据自身用例对 cuOpt 进行定制，并需修改 cuOpt 的源代码，该指南也将提供极大帮助。\n\n## 发布时间表\n\ncuOpt 遵循 RAPIDS 的发布计划，属于发布时间表中的“其他”类别。其发布周期包括：\n\n- **开发阶段**：针对 `main` 分支进行积极的功能开发和 bug 修复。\n- **冲刺阶段**：重点转向系统稳定化；新功能应规划到下一版本中。\n- **代码冻结阶段**：仅允许修复关键性 bug；所有拉取请求需经管理员批准。\n- **发布阶段**：进行最终测试、打标签并正式发布。\n\n有关当前的发布时间表和具体日期，请参阅 [RAPIDS 维护者文档](https:\u002F\u002Fdocs.rapids.ai\u002Fmaintainers\u002F)。\n\n## 适用于 AI 编程助手\n\n有关助手专用的指导原则，请参阅 [AGENTS.md](.\u002FAGENTS.md)。\n\n## 贡献指南\n\n请查阅 [CONTRIBUTING.md](CONTRIBUTING.md) 文件，了解如何为本项目贡献代码及报告问题的相关信息。","# NVIDIA cuOpt 快速上手指南\n\nNVIDIA® cuOpt™ 是一款基于 GPU 加速的优化引擎，专为大规模混合整数线性规划 (MILP)、线性规划 (LP)、二次规划 (QP) 及车辆路径问题 (VRP) 设计。它能在毫秒级时间内求解包含数百万变量和约束的大规模问题。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下硬件和软件要求：\n\n### 硬件要求\n*   **GPU**: NVIDIA Volta 架构或更高版本 (计算能力 >= 7.0)。\n*   **驱动**: \n    *   Linux: >= 525.60.13\n    *   Windows (WSL2): >= 527.41\n\n### 软件要求\n*   **操作系统**: \n    *   Linux (x86_64 或 aarch64)\n    *   Windows (仅支持通过 WSL2 运行，不支持构建)\n*   **CUDA**: 12.0+ 或 13.0+\n*   **Python**: 3.11 - 3.14\n\n> **注意**: 虽然支持 WSL2 运行，但官方主要测试环境为原生 Linux。\n\n## 2. 安装步骤\n\ncuOpt 提供 Pip、Conda 和 Docker 三种安装方式。请根据您的开发习惯选择其一。\n\n### 方式一：使用 Pip 安装（推荐）\n\n根据您的 CUDA 版本选择对应的命令。需指定 NVIDIA 的 PyPI 索引源。\n\n**对于 CUDA 12.x:**\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  nvidia-cuda-runtime-cu12==12.9.* \\\n  cuopt-server-cu12==26.06.* cuopt-sh-client==26.06.*\n```\n\n**对于 CUDA 13.x:**\n```bash\npip install \\\n  --extra-index-url=https:\u002F\u002Fpypi.nvidia.com \\\n  cuopt-server-cu13==26.06.* cuopt-sh-client==26.06.*\n```\n\n> **提示**: 如需安装最新的夜间构建版本 (Nightly)，可额外添加 `--extra-index-url=https:\u002F\u002Fpypi.anaconda.org\u002Frapidsai-wheels-nightly\u002Fsimple\u002F` 并使用 `pip install --pre`。\n\n### 方式二：使用 Conda 安装\n\n如果您使用 Miniforge 或 Conda 管理环境：\n\n```bash\nconda install -c rapidsai -c conda-forge -c nvidia cuopt-server=26.06.* cuopt-sh-client=26.06.*\n```\n\n### 方式三：使用 Docker 容器\n\n直接拉取预配置好的镜像，无需处理本地依赖。\n\n**对于 CUDA 12.x:**\n```bash\ndocker pull nvidia\u002Fcuopt:latest-cuda12.9-py3.14\n```\n\n**对于 CUDA 13.x:**\n```bash\ndocker pull nvidia\u002Fcuopt:latest-cuda13.0-py3.14\n```\n\n运行容器时请确保挂载 GPU：\n```bash\ndocker run --gpus all -it nvidia\u002Fcuopt:latest-cuda12.9-py3.14\n```\n\n## 3. 基本使用\n\ncuOpt 的核心功能可通过 Python API 调用。以下是一个最简单的线性规划 (LP) 求解示例。\n\n### 示例：求解简单的线性规划问题\n\n假设我们要最大化目标函数 $3x + 4y$，受限于：\n1. $2x + y \\leq 10$\n2. $x + 2y \\leq 12$\n3. $x, y \\geq 0$\n\n```python\nfrom cuopt import modeling\n\n# 1. 创建模型实例\nmodel = modeling.Model()\n\n# 2. 定义变量 (连续变量，下界为 0)\nx = model.add_variable(lb=0, name=\"x\")\ny = model.add_variable(lb=0, name=\"y\")\n\n# 3. 设置目标函数 (最大化 3x + 4y)\n# sense=modeling.MAXIMIZE 表示最大化，默认为最小化\nmodel.set_objective(3 * x + 4 * y, sense=modeling.MAXIMIZE)\n\n# 4. 添加约束条件\n# 2x + y \u003C= 10\nmodel.add_constraint(2 * x + y \u003C= 10)\n# x + 2y \u003C= 12\nmodel.add_constraint(x + 2 * y \u003C= 12)\n\n# 5. 求解模型\nsolution = model.solve()\n\n# 6. 输出结果\nif solution.status == modeling.SolveStatus.OPTIMAL:\n    print(f\"最优解找到:\")\n    print(f\"x = {solution.get_value(x)}\")\n    print(f\"y = {solution.get_value(y)}\")\n    print(f\"目标函数值 = {solution.objective_value}\")\nelse:\n    print(\"未找到最优解\")\n```\n\n### 运行说明\n*   确保已激活安装了 `cuopt-server` 和 `cuopt-sh-client` 的 Python 环境。\n*   代码首次运行时会自动启动后台优化服务进程。\n*   对于车辆路径问题 (VRP\u002FTSP)，cuOpt 提供了专门的 `routing` 模块，用法类似但针对图论问题进行了优化。\n\n更多高级用法（如整数规划、二次规划、路由问题）请参考 [官方文档](https:\u002F\u002Fdocs.nvidia.com\u002Fcuopt\u002Fuser-guide\u002Flatest\u002Fintroduction.html) 或 [示例仓库](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt-examples)。","某大型即时物流平台需要在晚高峰期间，为全城 5000 名骑手实时规划最优配送路径，以应对瞬息万变的订单需求和交通状况。\n\n### 没有 cuOpt 时\n- **计算延迟严重**：传统 CPU 求解器处理包含数十万变量和约束的路径优化问题需耗时数分钟，无法跟上订单生成的节奏，导致派单滞后。\n- **方案质量受限**：因等待时间过长，系统被迫缩小计算范围或简化约束条件（如忽略实时路况），生成的路线往往不是全局最优，增加了整体配送里程。\n- **资源扩容困难**：为了缩短计算时间，不得不线性增加大量 CPU 服务器集群，导致硬件成本和运维复杂度急剧上升，且边际效益递减。\n- **动态响应迟钝**：面对突发的新订单或骑手异常（如车辆故障），系统难以在秒级内重新规划受影响的所有路线，造成客户等待时间不可控。\n\n### 使用 cuOpt 后\n- **实现近实时决策**：利用 GPU 并行加速能力，cuOpt 将百万级变量的大规模线性规划求解时间从分钟级压缩至秒级甚至毫秒级，完美匹配高频订单流。\n- **全局最优解落地**：能够在极短时间内处理复杂的混合整数规划（MILP）和车辆路径问题（VRP），纳入更多真实约束（如时间窗、载重限制），显著降低空驶率和总里程。\n- **算力效率飞跃**：单台搭载 GPU 的服务器即可替代原本庞大的 CPU 集群，大幅降低了硬件采购成本和机房能耗，同时简化了架构维护。\n- **动态调度敏捷化**：支持对新插入订单进行即时重算，迅速生成兼顾效率与体验的新路线，确保在高峰期也能维持高水平的准时交付率。\n\ncuOpt 通过 GPU 加速引擎，将原本不可行的超大规模实时运筹优化变为现实，彻底重塑了物流调度的时效性与经济性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_cuopt_1dce6ae4.png","NVIDIA","NVIDIA Corporation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA_7dcf6000.png","",null,"https:\u002F\u002Fnvidia.com","https:\u002F\u002Fgithub.com\u002FNVIDIA",[80,84,88,92,96,100,104,108,112,115],{"name":81,"color":82,"percentage":83},"Cuda","#3A4E3A",49.5,{"name":85,"color":86,"percentage":87},"C++","#f34b7d",31.8,{"name":89,"color":90,"percentage":91},"Python","#3572A5",12.9,{"name":93,"color":94,"percentage":95},"Shell","#89e051",2.1,{"name":97,"color":98,"percentage":99},"C","#555555",1.5,{"name":101,"color":102,"percentage":103},"Cython","#fedf5b",1.3,{"name":105,"color":106,"percentage":107},"CMake","#DA3434",0.9,{"name":109,"color":110,"percentage":111},"Dockerfile","#384d54",0,{"name":113,"color":114,"percentage":111},"Go Template","#00ADD8",{"name":116,"color":117,"percentage":111},"Makefile","#427819",808,159,"2026-04-10T16:30:22","Apache-2.0","Linux, Windows (仅限 WSL2)","必需 NVIDIA GPU，架构需为 Volta 或更高版本 (计算能力 >= 7.0)，CUDA 12.0+ 或 13.0+，驱动程序版本 Linux >= 525.60.13 \u002F Windows >= 527.41","未说明",{"notes":126,"python":127,"dependencies":128},"不支持原生 Windows，仅支持通过 WSL2 运行；macOS 不支持。核心引擎为 C++ 编写，提供 C、Python 和 Server API。可通过 pip、conda 或 Docker 容器安装。WSL2 仅测试过运行环境，未测试构建环境。",">=3.11, \u003C=3.14",[129,130,131],"nvidia-cuda-runtime-cu12 (针对 CUDA 12.x)","cuopt-server","cuopt-sh-client",[14],[134,135,136,137],"gpu","linear-programming","optimization","cuda","2026-03-27T02:49:30.150509","2026-04-11T14:52:46.316801",[141,146,151],{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},29527,"调用 .solve() 后如何获取解的值？","用户常误以为需要直接访问底层 Solver 对象来获取解。实际上，`getIncumbentValues` 是用于在求解过程中通过回调获取中间解（incumbent solution）的工具函数。如果您定义了回调函数（参考官方文档中的示例），可以通过 `incumbent_callback.solutions[i][\"solution\"]` 访问第 i 个中间解。`Problem.solve()` 方法本身旨在封装这些细节，通常不需要直接调用底层的 `Solve` 函数。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fissues\u002F932",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},29528,"使用 cuOpt 自托管客户端求解大型 MILP 模型时出现 HTTP 超时怎么办？","当在 Google Colab 等环境中使用自托管客户端求解大型混合整数线性规划（MILP）模型时，如果小模型能成功但大模型出现 `Connection aborted` 或 `ReadTimeout` 错误，这通常是由于网络轮询超时或请求序列化限制导致的。虽然可以增加 `polling_timeout` 和求解器的 `time_limit`，但如果问题依然存在，可能需要检查服务器端的资源限制或网络连接稳定性。该问题在特定大实例下表现为 HTTP 层超时，而非求解器本身无法计算。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fissues\u002F355",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},29529,"遇到包含大 M 变量和高惩罚值的数值稳定性问题该如何处理？","当求解包含大 M 变量和大惩罚值的问题时，cuOpt 可能会报出 `Numerical issue` 错误并重新从头解析节点，而其他求解器（如 CBC）可能正常运行。这通常表明模型存在数值不稳定性。虽然官方未在此特定线程中给出详细的归一化步骤，但遇到此类 `Assertion` 失败或频繁的重解析提示时，建议检查模型的缩放比例，尝试对约束和变量进行归一化处理，或者联系支持团队提供可复现的案例以获取针对 `dual_simplex` 的具体参数调整建议。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fissues\u002F376",[157,162,167,172,177,182],{"id":158,"version":159,"summary_zh":160,"released_at":161},206001,"v26.04.00","\u003C!-- 发布说明由 .github\u002Frelease.yml 中的配置在 v26.04.00 版本生成 -->\n\n## 变更内容\n### 🚨 重大变更\n* 更新解决方案对象，加入线性规划求解器，由 @nguidotti 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F822 中完成\n### 🐛 Bug 修复\n* 修复文档版本更新脚本，使其能处理新 URL，由 @rgsl888prabhu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F810 中完成\n* 为 cuSPARSE 兼容性将 nvjitlink 添加到 cuda-toolkit 的 pip extras 中，由 @bdice 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F850 中完成\n* 修复 air05 下界不正确的问题，由 @chris-maes 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F890 中完成\n* 修复批量 PDLP 和 Python API 支持问题，由 @Kh4ster 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F893 中完成\n* 修复计时器检查问题，由 @akifcorduk 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F849 中完成\n* 修复测试创建服务子进程的方式（会导致新 CUDA 版本出现错误），由 @tmckayus 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F897 中完成\n* 修复 thrust tuple 包含问题及更多计时器检查，由 @aliceb-nv 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F902 中完成\n* 修复 add_external_solutions_to_population 中的竞态条件，由 @akifcorduk 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F909 中完成\n* 更新至包含 bug 修复的 PSLP 版本，由 @rg20 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F920 中完成\n* 修复 CPUFJ 移动中变量边界违反问题，由 @aliceb-nv 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F930 中完成\n* 修复 #903：验证 VRP 车队数据中 vehicle_id 的唯一性，由 @anandhkb 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F917 中完成\n* 修复 Python API 中 x + x*x、+x、-x 表达式错误，由 @chris-maes 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F936 中完成\n* 关闭仅 CPU 测试以在调查期间解除 CI 阻塞，由 @tmckayus 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F959 中完成\n* 修复字典序搜索问题，由 @rgsl888prabhu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F969 中完成\n* 将 -UNDEBUG 应用于 cuopt 标志而非全局设置，由 @tmckayus 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F964 中完成\n* papilo 探测 workaround、探测缓存同步以及额外的错误日志记录，由 @aliceb-nv 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F992 中完成\n* 为并发模式下的 PDLP 添加异常处理，由 @Iroy30 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F966 中完成\n* 实现 UnboundedOrInfeasible 终止状态，由 @rg20 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F941 中完成\n* 修复调用 set_simplex_solution() 时图捕获中的竞态条件，由 @aliceb-nv 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F1017 中完成\n* 修复无限下界问题，并尝试在内点法中约束自由变量，由 @chris-maes 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F1001 中完成\n### 📖 文档\n* 添加安装选择器 UI，由 @rgsl888prabhu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F961 中完成\n* 更新关于 incumbent utility 函数使用的文档，由 @Iroy30 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F947 中完成\n* 禁止构建文档时运行笔记本，由 @rgsl888prabhu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F980 中完成\n* 修复损坏链接，由 @cwilkinson76 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F1028 中完成\n* 文档和发布说明更新，由 @rgsl888prabhu 在 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fpull\u002F1006 中完成\n### 🚀 新特性","2026-04-09T20:42:17",{"id":163,"version":164,"summary_zh":165,"released_at":166},206002,"v26.02.00","## 发布说明 26.02\n\n### 新特性 (26.02)\n\n- MIP 求解器内部新增并行可靠性分支\n- 根节点处现可添加混合整数戈莫里割、混合整数舍入割、背包割及强切瓦塔尔·戈莫里割\n- 在根节点执行强分支时，新增使用批处理 PDLP 的选项。该功能基于论文《MIP 中用于并行线性规划求解的批处理一阶方法》（[Nicolas Blin](https:\u002F\u002Fgithub.com\u002FKh4ster)、[Stefano Gualandi](https:\u002F\u002Fgithub.com\u002Fstegua)、[Christopher Maes](https:\u002F\u002Fgithub.com\u002Fchris-maes)、[Andrea Lodi](https:\u002F\u002Fgithub.com\u002Fandrealodi)、[Bartolomeo Stellato](https:\u002F\u002Fgithub.com\u002Fbstellato)）。\n- 二次规划 (QP) 求解器现已正式发布（此前为测试版）\n- PDLP 默认求解模式 Stable3 新增不可行性检测选项\n- C API 中新增解回调函数。用户现可获取对偶界并传递用户数据\n- 新增多种寻找到整数可行解的潜水式搜索技术\n- 对于 LP 问题，默认启用 [PSLP 预处理程序](https:\u002F\u002Fgithub.com\u002Fdance858\u002FPSLP)。可通过 presolve 选项选择 Papilo 或禁用预处理\n- 新增路由问题的批处理求解功能，以提升大量相似实例的吞吐量\n- 新增对并行分支定界求解器确定性的实验性支持。但在该模式下暂不支持 GPU 启发式算法。\n\n### 破坏性变更 (26.02)\n\n- Python API 中解回调函数的签名已更改\n- 若要使用 PDLP 的热启动，现必须通过设置 `CUOPT_PRESOLVE=0` 显式禁用预处理。此前预处理会自动禁用。\n\n### 改进 (26.02)\n\n- 改进了 PDLP 默认求解模式 Stable3 的原始\u002F对偶热启动\n- 现可通过矩阵方式在 Python API 中构造二次目标函数\n- QP 内点法现可在 GPU 上更新并求解增广系统\n- 提升了 LP 折叠的性能\n- 增强了探测推导与变量排序，以强化预处理和分支策略\n- 将已弃用的 cuDF Column\u002FBuffer API 替换为 pylibcudf 和公开的 cuDF 接口\n- 更新依赖项锁定，将 CUDA 运行时链接改为静态链接以提高可移植性\n- 构建与工具链：新增 `--split-compile`、`--jobserver`、Clang 主机构建、ThreadSanitizer，优化容器脚本，并在镜像中加入分支\u002F提交元数据\n- 使用显式的 `cudaStream_t` 结合 `cub::DeviceTransform`，并通过非阻塞流实现 GPU 控制\n- 启用内点法 LP 测试，增加回归测试，并引入 SonarQube 静态代码分析\n- 新增用于指定求解器所用随机种子的参数。\n\n### 错误修复 (26.02)\n\n- 修复了最大化问题中对偶变量与单位成本符号错误的问题\n- 修复了内点法中稠密列检测的越界问题\n- 修正了不可行列表的处理逻辑，避免对偶单纯形法中出现错误的不可行性报告\n- 通过 Clang 主机构建 + ThreadSanitizer 发现并修复了竞态条件\n- 解决了 cuDF 与 CUDA–Numba 版本不匹配的问题\n- 修复设备端代码以包含所需内容","2026-02-11T18:01:27",{"id":168,"version":169,"summary_zh":170,"released_at":171},206003,"v25.12.00a","## 🔗 链接\n\n- [开发分支](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Ftree\u002Fbranch-25.12)\n- [与 `main` 分支对比](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fcompare\u002Fmain...branch-25.12)\n\n\n## 🐛 Bug 修复\n\n- 禁用不稳定屏障测试 (#520) @rgsl888prabhu\n- 修复当设置订单位置时的 TSP 问题 (#503) @hlinsen\n- 修复夜间容器测试套件 (#495) @rgsl888prabhu\n\n## 📖 文档\n\n- 在主仓库中添加发布说明，便于快速查看 (#512) @rgsl888prabhu\n\n## 🛠️ 改进\n\n- 重构构建脚本，使用 RAPIDS_BRANCH 并移除 RAPIDS_VERSION (#517) @bdice\n- 向仓库添加 code-rabbit 配置文件 (#516) @rgsl888prabhu\n- 减小软件包大小 (#507) @rgsl888prabhu\n- 将 25.12 分支合并 25.10 分支 (#505) @rgsl888prabhu\n- 将 25.12 分支合并 25.10 分支 (#490) @rgsl888prabhu\n- 将 branch-25.10 向前合并到 branch-25.12 (#476) @rapids-bot[bot]","2025-10-15T18:54:51",{"id":173,"version":174,"summary_zh":175,"released_at":176},206004,"v25.10.00a","## 🔗 链接\n\n- [开发分支](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Ftree\u002Fbranch-25.10)\n- [与 `main` 分支对比](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fcompare\u002Fmain...branch-25.10)\n\n## 🚨 重大变更\n\n- cuPDLPx (#388) @Kh4ster\n\n## 🐛 错误修复\n\n- 紧急修复 25.10 (#552) @hlinsen\n- 修复预处理阶段对零大小数组的处理问题 (#491) @rgsl888prabhu\n- 修复并发模式下 Barrier 函数错误返回数值的问题 (#484) @chris-maes\n- 在 Barrier 中优雅地处理内存不足问题 (#483) @hlinsen\n- 不再访问折叠后问题中原始问题中的自由变量 (#477) @chris-maes\n- 【BUG】修复了 diving 搜索的初始变量边界问题 (#474) @nguidotti\n- 修复由于在无单例变量时忽略秩而导致的 ns1952667 问题中的 UMA 问题 (#470) @chris-maes\n- 进一步优化 CPUFJ 的断言和数值稳定性修复 (#466) @aliceb-nv\n- 因 CliqueMerging 预处理器中的 bug 而禁用 TBB (#463) @rg20\n- Barrier 后处理、find_dense_columns 修复以及折叠相关修复 (#462) @chris-maes\n- 双向单纯形法中不再消除自由变量 (#457) @chris-maes\n- 提高 CPUFJ 可行性检查的数值鲁棒性 (#454) @aliceb-nv\n- 显式为 Barrier 并发操作创建新流 (#453) @hlinsen\n- 修复超时后延迟终止的问题 (#451) @nguidotti\n- 修复编译和日志记录问题 (#450) @akifcorduk\n- 短时间微调 (#444) @aliceb-nv\n- GF2 预处理不可行性修复及 CI 偶发失败修复 (#437) @aliceb-nv\n- 修复由 CPUFJ LP 暂存线程导致的变量越界问题 (#425) @aliceb-nv\n- 修复可能未初始化的编译错误 (#424) @nguidotti\n- 修复禁用 C 适配器时测试套件中的链接错误 (#420) @nguidotti\n- 根据用户目标计算相对间隙 (#418) @rg20\n- 为客户端添加通用、发送和接收的 HTTP 超时值 (#404) @tmckayus\n- 修复 fixed_problem_computation 中的 bug (#403) @akifcorduk\n- 移除 limiting_resource_adaptor 的残留代码 (#398) @aliceb-nv\n- 添加对 CUDA 13 容器的支持，并修复 wheel 包中的 CUDA 13 库问题 (#379) @rgsl888prabhu\n- 如果用户问题包含交叉约束，则返回不可行结果 (#361) @aliceb-nv\n- 修复 `clean_up_infeasibilities` 中的越界访问问题 (#346) @legrosbuffle\n- 跳过 Netlib 数据的下载 (#335) @rgsl888prabhu\n- 不移除具有无穷大边界的空列 (#287) @chris-maes\n\n## 📖 文档更新\n\n- 更新简介，使用引擎代替库 (#536) @rgsl888prabhu\n- 为线性规划中的每种方法添加默认精度说明 (#514) @rgsl888prabhu\n- 发布 v25.10 版本说明 (#432) @cwilkinson76\n- 在文档中添加教程视频链接 (#416) @rgsl888prabhu\n- 添加热启动、模型更新等相关文档 (#411) @Iroy30\n- 添加关于 CI 工作流输入的文档 (#407) @jameslamb\n- 为视频链接下拉菜单添加名称 (#396) @rgsl888prabhu\n- 在文档和 Readme 中添加视频链接 (#393) @rgsl888prabhu\n- 添加夜间安装命令的文档 (#367) @rgsl888prabhu\n- 修复版本标签页中的版本号、更改日志并修正错别字 (#267) @rgsl888prabhu\n\n## 🚀 新功能\n\n- 添加可选的时间戳 e","2025-08-06T16:06:13",{"id":178,"version":179,"summary_zh":180,"released_at":181},206005,"v25.08.00a","## 🔗 链接\n\n- [开发分支](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Ftree\u002Fbranch-25.08)\n- [与 `main` 分支对比](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fcompare\u002Fmain...branch-25.08)\n\n## 🚨 重大变更\n\n- 修复 nightly 和 release 包的版本号问题 (#175) @rgsl888prabhu\n- 升级 cuOpt 和 Rapids 版本 (#55) @rgsl888prabhu\n\n## 🐛 Bug 修复\n\n- 修复 bnatt500 数据集中由于 mu 值过小导致 inf\u002Fnan 从而引发的段错误 (#254) @chris-maes\n- 修复基修复中的 bug。从原始更新中的数值问题中恢复。(#249) @chris-maes\n- 在 CMake 的断言模式下取消设置 NDEBUG (#248) @hlinsen\n- 在负载均衡的边界预处理中手动创建 CUDA 图 (#242) @kaatish\n- 修复 MIP 问题在预处理后退化为 LP 时出现的断言失败问题 (#235) @aliceb-nv\n- 使服务 API 与 SDK 对齐（兼容弃用内容）(#227) @tmckayus\n- 修复检查和 CUDA 设备顺序设置中初始解大小的 bug (#226) @akifcorduk\n- 批量 PDLP 中不使用 CUDA 图 (#225) @Kh4ster\n- 禁用其中一个数据集的可行性跳跃测试 (#215) @rgsl888prabhu\n- 修复日志级别问题 (#201) @akifcorduk\n- 修复双松弛变量缩放及 >= 约束中对偶变量符号的 bug (#191) @chris-maes\n- 修复 PDP 和奖品收集问题中的反转交叉 bug (#179) @hlinsen\n- 修复 extract_best_per_route 内核中的一个 bug (#156) @rg20\n- 修复 JuMP 接口中单元测试中出现的多个 bug (#149) @rg20\n- 修复报告求解时间不准确的问题 (#131) @aliceb-nv\n- 修复最大偏移问题 (#113) @Kh4ster\n- 修复由固定内存分配器引起的批量图捕获问题 (#110) @Kh4ster\n- 修复 optimization_problem_solution_t::copy_from 中的 bug (#109) @rg20\n- 修复 PDLP 中问题为空时出现的问题 (#107) @Kh4ster\n- 修复包含变量但无约束的模型崩溃问题 (#105) @aliceb-nv\n- 修复条件约束预处理中约束界限反转的 bug (#75) @kaatish\n- 修复为最大行程时间功能创建 depot 节点时的数据初始化问题 (#74) @hlinsen\n\n## 📖 文档\n\n- 为文档构建和测试添加链接检查器 (#229) @rgsl888prabhu\n- 添加更多 pre-commit 检查以确保编码规范 (#213) @rgsl888prabhu\n- 在文档的第三方建模语言页面中提及 GAMS 和 GAMSPy (#206) @0x17\n- 启用 PR 和 Nightly 的文档构建工作流及构建脚本 (#203) @rgsl888prabhu\n- 修复 README 中指向 Python 文档的链接 (#118) @Abinashbunty\n- 更新 PR 模板，使其简洁并包含检查清单 (#73) @rgsl888prabhu\n\n## 🚀 新特性\n\n- 添加 Python API (#223) @Iroy30\n- 为 CVXPY 集成添加简单的冒烟测试 (#199) @tmckayus\n\n## 🛠️ 改进\n\n- 将 nightly.yaml 中 actions\u002Fcheckout 升级至 v4 (#230) @ScottBrenner\n- 为 cuopt 服务添加 Helm Chart (#224) @rgsl888prabhu\n- 从仓库中移除所有针对 CUDA 11 的特定更改 (#222) @rgsl888prabhu\n- 使用解哈希、MAB 和单纯形根解进行启发式改进 (#216) @akifcorduk\n- 为缺失文件添加许可证头 (#210) @rgsl888prabhu\n- 修复：防止 GitHub 语言统计将 MPS 文件误认为是 JetBrains 相关文件 (#202)","2025-06-11T21:09:17",{"id":183,"version":184,"summary_zh":185,"released_at":186},206006,"v25.05.00a","## 🔗 链接\n\n- [开发分支](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Ftree\u002Fbranch-25.05)\n- [与 `main` 分支对比](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fcuopt\u002Fcompare\u002Fmain...branch-25.05)\n\n\n## 🐛 Bug 修复\n\n- 修复在达到时间限制时报告求解时间的问题 (#93) @aliceb-nv\n- 修复将瘦客户端需求与 cuopt 主模块解耦的问题 (#92) @rgsl888prabhu\n- 修复最大化问题中偶尔出现的错误解界值 (#83) @rgsl888prabhu\n- 修复条件约束预处理中的约束 bounds 反转问题 (#82) @kaatish\n- 修复夜间构建因 jq 请求失败的问题 (#78) @rgsl888prabhu\n- Pdlp 批量 CUDA 图修复 (#68) @Kh4ster\n- 允许服务版本检查中使用较长的客户端版本号 (#61) @tmckayus\n- 修复最大值问题中的目标常数。解决根节点处未定义的内存访问问题 (#52) @chris-maes\n- 为纯 Python 的 conda 包添加 Python 约束 (#51) @jameslamb\n- 在 ARM CI 上禁用失败的 FJ 测试 (#39) @aliceb-nv\n- 修复探测缓存使用下界 bounds prop 和探测缓存 bounds 查找时使用错误变量 ID 的 bug (#36) @akifcorduk\n- 修复批量使用时出现的图相关 bug (#34) @Kh4ster\n- 修复对偶单纯形法未填写附加信息的 bug (#33) @chris-maes\n- 将轮子包的 argparser 切换到 v3.2 版本 (#31) @rg20\n- 修复单纯形预处理移除空列后解不正确的 bug (#29) @chris-maes\n- 预处理中的 bug：线段返回更差的解，临时修复是直接添加 B&B 解 (#27) @akifcorduk\n- 修复非平凡预处理未报告最优性的情况 (#26) @aliceb-nv\n- 修复 C API 中布尔参数的 bug。同时修复爱尔兰电力公司的 bug (#25) @chris-maes\n- 修复由静态 lp_state_t 对象导致的连续运行中的 bug (#24) @aliceb-nv\n- 修复交叉过程中本应返回时间限制却返回数值的 bug (#23) @chris-maes\n- 柔性处理内存不足和时间限制超时问题 (#22) @rg20\n- PDLP 解文件生成及二进制修复 (#21) @Kh4ster\n- 修复 LP 无界时的目标函数值 (#19) @chris-maes\n- 修复空问题和 pre_process 赋值相关的 bug (#18) @akifcorduk\n- 修复批量 LP 求解中终止状态 9 的错误 (#17) @chris-maes\n- 修复分支构建和夜间构建的问题 (#12) @rgsl888prabhu\n\n## 📖 文档\n\n- 修复 CONTRIBUTING.md 中的测试命令 (#88) @rgsl888prabhu\n- 更新 README.md (#85) @bbozkaya\n- 文档更新：添加第三方建模语言，并完善夜间文档 (#77) @rgsl888prabhu\n- 更新源码构建说明 (#62) @rgsl888prabhu\n- 更新 README 和文档中的版本信息及破损链接 (#56) @rgsl888prabhu\n- 修复文档中缺失链接和错别字的问题 (#48) @rgsl888prabhu\n- 处理 cuOpt 文档评审意见 (#41) @rgsl888prabhu\n- 修复文档结构并微调说明内容 (#16) @rgsl888prabhu\n\n## 🛠️ 改进\n\n- 迁移到现代日志接口 (#80) @emmanuel-ferdman\n- 启用夜间包发布并修复夜间测试工作流 (#72) @rgsl888prabhu\n- 写出包含用户问题的 MPS 文件，便于调试 (#66) @chris-maes","2025-06-11T21:37:23"]