pytorch-drl4vrp
pytorch-drl4vrp 是一个基于 PyTorch 的开源项目,旨在利用深度强化学习(DRL)解决经典的组合优化难题,特别是旅行商问题(TSP)和车辆路径问题(VRP)。它复现了 Nazari 等人 2018 年的研究成果,通过训练智能体自动规划最优路径,以最小化行驶距离或成本。
该工具主要面向人工智能研究人员、算法工程师以及对运筹优化感兴趣的高校学生。对于希望探索如何用神经网络替代传统启发式算法来解决动态路径规划问题的开发者来说,这是一个极具价值的参考实现。
在技术亮点方面,pytorch-drl4vrp 对原始论文架构进行了一些实用化改进:例如使用 GRU 替代 LSTM 作为解码器网络以提升效率,并设计了特殊的“掩码机制”来处理 VRP 中复杂的动态约束(如车辆载重限制、客户需求变化及回库规则)。此外,项目支持通过命令行灵活调整任务类型和城市节点数量,并提供了预训练模型权重,方便用户快速复现结果或在此基础上进行二次开发。虽然目前测试阶段采用贪婪策略,但其生成的路径长度已接近论文报告的水平,是学习深度强化学习在物流调度领域应用的优秀入门工具。
使用场景
某城市连锁生鲜超市的物流团队,每天需为分布在全市各处的 50 家门店规划最优补货路线,以应对动态变化的订单需求和车辆载重限制。
没有 pytorch-drl4vrp 时
- 依赖传统启发式算法(如节约里程法),面对门店需求实时变动时,无法快速重新计算最优路径,导致调度响应滞后。
- 难以有效处理车辆容量约束与动态卸货逻辑,常出现车辆中途超载或空驶回仓的低效情况,增加燃油成本。
- 每次新增门店或调整运力都需要人工重新建模和调参,开发周期长达数周,无法适应业务规模的快速扩张。
- 缺乏端到端的智能训练框架,历史运输数据无法转化为决策模型,路线优化效果长期停滞不前。
使用 pytorch-drl4vrp 后
- 利用深度强化学习模型直接学习动态状态下的决策策略,能在秒级内根据实时订单需求生成新的最优配送路线。
- 内置的掩码机制自动处理车辆载重更新与回仓补给逻辑,确保每趟行程严格满足容量约束,显著减少无效行驶里程。
- 支持通过
--nodes和--task参数灵活定义问题规模,从 10 个到 100 个配送点均可快速迁移训练,大幅缩短新场景落地时间。 - 基于 PyTorch 构建的训练流程可复用历史运输数据进行持续迭代,随着数据积累,路线规划的平均成本持续降低。
pytorch-drl4vrp 将复杂的车辆路径问题转化为可学习的智能决策过程,让物流配送从“静态规则驱动”升级为“动态数据驱动”。
运行环境要求
- 未说明
- 训练阶段需要 NVIDIA GPU (README 提及在 Tesla P-100 上测试),推理阶段未强制要求但建议使用
- 显存大小和 CUDA 版本未说明
未说明

快速开始
pytorch-drl4vrp
实现:Nazari, Mohammadreza 等人。“用于求解车辆路径问题的深度强化学习”。arXiv 预印本 arXiv:1802.04240 (2018)。
目前支持旅行商问题和车辆路径问题。详情请参阅 tasks/ 文件夹。
要求:
- Python 3.6
- pytorch=0.4.1
- matplotlib
运行方法
通过调用 python trainer.py 来运行。
可以通过 “task” 和 “nodes” 标志来更改任务和复杂度:
python trainer.py --task=vrp --nodes=10
要恢复检查点,必须指定包含 “actor.pt” 和 “critic.pt” 检查点的文件夹路径。示例权重可在 这里 找到。
python trainer.py --task=vrp --nodes=10 --checkpoint=vrp10
与论文的不同之处:
- 解码器网络使用 GRU 而不是 LSTM
- 评论家直接接收原始的静态和动态输入状态,并预测奖励
- 使用需求缩放(MAX_DEMAND / MAX_VEHICLE_CAPACITY),并为 VRP 的配送中心赋予一个与剩余运力成比例的负值(不确定是否实际使用)
TSP 示例路线:
左: 20 个城市 TSP
右: 50 个城市 TSP
VRP 示例路线:
左: 10 个城市 + 载重 20 的 VRP
右: 20 个城市 + 载重 30 的 VRP
TSP
TSP 使用以下掩码方案:
- 如果销售员已经访问过某个城市,则不允许再次访问。
VRP
VRP 处理动态元素(载重 ‘L’、需求 ‘D’),这些元素在车辆/销售员每次访问城市时都会发生变化。每个城市的需求随机生成,范围为 [1, 9]。销售员的初始运力会根据问题的复杂度(例如节点数量)而变化。
VRP 使用以下 掩码方案:
- 如果任何城市的需求已耗尽,则结束行程。这意味着车辆必须返回配送中心才能完成。
- 只要车辆能够完全满足需求,就可以访问任何城市(如果需要,可以轻松修改为部分运输)。
- 车辆不能连续两次访问配送中心(以加快训练速度)。
- 只有当车辆已完成其路线并等待其他车辆完成时,才允许连续两次或多次访问配送中心(例如在小批量训练中)。
在该项目中,使用了以下动态更新:
- 如果车辆访问某个城市,其载重将根据公式 Load = Load - Demand_i 进行调整,该城市的需求也将根据公式 Demand_i = (Demand_i - load)+ 进行更新。
- 返回配送中心时,车辆的载重会被重新装满。配送中心被赋予一个“负”需求,该需求会随着车辆剩余载重量的增加而增大。
结果:
行程准确性
此仓库仅在测试时实现了“贪心”方法,即选择概率最高的城市。将本项目与相应论文相比,行程长度如下所示。行程长度的差异很可能可以通过超参数搜索进一步优化,但此处并未进行此类搜索。
| 论文(“贪心”) | 本项目 | |
|---|---|---|
| TSP20 | 3.97 | 4.032 |
| TSP50 | 6.08 | 6.226 |
| TSP100 | 8.44 | |
| VRP10 容量 20 | 4.84 | 5.082 |
| VRP20 容量 30 | 6.59 | 6.904 |
| VRP50 容量 40 | 11.39 | |
| VRP100 容量 50 | 17.23 |
训练时间
在 Tesla P-100 GPU 上,观察到以下训练时间。结果是通过统计前 100 次训练迭代的总时间(使用相应的批次大小),并将其转换为相应的时间单位得出的。请注意,对于 VRP 特别是,在这段时间内模型尚未充分训练,因此这些结果可能略有不准确,具体情况因人而异。
| 任务 | 批次大小 | 每 100 次更新所需时间(秒) | 每轮所需时间(分钟) | 每轮所需时间(小时) | 20 轮 |
|---|---|---|---|---|---|
| TSP20 | 128 | 8.23 | 10.71 | 0.18 | 3.57 |
| TSP20 | 256 | 11.90 | 7.75 | 0.13 | 2.58 |
| TSP20 | 512 | 19.10 | 6.22 | 0.10 | 2.07 |
| TSP50 | 128 | 21.64 | 28.17 | 0.47 | 9.39 |
| TSP50 | 256 | 31.33 | 20.40 | 0.34 | 6.80 |
| TSP50 | 512 | 51.70 | 16.83 | 0.28 | 5.61 |
| TSP100 | 128 | 48.27 | 62.85 | 1.05 | 20.95 |
| TSP100 | 256 | 73.51 | 47.85 | 0.80 | 15.95 |
| 任务 | 批次大小 | 每 100 次更新所需时间(秒) | 每轮所需时间(分钟) | 每轮所需时间(小时) | 20 轮 |
|---|---|---|---|---|---|
| VRP10 | 128 | 12.15 | 15.82 | 0.26 | 5.27 |
| VRP10 | 256 | 15.75 | 10.25 | 0.17 | 3.42 |
| VRP10 | 512 | 23.30 | 7.58 | 0.13 | 2.53 |
| VRP20 | 128 | 21.45 | 27.93 | 0.47 | 9.31 |
| VRP20 | 256 | 28.29 | 18.42 | 0.31 | 6.14 |
| VRP20 | 512 | 43.20 | 14.06 | 0.23 | 4.69 |
| VRP50 | 128 | 53.59 | 69.77 | 1.16 | 23.26 |
| VRP50 | 256 | 77.25 | 50.29 | 0.84 | 16.76 |
| VRP50 | 512 | 127.73 | 41.58 | 0.69 | 13.86 |
| VRP100 | 128 | 130.06 | 169.35 | 2.82 | 56.45 |
| VRP100 | 64 | 95.03 | 247.48 | 4.12 | 82.49 |
致谢:
感谢 https://github.com/pemami4911/neural-combinatorial-rl-pytorch 提供关于 GPU 上随机数生成器错误的见解。
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。