[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pemami4911--neural-combinatorial-rl-pytorch":3,"tool-pemami4911--neural-combinatorial-rl-pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":105,"github_topics":106,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":144},7041,"pemami4911\u002Fneural-combinatorial-rl-pytorch","neural-combinatorial-rl-pytorch","PyTorch implementation of Neural Combinatorial Optimization with Reinforcement Learning https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.09940","neural-combinatorial-rl-pytorch 是一个基于 PyTorch 框架的开源项目，复现了利用强化学习进行神经组合优化的经典算法。它主要致力于解决旅行商问题（TSP）和序列排序等复杂的组合优化难题，通过让智能体在训练中自主探索策略，以寻找比传统启发式方法更优的解。\n\n该项目特别适合人工智能研究人员、算法工程师以及对强化学习应用感兴趣的开发者使用。其核心技术亮点在于采用了指针网络（Pointer Network）架构，并在训练阶段利用随机采样策略增强探索能力，同时创新性地引入指数移动平均批评家（Exponential Moving Average Critic）替代传统的批评网络，显著提升了模型在 TSP 任务上的收敛效果与最终性能。此外，项目还提供了注意力机制可视化功能，帮助用户直观理解模型的决策过程。虽然部分高级解码策略（如多束搜索）仍在完善中，但它已为扩展其他组合优化任务提供了清晰的代码范式和奖励函数接口，是学习和实验该领域前沿技术的优质起点。","# neural-combinatorial-rl-pytorch\n\nPyTorch implementation of [Neural Combinatorial Optimization with Reinforcement Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.09940). \n\nI have implemented the basic RL pretraining model with greedy decoding from the paper. An implementation of the supervised learning baseline model is available [here](https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-tensorflow). Instead of a critic network, I got my results below on TSP from using an exponential moving average critic. The critic network is simply commented out in my code right now. From correspondence with a few others, it was determined that the exponential moving average critic significantly helped improve results. \n\nMy implementation uses a stochastic decoding policy in the pointer network, realized via PyTorch's `torch.multinomial()`, during training, and beam search (**not yet finished**, only supports 1 beam a.k.a. greedy) for decoding when testing the model. \n\nCurrently, there is support for a sorting task and the planar symmetric Euclidean TSP.\n\nSee `main.sh` for an example of how to run the code.\n\nUse the `--load_path $LOAD_PATH` and `--is_train False` flags to load a saved model.\n\nTo load a saved model and view the pointer network's attention layer, also use the `--plot_attention True` flag.\n\nPlease, feel free to notify me if you encounter any errors, or if you'd like to submit a pull request to improve this implementation.\n\n## Adding other tasks\n\nThis implementation can be extended to support other combinatorial optimization problems. See `sorting_task.py` and `tsp_task.py` for examples on how to add. The key thing is to provide a dataset class and a reward function that takes in a sample solution, selected by the pointer network from the input, and returns a scalar reward. For the sorting task, the agent received a reward proportional to the length of the longest strictly increasing subsequence in the decoded output (e.g., `[1, 3, 5, 2, 4] -> 3\u002F5 = 0.6`).\n\n## Dependencies\n\n* Python=3.6 (should be OK with v >= 3.4)\n* PyTorch=0.2 and 0.3\n* tqdm\n* matplotlib\n* [tensorboard_logger](https:\u002F\u002Fgithub.com\u002FTeamHG-Memex\u002Ftensorboard_logger)\n\nPyTorch 0.4 compatibility is available on branch `pytorch-0.4`.\n\n## TSP Results\n\nResults for 1 random seed over 50 epochs (each epoch is 10,000 batches of size 128). After each epoch, I validated performance on 1000 held out graphs. I used the same hyperparameters from the paper, as can be seen in `main.sh`. The dashed line shows the value indicated in Table 2 of Bello, et. al for comparison. The log scale x axis for the training reward is used to show how the tour length drops early on.\n\n![TSP 20 Train](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_e62d7b680c3e.png)\n![TSP 20 Val](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_ac386b8221cf.png)\n![TSP 50 Train](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_7a18c19057c3.png)\n![TSP 50 Val](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_408f3ae1ea3c.png)\n\n## Sort Results\n\nI trained a model on `sort10` for 4 epochs of 1,000,000 randomly generated samples. I tested it on a dataset of size 10,000. Then, I tested the same model on `sort15` and `sort20` to test the generalization capabilities.\n\nTest results on 10,000 samples (A reward of 1.0 means the network perfectly sorted the input): \n\n| task | average reward | variance | \n|---|---|---|\n| sort10 | 0.9966 | 0.0005 |\n| sort15 | 0.7484 | 0.0177 |\n| sort20 | 0.5586 | 0.0060 | \n\n\nExample prediction on `sort10`: \n\n```\ninput: [4, 7, 5, 0, 3, 2, 6, 8, 9, 1]\noutput: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9]\n```\n\n### Attention visualization\n\nPlot the pointer network's attention layer with the argument `--plot_attention True`\n\n## TODO\n\n* [ ] Add RL pretraining-Sampling\n* [ ] Add RL pretraining-Active Search\n* [ ] Active Search\n* [ ] Asynchronous training a la A3C\n* [X] Refactor `USE_CUDA` variable\n* [ ] Finish implementing beam search decoding to support > 1 beam\n* [ ] Add support for variable length inputs\n\n## Acknowledgements\n\nSpecial thanks to the repos [devsisters\u002Fneural-combinatorial-rl-tensorflow](https:\u002F\u002Fgithub.com\u002Fdevsisters\u002Fneural-combinatorial-rl-tensorflow) and [MaximumEntropy\u002FSeq2Seq-PyTorch](https:\u002F\u002Fgithub.com\u002FMaximumEntropy\u002FSeq2Seq-PyTorch) for getting me started, and @ricgama for figuring out that weird bug with `clone()`\n\n","# 神经组合优化强化学习-PyTorch\n\n基于 [Neural Combinatorial Optimization with Reinforcement Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.09940) 的 PyTorch 实现。\n\n我实现了论文中带有贪心解码的基本 RL 预训练模型。监督学习基线模型的实现可在 [这里](https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-tensorflow) 找到。我没有使用评论网络，而是通过指数移动平均评论器在 TSP 问题上获得了以下结果。目前我的代码中评论网络部分已被注释掉。根据与其他几位研究者的交流，大家一致认为使用指数移动平均评论器能够显著提升实验效果。\n\n我的实现中，在训练阶段，指针网络采用随机解码策略，通过 PyTorch 的 `torch.multinomial()` 函数实现；而在测试模型时，则使用束搜索（**尚未完成**，目前仅支持 1 束，即贪心解码）进行解码。\n\n当前，该实现支持排序任务和平面对称欧几里得 TSP 问题。\n\n请参阅 `main.sh` 文件，了解如何运行代码的示例。\n\n使用 `--load_path $LOAD_PATH` 和 `--is_train False` 标志可加载已保存的模型。\n\n若要加载已保存的模型并查看指针网络的注意力层，还需添加 `--plot_attention True` 标志。\n\n如果您遇到任何问题，或希望提交拉取请求以改进此实现，请随时与我联系。\n\n## 添加其他任务\n此实现可以扩展以支持其他组合优化问题。请参考 `sorting_task.py` 和 `tsp_task.py` 文件，了解如何添加新任务的示例。关键在于提供一个数据集类和一个奖励函数，该函数接收由指针网络从输入中选择的样本解，并返回一个标量奖励。对于排序任务，智能体获得的奖励与解码输出中最长严格递增子序列的长度成正比（例如：`[1, 3, 5, 2, 4] -> 3\u002F5 = 0.6`）。\n\n## 依赖项\n* Python=3.6（v >= 3.4 应该也可以）\n* PyTorch=0.2 和 0.3\n* tqdm\n* matplotlib\n* [tensorboard_logger](https:\u002F\u002Fgithub.com\u002FTeamHG-Memex\u002Ftensorboard_logger)\n\nPyTorch 0.4 兼容版本位于 `pytorch-0.4` 分支。\n\n## TSP 结果\n单个随机种子下，经过 50 个 epoch 的训练（每个 epoch 包含 10,000 个大小为 128 的批次）。每完成一个 epoch，我都用 1,000 个保留图验证了模型性能。我使用了与论文相同的超参数，详见 `main.sh` 文件。虚线表示 Bello 等人在表 2 中给出的数值，用于对比。训练奖励的对数横轴用于展示旅行商路径长度在早期阶段的快速下降趋势。\n\n![TSP 20 训练奖励](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_e62d7b680c3e.png)\n![TSP 20 验证奖励](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_ac386b8221cf.png)\n![TSP 50 训练奖励](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_7a18c19057c3.png)\n![TSP 50 验证奖励](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_readme_408f3ae1ea3c.png)\n\n## 排序结果\n我在 `sort10` 数据集上训练了一个模型，共 4 个 epoch，每个 epoch 包含 1,000,000 个随机生成的样本。随后，我在一个包含 10,000 个样本的数据集上进行了测试。接着，我又在同一模型上测试了 `sort15` 和 `sort20` 数据集，以评估其泛化能力。\n\n在 10,000 个样本上的测试结果（奖励值为 1.0 表示网络完美地对输入进行了排序）：\n\n| 任务 | 平均奖励 | 方差 |\n|---|---|---|\n| sort10 | 0.9966 | 0.0005 |\n| sort15 | 0.7484 | 0.0177 |\n| sort20 | 0.5586 | 0.0060 |\n\n`sort10` 的预测示例：\n\n```\n输入: [4, 7, 5, 0, 3, 2, 6, 8, 9, 1]\n输出: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9]\n```\n\n### 注意力可视化\n可通过添加 `--plot_attention True` 参数来绘制指针网络的注意力层。\n\n## 待办事项\n* [ ] 添加 RL 预训练—采样\n* [ ] 添加 RL 预训练—主动搜索\n* [ ] 主动搜索\n* [ ] 类似 A3C 的异步训练\n* [X] 重构 `USE_CUDA` 变量\n* [ ] 完成束搜索解码的实现，以支持 > 1 束\n* [ ] 添加对变长输入的支持\n\n## 致谢\n特别感谢 [devsisters\u002Fneural-combinatorial-rl-tensorflow](https:\u002F\u002Fgithub.com\u002Fdevsisters\u002Fneural-combinatorial-rl-tensorflow) 和 [MaximumEntropy\u002FSeq2Seq-PyTorch](https:\u002F\u002Fgithub.com\u002FMaximumEntropy\u002FSeq2Seq-PyTorch) 这两个仓库，它们让我顺利起步；同时也感谢 @ricgama 帮助我解决了 `clone()` 方法中的那个奇怪 bug。","# neural-combinatorial-rl-pytorch 快速上手指南\n\n本指南基于 PyTorch 实现了论文《Neural Combinatorial Optimization with Reinforcement Learning》中的核心算法，主要用于解决组合优化问题（如旅行商问题 TSP 和排序任务）。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux \u002F macOS (Windows 需自行配置兼容环境)\n- **Python 版本**：推荐 Python 3.6 (兼容 v >= 3.4)\n- **PyTorch 版本**：原生支持 0.2 和 0.3。\n  - *注：若需使用 PyTorch 0.4+，请切换至 `pytorch-0.4` 分支。*\n\n### 前置依赖\n安装必要的 Python 库。国内用户推荐使用清华或阿里镜像源加速安装：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch==0.3.0 tqdm matplotlib tensorboard_logger\n```\n\n> **注意**：由于该项目基于较旧版本的 PyTorch (0.2\u002F0.3)，直接安装最新版可能导致兼容性问题。建议创建虚拟环境并指定版本安装，或参考项目 `pytorch-0.4` 分支进行适配。\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch.git\n   cd neural-combinatorial-rl-pytorch\n   ```\n\n2. **验证依赖**\n   确保已安装 `tqdm`, `matplotlib` 和 `tensorboard_logger`。如有缺失，请参照上方“环境准备”中的命令安装。\n\n## 基本使用\n\n项目通过 `main.sh` 脚本提供运行示例，支持训练、测试及可视化。\n\n### 1. 运行训练或测试示例\n查看并执行默认的示例脚本（包含超参数设置）：\n```bash\nchmod +x main.sh\n.\u002Fmain.sh\n```\n*默认配置通常包含 TSP 任务的训练流程。*\n\n### 2. 加载预训练模型进行测试\n若已有保存的模型权重，可使用以下命令加载并进行推理（关闭训练模式）：\n\n```bash\npython main.py --load_path $LOAD_PATH --is_train False\n```\n*请将 `$LOAD_PATH` 替换为实际的模型文件路径。*\n\n### 3. 可视化注意力机制\n在加载模型测试时，添加 `--plot_attention True` 参数即可绘制指针网络（Pointer Network）的注意力层热力图，用于分析模型决策过程：\n\n```bash\npython main.py --load_path $LOAD_PATH --is_train False --plot_attention True\n```\n\n### 4. 扩展新任务\n如需支持其他组合优化问题，可参考 `sorting_task.py` 和 `tsp_task.py` 的实现逻辑：\n- 定义新的数据集类。\n- 编写奖励函数（Reward Function），该函数接收指针网络生成的解序列，返回标量奖励值。","某物流科技公司的算法团队正在开发城市级无人机配送系统，需要实时规划包含数十个站点的最短飞行路径以最大化电池效率。\n\n### 没有 neural-combinatorial-rl-pytorch 时\n- 依赖传统启发式算法（如遗传算法或模拟退火），在面对动态增加的配送点时，计算耗时随节点数指数级增长，难以满足秒级响应需求。\n- 每次路线规模变化（如从 20 个点增至 50 个点）都需要重新调整大量人工设定的规则参数，泛化能力差，维护成本极高。\n- 无法利用历史配送数据自我进化，模型只能解决固定规则下的问题，面对复杂的城市禁飞区或临时约束时显得僵化。\n- 缺乏端到端的训练框架，将组合优化问题转化为机器学习任务需要从零搭建复杂的强化学习环境，研发周期长达数月。\n\n### 使用 neural-combinatorial-rl-pytorch 后\n- 基于指针网络（Pointer Network）与强化学习，模型在推理阶段通过贪婪解码或束搜索，能在毫秒级内输出接近最优的 TSP 路径，显著提升调度实时性。\n- 展现出卓越的泛化能力，在 20 个节点上训练的模型可直接迁移至 50 个节点的场景而无需重新训练，大幅降低了多场景适配成本。\n- 通过自定义奖励函数（如路径总长度倒数），让智能体在与环境交互中自动学习复杂的空间约束策略，不再依赖人工硬编码规则。\n- 直接复用其成熟的 PyTorch 实现架构，团队仅需定义数据集和奖励逻辑即可启动训练，将新优化问题的验证周期从数月缩短至数天。\n\nneural-combinatorial-rl-pytorch 将传统的组合优化难题转化为可学习、可泛化的端到端决策过程，为动态路径规划提供了高效且低成本的 AI 解决方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpemami4911_neural-combinatorial-rl-pytorch_e62d7b68.png","pemami4911","Patrick Emami","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpemami4911_bdd18fda.png","Machine Learning Research Scientist at National Renewable Energy Lab. \r\nScientific foundation models | AI for Clean Energy","NREL","Oregon",null,"pemami4911.github.io","https:\u002F\u002Fgithub.com\u002Fpemami4911",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",95.3,{"name":87,"color":88,"percentage":89},"Shell","#89e051",4.7,608,145,"2026-04-11T20:51:18","MIT",4,"未说明","代码中包含 USE_CUDA 变量重构记录，暗示支持 GPU 加速，但 README 未明确指定必需的显卡型号、显存大小或具体 CUDA 版本。",{"notes":98,"python":99,"dependencies":100},"该项目基于较旧的 PyTorch 版本（0.2\u002F0.3），若需使用 PyTorch 0.4 需切换至 'pytorch-0.4' 分支。目前测试时的束搜索（beam search）功能尚未完成，仅支持束大小为 1（即贪婪解码）。主要支持排序任务和平面对称欧几里得旅行商问题（TSP）。","3.6 (兼容 >= 3.4，PyTorch 0.4 版本在独立分支)",[101,102,103,104],"PyTorch==0.2 或 0.3","tqdm","matplotlib","tensorboard_logger",[14],[107,108,109,110],"pytorch","reinforcement-learning","seq2seq","neural-combinatorial-optimization","2026-03-27T02:49:30.150509","2026-04-13T16:34:09.180242",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},31693,"运行 trainer.py 时出现 RuntimeError: invalid argument 1 (tensor dimensions 错误)，如何解决？","这是由于使用了 PyTorch 0.3 版本导致的兼容性问题（原代码仅支持 0.2）。目前 master 分支已更新，应同时兼容 PyTorch 0.2 和 0.3 版本。如果仍在使用旧版代码，请拉取最新 master 分支或升级\u002F降级 PyTorch 至兼容版本。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F6",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31694,"使用高版本 PyTorch（如 1.2）运行时出现大量 Deprecated warning（例如 uint8 indexing 已弃用），该如何处理？","作者建议尽可能使用 PyTorch 0.4 版本运行此代码。由于该代码编写时间较早，作者尚未投入时间更新以适配更高版本 PyTorch 的 API 变更和警告修复。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F15",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31695,"TSP_20 任务的奖励函数是使用了标准的距离总和，还是使用了代码中注释掉的仿射变换和裁剪操作？","作者在展示 TSP_20 和 TSP_50 任务的结果时，使用的是标准的距离总和（即当前代码中未注释的部分）。作者表示不认为注释掉的仿射变换和裁剪操作效果更好，但坦言时间久远记忆可能模糊。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F10",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31696,"TODO 列表中提到的“支持可变长度输入”具体是指什么？Pointer Network 不是本来就能处理任意大小输入吗？","这里指的“可变长度输入”是支持在一个 minibatch 中包含不同长度的序列。目前代码仅支持一个 minibatch 内所有序列长度必须相等的情况，尚不支持混合长度批处理。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F9",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},31697,"plot_reward.py 脚本需要的 reward_csv 文件是如何生成的？trainer.py 中似乎没有保存相关 CSV 的代码。","该 Issue 中作者未提供生成 reward_csv 的具体脚本或步骤。根据上下文推断，用户可能需要自行编写脚本解析训练日志文件来生成所需的 CSV 数据，因为主训练脚本中确实没有直接导出该文件的逻辑。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F12",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},31698,"运行 download_google_drive_file 函数时请求返回 400 错误，如何解决？","该 Issue 中没有提供具体的解决方案或维护者的回复。返回 400 错误通常意味着 Google Drive 的文件下载链接已失效、权限变更或 API 调用方式过时，建议检查文件 ID 是否正确或寻找替代的数据下载方式。","https:\u002F\u002Fgithub.com\u002Fpemami4911\u002Fneural-combinatorial-rl-pytorch\u002Fissues\u002F17",[]]