[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-longcw--RoIAlign.pytorch":3,"tool-longcw--RoIAlign.pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":75,"owner_email":77,"owner_twitter":75,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":75,"difficulty_score":104,"env_os":105,"env_gpu":106,"env_ram":107,"env_deps":108,"category_tags":113,"github_topics":114,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":149},7030,"longcw\u002FRoIAlign.pytorch","RoIAlign.pytorch","RoIAlign & crop_and_resize for PyTorch","RoIAlign.pytorch 是专为 PyTorch 框架打造的高效工具，核心功能是实现 RoIAlign（感兴趣区域对齐）与 crop_and_resize（裁剪并缩放）操作。它主要解决了在目标检测等视觉任务中，从特征图提取特定区域时因量化误差导致的信息丢失问题，通过双线性插值技术确保提取的特征像素级精准对齐，从而显著提升模型精度。\n\n该工具特别适合从事计算机视觉研究的科研人员、算法工程师以及深度学习开发者使用，尤其是那些需要复现 Faster R-CNN 等经典检测模型或自定义区域提取逻辑的用户。其技术亮点在于完美移植了 TensorFlow 的 crop_and_resize 接口逻辑，同时适配 PyTorch 的 NCHW 数据格式，保证了前后向传播在 CPU 和 GPU 上的数值一致性（误差小于 1e-5）。此外，项目已全面升级以支持 PyTorch 1.0 及以上版本的新式 Autograd 机制，确保了在现代深度学习环境中的兼容性与稳定性。无论是进行学术研究还是工业级模型开发，RoIAlign.pytorch 都能提供可靠且易用的底层算子支持。","# RoIAlign for PyTorch\nThis is a PyTorch version of [RoIAlign](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06870).\nThis implementation is based on `crop_and_resize`\nand supports both forward and backward on CPU and GPU.\n\n**NOTE:** Thanks [meikuam](https:\u002F\u002Fgithub.com\u002Fmeikuam) for updating \nthis repo for ***PyTorch 1.0***. You can find the original version for \n`torch \u003C= 0.4.1` in [pytorch_0.4](https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Ftree\u002Fpytorch_0.4)\nbranch.\n\n\n## Introduction\nThe `crop_and_resize` function is ported from [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002Fapi_docs\u002Fpython\u002Ftf\u002Fimage\u002Fcrop_and_resize),\nand has the same interface with tensorflow version, except the input feature map\nshould be in `NCHW` order in PyTorch.\nThey also have the same output value (error \u003C 1e-5) for both forward and backward as we expected,\nsee the comparision in `test.py`.\n\n**Note:**\nDocument of `crop_and_resize` can be found [here](https:\u002F\u002Fwww.tensorflow.org\u002Fapi_docs\u002Fpython\u002Ftf\u002Fimage\u002Fcrop_and_resize).\nAnd `RoIAlign` is a wrap of `crop_and_resize`\nthat uses boxes with *unnormalized `(x1, y1, x2, y2)`* as input\n(while `crop_and_resize` use *normalized `(y1, x1, y2, x2)`* as input).\nSee more details about the difference of\n `RoIAlign` and `crop_and_resize` in [tensorpack](https:\u002F\u002Fgithub.com\u002Fppwwyyxx\u002Ftensorpack\u002Fblob\u002F6d5ba6a970710eaaa14b89d24aace179eb8ee1af\u002Fexamples\u002FFasterRCNN\u002Fmodel.py#L301).\n\n**Warning:**\nCurrently it only works using the default GPU (index 0)\n\n## Usage\n+ Install and test\n    ```\n    python setup.py install\n    .\u002Ftest.sh\n    ```\n\n+ Use RoIAlign or crop_and_resize \n    \n    Since PyTorch 1.2.0 [Legacy autograd function with non-static forward method is deprecated.](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fblob\u002Ffdfc676eb6c4d9f50496e564976fbe6d124e23a5\u002Ftorch\u002Fcsrc\u002Fautograd\u002Fpython_function.cpp#L636-L638)\n    We use new-style autograd function with static forward method. Example:\n    ```python\n    import torch\n    from roi_align import RoIAlign      # RoIAlign module\n    from roi_align import CropAndResize # crop_and_resize module\n    \n    # input feature maps (suppose that we have batch_size==2)\n    image = torch.arange(0., 49).view(1, 1, 7, 7).repeat(2, 1, 1, 1)\n    image[0] += 10\n    print('image: ', image)\n    \n    \n    # for example, we have two bboxes with coords xyxy (first with batch_id=0, second with batch_id=1).\n    boxes = torch.Tensor([[1, 0, 5, 4],\n                         [0.5, 3.5, 4, 7]])\n    \n    box_index = torch.tensor([0, 1], dtype=torch.int) # index of bbox in batch\n    \n    # RoIAlign layer with crop sizes:\n    crop_height = 4\n    crop_width = 4\n    roi_align = RoIAlign(crop_height, crop_width)\n    \n    # make crops:\n    crops = roi_align(image, boxes, box_index)\n    \n    print('crops:', crops)\n    ```\n    Output:\n    ```python\n    image:  tensor([[[[10., 11., 12., 13., 14., 15., 16.],\n          [17., 18., 19., 20., 21., 22., 23.],\n          [24., 25., 26., 27., 28., 29., 30.],\n          [31., 32., 33., 34., 35., 36., 37.],\n          [38., 39., 40., 41., 42., 43., 44.],\n          [45., 46., 47., 48., 49., 50., 51.],\n          [52., 53., 54., 55., 56., 57., 58.]]],\n\n\n        [[[ 0.,  1.,  2.,  3.,  4.,  5.,  6.],\n          [ 7.,  8.,  9., 10., 11., 12., 13.],\n          [14., 15., 16., 17., 18., 19., 20.],\n          [21., 22., 23., 24., 25., 26., 27.],\n          [28., 29., 30., 31., 32., 33., 34.],\n          [35., 36., 37., 38., 39., 40., 41.],\n          [42., 43., 44., 45., 46., 47., 48.]]]])\n          \n    crops: tensor([[[[11.0000, 12.0000, 13.0000, 14.0000],\n              [18.0000, 19.0000, 20.0000, 21.0000],\n              [25.0000, 26.0000, 27.0000, 28.0000],\n              [32.0000, 33.0000, 34.0000, 35.0000]]],\n    \n    \n            [[[24.5000, 25.3750, 26.2500, 27.1250],\n              [30.6250, 31.5000, 32.3750, 33.2500],\n              [36.7500, 37.6250, 38.5000, 39.3750],\n              [ 0.0000,  0.0000,  0.0000,  0.0000]]]])\n    ```\n","# RoIAlign for PyTorch\n这是一个 [RoIAlign](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06870) 的 PyTorch 实现。\n该实现基于 `crop_and_resize`，并在 CPU 和 GPU 上同时支持前向和反向传播。\n\n**注意：** 感谢 [meikuam](https:\u002F\u002Fgithub.com\u002Fmeikuam) 为 ***PyTorch 1.0*** 更新了此仓库。您可以在 [pytorch_0.4](https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Ftree\u002Fpytorch_0.4) 分支中找到适用于 `torch \u003C= 0.4.1` 的原始版本。\n\n\n## 简介\n`crop_and_resize` 函数源自 [tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002Fapi_docs\u002Fpython\u002Ftf\u002Fimage\u002Fcrop_and_resize)，其接口与 TensorFlow 版本相同，唯一的区别是 PyTorch 中的输入特征图应采用 `NCHW` 格式。\n正如我们所预期的那样，它们在前向和反向传播中的输出值也完全一致（误差 \u003C 1e-5），具体比较请参见 `test.py`。\n\n**注：**\n`crop_and_resize` 的文档可以在这里找到 [这里](https:\u002F\u002Fwww.tensorflow.org\u002Fapi_docs\u002Fpython\u002Ftf\u002Fimage\u002Fcrop_and_resize)。\n而 `RoIAlign` 是对 `crop_and_resize` 的封装，它接受未归一化的 `(x1, y1, x2, y2)` 坐标框作为输入（而 `crop_and_resize` 则使用归一化的 `(y1, x1, y2, x2)` 坐标）。\n有关 `RoIAlign` 和 `crop_and_resize` 之间差异的更多详细信息，请参阅 [tensorpack](https:\u002F\u002Fgithub.com\u002Fppwwyyxx\u002Ftensorpack\u002Fblob\u002F6d5ba6a970710eaaa14b89d24aace179eb8ee1af\u002Fexamples\u002FFasterRCNN\u002Fmodel.py#L301)。\n\n**警告：**\n目前仅支持使用默认的 GPU（索引 0）。\n\n## 使用方法\n+ 安装并测试\n    ```\n    python setup.py install\n    .\u002Ftest.sh\n    ```\n\n+ 使用 RoIAlign 或 crop_and_resize\n    \n    自 PyTorch 1.2.0 起，[具有非静态前向方法的传统自动求导函数已被弃用。](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fblob\u002Ffdfc676eb6c4d9f50496e564976fbe6d124e23a5\u002Ftorch\u002Fcsrc\u002Fautograd\u002Fpython_function.cpp#L636-L638)\n    我们现在使用具有静态前向方法的新式自动求导函数。示例如下：\n    ```python\n    import torch\n    from roi_align import RoIAlign      # RoIAlign 模块\n    from roi_align import CropAndResize # crop_and_resize 模块\n\n    # 输入特征图（假设 batch_size==2）\n    image = torch.arange(0., 49).view(1, 1, 7, 7).repeat(2, 1, 1, 1)\n    image[0] += 10\n    print('image: ', image)\n\n\n    # 例如，我们有两个 bbox，坐标格式为 xyxy（第一个属于 batch_id=0，第二个属于 batch_id=1）。\n    boxes = torch.Tensor([[1, 0, 5, 4],\n                         [0.5, 3.5, 4, 7]])\n\n    box_index = torch.tensor([0, 1], dtype=torch.int) # 每个 bbox 在 batch 中的索引\n\n    # RoIAlign 层，设置裁剪大小：\n    crop_height = 4\n    crop_width = 4\n    roi_align = RoIAlign(crop_height, crop_width)\n\n    # 进行裁剪：\n    crops = roi_align(image, boxes, box_index)\n\n    print('crops:', crops)\n    ```\n    输出：\n    ```python\n    image:  tensor([[[[10., 11., 12., 13., 14., 15., 16.],\n          [17., 18., 19., 20., 21., 22., 23.],\n          [24., 25., 26., 27., 28., 29., 30.],\n          [31., 32., 33., 34., 35., 36., 37.],\n          [38., 39., 40., 41., 42., 43., 44.],\n          [45., 46., 47., 48., 49., 50., 51.],\n          [52., 53., 54., 55., 56., 57., 58.]]],\n\n\n        [[[ 0.,  1.,  2.,  3.,  4.,  5.,  6.],\n          [ 7.,  8.,  9., 10., 11., 12., 13.],\n          [14., 15., 16., 17., 18., 19., 20.],\n          [21., 22., 23., 24., 25., 26., 27.],\n          [28., 29., 30., 31., 32., 33., 34.],\n          [35., 36., 37., 38., 39., 40., 41.],\n          [42., 43., 44., 45., 46., 47., 48.]]]])\n          \n    crops: tensor([[[[11.0000, 12.0000, 13.0000, 14.0000],\n              [18.0000, 19.0000, 20.0000, 21.0000],\n              [25.0000, 26.0000, 27.0000, 28.0000],\n              [32.0000, 33.0000, 34.0000, 35.0000]]],\n    \n    \n            [[[24.5000, 25.3750, 26.2500, 27.1250],\n              [30.6250, 31.5000, 32.3750, 33.2500],\n              [36.7500, 37.6250, 38.5000, 39.3750],\n              [ 0.0000,  0.0000,  0.0000,  0.0000]]]])\n    ```","# RoIAlign.pytorch 快速上手指南\n\n## 环境准备\n- **系统要求**：Linux \u002F macOS（Windows 需自行配置编译环境）\n- **Python 版本**：建议 Python 3.6+\n- **PyTorch 版本**：支持 PyTorch 1.0+（本指南基于新版静态 `forward` 方法）\n- **硬件要求**：\n  - 支持 CPU 和 GPU 推理与反向传播\n  - **注意**：当前版本仅默认支持单卡运行（GPU index 0）\n- **依赖项**：\n  - `torch`\n  - `setup.py` 构建工具（通常随 PyTorch 安装自带）\n\n> 💡 国内用户建议使用清华或阿里镜像源加速 PyTorch 安装：\n> ```bash\n> pip install torch -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n克隆仓库并安装模块：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch.git\ncd RoIAlign.pytorch\npython setup.py install\n```\n\n验证安装是否成功：\n\n```bash\n.\u002Ftest.sh\n```\n\n若脚本无报错且输出对比结果误差小于 `1e-5`，则安装成功。\n\n## 基本使用\n以下是最小可用示例，演示如何使用 `RoIAlign` 进行特征图裁剪与对齐：\n\n```python\nimport torch\nfrom roi_align import RoIAlign\n\n# 构造输入特征图 (batch_size=2, channel=1, H=7, W=7)\nimage = torch.arange(0., 49).view(1, 1, 7, 7).repeat(2, 1, 1, 1)\nimage[0] += 10  # 区分两个 batch 的数据\n\n# 定义边界框 (x1, y1, x2, y2)，未归一化坐标\nboxes = torch.Tensor([[1, 0, 5, 4],      # 属于 batch 0\n                      [0.5, 3.5, 4, 7]]) # 属于 batch 1\n\n# 指定每个 box 所属的 batch 索引\nbox_index = torch.tensor([0, 1], dtype=torch.int)\n\n# 初始化 RoIAlign 层，设定输出裁剪尺寸\ncrop_height = 4\ncrop_width = 4\nroi_align = RoIAlign(crop_height, crop_width)\n\n# 执行前向传播\ncrops = roi_align(image, boxes, box_index)\n\nprint('crops:', crops)\n```\n\n该代码将输出两个经过双线性插值对齐后的 4x4 特征图块，可直接用于后续检测头网络。","某计算机视觉团队正在基于 PyTorch 重构 Faster R-CNN 目标检测模型，急需从特征图中精准提取候选区域（RoI）以进行后续分类与回归。\n\n### 没有 RoIAlign.pytorch 时\n- **精度损失严重**：被迫使用传统的 RoIPooling，其量化取整操作导致特征坐标错位，严重影响小目标检测的边界框回归精度。\n- **开发适配困难**：缺乏原生支持的双线性插值算子，需手动编写复杂的 CUDA 内核或依赖非标准的第三方库，难以兼容 PyTorch 1.0+ 的新版 Autograd 机制。\n- **训练推理不一致**：自行实现的裁剪逻辑在 CPU 调试与 GPU 训练时行为不一，且反向传播梯度计算容易出错，导致模型收敛缓慢甚至不收敛。\n- **接口迁移成本高**：若参考 TensorFlow 实现，需反复转换 NCHW 与 NHWC 数据格式及归一化坐标，代码冗长且极易引入隐蔽的维度错误。\n\n### 使用 RoIAlign.pytorch 后\n- **亚像素级对齐**：直接调用内置的双线性插值算法，消除了量化误差，使特征提取与原始图像像素严格对齐，显著提升了 mAP 指标。\n- **无缝集成新版框架**：完美支持 PyTorch 1.2+ 的静态 forward 机制，无需修改底层代码即可在 CPU 和 GPU 上自动执行高效的前向与反向传播。\n- **数值验证可靠**：输出结果与 TensorFlow 官方版本误差小于 1e-5，确保了从实验原型到生产部署的数值一致性，大幅缩短调试周期。\n- **接口直观易用**：直接接受非归一化的 `(x1, y1, x2, y2)` 坐标输入，省去了繁琐的预处理步骤，让研究人员能专注于模型结构优化而非算子实现。\n\nRoIAlign.pytorch 通过提供高精度、易兼容的特征裁剪方案，彻底解决了目标检测模型中因特征不对齐导致的性能瓶颈问题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flongcw_RoIAlign.pytorch_46b71c01.png","longcw","Long Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flongcw_db9ef272.jpg",null,"@livekit","longch1024@gmail.com","https:\u002F\u002Flongcw.github.io","https:\u002F\u002Fgithub.com\u002Flongcw",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",40.7,{"name":86,"color":87,"percentage":88},"Python","#3572A5",35.4,{"name":90,"color":91,"percentage":92},"Cuda","#3A4E3A",21.7,{"name":94,"color":95,"percentage":96},"C","#555555",2.1,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0.2,556,102,"2026-02-25T00:49:16",4,"","需要 NVIDIA GPU，但仅限默认设备（索引 0），具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":109,"python":110,"dependencies":111},"该工具目前仅支持在默认 GPU（索引 0）上运行。输入特征图需遵循 NCHW 格式。自 PyTorch 1.2.0 起，已采用带有静态 forward 方法的新式 autograd 函数以兼容新版本。RoIAlign 模块接受非归一化的 (x1, y1, x2, y2) 坐标作为输入，而底层的 crop_and_resize 使用归一化坐标。","支持 PyTorch 1.0+（原始版本支持 torch \u003C= 0.4.1），具体 Python 版本未说明",[112],"torch>=1.0",[14],[115],"pytorch","2026-03-27T02:49:30.150509","2026-04-13T13:37:50.800701",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31641,"安装时遇到 'dereferencing pointer to incomplete type THTensor' 错误怎么办？","该错误通常是由于 PyTorch 版本不兼容（特别是 0.4.1 版本的 API 变更）导致的。解决方案是重新安装兼容的 PyTorch 版本（如 0.4.0），或者应用修复了 API 变更的 PR。可以尝试运行以下命令重装：\npip install http:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu91\u002Ftorch-0.4.0-cp36-cp36m-linux_x86_64.whl\n如果使用的是更新版本，请查看项目中的相关 PR 以获取适配代码。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F11",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31642,"如何在 PyTorch 1.0 及以上版本中使用 RoIAlign？","原始仓库主要支持 PyTorch \u003C 0.4 版本。在 PyTorch 1.0 中，torch.utils.ffi 已被弃用，必须使用 C++ 扩展。维护者建议直接使用 Facebook Research 提供的官方实现，该实现已完美支持 PyTorch 1.0+。\n请访问以下地址获取兼容版本：\nhttps:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fmaskrcnn-benchmark\u002Ftree\u002Fmaster\u002Fmaskrcnn_benchmark\u002Fcsrc\n此外，社区也有用户提供了适配 PyTorch 1.0 的 Fork 版本可供参考。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F20",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31643,"编译时遇到 'torch.utils.ffi is deprecated' 报错如何解决？","这是因为 PyTorch 1.0 移除了 torch.utils.ffi 模块。此项目原本基于旧版 API 编写，无法直接在 PyTorch 1.0+ 上运行。解决方法是迁移到使用 C++ 扩展的新版本实现。推荐直接使用 maskrcnn-benchmark 中的 RoIAlign 实现，或者寻找该项目下已更新支持 PyTorch 1.0 的分支。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F21",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},31644,"如何根据 GPU 计算能力修改编译配置以避免构建失败？","默认的 make.sh 脚本可能指定了较高的 GPU 计算能力（如 sm_52），如果您的显卡计算能力较低（如 sm_50），编译会失败。需要手动修改 make.sh 中的 nvcc 编译参数，将 -arch 标志改为与您显卡匹配的值。\n例如，对于计算能力为 5.0 的 GPU，请将命令修改为：\n$CUDA_PATH\u002Fbin\u002Fnvcc -c -o crop_and_resize_kernel.cu.o crop_and_resize_kernel.cu -x cu -Xcompiler -fPIC -arch=sm_50\n建议在构建前先确认自己 GPU 的计算能力。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F3",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},31645,"运行时出现 'ModuleNotFoundError: No module named roi_align._ext.crop_and_resize._crop_and_resize' 错误？","此错误表明底层的 C\u002FC++ 扩展库未正确编译或链接。这通常发生在安装过程中断或环境不匹配时。请确保您运行的 PyTorch 版本与代码库要求的版本一致（通常是 0.3 或 0.4）。尝试清理之前的构建文件（删除 build 目录和 *.egg-info），然后重新运行安装脚本（.\u002Finstall.sh 或 python build.py）。如果使用的是 PyTorch 1.0+，则必须更换为支持新版 API 的代码库。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F35",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},31646,"RoIAlign 方法与先将特征图缩放再裁剪的方法有什么区别？","RoIAlign 的核心优势在于解决了 RoIPool 中的量化误差问题。传统的“先缩放再裁剪”或 RoIPool 方法在进行坐标映射时使用取整操作（quantization），导致感兴趣区域（ROI）与特征图上的像素无法精确对齐，从而影响小目标检测精度。RoIAlign 使用双线性插值（bilinear interpolation）来计算非整数坐标点的像素值，消除了量化误差，显著提升了分割和检测任务的精度。虽然可以用普通 PyTorch 函数模拟缩放裁剪，但无法高效地实现这种精确的像素级对齐。","https:\u002F\u002Fgithub.com\u002Flongcw\u002FRoIAlign.pytorch\u002Fissues\u002F7",[]]