[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shrubb--box-convolutions":3,"tool-shrubb--box-convolutions":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":76,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":89,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":105,"github_topics":76,"view_count":106,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":140},2485,"shrubb\u002Fbox-convolutions","box-convolutions","PyTorch code for the \"Deep Neural Networks with Box Convolutions\" paper","box-convolutions 是一个基于 PyTorch 的开源实现，旨在复现 NeurIPS 2018 论文中提出的“盒卷积”（Box Convolutions）层。它主要面向深度学习研究人员和算法工程师，特别是那些从事图像分割、深度估计或目标检测等密集预测任务的专业人士。\n\n传统卷积神经网络为了扩大感受野，往往需要构建极深的网络结构，或者依赖空洞卷积（dilated convolutions）和全局池化层。然而，这些方法可能引入伪影、丢失高频信息，或受到固定尺寸的限制。box-convolutions 提供了一种创新的替代方案：它使用特殊的“盒核”代替传统的学习权重。盒核本质上是一种矩形平均滤波器，其内部数值固定，模型只需学习每个矩形的尺寸和偏移量这四个参数。\n\n这种设计带来了显著的技术优势。以经典的 ENet 语义分割模型为例，引入盒卷积模块后，不仅无需使用空洞卷积，还能在提升精度的同时，大幅降低计算量和参数量。实验显示，全盒卷积版本的网络操作数减少了一半，参数量减少了三分之二，且准确率依然优于原始模型。\n\n如果你正在探索更高效的卷积神经网络架构，或希望在不牺牲性能的前提下轻","box-convolutions 是一个基于 PyTorch 的开源实现，旨在复现 NeurIPS 2018 论文中提出的“盒卷积”（Box Convolutions）层。它主要面向深度学习研究人员和算法工程师，特别是那些从事图像分割、深度估计或目标检测等密集预测任务的专业人士。\n\n传统卷积神经网络为了扩大感受野，往往需要构建极深的网络结构，或者依赖空洞卷积（dilated convolutions）和全局池化层。然而，这些方法可能引入伪影、丢失高频信息，或受到固定尺寸的限制。box-convolutions 提供了一种创新的替代方案：它使用特殊的“盒核”代替传统的学习权重。盒核本质上是一种矩形平均滤波器，其内部数值固定，模型只需学习每个矩形的尺寸和偏移量这四个参数。\n\n这种设计带来了显著的技术优势。以经典的 ENet 语义分割模型为例，引入盒卷积模块后，不仅无需使用空洞卷积，还能在提升精度的同时，大幅降低计算量和参数量。实验显示，全盒卷积版本的网络操作数减少了一半，参数量减少了三分之二，且准确率依然优于原始模型。\n\n如果你正在探索更高效的卷积神经网络架构，或希望在不牺牲性能的前提下轻量化模型，box-convolutions 值得尝试。它提供了简洁的 API（如 `BoxConv2d`），易于集成到现有的 PyTorch 项目中，并附带了 MNIST 等示例代码供快速上手。需要注意的是，该工具在特定的 CUDA 和 GCC 版本组合下可能存在兼容性问题，建议在使用前参考官方文档进行环境配置。","Box Convolution Layer for ConvNets\n==================================\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_735fa9874a7f.gif\">\n\u003Cbr>\nSingle-box-conv network (from `examples\u002Fmnist.py`) learns patterns on MNIST\n\u003C\u002Fp>\n\n# What This Is\n\nThis is a PyTorch implementation of the box convolution layer as introduced in the 2018 NeurIPS [paper](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7859-deep-neural-networks-with-box-convolutions):\n\nBurkov, E., & Lempitsky, V. (2018) **Deep Neural Networks with Box Convolutions**. *Advances in Neural Information Processing Systems 31*, 6214-6224.\n\n# How to Use\n\n## Installing\n\n```bash\npython3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\npython3 -m box_convolution.test # if throws errors, please open a GitHub issue\n```\n\nTo uninstall:\n\n```bash\npython3 -m pip uninstall box_convolution\n```\n\nTested on Ubuntu 18.04.2, Python 3.6, PyTorch 1.0.0, GCC {4.9, 5.5, 6.5, 7.3}, CUDA 9.2. Other versions (e.g. macOS or Python 2.7 or CUDA 8 or CUDA 10) should work too, but I haven't checked. If something doesn't build, please open a Github issue.\n\nKnown issues (see [this chat](https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F2)):\n\n* CUDA 9\u002F9.1 + GCC 6 isn't supported due to a bug in NVCC.\n\nYou can specify a different compiler with `CC` environment variable:\n\n```bash\nCC=g++-7 python3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\n```\n\n## Using\n\n```python3\nimport torch\nfrom box_convolution import BoxConv2d\n\nbox_conv = BoxConv2d(16, 8, 240, 320)\nhelp(BoxConv2d)\n```\n\nAlso, there are usage examples in `examples\u002F`.\n\n\n# Quick Tour of Box convolutions\n\nYou may want to see our [poster](https:\u002F\u002Fyadi.sk\u002Fi\u002FLNnMrj6FwbOc9A).\n\n### Why reinvent the old convolution?\n\n`3×3` convolutions are too small ⮕ receptive field grows too slow ⮕ ConvNets have to be very deep.\n\nThis is especially undesirable in dense prediction tasks (*segmentation, depth estimation, object detection, ...*).\n\nToday people solve this by\n\n* dilated\u002Fdeformable convolutions (can bring artifacts or degrade to `1×1` conv; almost always filter high-frequency);\n* \"global\" spatial pooling layers (usually too constrained, fixed size, not \"fully convolutional\").\n\n### How does it work?\n\nBox convolution layer is a basic *depthwise convolution* (i.e. `Conv2d` with `groups=in_channels`) but with special kernels called *box kernels*.\n\nA box kernel is a rectangular averaging filter. That is, filter values are fixed and unit! Instead, we learn four parameters per rectangle − its size and offset:\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_f33795dfdd35.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_3732ddefd5ff.png)\n\n### Any success stories?\n\nOne example: there is an efficient semantic segmentation model [**ENet**](https:\u002F\u002Fgithub.com\u002Fe-lab\u002FENet-training). It's a classical hourglass architecture stacked of dozens ResNet-like blocks (left image).\n\nLet's replace some of these blocks by our \"box convolution block\" (right image).\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_cbe32d1689f0.png\" width=\"530\">\n\nFirst we replaced every second block with a box convolution block (*Box*ENet in the paper). The model became\n\n* more accurate,\n* faster,\n* lighter\n* **without dilated convolutions**.\n\nThen, we replaced **every** residual block (except the down- and up-sampling ones)! The result, *BoxOnly*ENet, is\n\n* a **ConvNet almost without** (traditional learnable weight) **convolutions**,\n* **2** times less operations,\n* **3** times less parameters,\n* still **more accurate** than ENet!\n\n","用于卷积神经网络的盒卷积层\n==================================\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_735fa9874a7f.gif\">\n\u003Cbr>\n单盒卷积网络（来自 `examples\u002Fmnist.py`）在 MNIST 数据集上学习模式\n\u003C\u002Fp>\n\n# 这是什么\n\n这是一个 PyTorch 实现的盒卷积层，该层在 2018 年 NeurIPS 的 [论文](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F7859-deep-neural-networks-with-box-convolutions) 中被提出：\n\nBurkov, E., & Lempitsky, V. (2018) **带有盒卷积的深度神经网络**。*神经信息处理系统进展 31*, 6214-6224。\n\n# 如何使用\n\n## 安装\n\n```bash\npython3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\npython3 -m box_convolution.test # 如果出现错误，请提交 GitHub 问题\n```\n\n卸载方法：\n\n```bash\npython3 -m pip uninstall box_convolution\n```\n\n已在 Ubuntu 18.04.2、Python 3.6、PyTorch 1.0.0、GCC {4.9, 5.5, 6.5, 7.3}、CUDA 9.2 上测试过。其他版本（例如 macOS 或 Python 2.7 或 CUDA 8 或 CUDA 10）也应该可以工作，但我尚未验证。如果构建失败，请提交 GitHub 问题。\n\n已知问题（参见 [此讨论](https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F2)）：\n\n* 由于 NVCC 中的一个 bug，不支持 CUDA 9\u002F9.1 + GCC 6。\n\n你可以通过设置 `CC` 环境变量来指定不同的编译器：\n\n```bash\nCC=g++-7 python3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\n```\n\n## 使用\n\n```python3\nimport torch\nfrom box_convolution import BoxConv2d\n\nbox_conv = BoxConv2d(16, 8, 240, 320)\nhelp(BoxConv2d)\n```\n\n此外，`examples\u002F` 目录下也有使用示例。\n\n\n# 盒卷积快速导览\n\n你可能想查看我们的 [海报](https:\u002F\u002Fyadi.sk\u002Fi\u002FLNnMrj6FwbOc9A)。\n\n### 为什么还要重新发明旧的卷积？\n\n`3×3` 卷积太小 ⮕ 接收域增长得太慢 ⮕ 卷积神经网络必须非常深。\n\n这在密集预测任务中尤其不可取（如分割、深度估计、目标检测等）。\n\n如今人们通常通过以下方式解决这个问题：\n\n* 膨胀卷积\u002F可变形卷积（可能会引入伪影或退化为 `1×1` 卷积；几乎总是会滤除高频信息）；\n* “全局”空间池化层（通常过于受限，尺寸固定，不是“全卷积”的）。\n\n### 它是如何工作的？\n\n盒卷积层是一种基本的深度可分离卷积（即 `Conv2d`，其中 `groups=in_channels`），但它使用一种特殊的核，称为“盒核”。\n\n盒核是一个矩形平均滤波器。也就是说，滤波器的权重是固定的且归一化过的！相反，我们为每个矩形学习四个参数——它的大小和偏移量：\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_f33795dfdd35.png)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_3732ddefd5ff.png)\n\n### 有没有成功案例？\n\n举个例子：有一个高效的语义分割模型 [**ENet**](https:\u002F\u002Fgithub.com\u002Fe-lab\u002FENet-training)。它采用经典的沙漏型架构，由数十个类似 ResNet 的模块堆叠而成（左图）。\n\n让我们用我们的“盒卷积模块”替换其中的一些模块（右图）。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_readme_cbe32d1689f0.png\" width=\"530\">\n\n首先，我们把每第二个模块替换为盒卷积模块（论文中称为 *Box*ENet）。这样，模型变得：\n\n* 更准确，\n* 更快，\n* 更轻量，\n* **无需膨胀卷积**。\n\n然后，我们替换了 **所有** 残差模块（除了下采样和上采样模块）！最终得到的 *BoxOnly*ENet 是：\n\n* 一个 **几乎没有传统可学习权重卷积** 的卷积神经网络，\n* **运算量减少了一半**，\n* **参数数量减少了三分之二**，\n* 仍然比 ENet **更准确**！","# box-convolutions 快速上手指南\n\n`box-convolutions` 是 PyTorch 实现的盒卷积层（Box Convolution Layer），源自 NeurIPS 2018 论文《Deep Neural Networks with Box Convolutions》。该模块通过可学习的矩形平均滤波器替代传统卷积核，能在减少参数量和计算量的同时提升模型性能，特别适用于语义分割等密集预测任务。\n\n## 环境准备\n\n**系统要求与依赖：**\n*   **操作系统**：Linux (推荐 Ubuntu 18.04+)，macOS 理论上支持但未全面测试。\n*   **Python**：Python 3.6+\n*   **深度学习框架**：PyTorch 1.0.0+\n*   **编译器**：GCC 4.9 - 7.3 或更高版本\n*   **GPU 加速**（可选）：CUDA 9.2+\n    *   *注意*：由于 NVCC bug，不支持 CUDA 9\u002F9.1 搭配 GCC 6 的组合。\n\n## 安装步骤\n\n使用 pip 直接从 GitHub 仓库安装：\n\n```bash\npython3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\n```\n\n如果默认编译器构建失败，可以指定特定的 C++ 编译器（例如 g++-7）：\n\n```bash\nCC=g++-7 python3 -m pip install git+https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions.git\n```\n\n**验证安装：**\n运行以下命令检查是否安装成功且无报错：\n\n```bash\npython3 -m box_convolution.test\n```\n\n如需卸载：\n\n```bash\npython3 -m pip uninstall box_convolution\n```\n\n## 基本使用\n\n导入 `BoxConv2d` 类并实例化即可使用。以下是一个最简单的初始化示例：\n\n```python3\nimport torch\nfrom box_convolution import BoxConv2d\n\n# 初始化盒卷积层\n# 参数说明: in_channels=16, out_channels=8, height=240, width=320\nbox_conv = BoxConv2d(16, 8, 240, 320)\n\n# 查看帮助文档以了解详细参数\nhelp(BoxConv2d)\n```\n\n更多完整的使用案例（如 MNIST 分类示例）请参考项目中的 `examples\u002F` 目录。","某自动驾驶初创公司的算法团队正在优化车载实时语义分割模型，旨在提升道路场景理解的精度与推理速度，同时严格受限于嵌入式芯片的算力与内存资源。\n\n### 没有 box-convolutions 时\n- **感受野受限**：传统 $3\\times3$ 卷积核感受野增长缓慢，为捕捉大范围上下文信息（如远处车辆或完整车道线），不得不堆叠极深的网络层数，导致模型臃肿。\n- **伪影与高频丢失**：尝试使用空洞卷积（Dilated Convolutions）扩大感受野时，常引入网格伪影（Gridding Artifacts），且容易过度过滤高频细节，影响边缘分割的精细度。\n- **计算资源浪费**：为满足实时性要求强行压缩模型深度，又会导致全局空间池化层过于受限，无法灵活适应不同尺寸的输入特征，牺牲了分割准确率。\n- **部署困难**：庞大的参数量和计算量使得模型难以在算力有限的车规级芯片上达到预期的帧率（FPS），需耗费大量时间进行剪枝和量化调优。\n\n### 使用 box-convolutions 后\n- **高效扩大感受野**：通过引入可学习尺寸和偏移的“盒状核”（Box Kernels），单层即可覆盖较大区域，无需过深网络即可获取充足的全局上下文信息。\n- **无伪影高精度**：避免了空洞卷积带来的网格效应，保留了更多高频细节，使道路边缘、行人轮廓等关键区域的分割更加平滑准确。\n- **极致轻量化**：以 BoxConv2d 替换传统残差块后，模型参数量减少约 3 倍，运算量降低约 2 倍，显著降低了内存占用和计算负荷。\n- **原生实时性能**：在保持甚至超越原有精度的前提下，模型推理速度大幅提升，无需复杂的后期压缩即可直接在嵌入式设备上流畅运行。\n\nbox-convolutions 通过重构卷积核机制，在密集预测任务中实现了精度、速度与模型大小的最佳平衡，是突破移动端视觉算力瓶颈的高效方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshrubb_box-convolutions_3732ddef.png","shrubb","Egor Burkov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshrubb_1e531941.jpg",null,"Tashkent, Uzbekistan","shrubb@ya.ru","https:\u002F\u002Fshrubb.github.io","https:\u002F\u002Fgithub.com\u002Fshrubb",[82,86,90],{"name":83,"color":84,"percentage":85},"C++","#f34b7d",46.9,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",34,{"name":91,"color":92,"percentage":93},"Python","#3572A5",19.1,509,"2026-03-17T09:17:45","Apache-2.0","Linux, macOS","需要 NVIDIA GPU（用于 CUDA 支持），CUDA 9.2（官方测试版本）。已知 CUDA 9\u002F9.1 搭配 GCC 6 不受支持。其他 CUDA 版本（如 8 或 10）可能可用但未经验证。","未说明",{"notes":101,"python":102,"dependencies":103},"官方在 Ubuntu 18.04.2、Python 3.6、PyTorch 1.0.0、GCC (4.9, 5.5, 6.5, 7.3) 和 CUDA 9.2 环境下测试通过。可以通过设置 CC 环境变量来指定不同的编译器（例如 CC=g++-7）。","3.6（官方测试版本）。Python 2.7 可能可用但未经验证。",[104],"PyTorch==1.0.0",[15,14],4,"2026-03-27T02:49:30.150509","2026-04-11T18:33:05.747313",[110,115,120,125,130,135],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},11453,"在 VGG 等架构中使用 BoxConv2d 时，如何正确设置输入通道数（in_planes）和滤波器数量（num_filters）？","BoxConv2d 的参数设置需要遵循以下原则：\n1. `in_planes`：与标准 Conv2d 一样，表示输入图像的通道数。如果前一层是输出 64 通道的 Conv2d，那么 BoxConv2d 的 `in_planes` 应为 64。\n2. `num_filters`：表示每个通道应用的滤波器数量（类似于深度可分离卷积中的 depthwise 倍数），它决定了输出通道数的增长倍数。\n\n例如，如果前一层输出为 64 通道，你想保持通道数不变或进行特定变换，需仔细计算。维护者指出：“你只需要留意每一层输入\u002F输出张量的尺寸，并仔细阅读文档。”\n\n代码示例：\n```python\nnn.Conv2d(3, 64, 3, padding=1),\nBoxConv2d(64, 1, 3, 3) # in_planes=64, num_filters=1\n```","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F19",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},11454,"在 Windows 10 和 CUDA 10.1 环境下编译失败，报错 \"expression must be a pointer to a complete object type\" 怎么办？","这是一个已知的 PyTorch Bug。解决方法如下：\n1. **推荐方案**：更新 PyTorch 到最新版本，通常可以修复该问题。\n2. **替代方案**：参考 PyTorch 论坛的相关讨论（如 Visual C++ 2017 下的编译器报告错误），可能需要调整编译器设置或环境变量。\n\n错误日志示例：\n```\n\\python\\python36\\lib\\site-packages\\torch\\lib\\include\\pybind11\\cast.h(1439): error: expression must be a pointer to a complete object type\n```","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F17",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},11455,"Box Convolution 相比传统卷积（如 3x3 卷积）为何能减少处理时间或提高速度？","Box Convolution 能在以下方面提升效率：\n1. **计算量少**：Box convolution 本身涉及的操作少于大多数其他常见的空间特征聚合参数化方法（包括标准的 3x3 卷积甚至深度可分离的 3x3 卷积）。\n2. **配合 1x1 卷积**：BoxConv2d 常与 1x1 卷积结合使用，而 1x1 卷积的计算成本非常低。\n3. **网络可以更浅**：标准 3x3 卷积仅融合小邻域信息，因此需要很深的网络才能感受全局信息。Box convolution 可以在任意大的区域上平均特征，使网络能够在较浅的深度下捕获全局信息，从而加快整体推理速度。","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F16",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},11456,"是否有将 BoxConv 应用于 UNet 或类似架构（如 ResNet 编码器）的示例？","有的。维护者提供了一个应用于 ENet 的示例，ENet 是一种类似 UNet 的架构（除了跳跃连接部分不同）。你可以参考该实现来了解如何在类似结构中集成 BoxConv。\n\n示例代码位置：\n[ENet.py](https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fblob\u002Fmaster\u002Fexamples\u002FCityscapes\u002Fmodels\u002FENet.py)","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F4",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},11457,"在 ResNet 中替换为 BottleneckBoxConv 层时遇到 CUDA runtime error (9): invalid configuration argument 错误，原因可能是什么？","该错误 `THCudaCheck FAIL ... error=9 : invalid configuration argument` 通常发生在 GPU 内核启动配置不合法时。虽然 Issue 中未给出最终确切的代码修复，但此类错误在自定义 CUDA 算子中常见于以下情况：\n1. 输入的张量尺寸或通道数导致计算的线程块（block）或网格（grid）维度超出了 GPU 限制。\n2. 某些特定的盒子尺寸（box size）或步长在 CUDA 内核中导致了非法的内存访问或配置。\n\n建议检查传入 BoxConv 层的输入张量尺寸，确保其符合算子要求，或者尝试减小 batch size 或输入分辨率以排查是否是资源限制问题。","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F22",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},11458,"安装或编译时遇到 generic build problem 或 pip install 失败怎么办？","如果遇到编译错误（如 error code 1），首先应检查完整的构建日志。维护者通常会通过修复代码库来解决此类问题。如果遇到类似问题：\n1. 确保你的构建环境（Python, setuptools, CUDA toolkit）版本兼容。\n2. 查看项目是否已有更新的提交修复了该问题（如 Issue #2 中维护者表示 \"I think I fixed that\"）。\n3. 尝试重新克隆仓库或更新到最新版本后再进行安装。","https:\u002F\u002Fgithub.com\u002Fshrubb\u002Fbox-convolutions\u002Fissues\u002F2",[141],{"id":142,"version":143,"summary_zh":76,"released_at":144},61948,"v1.0.0","2019-02-15T17:19:36"]