[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fidler-lab--polyrnn-pp":3,"tool-fidler-lab--polyrnn-pp":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":105,"github_topics":106,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":154},9995,"fidler-lab\u002Fpolyrnn-pp","polyrnn-pp","Inference Code for Polygon-RNN++ (CVPR 2018)","Polyrnn-pp 是 CVPR 2018 获奖论文 Polygon-RNN++ 的官方推理代码，旨在通过人工智能技术大幅提升图像分割数据集的标注效率。在传统流程中，研究人员需要手动逐点描绘物体轮廓，耗时且枯燥；Polyrnn-pp 则利用深度学习模型，能够根据少量用户点击或自动预测，快速生成贴合物体边缘的高精度多边形掩码，将繁琐的手工劳动转化为高效的人机交互过程。\n\n该工具特别适合计算机视觉领域的研究人员、数据工程师以及需要构建高质量分割数据集的开发团队使用。其核心技术亮点在于采用了循环神经网络（RNN）架构，将图像分割任务建模为序列预测问题，使模型能够像人类一样按顺序“绘制”顶点，从而在保证边界准确度的同时显著减少计算资源消耗。虽然本项目主要提供基于 TensorFlow 的推理功能，但官方也配套了 PyTorch 版本的训练代码供深度定制。只需简单配置环境并加载预训练模型，用户即可在 Cityscapes 等数据集上快速体验自动化标注的强大能力，是加速算法迭代与数据准备的得力助手。","# PolygonRNN++\n\nThis is the official inference code for Polygon-RNN++ (CVPR-2018). For technical details, please refer to:  \n\n**An official pytorch reimplementation with training\u002Ftool code is available [here](https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp-pytorch)**\n\n**Efficient Interactive Annotation of Segmentation Datasets with Polygon-RNN++**  \n[David Acuna](http:\u002F\u002Fwww.cs.toronto.edu\u002F~davidj\u002F)\\*, [Huan Ling](http:\u002F\u002F\u002Fwww.cs.toronto.edu\u002F~linghuan\u002F)\\*, [Amlan Kar](http:\u002F\u002Fwww.cs.toronto.edu\u002F~amlan\u002F)\\*, [Sanja Fidler](http:\u002F\u002Fwww.cs.toronto.edu\u002F~fidler\u002F) (\\* denotes equal contribution)   \nCVPR 2018  \n**[[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09693)] [[Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=evGqMnL4P3E)] [[Project Page](http:\u002F\u002Fwww.cs.toronto.edu\u002Fpolyrnn\u002F)] [[Demo](http:\u002F\u002Fwww.cs.toronto.edu\u002F~amlan\u002Fdemo\u002F)] [[Training\u002FTool Code](https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp-pytorch)]**\n![Model](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_c33560595c89.png)\n\n### Usage\n   1. Clone the repository \n   ```\n   git clone https:\u002F\u002Fgithub.com\u002Fdavidjesusacu\u002Fpolyrnn && cd polyrnn\n   ```\n   2. Install dependencies   \n   (Note: Using a GPU (and tensorflow-gpu) is recommended. The model will run on a CPU, albeit slowly.)\n   ```\n   virtualenv env\n   source env\u002Fbin\u002Factivate\n   pip install -r requirements.txt\n   ```\n   3. Download the pre-trained models and graphs (448 MB)  \n   (These models were trained on the Cityscapes Dataset)\n   ``` \n   .\u002Fmodels\u002Fdownload_and_unpack.sh \n   ```\n   4. Run demo\\_inference.sh\n   ```\n   .\u002Fsrc\u002Fdemo_inference.sh \n   ```\n   This should produce results in the output\u002F folder that look like\n   ![ex2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_eafec5e98af2.png)\n   ![ex1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_2392e0758578.png) \n\n### Walkthrough\n   Checkout the ipython [notebook](src\u002Fdemo_polyrnn.ipynb) that provides a simple walkthrough demonstrating how\n   to run our model on sample input image crops\n\nIf you use this code, please cite:\n\n    @inproceedings{AcunaCVPR18,\n    title={Efficient Interactive Annotation of Segmentation Datasets with Polygon-RNN++},\n    author={David Acuna and Huan Ling and Amlan Kar and Sanja Fidler},\n    booktitle={CVPR},\n    year={2018}\n    }\n\n    @inproceedings{CastrejonCVPR17,\n    title = {Annotating Object Instances with a Polygon-RNN},\n    author = {Lluis Castrejon and Kaustav Kundu and Raquel Urtasun and Sanja Fidler},\n    booktitle = {CVPR},\n    year = {2017}\n    }\n","# PolygonRNN++\n\n这是 Polygon-RNN++（CVPR-2018）的官方推理代码。有关技术细节，请参阅：\n\n**带有训练\u002F工具代码的官方 PyTorch 重新实现可在[这里](https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp-pytorch)找到**\n\n**使用 Polygon-RNN++ 高效地交互式标注分割数据集**  \n[David Acuna](http:\u002F\u002Fwww.cs.toronto.edu\u002F~davidj\u002F)\\*, [Huan Ling](http:\u002F\u002F\u002Fwww.cs.toronto.edu\u002F~linghuan\u002F)\\*, [Amlan Kar](http:\u002F\u002Fwww.cs.toronto.edu\u002F~amlan\u002F)\\*, [Sanja Fidler](http:\u002F\u002Fwww.cs.toronto.edu\u002F~fidler\u002F) (\\* 表示共同第一作者)   \nCVPR 2018  \n**[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.09693)] [[视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=evGqMnL4P3E)] [[项目页面](http:\u002F\u002Fwww.cs.toronto.edu\u002Fpolyrnn\u002F)] [[演示](http:\u002F\u002Fwww.cs.toronto.edu\u002F~amlan\u002Fdemo\u002F)] [[训练\u002F工具代码](https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp-pytorch)]**\n![模型](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_c33560595c89.png)\n\n### 使用方法\n   1. 克隆仓库  \n   ```\n   git clone https:\u002F\u002Fgithub.com\u002Fdavidjesusacu\u002Fpolyrnn && cd polyrnn\n   ```\n   2. 安装依赖  \n   （注意：建议使用 GPU（以及 tensorflow-gpu）。模型也可以在 CPU 上运行，但速度较慢。）\n   ```\n   virtualenv env\n   source env\u002Fbin\u002Factivate\n   pip install -r requirements.txt\n   ```\n   3. 下载预训练模型和图文件（448 MB）  \n   （这些模型是在 Cityscapes 数据集上训练的）\n   ``` \n   .\u002Fmodels\u002Fdownload_and_unpack.sh \n   ```\n   4. 运行 demo_inference.sh\n   ```\n   .\u002Fsrc\u002Fdemo_inference.sh \n   ```\n   这将在 output\u002F 文件夹中生成如下所示的结果：\n   ![ex2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_eafec5e98af2.png)\n   ![ex1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_readme_2392e0758578.png) \n\n### 演示教程\n   请查看 ipython [笔记本](src\u002Fdemo_polyrnn.ipynb)，它提供了一个简单的演示教程，说明如何在示例输入图像裁剪上运行我们的模型。\n\n如果您使用此代码，请引用以下文献：\n\n    @inproceedings{AcunaCVPR18,\n    title={Efficient Interactive Annotation of Segmentation Datasets with Polygon-RNN++},\n    author={David Acuna and Huan Ling and Amlan Kar and Sanja Fidler},\n    booktitle={CVPR},\n    year={2018}\n    }\n\n    @inproceedings{CastrejonCVPR17,\n    title = {Annotating Object Instances with a Polygon-RNN},\n    author = {Lluis Castrejon and Kaustav Kundu and Raquel Urtasun and Sanja Fidler},\n    booktitle = {CVPR},\n    year = {2017}\n    }","# Polyrnn-pp 快速上手指南\n\nPolyrnn-pp (Polygon-RNN++) 是 CVPR 2018 发表的用于高效交互式分割数据集标注的官方推理代码。该模型能够根据用户点击或自动预测生成物体多边形轮廓。\n\n## 环境准备\n\n*   **操作系统**: Linux \u002F macOS (Windows 需使用 WSL)\n*   **硬件要求**: 推荐使用 **GPU** 以获得流畅体验（需安装 `tensorflow-gpu`）。CPU 亦可运行，但速度较慢。\n*   **前置依赖**:\n    *   Python 2.7 或 3.x (取决于 `requirements.txt` 具体版本，通常建议构建虚拟环境)\n    *   Git\n    *   Virtualenv\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fdavidjesusacu\u002Fpolyrnn && cd polyrnn\n    ```\n\n2.  **创建并激活虚拟环境**\n    ```bash\n    virtualenv env\n    source env\u002Fbin\u002Factivate\n    ```\n\n3.  **安装 Python 依赖**\n    > **提示**：国内开发者若下载缓慢，可临时指定清华源加速安装：\n    > `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n    \n    ```bash\n    pip install -r requirements.txt\n    ```\n\n4.  **下载预训练模型**\n    下载在 Cityscapes 数据集上训练的模型及计算图文件（约 448 MB）：\n    ```bash\n    .\u002Fmodels\u002Fdownload_and_unpack.sh\n    ```\n    > **注意**：若脚本下载失败，可手动访问项目页面下载后解压至 `models\u002F` 目录。\n\n## 基本使用\n\n运行官方提供的演示推理脚本，将对示例图像进行多边形预测：\n\n```bash\n.\u002Fsrc\u002Fdemo_inference.sh\n```\n\n执行完成后，结果将保存在 `output\u002F` 文件夹中。您可以查看生成的图片以验证效果（例如 `frankfurt_000000_000294_42.png`）。\n\n**进阶探索**：\n如需更灵活地测试单张图像裁剪块，可参考 Jupyter Notebook 教程：\n```bash\n# 启动 jupyter 后打开 src\u002Fdemo_polyrnn.ipynb\njupyter notebook src\u002Fdemo_polyrnn.ipynb\n```","某自动驾驶公司的数据标注团队正急需为城市街景图像中的车辆、行人及道路设施生成高精度的多边形分割掩码，以训练下一代感知模型。\n\n### 没有 polyrnn-pp 时\n- 标注员必须手动逐点点击物体边缘来绘制多边形，处理复杂轮廓（如被遮挡的车辆）时耗时极长，平均每个对象需数分钟。\n- 由于完全依赖人工操作，不同标注员对边界的判断标准不一，导致数据集的标注一致性差，严重影响模型训练效果。\n- 面对海量的城市街景数据（如 Cityscapes 规模），传统手工方式产能低下，项目交付周期被迫大幅延长，人力成本居高不下。\n- 当需要微调已画好的多边形时，往往需要删除大量锚点重画，缺乏智能辅助使得修正过程繁琐且容易出错。\n\n### 使用 polyrnn-pp 后\n- 标注员只需在物体上简单点击几个关键点，polyrnn-pp 即可自动预测并生成贴合边缘的完整多边形，将单个对象的标注时间缩短至秒级。\n- 基于深度学习模型的统一预测逻辑，polyrnn-pp 确保了所有输出掩码的边界风格高度一致，显著提升了数据集的整体质量。\n- 借助 polyrnn-pp 的高效推理能力，团队能以极少的人力快速完成大规模数据的预处理，项目交付周期从数月压缩至数周。\n- 利用其交互式特性，若自动生成的轮廓有细微偏差，标注员仅需补充少量修正点，polyrnn-pp 便会实时重新优化路径，极大降低了修改门槛。\n\npolyrnn-pp 通过将繁琐的手工描边转化为高效的人机交互协作，从根本上解决了大规模分割数据集构建中的效率与质量瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffidler-lab_polyrnn-pp_eafec5e9.png","fidler-lab","Sanja Fidler's Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffidler-lab_a7400c2d.png","Sanja Fidler's lab at the University of Toronto",null,"fidler@cs.toronto.edu","www.cs.toronto.edu\u002F~fidler\u002Fstudents.html","https:\u002F\u002Fgithub.com\u002Ffidler-lab",[81,85,89],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",88.5,{"name":86,"color":87,"percentage":88},"Python","#3572A5",11.2,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.3,734,156,"2026-02-17T11:44:17","GPL-3.0","未说明","非必需，但强烈推荐使用 NVIDIA GPU 并安装 tensorflow-gpu；CPU 亦可运行但速度较慢。具体型号、显存大小及 CUDA 版本未在文中说明。",{"notes":100,"python":101,"dependencies":102},"该项目为 Polygon-RNN++ (CVPR-2018) 的官方推理代码，基于 TensorFlow（而非 README 开头提到的 PyTorch 复现版）。运行前需执行脚本下载约 448MB 的预训练模型和图文件（基于 Cityscapes 数据集训练）。建议使用 virtualenv 管理依赖环境。","未说明（需通过 virtualenv 创建环境）",[103,104],"tensorflow-gpu (推荐)","requirements.txt 中列出的其他依赖",[14,15,16],[107,108,109,110,111,112,113,114,115],"cvpr2018","tensorflow","deep-learning","instance-segmentation","instance-annotation","polygon-rnn","polyrnn","annotation","labelling","2026-03-27T02:49:30.150509","2026-04-20T12:54:36.994037",[119,124,129,134,139,144,149],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},44906,"为什么在线演示无法生成标注或没有响应？","这通常是由于客户端网络错误导致的，例如在工作网络中被防火墙拦截，或者是浏览器（如 IE）缺少必要的响应头。维护者指出在家庭网络中测试正常，因此建议检查网络连接或尝试更换浏览器\u002F网络环境。如果是 IE 用户，可能会遇到 XMLHttpRequest 网络错误。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F17",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},44907,"如何在自己的数据上运行演示？图像尺寸必须是 224x224 吗？","目前的演示代码确实要求输入图像张量的形状为 [1, 224, 224]。如果直接使用其他尺寸的图像会报错。虽然理论上可以修改代码中的默认张量，但这需要同时更改预训练模型，过程较为复杂。官方已发布完整的 PyTorch 版本代码（polyrnn-pp-pytorch），建议前往该仓库获取更灵活的完整代码以支持自定义数据。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F18",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},44908,"在 CPU 环境下运行时，如何解决 TensorFlow 版本兼容性及初始化错误？","默认的 requirements.txt 指定了 `tensorflow-gpu==1.3.0`，这在无 GPU 的机器上会导致问题。解决方案是将 requirements.txt 中的依赖改为 `tensorflow==1.3.0`（CPU 版）。注意，主要模型文件是基于特定 TensorFlow API 编译的，因此必须严格使用 1.3 版本，过高或过低的版本可能导致 `import_meta_graph` 失败。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F2",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},44909,"在 macOS 上安装时找不到 tensorflow-gpu==1.3.0 怎么办？","macOS 系统通常不支持 `tensorflow-gpu` 包，或者在该平台上找不到特定旧版本的 GPU 包。如果在 Mac 上运行，应直接安装 CPU 版本的 TensorFlow。可以尝试创建虚拟环境后，手动执行 `pip install --ignore-installed --upgrade tensorflow==1.3`，并忽略 requirements.txt 中对 gpu 版本的强制要求。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F15",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},44910,"如何交互式地进行“人在回路”（humans-in-the-loop）的对象标注？","原始的推理代码库主要包含推断功能。关于交互式修正和完整的训练代码，官方已经发布了基于 PyTorch 的新版本仓库。用户需要访问 https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp-pytorch 并注册以获取包含交互式和训练功能的完整代码。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F16",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},44911,"论文中提到的 ResNet-50 架构的步长（stride）和膨胀系数（dilation factors）具体是多少？","为了缓解特征图分辨率降低的问题，项目遵循相关文献修改了 ResNet-50 架构，具体做法是减少网络的步长（stride）并引入膨胀卷积（dilation factors）。虽然论文正文中未显式列出具体数值，但这是通过修改最后几个残差块的步长为 1 并使用膨胀率为 2 的卷积来实现的，以保持特征图的高分辨率（参考相关深度分割网络的常规做法及代码实现）。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F10",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},44912,"是否支持在 Davis 数据集等高质量标注数据上进行评估？","当前代码库主要关注多边形序列生成，尚未直接集成针对 Davis 数据集边界 F 测度（F measure on boundaries）的评估脚本。维护者表示愿意离线讨论此话题，且社区建议可以将当前的隐式控制方法与显式的草图引导（scribbles bootstrap）后处理扩展相结合，以恢复最后的精度百分比。","https:\u002F\u002Fgithub.com\u002Ffidler-lab\u002Fpolyrnn-pp\u002Fissues\u002F1",[]]