[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xavysp--DexiNed":3,"tool-xavysp--DexiNed":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":72,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":103,"github_topics":104,"view_count":32,"oss_zip_url":111,"oss_zip_packed_at":111,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":148},5987,"xavysp\u002FDexiNed","DexiNed","DexiNed: Dense EXtreme Inception Network for Edge Detection ","DexiNed（Dense Extreme Inception Network）是一款专为边缘检测任务设计的开源深度学习模型。它的核心功能是从图像中精准提取物体轮廓与边缘信息，在 BIPED 和 MDBD 等权威数据集上表现卓越，甚至超越了众多现有的最先进模型。\n\n传统边缘检测算法往往依赖复杂的多次训练阶段或需要加载庞大的预训练权重，这不仅增加了使用门槛，也限制了模型的灵活性。DexiNed 有效解决了这一痛点：它采用独特的单阶段训练策略，无需任何预训练权重即可从零开始训练，且所需调节的参数更少，大幅降低了部署和复现的难度。\n\n该工具特别适合计算机视觉领域的研究人员、算法工程师以及希望深入理解边缘检测技术的开发者使用。其技术亮点在于结合了密集连接（Dense）与极端 inception 模块的架构设计，既保证了特征提取的丰富性，又维持了模型的高效性。目前项目主要提供基于 PyTorch 的最新实现版本，同时也保留了早期的 TensorFlow 代码供参考。无论是用于学术研究对比，还是作为实际图像处理项目的底层组件，DexiNed 都是一个轻量且强大的选择。","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fdense-extreme-inception-network-for-edge\u002Fedge-detection-on-biped-1)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fedge-detection-on-biped-1?p=dense-extreme-inception-network-for-edge)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fdense-extreme-inception-network-for-edge\u002Fedge-detection-on-mdbd)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fedge-detection-on-mdbd?p=dense-extreme-inception-network-for-edge)\n# DexiNed: Dense Extreme Inception Network for Edge Detection (Extended version)\n\n```diff\n- We have just updated the last version of DexiNed in Pytorch.\n- The implementation with TF1 is fransfered to the \"legacy\" dir.\n- These days we are going to updated minor changes but the model, \n  loss function, and the testing and training procedures does not need changes,\n  hopefully :), if you have time please check errors and let me know\n  in Issues.\n\n```\n\nThis is the extended work from DexiNed presented in WACV2020. \nWe have improved the architecture and the dataset. Unlike of the state-of-the-art CNN\nbased edge detectors, this models has a single training stage, \nbut it is still able to overcome those models in edge detection datasets. Moreover, \nDexined does not need pre-trained weights, and it is trained from the scratch \nwith fewer parameters tunning. To know more about DexiNed, read our first \nversion of Dexined in [ieeexplore](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9093290), \nand its extended version in [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.02250).\nThe last version of DexiNed is implemented in Pytorch, in TF2 it \nwill be available soon. If to want our preliminary version, please check legacy DIR.\n\nWe have prepared a basic intro to DexiNed in a video, [check it in YouTube](https:\u002F\u002Fyoutu.be\u002FHz0uU04B3U8)\n\n\u003Cdiv style=\"text-align:center\">\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxavysp_DexiNed_readme_8761bc4ebb69.png' width=800>\n\u003C\u002Fdiv>\n\n## Table of Contents\n* [DexiNed-v1](#dexiNed-v1)\n* [TensorFlow](#tensorflow2)\n* [Datasets](#datasets)\n* [Performance](#performance)\n* [Citation](#citation)\n\n# DexiNed-v1\n\nThis version was presented in WACV2020, this is the base DexiNed model [implemented in TensorFlow 1](https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Ftree\u002Fmaster\u002Flegacy)\n\n\n# TensorFlow2\n\nDexined version on TF 2 is not ready \n## Requirements\n\n* [Python 3.7](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-370\u002Fg)\n* [Pytorch >=1.4](https:\u002F\u002Fpytorch.org\u002F) (Last test 1.9)\n* [OpenCV](https:\u002F\u002Fpypi.org\u002Fproject\u002Fopencv-python\u002F)\n* [Matplotlib](https:\u002F\u002Fmatplotlib.org\u002F3.1.1\u002Fusers\u002Finstalling.html)\n* [Kornia](https:\u002F\u002Fkornia.github.io\u002F)\n* Other package like Numpy, h5py, PIL, json. \n\nOnce the packages are installed,  clone this repo as follow: \n\n    git clone https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed.git\n    cd DexiNed\n\n## Project Architecture\n\n```\n├── data                        # Sample images for testing (paste your image here)\n|   ├── lena_std.tif            # Sample 1\n├── DexiNed-TF2                 # DexiNed in TensorFlow2 (in construction)   \n├── figs                        # Images used in README.md\n|   └── DexiNed_banner.png      # DexiNed banner\n├── legacy                      # DexiNed in TensorFlow1 (presented in WACV2020)\n├── utls                        # A series of tools used in this repo\n|   └── image.py                # Miscellaneous tool functions\n├── datasets.py                 # Tools for dataset managing \n├── dexi_utils.py               # New functions still not used in the currecnt version\n├── losses.py                   # Loss function used to train DexiNed (BDCNloss2)\n├── main.py                     # The main python file with main functions and parameter settings\n                                # here you can test and train\n├── model.py                    # DexiNed class in pythorch\n```\n\nBefore to start please check dataset.py, from the first line of code you can see the datasets used for training\u002Ftesting. The main.py, line 194, call the data  for the training or testing, see the example of the code below:\n```\n    parser = argparse.ArgumentParser(description='DexiNed trainer.')\n    parser.add_argument('--choose_test_data',\n                        type=int,\n                        default=1,\n                        help='Already set the dataset for testing choice: 0 - 8')\n    # ----------- test -------0--\n\n    TEST_DATA = DATASET_NAMES[parser.parse_args().choose_test_data] # max 8\n    test_inf = dataset_info(TEST_DATA, is_linux=IS_LINUX)\n    test_dir = test_inf['data_dir']\n    is_testing = True# current test -352-SM-NewGT-2AugmenPublish\n\n    # Training settings\n    TRAIN_DATA = DATASET_NAMES[0] # BIPED=0\n    train_inf = dataset_info(TRAIN_DATA, is_linux=IS_LINUX)\n    train_dir = train_inf['data_dir']\n```\n\n## Test\nAs previously mentioned, the datasets.py has, among other things, the whole datasets configurations used in DexiNed for testing and training:\n```\nDATASET_NAMES = [\n    'BIPED',\n    'BSDS',\n    'BSDS300',\n    'CID',\n    'DCD',\n    'MULTICUE', #5\n    'PASCAL',\n    'NYUD',\n    'CLASSIC'\n] \n```\nFor example, if want to test your own dataset or image choose \"CLASSIC\" and save your test data in \"data\" dir.\nBefore test the DexiNed model, it is necesarry to download the checkpoint here [Checkpoint Pytorch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1V56vGTsu7GYiQouCIKvTWl5UKCZ6yCNu\u002Fview?usp=sharing) and save this file into the DexiNed folder like: checkpoints\u002FBIPED\u002F10\u002F(here the checkpoints from Drive), then run as follow:\n\n```python main.py --choose_test_data=-1 ```\nMake sure that in main.py the test setting be as:\n```parser.add_argument('--is_testing', default=True, help='Script in testing mode.')```\nDexiNed downsample the input image till 16 scales, please make sure that, in dataset_info fucn (datasets.py), the image width and height be multiple of 16, like 512, 960, and etc. **In the Checkpoint from Drive you will find the last trained checkpoint, which has been trained in the last version of BIPED dataset that will be updated soon in Kaggle **\n\n## Train\n\n    python main.py \nMake sure that in main.py the train setting be as:\n```parser.add_argument('--is_testing', default=False, help='Script in testing mode.')```\n\n# Datasets\n\n## Dataset used for Training\n```diff\n- The BIPED dataset has been updated to the last version and it can be download from Kaggle\n\n```\n\nBIPED (Barcelona Images for Perceptual Edge Detection): This dataset is collected and annotated in the edge level for this work. **See more details, augmentation script, and download** in: [Option1](https:\u002F\u002Fxavysp.github.io\u002FMBIPED\u002F), [Option2 kaggle](https:\u002F\u002Fwww.kaggle.com\u002Fxavysp\u002Fbiped). The BIPED dataset has been updated, adding more annotations and correcting few mistakes, so those links have the renewed version of BIPED, if you want the older version you may ask us by email. The last performance (table below) will be updated soon. \n\n## Datasets used for Testing\n\nEdge detection datasets\n* [BIPED](https:\u002F\u002Fxavysp.github.io\u002FMBIPED\u002F) and [MDBD](http:\u002F\u002Fserre-lab.clps.brown.edu\u002Fresource\u002Fmulticue\u002F)\n\nNon-edge detection datasets\n\n* [CID](http:\u002F\u002Fwww.cs.rug.nl\u002F~imaging\u002Fdatabases\u002Fcontour_database\u002Fcontour_database.html) \u003C!-- * [DCD](http:\u002F\u002Fwww.cs.cmu.edu\u002F~mengtial\u002Fproj\u002Fsketch\u002F)-->, [BSDS300](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FResearch\u002FProjects\u002FCS\u002Fvision\u002Fbsds\u002F), [BSDS500](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FResearch\u002FProjects\u002FCS\u002Fvision\u002Fbsds\u002F), [NYUD](https:\u002F\u002Fcs.nyu.edu\u002F~silberman\u002Fdatasets\u002Fnyu_depth_v2.html), and [PASCAL-context](https:\u002F\u002Fcs.stanford.edu\u002F~roozbeh\u002Fpascal-context\u002F)\n\n# Performance\n\nThe results below are from the last version of BIPEP (BIPEDv2, we leave as BIPED because this is the default version).\nAfter WACV20, the BIPED images have been checked again and added more annotations. All of those models have been trained again. \n\n\u003Ccenter>\n\n|     Methods    |    ODS   |    ODS   |    AP    |\n| -------------- | ---------| -------- | -------- |\n| [RCF](https:\u002F\u002Fgithub.com\u002Fyun-liu\u002Frcf)      | `.849` | `.861` | `.906` |\n| [BDCN](https:\u002F\u002Fgithub.com\u002FpkuCactus\u002FBDCN)     | `.890` | `.899` | `.934` |\n| [CATS](https:\u002F\u002Fgithub.com\u002FWHUHLX\u002FCATS)     | `.887` | `.892` | `.817` |\n| DexiNed-f(Ours)| `.895` | `.900` | `.927` |\n| DexiNed-a(Ours)| `.893` | `.897` | `.940` |\n\n\u003C\u002Fcenter>\n\n\n# Citation\n\nIf you like DexiNed, why not starring the project on GitHub!\n\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxavysp\u002FDexiNed.svg?style=social&label=Star&maxAge=3600)](https:\u002F\u002FGitHub.com\u002Fxavysp\u002FDexiNed\u002Fstargazers\u002F)\n\nPlease cite our paper if you find helpful in your academic\u002Fscientific publication,\n```\n@INPROCEEDINGS {xsoria2020dexined,\nauthor = {X. Soria and E. Riba and A. Sappa},\nbooktitle = {2020 IEEE Winter Conference on Applications of Computer Vision (WACV)},\ntitle = {Dense Extreme Inception Network: Towards a Robust CNN Model for Edge Detection},\nyear = {2020},\nvolume = {},\nissn = {},\npages = {1912-1921},\nkeywords = {image edge detection;convolution;training;feeds;machine learning;task analysis;kernel},\ndoi = {10.1109\u002FWACV45572.2020.9093290},\nurl = {https:\u002F\u002Fdoi.ieeecomputersociety.org\u002F10.1109\u002FWACV45572.2020.9093290},\npublisher = {IEEE Computer Society},\naddress = {Los Alamitos, CA, USA},\nmonth = {mar}\n}\n```\nExtended version.\n```\n@article{soria2023dexined_ext,\ntitle = {Dense extreme inception network for edge detection},\njournal = {Pattern Recognition},\nvolume = {139},\npages = {109461},\nyear = {2023},\nissn = {0031-3203},\ndoi = {https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.patcog.2023.109461},\nurl = {https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320323001619},\nauthor = {Xavier Soria and Angel Sappa and Patricio Humanante and Arash Akbarinia},\nkeywords = {Edge detection, Deep learning, CNN, Contour detection, Boundary detection, Segmentation}\n}\n```\n\n","[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fdense-extreme-inception-network-for-edge\u002Fedge-detection-on-biped-1)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fedge-detection-on-biped-1?p=dense-extreme-inception-network-for-edge)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fdense-extreme-inception-network-for-edge\u002Fedge-detection-on-mdbd)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fedge-detection-on-mdbd?p=dense-extreme-inception-network-for-edge)\n# DexiNed：用于边缘检测的密集极端Inception网络（扩展版）\n\n```diff\n- 我们刚刚更新了DexiNed的最新PyTorch版本。\n- 使用TF1的实现已被转移到“legacy”目录中。\n- 近期我们将进行一些小的更新，但模型、损失函数以及测试和训练流程无需更改，\n  希望如此 :)。如果您有时间，请检查其中的错误并反馈至Issues。\n```\n\n这是在WACV2020会议上提出的DexiNed的扩展工作。我们改进了架构和数据集。与现有的基于CNN的边缘检测器不同，该模型仅需一个训练阶段，却能够在多个边缘检测数据集上超越它们。此外，Dexined无需预训练权重，而是从零开始训练，且需要调整的参数较少。如需了解更多关于DexiNed的信息，请阅读我们在[ieeexplore](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9093290)上的第一版论文，以及在[arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.02250)上的扩展版论文。\n\nDexiNed的最新版本已在PyTorch中实现，TensorFlow 2版本也将很快推出。如果您需要我们的早期版本，请查看legacy目录。\n\n我们还制作了一段关于DexiNed的简短视频介绍，您可以在[Youtube](https:\u002F\u002Fyoutu.be\u002FHz0uU04B3U8)上观看。\n\n\u003Cdiv style=\"text-align:center\">\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxavysp_DexiNed_readme_8761bc4ebb69.png' width=800>\n\u003C\u002Fdiv>\n\n## 目录\n* [DexiNed-v1](#dexiNed-v1)\n* [TensorFlow](#tensorflow2)\n* [数据集](#datasets)\n* [性能](#performance)\n* [引用](#citation)\n\n# DexiNed-v1\n\n此版本于WACV2020会议上提出，是基于[TensorFlow 1](https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Ftree\u002Fmaster\u002Flegacy)实现的基础DexiNed模型。\n\n# TensorFlow2\n\nDexined在TF 2上的版本尚未完成。\n## 需求\n\n* [Python 3.7](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-370\u002F)\n* [Pytorch >=1.4](https:\u002F\u002Fpytorch.org\u002F)（最新测试为1.9）\n* [OpenCV](https:\u002F\u002Fpypi.org\u002Fproject\u002Fopencv-python\u002F)\n* [Matplotlib](https:\u002F\u002Fmatplotlib.org\u002F3.1.1\u002Fusers\u002Finstalling.html)\n* [Kornia](https:\u002F\u002Fkornia.github.io\u002F)\n* 其他包如Numpy、h5py、PIL、json等。\n\n安装好这些包后，您可以按如下方式克隆本仓库：\n\n    git clone https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed.git\n    cd DexiNed\n\n## 项目结构\n\n```\n├── data                        # 测试用示例图像（请将您的图像放入此处）\n|   ├── lena_std.tif            # 示例1\n├── DexiNed-TF2                 # 在TensorFlow2中的DexiNed（正在建设中）   \n├── figs                        # README.md中使用的图片\n|   └── DexiNed_banner.png      # DexiNed横幅图\n├── legacy                      # 在TensorFlow1中的DexiNed（于WACV2020年提出）\n├── utls                        # 本仓库中使用的一系列工具\n|   └── image.py                # 各种工具函数\n├── datasets.py                 # 数据集管理工具 \n├── dexi_utils.py               # 新功能，目前尚未在当前版本中使用\n├── losses.py                   # 用于训练DexiNed的损失函数（BDCNloss2）\n├── main.py                     # 主Python文件，包含主要函数和参数设置\n                                # 您可以在此进行测试和训练\n├── model.py                    # PyTorch中的DexiNed类\n```\n\n在开始之前，请先查看datasets.py文件。从代码的第一行就可以看到用于训练和测试的数据集。main.py第194行会调用用于训练或测试的数据集，示例如下：\n```\n    parser = argparse.ArgumentParser(description='DexiNed训练器.')\n    parser.add_argument('--choose_test_data',\n                        type=int,\n                        default=1,\n                        help='已设定测试数据选择：0 - 8')\n    # ----------- 测试 -------0--\n\n    TEST_DATA = DATASET_NAMES[parser.parse_args().choose_test_data] # 最大8个\n    test_inf = dataset_info(TEST_DATA, is_linux=IS_LINUX)\n    test_dir = test_inf['data_dir']\n    is_testing = True# 当前测试 -352-SM-NewGT-2AugmenPublish\n\n    # 训练设置\n    TRAIN_DATA = DATASET_NAMES[0] # BIPED=0\n    train_inf = dataset_info(TRAIN_DATA, is_linux=IS_LINUX)\n    train_dir = train_inf['data_dir']\n```\n\n## 测试\n如前所述，datasets.py文件包含了DexiNed用于测试和训练的所有数据集配置：\n```\nDATASET_NAMES = [\n    'BIPED',\n    'BSDS',\n    'BSDS300',\n    'CID',\n    'DCD',\n    'MULTICUE', #5\n    'PASCAL',\n    'NYUD',\n    'CLASSIC'\n] \n```\n\n例如，如果您想测试自己的数据集或图像，可以选择“CLASSIC”，并将测试数据保存在“data”目录中。在测试DexiNed模型之前，您需要下载这里的检查点文件[PyTorch检查点](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1V56vGTsu7GYiQouCIKvTWl5UKCZ6yCNu\u002Fview?usp=sharing)，并将其保存到DexiNed文件夹中，例如：checkpoints\u002FBIPED\u002F10\u002F（此处放置来自Drive的检查点），然后按照以下方式运行：\n\n```python main.py --choose_test_data=-1 ```\n请确保在main.py中，测试设置如下：\n```parser.add_argument('--is_testing', default=True, help='脚本处于测试模式。')```\nDexiNed会将输入图像下采样至16个尺度，请确保在dataset_info函数（datasets.py）中，图像的宽度和高度是16的倍数，例如512、960等。**在Drive上的检查点文件中，您将找到最新的训练检查点，该检查点是在即将于Kaggle上更新的最新版BIPED数据集上训练得到的。**\n\n## 训练\n\n    python main.py \n请确保在main.py中，训练设置如下：\n```parser.add_argument('--is_testing', default=False, help='脚本处于训练模式。')```\n\n# 数据集\n\n## 用于训练的数据集\n```diff\n- BIPED数据集已更新至最新版本，现可在Kaggle上下载。\n\n```\n\nBIPED（巴塞罗那感知边缘检测图像数据集）：该数据集是为本研究收集并标注的边缘级数据集。**更多详情、增强脚本及下载信息**请参见：[选项1](https:\u002F\u002Fxavysp.github.io\u002FMBIPED\u002F)，[选项2 Kaggle](https:\u002F\u002Fwww.kaggle.com\u002Fxavysp\u002Fbiped)。BIPED数据集已更新，增加了更多标注并修正了一些错误，因此这些链接提供了更新后的BIPED版本。如果您需要旧版本，可通过电子邮件联系我们。最新的性能指标（见下表）也将很快更新。\n\n## 用于测试的数据集\n\n边缘检测数据集\n* [BIPED](https:\u002F\u002Fxavysp.github.io\u002FMBIPED\u002F) 和 [MDBD](http:\u002F\u002Fserre-lab.clps.brown.edu\u002Fresource\u002Fmulticue\u002F)\n\n非边缘检测数据集\n\n* [CID](http:\u002F\u002Fwww.cs.rug.nl\u002F~imaging\u002Fdatabases\u002Fcontour_database\u002Fcontour_database.html) \u003C!-- * [DCD](http:\u002F\u002Fwww.cs.cmu.edu\u002F~mengtial\u002Fproj\u002Fsketch\u002F)-->, [BSDS300](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FResearch\u002FProjects\u002FCS\u002Fvision\u002Fbsds\u002F), [BSDS500](https:\u002F\u002Fwww2.eecs.berkeley.edu\u002FResearch\u002FProjects\u002FCS\u002Fvision\u002Fbsds\u002F), [NYUD](https:\u002F\u002Fcs.nyu.edu\u002F~silberman\u002Fdatasets\u002Fnyu_depth_v2.html), 和 [PASCAL-context](https:\u002F\u002Fcs.stanford.edu\u002F~roozbeh\u002Fpascal-context\u002F)\n\n# 性能\n\n以下结果来自 BIPEP 的最新版本（BIPEDv2，我们仍称其为 BIPED，因为这是默认版本）。\n在 WACV20 之后，BIPED 数据集中的图像被再次检查，并添加了更多标注。所有这些模型都已重新训练。\n\n\u003Ccenter>\n\n|     方法    |    ODS   |    ODS   |    AP    |\n| -------------- | ---------| -------- | -------- |\n| [RCF](https:\u002F\u002Fgithub.com\u002Fyun-liu\u002Frcf)      | `.849` | `.861` | `.906` |\n| [BDCN](https:\u002F\u002Fgithub.com\u002FpkuCactus\u002FBDCN)     | `.890` | `.899` | `.934` |\n| [CATS](https:\u002F\u002Fgithub.com\u002FWHUHLX\u002FCATS)     | `.887` | `.892` | `.817` |\n| DexiNed-f(我们的方法)| `.895` | `.900` | `.927` |\n| DexiNed-a(我们的方法)| `.893` | `.897` | `.940` |\n\n\u003C\u002Fcenter>\n\n\n# 引用\n\n如果你喜欢 DexiNed，为什么不给 GitHub 上的项目点个赞呢！\n\n[![GitHub 星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxavysp\u002FDexiNed.svg?style=social&label=Star&maxAge=3600)](https:\u002F\u002FGitHub.com\u002Fxavysp\u002FDexiNed\u002Fstargazers\u002F)\n\n如果你的学术或科学出版物中使用了我们的工作，请引用我们的论文：\n```\n@INPROCEEDINGS {xsoria2020dexined,\nauthor = {X. Soria and E. Riba and A. Sappa},\nbooktitle = {2020 IEEE 冬季计算机视觉应用会议 (WACV)},\ntitle = {密集极端 Inception 网络：迈向鲁棒的边缘检测 CNN 模型},\nyear = {2020},\nvolume = {},\nissn = {},\npages = {1912-1921},\nkeywords = {图像边缘检测；卷积；训练；馈送；机器学习；任务分析；核},\ndoi = {10.1109\u002FWACV45572.2020.9093290},\nurl = {https:\u002F\u002Fdoi.ieeecomputersociety.org\u002F10.1109\u002FWACV45572.2020.9093290},\npublisher = {IEEE 计算机协会},\naddress = {美国加州洛斯阿拉米托斯},\nmonth = {三月}\n}\n```\n扩展版本：\n```\n@article{soria2023dexined_ext,\ntitle = {用于边缘检测的密集极端 inception 网络},\njournal = {模式识别},\nvolume = {139},\npages = {109461},\nyear = {2023},\nissn = {0031-3203},\ndoi = {https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.patcog.2023.109461},\nurl = {https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0031320323001619},\nauthor = {哈维尔·索里亚、安赫尔·萨帕、帕特里西奥·胡马南特、阿拉什·阿克巴里尼亚},\nkeywords = {边缘检测、深度学习、CNN、轮廓检测、边界检测、分割}\n}\n```","# DexiNed 快速上手指南\n\nDexiNed (Dense Extreme Inception Network) 是一个用于边缘检测的深度学习模型。其最新版本基于 PyTorch 实现，无需预训练权重即可从头训练，且在多个边缘检测数据集上表现优异。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 Windows (推荐 Linux)\n*   **Python**: 3.7 及以上版本\n*   **PyTorch**: >= 1.4 (最新测试版本为 1.9)\n*   **其他依赖库**:\n    *   OpenCV (`opencv-python`)\n    *   Matplotlib\n    *   Kornia\n    *   Numpy, h5py, PIL, json 等基础库\n\n> **提示**：国内用户安装 PyTorch 时，建议使用清华或中科大镜像源加速下载。\n> 例如：`pip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    打开终端，执行以下命令获取源代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed.git\n    cd DexiNed\n    ```\n\n2.  **安装 Python 依赖**\n    确保已安装上述提到的所有依赖包。您可以使用 pip 批量安装核心依赖：\n    ```bash\n    pip install opencv-python matplotlib kornia numpy h5py pillow\n    ```\n    *(注：PyTorch 需根据您具体的 CUDA 版本单独安装，请参考 PyTorch 官网)*\n\n3.  **下载预训练模型 (用于测试)**\n    若仅需进行推理测试，需下载官方提供的 PyTorch 检查点文件：\n    *   下载地址：[Checkpoint Pytorch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1V56vGTsu7GYiQouCIKvTWl5UKCZ6yCNu\u002Fview?usp=sharing)\n    *   存放路径：将下载的文件放入项目目录下的 `checkpoints\u002FBIPED\u002F10\u002F` 文件夹中。\n    *   *注意：如果目录不存在，请手动创建。*\n\n## 基本使用\n\n### 1. 测试\u002F推理 (Edge Detection)\n\n若要对自己的图片进行边缘检测，请按以下步骤操作：\n\n*   **准备图片**：将待测试图片放入 `data` 目录。\n*   **配置数据集**：编辑 `datasets.py` 或使用默认配置。若要测试自定义图片，建议在 `main.py` 中选择 `CLASSIC` 数据集模式（对应索引 8），并确保图片长宽是 16 的倍数（如 512, 960 等），因为模型会将输入下采样 16 倍。\n*   **运行测试命令**：\n    确保 `main.py` 中的 `--is_testing` 参数设置为 `True`（默认代码逻辑中测试模式通常通过参数控制），然后运行：\n\n    ```bash\n    python main.py --choose_test_data=-1\n    ```\n\n    *说明：`--choose_test_data=-1` 通常用于触发针对 `data` 目录下自定义图片的测试流程（具体行为取决于 `datasets.py` 中对 `-1` 或 `CLASSIC` 的定义，原文示例指出选择 \"CLASSIC\" 并将数据存入 \"data\" 目录）。*\n\n### 2. 训练模型 (Training)\n\n若需要使用自己的数据集训练模型：\n\n*   **准备数据集**：DexiNed 默认使用 **BIPED** 数据集进行训练。\n    *   最新版 BIPED 数据集下载地址：[Kaggle](https:\u002F\u002Fwww.kaggle.com\u002Fxavysp\u002Fbiped) 或 [项目主页](https:\u002F\u002Fxavysp.github.io\u002FMBIPED\u002F)。\n    *   将数据集解压并配置好路径（需在 `datasets.py` 中确认数据路径设置）。\n*   **运行训练命令**：\n    确保 `main.py` 中的 `--is_testing` 参数设置为 `False`，然后直接运行：\n\n    ```bash\n    python main.py\n    ```\n\n    默认情况下，脚本将使用 BIPED 数据集开始训练。如需切换其他数据集（如 BSDS, NYUD 等），请修改 `main.py` 中 `TRAIN_DATA` 的索引值（参考 `DATASET_NAMES` 列表）。\n\n---\n**项目结构简述**：\n*   `main.py`: 主入口文件，包含训练和测试的参数设置。\n*   `model.py`: DexiNed 网络架构定义。\n*   `datasets.py`: 数据集加载与管理配置。\n*   `losses.py`: 损失函数定义 (BDCNloss2)。\n*   `data\u002F`: 放置测试用图片的目录。","某医疗影像初创团队正在开发一套自动分析皮肤镜图像的辅助诊断系统，需要从复杂的病灶照片中精准提取边缘轮廓以计算病变面积。\n\n### 没有 DexiNed 时\n- **训练流程繁琐**：传统边缘检测模型往往需要多阶段训练或依赖庞大的预训练权重文件，导致环境配置复杂且调试周期长。\n- **细节丢失严重**：在处理皮肤纹理与病灶边界模糊的图像时，常规算法容易断裂或产生大量噪点，难以区分真实边缘与干扰纹路。\n- **资源消耗过高**：为了达到可用的精度，通常需要调整海量参数并占用大量显存，限制了在普通开发机上的迭代速度。\n- **泛化能力不足**：模型在特定数据集表现尚可，但一旦遇到光照变化或不同拍摄设备的图像，边缘提取效果急剧下降。\n\n### 使用 DexiNed 后\n- **开箱即用高效**：DexiNed 支持从头开始训练（from scratch），无需预训练权重且仅需单阶段训练，团队当天即可完成模型部署与验证。\n- **边缘连续精准**：凭借密集极端 inception 架构，DexiNed 能敏锐捕捉微弱对比度，生成的病灶轮廓连续完整，有效过滤了皮肤纹理噪声。\n- **轻量灵活调优**：模型参数量更少，对硬件要求降低，开发人员可以在本地快速进行多次超参数微调，大幅缩短研发迭代周期。\n- **鲁棒性显著增强**：在不同光源和清晰度的测试集中，DexiNed 依然保持稳定的高精度输出，直接提升了后续面积计算算法的可靠性。\n\nDexiNed 通过极简的训练流程和卓越的边缘捕捉能力，让医疗影像分析团队以更低的成本实现了高精度的病灶轮廓自动化提取。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxavysp_DexiNed_8761bc4e.png","xavysp","Xavier Soria Poma","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxavysp_aa33f2e5.png","Python and PyTorch lover. Working on lightweight edge detection","ESPOCH","Ecuador","xsoriap@yahoo.com","https:\u002F\u002Fxavysp.github.io","https:\u002F\u002Fgithub.com\u002Fxavysp",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,846,174,"2026-04-06T08:34:46","MIT","未说明",{"notes":92,"python":93,"dependencies":94},"代码中包含 Linux 路径判断变量 (IS_LINUX)，暗示主要支持 Linux 环境。输入图像的宽和高必须是 16 的倍数（如 512, 960 等）。运行测试前需手动下载预训练权重文件并放置于指定目录。TensorFlow 2 版本尚未就绪，当前主要使用 PyTorch 实现。","3.7",[95,96,97,98,99,100,101,102],"Pytorch>=1.4","OpenCV","Matplotlib","Kornia","Numpy","h5py","PIL","json",[16,14,15],[105,106,107,108,109,110],"cnn-architecture","edge-detection-algorithm","wacv2020","edge-detection-dataset","pytorch","tensorflow2",null,"2026-03-27T02:49:30.150509","2026-04-10T04:29:56.802753",[115,120,125,130,135,139,144],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},27132,"是否有 PyTorch 版本的预训练模型可供下载？","是的，官方 PyTorch 预训练模型现已可用。维护者已更新仓库，用户可以直接在项目中找到官方的 DexiNed-Pytorch 检查点（checkpoint）。","https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Fissues\u002F48",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},27133,"如何使用单张图片进行测试？","要测试单张图片，需要配置 run_model.py 脚本。虽然具体参数设置可能因版本而异，但通常涉及设置数据集目录参数。如果在使用平均（averaged）或融合（fused）输出时发现冗余细节，可以尝试单独使用前几个输出（output1 到 output6），因为该模型旨在检测尽可能多的边缘。如有特定问题，可通过作者主页提供的邮箱联系分享预测结果以获取帮助。","https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Fissues\u002F1",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},27134,"论文中提到的 ODS、OIS 和 AP 指标是如何计算的？","关于定量评估（ODS, OIS, AP）的具体计算方法，可以参考项目中的其他讨论或相关 MATLAB 代码。维护者曾通过电子邮件发送过包含 edgesEval_x.m 等函数的评估代码给用户。如果需要评估脚本，建议查看作者 GitHub 个人资料中的联系方式或直接发送邮件索取。","https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Fissues\u002F8",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},27135,"DexiNed-f（融合版）和 DexiNed-a（平均版）有什么区别？","DexiNed-f 指的是模型内部生成的融合边缘图（in-model fused edge-map），而 DexiNed-a 则是所有 7 个输出的平均值。模型会输出一个包含 7 个边缘图的列表，融合版并非简单的相加，而是经过特定层处理的结果。","https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Fissues\u002F19",{"id":136,"question_zh":137,"answer_zh":138,"source_url":134},27136,"损失函数中各尺度的权重是如何设置的？融合层的权重初始化是多少？","在默认实现中，各尺度的损失权重均设置为 1.0，未测试不同权重的效果。关于融合层权重的初始化，论文中提到的 1\u002F(N-1) 对应代码中的 0.2（因为 N=6 侧输出 +1 融合输出等相关结构，具体视实现而定），可以在 main.py 的第 426 行附近找到该数值设定，而不是批大小（batch_size）的倒数。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},27137,"如何在自定义数据集上训练模型？如果效果不佳该怎么办？","在自定义数据集上训练时，需确保图像预处理正确（如减去提供的均值）。如果训练多个 epoch 后效果仍然很差，建议检查数据增强（augmentation）设置以及学习率调度器。维护者建议使用类似 Nvidia V100 的 GPU 进行训练，并指出如果损失曲线停滞（plateau），可能需要调整超参数或检查数据标签质量。遇到具体问题可通过邮件与维护者联系进行深入探讨。","https:\u002F\u002Fgithub.com\u002Fxavysp\u002FDexiNed\u002Fissues\u002F133",{"id":145,"question_zh":146,"answer_zh":147,"source_url":134},27138,"为什么无法使用在非 BIPED 数据集上训练的模型进行测试？","当设置 use_previous_trained 为 True 时，代码默认期望检查点文件夹命名为 DXN_BIPED。如果直接使用其他名称或重命名后仍报错“不是有效的检查点”，可能是因为路径配置或文件结构不匹配。此外，错误日志中出现的 'NoneType' object has no attribute 'shape' 通常意味着图像加载失败，需检查测试数据的路径配置是否正确，确保 get_single_image 函数能正确读取图片。",[]]