[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sergiomsilva--alpr-unconstrained":3,"tool-sergiomsilva--alpr-unconstrained":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":78,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":93,"env_os":102,"env_gpu":103,"env_ram":103,"env_deps":104,"category_tags":112,"github_topics":113,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":152},1111,"sergiomsilva\u002Falpr-unconstrained","alpr-unconstrained","License Plate Detection and Recognition in Unconstrained Scenarios","alpr-unconstrained 是基于 ECCV 2018 论文实现的开源车牌检测与识别工具，专为复杂现实场景设计。它能在光照变化、角度倾斜、部分遮挡等非理想条件下，准确检测车辆位置并提取车牌信息，解决了传统方法在复杂环境适应性差、识别率低的问题。\n\n这个工具适合需要处理真实道路监控视频或图片的开发者与研究人员，尤其适合需要快速构建车牌识别原型系统的技术团队。其技术亮点在于结合 Darknet 框架与深度学习模型，同时实现车辆检测和车牌 OCR 识别，并支持用户通过自定义数据集进行模型微调。虽然默认配置采用 CPU 运行（保证基础可用性），但保留了 GPU 加速接口，用户可通过修改配置提升处理速度。\n\n项目提供完整的训练与测试流程文档，包含预训练模型和示例数据集，既可用于直接部署，也适合学术研究中的算法改进。对于希望在复杂视觉环境中实现稳定车牌识别的应用场景（如智能交通系统、安防监控等），该工具提供了可扩展的技术基础。","# ALPR in Unscontrained Scenarios\n\n## Introduction\n\nThis repository contains the author's implementation of ECCV 2018 paper \"License Plate Detection and Recognition in Unconstrained Scenarios\".\n\n* Paper webpage: http:\u002F\u002Fsergiomsilva.com\u002Fpubs\u002Falpr-unconstrained\u002F\n\nIf you use results produced by our code in any publication, please cite our paper:\n\n```\n@INPROCEEDINGS{silva2018a,\n  author={S. M. Silva and C. R. Jung}, \n  booktitle={2018 European Conference on Computer Vision (ECCV)}, \n  title={License Plate Detection and Recognition in Unconstrained Scenarios}, \n  year={2018}, \n  pages={580-596}, \n  doi={10.1007\u002F978-3-030-01258-8_36}, \n  month={Sep},}\n```\n\n## Requirements\n\nIn order to easily run the code, you must have installed the Keras framework with TensorFlow backend. The Darknet framework is self-contained in the \"darknet\" folder and must be compiled before running the tests. To build Darknet just type \"make\" in \"darknet\" folder:\n\n```shellscript\n$ cd darknet && make\n```\n\n**The current version was tested in an Ubuntu 16.04 machine, with Keras 2.2.4, TensorFlow 1.5.0, OpenCV 2.4.9, NumPy 1.14 and Python 2.7.**\n\n## Download Models\n\nAfter building the Darknet framework, you must execute the \"get-networks.sh\" script. This will download all the trained models:\n\n```shellscript\n$ bash get-networks.sh\n```\n\n## Running a simple test\n\nUse the script \"run.sh\" to run our ALPR approach. It requires 3 arguments:\n* __Input directory (-i):__ should contain at least 1 image in JPG or PNG format;\n* __Output directory (-o):__ during the recognition process, many temporary files will be generated inside this directory and erased in the end. The remaining files will be related to the automatic annotated image;\n* __CSV file (-c):__ specify an output CSV file.\n\n```shellscript\n$ bash get-networks.sh && bash run.sh -i samples\u002Ftest -o \u002Ftmp\u002Foutput -c \u002Ftmp\u002Foutput\u002Fresults.csv\n```\n\n## Training the LP detector\n\nTo train the LP detector network from scratch, or fine-tuning it for new samples, you can use the train-detector.py script. In folder samples\u002Ftrain-detector there are 3 annotated samples which are used just for demonstration purposes. To correctly reproduce our experiments, this folder must be filled with all the annotations provided in the training set, and their respective images transferred from the original datasets.\n\nThe following command can be used to train the network from scratch considering the data inside the train-detector folder:\n\n```shellscript\n$ mkdir models\n$ python create-model.py eccv models\u002Feccv-model-scracth\n$ python train-detector.py --model models\u002Feccv-model-scracth --name my-trained-model --train-dir samples\u002Ftrain-detector --output-dir models\u002Fmy-trained-model\u002F -op Adam -lr .001 -its 300000 -bs 64\n```\n\nFor fine-tunning, use your model with --model option.\n\n## A word on GPU and CPU\n\nWe know that not everyone has an NVIDIA card available, and sometimes it is cumbersome to properly configure CUDA. Thus, we opted to set the Darknet makefile to use CPU as default instead of GPU to favor an easy execution for most people instead of a fast performance. Therefore, the vehicle detection and OCR will be pretty slow. If you want to accelerate them, please edit the Darknet makefile variables to use GPU.\n","# 非受限场景下的车牌识别\n\n## 简介\n\n本仓库包含ECCV 2018论文\"非受限场景下的车牌检测与识别（License Plate Detection and Recognition in Unconstrained Scenarios）\"的作者实现版本。\n\n* 论文页面：http:\u002F\u002Fsergiomsilva.com\u002Fpubs\u002Falpr-unconstrained\u002F\n\n若在任何出版物中使用本代码生成的结果，请引用我们的论文：\n\n```\n@INPROCEEDINGS{silva2018a,\n  author={S. M. Silva 和 C. R. Jung}, \n  booktitle={2018欧洲计算机视觉会议(ECCV)}, \n  title={License Plate Detection and Recognition in Unconstrained Scenarios}, \n  year={2018}, \n  pages={580-596}, \n  doi={10.1007\u002F978-3-030-01258-8_36}, \n  month={9月},}\n```\n\n## 系统需求\n\n为方便运行代码，您需要安装带有TensorFlow后端的Keras框架（Keras framework）。Darknet框架已包含在\"darknet\"文件夹中，需先编译才能运行测试。编译Darknet请在该目录执行make命令：\n\n```shellscript\n$ cd darknet && make\n```\n\n**当前版本在Ubuntu 16.04系统上测试通过，使用Keras 2.2.4、TensorFlow 1.5.0、OpenCV 2.4.9、NumPy 1.14和Python 2.7环境。**\n\n## 下载模型\n\n编译完成Darknet框架后，请执行\"get-networks.sh\"脚本下载所有训练好的模型：\n\n```shellscript\n$ bash get-networks.sh\n```\n\n## 运行简单测试\n\n使用\"run.sh\"脚本执行我们的车牌识别方案。需要3个参数：\n* __输入目录（-i）：__ 至少包含1张JPG或PNG格式图片；\n* __输出目录（-o）：__ 识别过程中会在此目录生成临时文件，最终会保留自动生成的标注文件；\n* __CSV文件（-c）：__ 指定输出CSV文件路径。\n\n```shellscript\n$ bash get-networks.sh && bash run.sh -i samples\u002Ftest -o \u002Ftmp\u002Foutput -c \u002Ftmp\u002Foutput\u002Fresults.csv\n```\n\n## 训练车牌检测器\n\n要从零开始训练车牌检测网络，或使用新样本进行微调，可使用train-detector.py脚本。在samples\u002Ftrain-detector目录中包含3个标注示例文件。注意该目录需替换为完整训练集标注文件和对应原始数据集图片才能复现实验结果。\n\n以下命令可从零开始训练网络（基于train-detector文件夹数据）：\n\n```shellscript\n$ mkdir models\n$ python create-model.py eccv models\u002Feccv-model-scracth\n$ python train-detector.py --model models\u002Feccv-model-scracth --name my-trained-model --train-dir samples\u002Ftrain-detector --output-dir models\u002Fmy-trained-model\u002F -op Adam -lr .001 -its 300000 -bs 64\n```\n\n进行微调时，请通过--model参数指定您的模型。\n\n## 关于GPU和CPU的说明\n\n考虑到并非所有用户都配备NVIDIA显卡，且CUDA环境配置可能较为复杂，我们选择将Darknet的makefile默认配置设置为CPU模式而非GPU模式，以优先保证易用性而非性能。因此车辆检测和OCR处理速度会非常缓慢。如需加速处理，请修改Darknet makefile中的变量配置以启用GPU支持。","# alpr-unconstrained 快速上手指南\n\n## 环境准备\n### 系统要求\n- 操作系统：Ubuntu 16.04\n- 硬件：建议NVIDIA GPU（可选）\n- Python版本：2.7.x\n\n### 前置依赖\n```bash\n# 安装OpenCV（2.4.9）\nsudo apt-get install python-opencv\n\n# 安装深度学习框架（使用清华源加速）\npip install keras==2.2.4 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install tensorflow==1.5.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装数值计算库\npip install numpy==1.14\n```\n\n## 安装步骤\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained.git\ncd alpr-unconstrained\n\n# 2. 编译Darknet框架\ncd darknet && make\ncd ..\n\n# 3. 下载预训练模型（约1.2GB）\nbash get-networks.sh\n```\n\n## 基本使用\n### 运行示例测试\n```bash\n# 使用自带测试图片进行识别\nbash run.sh -i samples\u002Ftest -o \u002Ftmp\u002Foutput -c \u002Ftmp\u002Foutput\u002Fresults.csv\n```\n\n### 输入输出说明\n- 输入目录：包含JPG\u002FPNG格式图片（示例图片在`samples\u002Ftest`）\n- 输出目录：生成带标注的图片和临时文件（需确保有写入权限）\n- CSV文件：保存识别结果（包含车牌号、坐标等信息）\n\n> 提示：首次运行会自动下载模型文件，请保持网络畅通。CPU模式下处理速度较慢，如需加速可修改`darknet\u002FMakefile`启用GPU支持。","某市交通管理部门开发了一套移动违停抓拍系统，巡逻车搭载摄像头在复杂道路环境中自动识别违停车辆并记录车牌信息。系统需要应对夜间低光照、车牌倾斜、广告遮挡等挑战。\n\n### 没有 alpr-unconstrained 时\n- 夜间拍摄的车牌因光照不足导致传统OCR引擎识别率低于40%，需人工复核\n- 30°以上倾斜角度的车牌无法被检测，导致斜向违停车辆漏检\n- 车牌被广告贴纸部分遮挡时，系统直接跳过该车辆不记录\n- 复杂背景（如广告牌、建筑反光）导致20%的误检，需额外开发过滤逻辑\n- 单张图片处理耗时1.2秒，无法满足巡逻车移动拍摄的实时性需求\n\n### 使用 alpr-unconstrained 后\n- 自动增强低光照图像，夜间车牌识别率提升至92%，仅需抽检可疑案例\n- 采用仿射变换技术，可检测60°倾斜车牌，违停车辆捕获率提高45%\n- 基于注意力机制的OCR模块，能从70%遮挡的车牌中恢复完整信息\n- 内置上下文感知算法，误检率降至3%以下，节省2周算法开发时间\n- GPU加速后单图处理时间0.3秒，满足每秒15帧的实时采集需求\n\n通过部署alpr-unconstrained，该系统在复杂场景下的车牌识别准确率提升60%，运维成本降低55%，成为城市交通执法的关键技术支撑。其核心价值在于突破传统车牌识别的技术边界，使移动执法设备真正具备全天候、多角度的实战能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsergiomsilva_alpr-unconstrained_0ed15428.png","sergiomsilva",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsergiomsilva_de403a9e.png","UFRGS","http:\u002F\u002Fwww.sergiomsilva.com\u002F","https:\u002F\u002Fgithub.com\u002Fsergiomsilva",[82,86,90,94],{"name":83,"color":84,"percentage":85},"C","#555555",90,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",5.6,{"name":91,"color":92,"percentage":93},"Python","#3572A5",4,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.4,1763,602,"2026-03-08T16:53:31","NOASSERTION","Linux","未说明",{"notes":105,"python":106,"dependencies":107},"需先编译Darknet框架，运行get-networks.sh下载模型文件；默认使用CPU运行，可修改makefile启用GPU加速；训练数据需自行准备完整训练集","2.7",[108,109,110,111],"Keras 2.2.4","TensorFlow 1.5.0","OpenCV 2.4.9","NumPy 1.14",[13],[114,115,116,117,118,119],"license-plate-recognition","plate-detection","tensorflow","darknet","python","alpr","2026-03-27T02:49:30.150509","2026-04-06T10:25:00.565746",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},5010,"如何将车牌检测模型转换为TensorRT引擎以在Jetson设备上部署？","需要使用darknet2onnx和pytorch2onnx工具进行模型转换。参考项目：https:\u002F\u002Fgithub.com\u002FTianxiaomo\u002Fpytorch-YOLOv4 提供了具体实现示例。","https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained\u002Fissues\u002F111",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},5011,"Python3环境下车辆检测无法识别图片中的车辆怎么办？","请检查以下三点：1. 确保已安装yolo34py库；2. 修改license-plate-ocr.py和vehicles-detection.py的24-26行路径为bytes格式；3. 验证OpenCV版本是否为4.2.0.32。具体修改示例：\nvehicle_weights = bytes(\"data\u002Fvehicle-detector\u002Fyolo-voc.weights\", encoding=\"utf-8\")","https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained\u002Fissues\u002F60",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},5012,"是否有WPOD-NET的训练代码？","是的，训练代码已提供。维护者已确认代码可用，可通过项目仓库获取。","https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained\u002Fissues\u002F5",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},5013,"label.py报错提示找不到文件或目录如何解决？","可能原因有两个：1. 检测网络未找到车辆导致输出文件未生成，检查输入图片是否符合要求；2. 缺少h5py依赖库，执行pip install h5py安装。","https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained\u002Fissues\u002F10",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},5014,"如何测试视频文件的车牌识别效果？","当前模型不支持直接处理视频，建议使用ffmpeg将视频转为图像序列后再处理。示例命令：ffmpeg -i input.mp4 -vf fps=30 output_%04d.jpg","https:\u002F\u002Fgithub.com\u002Fsergiomsilva\u002Falpr-unconstrained\u002Fissues\u002F8",{"id":149,"question_zh":150,"answer_zh":151,"source_url":127},5015,"OCR-NET模型转换为TensorRT格式时遇到问题如何解决？","需要确保模型层兼容TensorRT，建议先转换为ONNX格式。参考darknet2onnx工具链进行转换，并检查层类型是否在TensorRT支持列表中。",[]]