[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tensorlayer--TensorLayerX":3,"tool-tensorlayer--TensorLayerX":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":32,"env_os":100,"env_gpu":101,"env_ram":100,"env_deps":102,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":157},4905,"tensorlayer\u002FTensorLayerX","TensorLayerX","TensorLayerX: A Unified Deep Learning and Reinforcement Learning Framework for All Hardwares, Backends and OS.","TensorLayerX 是一款统一的深度学习与强化学习框架，旨在打破不同 AI 后端与硬件设备之间的壁垒。它支持 TensorFlow、PyTorch、MindSpore、PaddlePaddle、OneFlow 和 Jittor 等多种主流框架作为后端，让用户只需编写一套代码，即可在 Nvidia GPU、华为昇腾、寒武纪等各类硬件及不同操作系统上无缝运行。\n\n这一设计有效解决了开发者因硬件差异或框架迁移而被迫重复修改代码的痛点，极大提升了研发效率与模型部署的灵活性。无论是需要快速验证算法的研究人员，还是追求跨平台落地的工程开发者，都能从中受益。\n\n其核心技术亮点在于独特的“多后端架构”：用户仅需通过简单的环境变量配置，即可在 PyTorch 风格的代码中自由切换底层引擎，无需重写模型逻辑。此外，TensorLayerX 还内置了涵盖计算机视觉、自然语言处理等领域的经典模型库（Model Zoo），并支持 ONNX 协议以方便模型的导出与部署。该项目由北京大学、斯坦福大学、清华大学等全球顶尖高校的研究团队共同维护，兼具学术前沿性与工程实用性，是构建通用人工智能应用的得力助手。","\u003Ca href=\"https:\u002F\u002Ftensorlayerx.readthedocs.io\u002F\">\n    \u003Cdiv align=\"center\">\n        \u003Cimg src=\"https:\u002F\u002Fgit.openi.org.cn\u002Fhanjr\u002Ftensorlayerx-image\u002Fraw\u002Fbranch\u002Fmaster\u002Ftlx-LOGO--02.jpg\" width=\"50%\" height=\"30%\"\u002F>\n    \u003C\u002Fdiv>\n\u003C\u002Fa>\n\n\u003C!--- [![PyPI Version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorlayer.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorlayerx\u002F) --->\n\u003C!--- ![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Ftensorlayer.svg)) --->\n\n![GitHub last commit (branch)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Ftensorlayer\u002Ftensorlayerx\u002Fmain.svg)\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_6bf48b3e9a6d.png)]( https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![Build Status](https:\u002F\u002Ftravis-ci.org\u002Ftensorlayer\u002Ftensorlayerx.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Ftensorlayer\u002Ftensorlayerx)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_cbd6a42c05f4.png)](http:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorlayerx)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_3179163efb5b.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorlayerx\u002Fweek)\n[![Docker Pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Ftensorlayer\u002Ftensorlayerx.svg)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Ftensorlayer\u002Ftensorlayerx\u002F)\n\n[TensorLayerX](https:\u002F\u002Ftensorlayerx.readthedocs.io) is a multi-backend AI framework, supports TensorFlow, Pytorch, MindSpore, PaddlePaddle, OneFlow and Jittor as the backends, allowing users to run the code on different hardware like Nvidia-GPU, Huawei-Ascend, Cambricon and more.\nThis project is maintained by researchers from Peking University, Peng Cheng Lab, HKUST, Imperial College London, Princeton, Oxford, Stanford, Tsinghua and Edinburgh.\n\n\n- GitHub: https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX  \n- OpenI: https:\u002F\u002Fopeni.pcl.ac.cn\u002FOpenI\u002FTensorLayerX\n- Homepage: [English](http:\u002F\u002Fwww.tensorlayerx.com\u002Findex_en.html?chlang=&langid=2) [中文](http:\u002F\u002Ftensorlayerx.com)\n- Document: https:\u002F\u002Ftensorlayerx.readthedocs.io\n- Previous Project: https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayer\n\n\u003C!-- # Document\nTensorLayerX has extensive documentation for both beginners and professionals. \n\n[![English Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-english-blue.svg)](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002F) -->\n\n# Deep Learning course  \nWe have video courses for deep learning, with example codes based on TensorLayerX.  \n[Bilibili link](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1xB4y1h7V2?share_source=copy_web&vd_source=467c17f872fcde378494433520e19999) (chinese)\n\n# Design Features\n\n\u003C!-- \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Fgit.openi.org.cn\u002Fhanjr\u002Ftensorlayerx-image\u002Fraw\u002Fbranch\u002Fmaster\u002Fversion.png\" width=\"840\"\\>\u003C\u002Fp> -->\n\n- ***Compatibility***: Support worldwide frameworks and AI chips, enabling one code runs on all platforms.\n\n- ***Model Zoo***: Provide a series of applications containing classic and SOTA models, covering CV, NLP, RL and other fields.\n\n- ***Deployment***: Support ONNX protocol, model export, import and deployment.\n\n# Multi-backend Design\n\nYou can immediately use TensorLayerX to define a model via Pytorch-stype, and switch to any backends easily.\n\n```python\nimport os\nos.environ['TL_BACKEND'] = 'tensorflow' # modify this line, switch to any backends easily!\n#os.environ['TL_BACKEND'] = 'mindspore'\n#os.environ['TL_BACKEND'] = 'paddle'\n#os.environ['TL_BACKEND'] = 'torch'\nimport tensorlayerx as tlx\nfrom tensorlayerx.nn import Module\nfrom tensorlayerx.nn import Linear\nclass CustomModel(Module):\n\n  def __init__(self):\n      super(CustomModel, self).__init__()\n\n      self.linear1 = Linear(out_features=800, act=tlx.ReLU, in_features=784)\n      self.linear2 = Linear(out_features=800, act=tlx.ReLU, in_features=800)\n      self.linear3 = Linear(out_features=10, act=None, in_features=800)\n\n  def forward(self, x, foo=False):\n      z = self.linear1(x)\n      z = self.linear2(z)\n      out = self.linear3(z)\n      if foo:\n          out = tlx.softmax(out)\n      return out\n\nMLP = CustomModel()\nMLP.set_eval()\n```\n\n# Quick Start\n\nGet started with TensorLayerX quickly using the following examples:\n\n- **MNIST Digit Recognition:** Train a simple multi-layer perceptron (MLP) model for digit recognition using the MNIST dataset. Choose between a simple training method or custom loops. See the examples: [mnist_mlp_simple_train.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_simple_train.py) and [mnist_mlp_custom_train.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_custom_train.py).\n\n- **CIFAR-10 Dataflow:** Learn how to create datasets, process images, and load data through DataLoader using the CIFAR-10 dataset. See the example: [cifar10_cnn.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fcifar10_cnn.py).\n\n- **MNIST GAN Training:** Train a generative adversarial network (GAN) on the MNIST dataset. See the example: [mnist_gan.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_gan.py).\n\n- **MNIST Mix Programming:** Mix TensorLayerX code with other deep learning libraries such as TensorFlow, PyTorch, Paddle, and MindSpore to run on the MNIST dataset. See the example: [mnist_mlp_mix_programming.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_mix_programming.py).\n\n\n# Resources\n\n- [Examples](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Ftree\u002Fmain\u002Fexamples) for tutorials\n- [GammaGL](https:\u002F\u002Fgithub.com\u002FBUPT-GAMMA\u002FGammaGL) is series of graph learning algorithm\n- [TLXZoo](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXZoo) a series of pretrained backbones\n- [TLXCV](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXCV) a series of Computer Vision applications\n- [TLXNLP](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXNLP) a series of Natural Language Processing applications\n- [TLX2ONNX](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLX2ONNX\u002F) ONNX model exporter for TensorLayerX.\n- [Paddle2TLX](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Fpaddle2tlx) model code converter from PaddlePaddle to TensorLayerX.  \n\nMore official resources can be found [here](https:\u002F\u002Fgithub.com\u002Ftensorlayer)\n\n\n# Installation\n\n- The latest TensorLayerX compatible with the following backend version\n\n| TensorLayerX | TensorFlow | MindSpore | PaddlePaddle | PyTorch | OneFlow | Jittor|\n| :-----:| :----: | :----: |:-----:|:----:|:----:|:----:|\n|  v0.5.8  | v2.4.0 | v1.8.1 | v2.2.0 | v1.10.0 | latest | v1.3.8.5 |\n| v0.5.7 | v2.0.0 | v1.6.1 | v2.0.2 | v1.10.0 | latest | -- |\n\n- via pip for the stable version\n```bash\n# install from pypi\npip3 install tensorlayerx \n```\n\n- build from source for the latest version (for advanced users)\n```bash\n# install from Github\npip3 install git+https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Ftensorlayerx.git \n```\nFor more installation instructions, please refer to [Installtion](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002Fuser\u002Finstallation.html)\n\n\n- via docker\n\nDocker is an open source application container engine. In the [TensorLayerX Docker Repository](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Ftensorlayer\u002Ftensorlayerx), \ndifferent versions of TensorLayerX have been installed in docker images.\n\n```bash\n# pull from docker hub\ndocker pull tensorlayer\u002Ftensorlayerx:tagname\n```\n\n# Contributing\nTensorLayerX is continuously evolving, and we welcome contributions from the community! If you'd like to contribute code or help improve the library, please check our [Help wanted list](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F5) and follow our [Contributing](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002Fuser\u002Fcontributing.html) guide.\n\n\n# Getting Involved\n\nWe suggest users to report bugs using Github issues. Users can also discuss how to use TensorLayerX in the following slack channel.\n\n\u003Cbr\u002F>\n\n\u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Ftensorlayer\u002Fshared_invite\u002FenQtODk1NTQ5NTY1OTM5LTQyMGZhN2UzZDBhM2I3YjYzZDBkNGExYzcyZDNmOGQzNmYzNjc3ZjE3MzhiMjlkMmNiMmM3Nzc4ZDY2YmNkMTY\" target=\"\\_blank\">\n\t\u003Cdiv align=\"center\">\n\t\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_3ea39b818553.png\" width=\"40%\"\u002F>\n\t\u003C\u002Fdiv>\n\u003C\u002Fa>\n\n# Contact\n - tensorlayer@gmail.com\n\n# Citation\n\nIf you find TensorLayerX useful for your project, please cite the following papers：\n\n```\n@inproceedings{tensorlayer2021,\n  title={TensorLayer 3.0: A Deep Learning Library Compatible With Multiple Backends},\n  author={Lai, Cheng and Han, Jiarong and Dong, Hao},\n  booktitle={2021 IEEE International Conference on Multimedia \\& Expo Workshops (ICMEW)},\n  pages={1--3},\n  year={2021},\n  organization={IEEE}\n}\n@article{tensorlayer2017,\n    author  = {Dong, Hao and Supratak, Akara and Mai, Luo and Liu, Fangde and Oehmichen, Axel and Yu, Simiao and Guo, Yike},\n    journal = {ACM Multimedia},\n    title   = {{TensorLayer: A Versatile Library for Efficient Deep Learning Development}},\n    url     = {http:\u002F\u002Ftensorlayer.org},\n    year    = {2017}\n} \n```\n\n\n\n\n","\u003Ca href=\"https:\u002F\u002Ftensorlayerx.readthedocs.io\u002F\">\n    \u003Cdiv align=\"center\">\n        \u003Cimg src=\"https:\u002F\u002Fgit.openi.org.cn\u002Fhanjr\u002Ftensorlayerx-image\u002Fraw\u002Fbranch\u002Fmaster\u002Ftlx-LOGO--02.jpg\" width=\"50%\" height=\"30%\"\u002F>\n    \u003C\u002Fdiv>\n\u003C\u002Fa>\n\n\u003C!--- [![PyPI Version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Ftensorlayer.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftensorlayerx\u002F) --->\n\u003C!--- ![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Ftensorlayer.svg)) --->\n\n![GitHub last commit (branch)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Ftensorlayer\u002Ftensorlayerx\u002Fmain.svg)\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_6bf48b3e9a6d.png)]( https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002F)\n[![Build Status](https:\u002F\u002Ftravis-ci.org\u002Ftensorlayer\u002Ftensorlayerx.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Ftensorlayer\u002Ftensorlayerx)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_cbd6a42c05f4.png)](http:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorlayerx)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_3179163efb5b.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Ftensorlayerx\u002Fweek)\n[![Docker Pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Ftensorlayer\u002Ftensorlayerx.svg)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Ftensorlayer\u002Ftensorlayerx\u002F)\n\n[TensorLayerX](https:\u002F\u002Ftensorlayerx.readthedocs.io) 是一个多后端人工智能框架，支持 TensorFlow、PyTorch、MindSpore、飞桨、OneFlow 和 Jittor 等作为后端，使用户能够在 NVIDIA GPU、华为昇腾、寒武纪等不同硬件上运行代码。  \n该项目由来自北京大学、鹏城实验室、香港科技大学、帝国理工学院、普林斯顿大学、牛津大学、斯坦福大学、清华大学和爱丁堡大学的研究人员维护。\n\n\n- GitHub：https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX  \n- OpenI：https:\u002F\u002Fopeni.pcl.ac.cn\u002FOpenI\u002FTensorLayerX\n- 官网：[英文](http:\u002F\u002Fwww.tensorlayerx.com\u002Findex_en.html?chlang=&langid=2) [中文](http:\u002F\u002Ftensorlayerx.com)\n- 文档：https:\u002F\u002Ftensorlayerx.readthedocs.io\n- 上一项目：https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayer\n\n\u003C!-- # 文档\nTensorLayerX 为初学者和专业人士提供了详尽的文档。 \n\n[![英文文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-english-blue.svg)](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002F) -->\n\n# 深度学习课程  \n我们提供基于 TensorLayerX 的示例代码的深度学习视频课程。  \n[Bilibili 链接](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1xB4y1h7V2?share_source=copy_web&vd_source=467c17f872fcde378494433520e19999)（中文）\n\n# 设计特点\n\n\u003C!-- \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Fgit.openi.org.cn\u002Fhanjr\u002Ftensorlayerx-image\u002Fraw\u002Fbranch\u002Fmaster\u002Fversion.png\" width=\"840\"\\>\u003C\u002Fp> -->\n\n- ***兼容性***：支持全球主流框架和 AI 芯片，实现“一次编写，处处运行”。\n\n- ***模型库***：提供一系列包含经典及 SOTA 模型的应用，涵盖计算机视觉、自然语言处理、强化学习等领域。\n\n- ***部署***：支持 ONNX 协议，可进行模型导出、导入与部署。\n\n# 多后端设计\n\n您可以立即使用 TensorLayerX 以 PyTorch 风格定义模型，并轻松切换至任何后端。\n\n```python\nimport os\nos.environ['TL_BACKEND'] = 'tensorflow' # 修改这一行，即可轻松切换到任意后端！\n#os.environ['TL_BACKEND'] = 'mindspore'\n#os.environ['TL_BACKEND'] = 'paddle'\n#os.environ['TL_BACKEND'] = 'torch'\nimport tensorlayerx as tlx\nfrom tensorlayerx.nn import Module\nfrom tensorlayerx.nn import Linear\nclass CustomModel(Module):\n\n  def __init__(self):\n      super(CustomModel, self).__init__()\n\n      self.linear1 = Linear(out_features=800, act=tlx.ReLU, in_features=784)\n      self.linear2 = Linear(out_features=800, act=tlx.ReLU, in_features=800)\n      self.linear3 = Linear(out_features=10, act=None, in_features=800)\n\n  def forward(self, x, foo=False):\n      z = self.linear1(x)\n      z = self.linear2(z)\n      out = self.linear3(z)\n      if foo:\n          out = tlx.softmax(out)\n      return out\n\nMLP = CustomModel()\nMLP.set_eval()\n```\n\n# 快速入门\n\n通过以下示例快速上手 TensorLayerX：\n\n- **MNIST 数字识别**：使用 MNIST 数据集训练一个简单的多层感知机（MLP）模型进行数字识别。可以选择简单训练方法或自定义循环。示例见：[mnist_mlp_simple_train.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_simple_train.py) 和 [mnist_mlp_custom_train.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_custom_train.py)。\n\n- **CIFAR-10 数据流**：学习如何使用 CIFAR-10 数据集创建数据集、处理图像并利用 DataLoader 加载数据。示例见：[cifar10_cnn.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fcifar10_cnn.py)。\n\n- **MNIST GAN 训练**：在 MNIST 数据集上训练生成对抗网络（GAN）。示例见：[mnist_gan.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_gan.py)。\n\n- **MNIST 混合编程**：将 TensorLayerX 代码与其他深度学习库（如 TensorFlow、PyTorch、飞桨和 MindSpore）混合使用，以在 MNIST 数据集上运行。示例见：[mnist_mlp_mix_programming.py](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fblob\u002Fmain\u002Fexamples\u002Fbasic_tutorials\u002Fmnist_mlp_mix_programming.py)。\n\n\n# 资源\n\n- 教程示例：[https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Ftree\u002Fmain\u002Fexamples](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Ftree\u002Fmain\u002Fexamples)\n- [GammaGL](https:\u002F\u002Fgithub.com\u002FBUPT-GAMMA\u002FGammaGL) 是一系列图学习算法。\n- [TLXZoo](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXZoo) 是一系列预训练骨干网络。\n- [TLXCV](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXCV) 是一系列计算机视觉应用。\n- [TLXNLP](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXNLP) 是一系列自然语言处理应用。\n- [TLX2ONNX](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLX2ONNX\u002F) 是 TensorLayerX 的 ONNX 模型导出工具。\n- [Paddle2TLX](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Fpaddle2tlx) 是将飞桨模型转换为 TensorLayerX 的工具。  \n\n更多官方资源请访问 [此处](https:\u002F\u002Fgithub.com\u002Ftensorlayer)\n\n\n# 安装\n\n- 最新版本的 TensorLayerX 与以下后端版本兼容：\n\n| TensorLayerX | TensorFlow | MindSpore | PaddlePaddle | PyTorch | OneFlow | Jittor|\n| :-----:| :----: | :----: |:-----:|:----:|:----:|:----:|\n|  v0.5.8  | v2.4.0 | v1.8.1 | v2.2.0 | v1.10.0 | 最新 | v1.3.8.5 |\n| v0.5.7 | v2.0.0 | v1.6.1 | v2.0.2 | v1.10.0 | 最新 | -- |\n\n- 通过 pip 安装稳定版：\n```bash\n# 从 PyPI 安装\npip3 install tensorlayerx \n```\n\n- 对于高级用户，可从源码构建最新版本：\n```bash\n\n# 从 GitHub 安装\npip3 install git+https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Ftensorlayerx.git \n```\n更多安装说明，请参阅 [安装](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002Fuser\u002Finstallation.html)\n\n\n- 通过 Docker\n\nDocker 是一个开源的应用容器引擎。在 [TensorLayerX Docker 仓库](https:\u002F\u002Fhub.docker.com\u002Frepository\u002Fdocker\u002Ftensorlayer\u002Ftensorlayerx) 中，不同版本的 TensorLayerX 已被安装到 Docker 镜像中。\n\n```bash\n# 从 Docker Hub 拉取镜像\ndocker pull tensorlayer\u002Ftensorlayerx:tagname\n```\n\n# 贡献\nTensorLayerX 正在不断发展中，我们欢迎社区的贡献！如果您想贡献代码或帮助改进该库，请查看我们的 [待办事项列表](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F5) 并遵循我们的 [贡献指南](https:\u002F\u002Ftensorlayerx.readthedocs.io\u002Fen\u002Flatest\u002Fuser\u002Fcontributing.html)。\n\n\n# 参与方式\n\n我们建议用户通过 GitHub Issues 报告问题。用户也可以在以下 Slack 频道中讨论如何使用 TensorLayerX。\n\n\u003Cbr\u002F>\n\n\u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Ftensorlayer\u002Fshared_invite\u002FenQtODk1NTQ5NTY1OTM5LTQyMGZhN2UzZDBhM2I3YjYzZDBkNGExYzcyZDNmOGQzNmYzNjc3ZjE3MzhiMjlkMmNiMmM3Nzc4ZDY2YmNkMTY\" target=\"\\_blank\">\n\t\u003Cdiv align=\"center\">\n\t\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_readme_3ea39b818553.png\" width=\"40%\"\u002F>\n\t\u003C\u002Fdiv>\n\u003C\u002Fa>\n\n# 联系方式\n - tensorlayer@gmail.com\n\n# 引用\n\n如果您发现 TensorLayerX 对您的项目有所帮助，请引用以下论文：\n\n```\n@inproceedings{tensorlayer2021,\n  title={TensorLayer 3.0：一个兼容多种后端的深度学习库},\n  author={Lai, Cheng 和 Han, Jiarong 和 Dong, Hao},\n  booktitle={2021 IEEE 国际多媒体与博览会研讨会（ICMEW）},\n  pages={1--3},\n  year={2021},\n  organization={IEEE}\n}\n@article{tensorlayer2017,\n    author  = {Dong, Hao 和 Supratak, Akara 和 Mai, Luo 和 Liu, Fangde 和 Oehmichen, Axel 和 Yu, Simiao 和 Guo, Yike},\n    journal = {ACM Multimedia},\n    title   = {{TensorLayer：一个用于高效深度学习开发的多功能库}},\n    url     = {http:\u002F\u002Ftensorlayer.org},\n    year    = {2017}\n} \n```","# TensorLayerX 快速上手指南\n\nTensorLayerX 是一个支持多后端的 AI 框架，允许用户使用同一套代码在 TensorFlow、PyTorch、MindSpore、PaddlePaddle、OneFlow 和 Jittor 等不同后端之间无缝切换，并适配 Nvidia GPU、华为昇腾、寒武纪等多种硬件。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS, Windows\n*   **Python 版本**：建议 Python 3.7 - 3.9\n*   **后端依赖**：根据您的选择，需预先安装对应的深度学习框架（或安装 TensorLayerX 时自动处理兼容版本）。\n\n**推荐的后端版本兼容性参考：**\n\n| TensorLayerX | TensorFlow | MindSpore | PaddlePaddle | PyTorch | OneFlow | Jittor |\n| :---: | :---: | :---: | :---: | :---: | :---: | :---: |\n| v0.5.8 | v2.4.0 | v1.8.1 | v2.2.0 | v1.10.0 | latest | v1.3.8.5 |\n\n> **提示**：国内用户建议使用清华源或阿里源加速 pip 安装过程。\n\n## 2. 安装步骤\n\n您可以选择通过 pip 安装稳定版，或从源码安装最新版。\n\n### 方式一：通过 pip 安装（推荐）\n\n```bash\n# 使用国内镜像源加速安装\npip3 install tensorlayerx -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：从源码安装（适合高级用户）\n\n如果您需要体验最新功能，可以从 GitHub 直接安装：\n\n```bash\npip3 install git+https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Ftensorlayerx.git\n```\n\n### 方式三：使用 Docker\n\nTensorLayerX 提供了预装好环境的 Docker 镜像：\n\n```bash\ndocker pull tensorlayer\u002Ftensorlayerx:latest\n```\n\n## 3. 基本使用\n\nTensorLayerX 的核心优势在于**一次编写，多后端运行**。只需设置环境变量 `TL_BACKEND`，即可轻松切换底层框架。\n\n以下是一个构建简单多层感知机（MLP）的示例：\n\n```python\nimport os\n\n# 核心步骤：设置后端，可随意切换为 'tensorflow', 'mindspore', 'paddle', 'torch', 'oneflow', 'jittor'\nos.environ['TL_BACKEND'] = 'tensorflow' \n\nimport tensorlayerx as tlx\nfrom tensorlayerx.nn import Module\nfrom tensorlayerx.nn import Linear\n\nclass CustomModel(Module):\n\n  def __init__(self):\n      super(CustomModel, self).__init__()\n\n      # 定义网络层\n      self.linear1 = Linear(out_features=800, act=tlx.ReLU, in_features=784)\n      self.linear2 = Linear(out_features=800, act=tlx.ReLU, in_features=800)\n      self.linear3 = Linear(out_features=10, act=None, in_features=800)\n\n  def forward(self, x, foo=False):\n      z = self.linear1(x)\n      z = self.linear2(z)\n      out = self.linear3(z)\n      if foo:\n          out = tlx.softmax(out)\n      return out\n\n# 实例化模型\nMLP = CustomModel()\nMLP.set_eval()\n\nprint(\"模型创建成功，当前后端为:\", os.environ['TL_BACKEND'])\n```\n\n**下一步建议：**\n*   访问 [官方文档](https:\u002F\u002Ftensorlayerx.readthedocs.io) 查看 MNIST、CIFAR-10 及 GAN 等完整教程。\n*   浏览 [TLXZoo](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTLXZoo) 获取预训练模型。\n*   观看 [Bilibili 深度学习课程](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1xB4y1h7V2) 学习更多实战案例。","某跨国自动驾驶团队需将研发好的感知模型从实验室的 NVIDIA GPU 集群迁移至量产车搭载的华为昇腾（Ascend）芯片，以满足国产化部署需求。\n\n### 没有 TensorLayerX 时\n- **代码重构成本极高**：团队原本基于 PyTorch 编写的模型，为了适配昇腾芯片，必须手动逐行改写为 MindSpore 语法，耗时数周且极易引入逻辑错误。\n- **多环境维护困难**：为了验证不同硬件表现，开发人员需在本地维护多套独立的代码分支和虚拟环境，导致版本管理混乱，协作效率低下。\n- **算子对齐风险大**：在不同框架间迁移时，由于激活函数或损失函数的细微实现差异，导致模型在目标硬件上的精度无法复现，调试周期漫长。\n- **硬件锁定严重**：一旦选定某种芯片架构，后续若想尝试其他厂商（如寒武纪）的硬件，几乎意味着要推倒重来，缺乏灵活性。\n\n### 使用 TensorLayerX 后\n- **一套代码全域运行**：只需修改 `TL_BACKEND` 环境变量一行配置，即可将原有的 PyTorch 风格代码无缝切换至 MindSpore 后端，直接在昇腾芯片上运行，无需重写核心逻辑。\n- **统一开发工作流**：团队成员不再需要维护多套代码库，所有实验均在同一套源码下进行，通过配置即可动态切换底层框架，大幅降低了协作与版本管理成本。\n- **精度一致性保障**：TensorLayerX 屏蔽了底层框架的算子差异，确保模型在不同硬件上的前向传播与训练结果高度一致，显著缩短了精度对齐的调试时间。\n- **灵活应对硬件迭代**：面对未来新的国产 AI 芯片，只需等待后端适配更新，现有业务代码即可快速移植，彻底打破了特定硬件厂商的绑定限制。\n\nTensorLayerX 通过“一次编写，处处运行”的统一架构，让算法团队从繁琐的框架迁移工作中解放出来，专注于核心业务创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorlayer_TensorLayerX_43ebe724.png","tensorlayer","TensorLayer Community","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftensorlayer_5198405d.png","A neutral open community to promote AI technology.",null,"tensorlayer@gmail.com","http:\u002F\u002Fwww.tensorlayerx.com\u002Findex_en.html?chlang=&langid=2","https:\u002F\u002Fgithub.com\u002Ftensorlayer",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Python","#3572A5",99.9,{"name":86,"color":87,"percentage":88},"Dockerfile","#384d54",0.1,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0,{"name":94,"color":95,"percentage":92},"Batchfile","#C1F12E",528,46,"2026-03-26T20:48:06","NOASSERTION","未说明","非必需。支持多种硬件后端，包括 NVIDIA GPU、华为 Ascend（昇腾）、寒武纪等，具体取决于所选的后端框架（如 TensorFlow, PyTorch, MindSpore 等）。",{"notes":103,"python":100,"dependencies":104},"TensorLayerX 是一个多后端 AI 框架，用户需通过设置环境变量 'TL_BACKEND' 来选择具体的后端（如 tensorflow, torch, mindspore, paddle 等）。安装前需确保已安装对应版本的后端框架。支持通过 Docker 快速部署。",[105,106,107,108,109,110],"tensorflow>=2.4.0","mindspore>=1.8.1","paddlepaddle>=2.2.0","torch>=1.10.0","oneflow (latest)","jittor>=1.3.8.5",[14],[113,72,114,115,116,117,118,119,120,121,122,123],"tensorlayerx","tensorflow","paddlepaddle","mindspore","pytorch","jittor","oneflow","deep-learning","machine-learning","neural-network","python","2026-03-27T02:49:30.150509","2026-04-07T14:36:09.869176",[127,132,137,142,147,152],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},22274,"TensorLayerX 的 Dropout 层是否支持 PaddlePaddle 的 mode=\"downscale_in_infer\" 模式？","目前接口参数的改动需要后端（如 TensorFlow, PyTorch, MindSpore）同步修改底层源码，实现难度较大。如果不是必须使用该参数，建议在训练时继续使用默认的 \"upscale_in_train\" 模式。如果确实需要，部分版本可能已支持，可尝试在初始化时传入 mode=\"downscale_in_infer\" 参数进行测试。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F31",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},22275,"将 PaddlePaddle 模型迁移到 TensorLayerX 后，为什么预测结果不一致或数值差异巨大？","常见原因有两点：1. 输出层未添加 Softmax，导致 Paddle 输出 logits 而 TLX 输出概率值（或反之），需统一处理；2. 卷积层权重未正确加载。由于不同框架权重初始化方法不同，直接对比随机初始化的模型输出会有差异。必须先将 Paddle 的预训练权重赋值给 TensorLayerX 对应的层，再进行推理对比，此时计算结果应一致。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F11",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},22276,"继承 tlx.nn.Sequential 自定义网络类时，是否必须编写 forward() 方法？","是的，以 Sequential() 为基类的网络类建议显式编写 forward() 方法。如果不写，在某些调试场景下可能无法正确获取网络层参数信息（出现 \"Unable to get repr\" 警告），且在执行 list(self._sub_layers.values()) 等操作时可能导致网络层被跳过或无法正常工作。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F33",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},22277,"创建 LayerNorm 层后，为什么无法获取 gamma 和 beta 参数或显示为空？","这是旧版本（如 0.5.6）的一个问题，参数初始化逻辑未完全生效。该问题已在主分支修复。请通过命令 `pip install git+https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002Ftensorlayerx.git` 安装最新开发版，即可正常获取和初始化 LayerNorm 的可训练权重向量。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F30",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},22278,"TensorLayerX 是否支持 NMS、TopK、Mish 激活函数等常用算子？","大部分常用功能已支持。hardswish、nms、iou 等功能已添加；topk, flatten, identity 可通过 `tlx.ops` 模块调用；mish, swish, hardsigmoid 等激活函数可通过 `tlx.nn` 模块调用。如果遇到缺失功能，建议检查版本是否最新或暂时自行实现。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F25",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},22279,"构建 TensorLayerX 的 Docker 镜像时遇到 [NO_PUBKEY] 错误如何解决？","该错误通常是由于 Docker 容器内缺少必要的 GPG 密钥导致的。在构建前，需要在 Dockerfile 中添加步骤来导入缺失的公钥。例如，在运行 `apt-get update` 之前，先执行 `apt-key adv --keyserver keyserver.ubuntu.com --recv-keys \u003C缺失的 KEY ID>` 来修复签名验证问题。","https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX\u002Fissues\u002F6",[158,163,168,173,178,183,188,193],{"id":159,"version":160,"summary_zh":161,"released_at":162},136009,"v0.5.8","[TensorLayerX 0.5.8](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX) 是一个维护版本。\n\n它包含多项错误修复。\n\n欢迎使用并提出建议！","2023-02-03T08:05:46",{"id":164,"version":165,"summary_zh":166,"released_at":167},136010,"v0.5.7","[TensorLayerX 0.5.7](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX) 是一个维护版本。在本次发布中，我们做了以下改动：\n\n- 修复了 PyTorch 后端的 depthtospace 算子。\n- 修复了训练 API 无法接受多个输入的问题。\n- 添加了从 PyTorch 或 Paddle 导入已训练模型到 TensorLayerX 的示例。\n- 新增了 roll 和 logsoftmax 算子。\n- 更新了文档，说明使用 TensorLayerX 任意后端训练的模型都可以导入到 TensorLayerX 的其他后端。\n\n欢迎大家使用，并提出宝贵建议！","2022-09-19T06:51:25",{"id":169,"version":170,"summary_zh":171,"released_at":172},136011,"v0.5.6","[TensorLayerX 0.5.6](https:\u002F\u002Fgithub.com\u002Ftensorlayer\u002FTensorLayerX) 是一个维护版本。本次发布包含了以下更改：\n\n- 修复了 Sequential 模式下 ONNX 节点的收集问题。\n- 修复了 RNN、LSTM 和 GRU 训练参数中的 bug。\n- 解决了 DepthWiseConv2d 不同后端参数不一致的问题。\n- 修复了将参数保存为 npz 文件的 bug。\n- 更新了填充层。\n\n欢迎使用并提出建议！","2022-07-15T02:26:36",{"id":174,"version":175,"summary_zh":176,"released_at":177},136012,"v0.5.5","[TensorLayerX 0.5.5](https:\u002F\u002Fgithub.com\u002F) 是一个维护版本。本次发布包含以下变更：\n\n- 新增了 `get_device` 和 `to_device` 操作符。\n- 将平均池化层的参数名称统一修改为（`AvgPool1d`、`GlobalAvgPool1d`、`AdaptiveAvgPool1d`、`AvgPool2d`、`GlobalAvgPool2d` 等）。\n- 修复了 LSTM、RNN 和 GRU 的问题。\n- 修复了 TensorFlow 后端中 `ParameterList` 和 `ParameterDict` 的训练参数未被正确收集的 bug。\n- 增加了对 MindSpore 1.7.0 版本的支持。\n\n欢迎大家使用并提出宝贵建议！","2022-06-27T02:22:17",{"id":179,"version":180,"summary_zh":181,"released_at":182},136013,"v0.5.4","[TensorLayerX 0.5.4](https:\u002F\u002Fgithub.com\u002F) 是一个维护版本。本次发布包含以下更改：\n\n- 添加了度量函数的文档\n- 新增了 Einsum 功能\n- 修复了 PyTorch 后端的优化器问题\n- 修复了将激活函数用作参数时的预处理问题\n\n欢迎使用并提出建议！","2022-05-31T02:47:37",{"id":184,"version":185,"summary_zh":186,"released_at":187},136014,"v0.5.3","[TensorLayerX 0.5.3](https:\u002F\u002Fgithub.com\u002F) 是一个维护版本。在本次发布中，我们做了以下改动：\n\n- 增加了 `kernel_size`、`stride` 和 `dilation` 参数，支持整数或元组类型。\n- 增加了 `padding` 模式，支持整数、元组或字符串。字符串可取值为 `\"SAME\"` 或 `\"VALID\"`。\n- 为 ONNX 模型导出新增了 TensorLayerX 模型拓扑，可通过 `model.build_graph(inputs)` 生成模型拓扑。\n- 修复了因 MindSpore 优化器封装导致训练速度较慢的问题。\n\n欢迎大家使用，并提出宝贵建议！","2022-05-16T06:54:45",{"id":189,"version":190,"summary_zh":191,"released_at":192},136015,"v0.5.1","[TensorLayerX 0.5.1](https:\u002F\u002Fgithub.com\u002F) 是一个维护版本。在本次发布中，我们更新了多个接口和参数名称，使其更易于使用。部分示例也得到了优化。\n\n欢迎使用，并提出您的建议！","2022-04-14T08:44:11",{"id":194,"version":195,"summary_zh":196,"released_at":197},136016,"v0.5.0","TensorLayerX 0.5.0 是一个维护版本，支持 TensorFlow、MindSpore 和 PaddlePaddle 后端，并部分支持 PyTorch 算子后端，使用户能够在 NVIDIA GPU 和华为昇腾等不同硬件上运行代码。欢迎使用并提出建议。","2022-03-07T08:52:55"]