[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-dmlc--dlpack":3,"tool-dmlc--dlpack":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":107,"env_os":108,"env_gpu":109,"env_ram":109,"env_deps":110,"category_tags":113,"github_topics":114,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":149},6870,"dmlc\u002Fdlpack","dlpack","common in-memory tensor structure ","DLPack 是一个开放的内存张量结构标准，旨在成为连接不同深度学习框架的通用桥梁。在人工智能开发中，不同的框架（如 PyTorch、TensorFlow、MXNet 等）往往使用各自独立的内部数据格式，导致算子共享困难、新硬件适配成本高以及后端切换繁琐。DLPack 通过定义一种统一的内存张量描述方式，让数据能够在这些框架间无缝流转，而无需进行昂贵的数据拷贝或格式转换。\n\n这一设计主要解决了生态碎片化带来的互操作性难题。它使得开发者能够轻松地在不同框架间复用算子，方便厂商快速接入新的硬件设备或操作实现，同时也支持用户灵活切换底层计算后端（例如不同版本的 BLAS 库）。对于最终用户而言，这意味着更丰富的算子选择以及混合使用多个框架的可能性。\n\nDLPack 特别适合深度学习框架开发者、系统工程师以及需要整合多种工具链的研究人员使用。其独特的技术亮点在于“只做桥梁，不做实现”的设计理念：它不试图重新发明张量或算子，而是提供一个轻量级、标准化的接口规范，让现有的各类框架和硬件库能够基于此标准高效协作，共同构建更加开放和兼容的 AI 生态系统。","# DLPack: Open In Memory Tensor Structure\n\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Factions\u002Fworkflows\u002Fmain.yaml\u002Fbadge.svg?branch=main)](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Factions\u002Fworkflows\u002Fmain.yaml)\n\nDocumentation: [https:\u002F\u002Fdmlc.github.io\u002Fdlpack\u002Flatest](https:\u002F\u002Fdmlc.github.io\u002Fdlpack\u002Flatest)\n\nDLPack is an open in-memory tensor structure for sharing tensors among frameworks. DLPack enables\n\n- Easier sharing of operators between deep learning frameworks.\n- Easier wrapping of vendor level operator implementations, allowing collaboration when introducing new devices\u002Fops.\n- Quick swapping of backend implementations, like different version of BLAS\n- For final users, this could bring more operators, and possibility of mixing usage between frameworks.\n\nWe do not intend to implement Tensor and Ops, but instead use this as common bridge\nto reuse tensor and ops across frameworks.\n\n## Proposal Procedure\nRFC proposals are opened as issues. The major release will happen as a vote issue to make\nsure the participants agree on the changes.\n\n## Project Structure\nThere are two major components so far\n- include: stabilized headers\n- contrib: in progress unstable libraries\n\n## People\nHere are list of people who have been involved in DLPack RFC design proposals:\n\n@soumith @piiswrong @Yangqing @naibaf7 @bhack @edgarriba @tqchen @prigoyal @zdevito\n","# DLPack：开放的内存中张量结构\n\n[![构建状态](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Factions\u002Fworkflows\u002Fmain.yaml\u002Fbadge.svg?branch=main)](https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Factions\u002Fworkflows\u002Fmain.yaml)\n\n文档：[https:\u002F\u002Fdmlc.github.io\u002Fdlpack\u002Flatest](https:\u002F\u002Fdmlc.github.io\u002Fdlpack\u002Flatest)\n\nDLPack 是一种开放的内存中张量结构，用于在不同深度学习框架之间共享张量。DLPack 能够实现以下功能：\n\n- 更轻松地在深度学习框架之间共享算子。\n- 更容易封装厂商级别的算子实现，从而在引入新设备或新算子时促进协作。\n- 快速切换后端实现，例如不同版本的 BLAS。\n- 对于最终用户而言，这将带来更多算子，并有可能在不同框架之间混合使用。\n\n我们并不打算直接实现张量和算子，而是将其用作一个通用桥梁，以便跨框架复用张量和算子。\n\n## 提案流程\nRFC 提案以 Issue 的形式发起。主要版本的发布将以投票 Issue 的形式进行，以确保参与者对变更达成一致。\n\n## 项目结构\n目前项目包含两个主要部分：\n- include：已稳定化的头文件\n- contrib：正在开发中的不稳定库\n\n## 参与者\n以下是参与 DLPack RFC 设计提案的相关人员名单：\n\n@soumith @piiswrong @Yangqing @naibaf7 @bhack @edgarriba @tqchen @prigoyal @zdevito","# DLPack 快速上手指南\n\nDLPack 是一个开放的内存张量结构标准，旨在实现不同深度学习框架之间的张量共享。它不直接实现张量或算子，而是作为通用桥梁，让 PyTorch、TensorFlow、MXNet 等框架能够零拷贝地交换数据。\n\n## 环境准备\n\n- **系统要求**：支持 Linux、macOS 或 Windows。\n- **前置依赖**：\n  - C++ 编译器（支持 C++11 及以上标准）\n  - CMake（可选，用于构建测试或示例）\n  - 任意支持 DLPack 的深度学习框架（如 PyTorch ≥1.2, TensorFlow ≥2.0, MXNet 等）\n\n> 注意：DLPack 本身只是一个头文件规范，通常无需独立安装，而是由各个框架内置支持。\n\n## 安装步骤\n\nDLPack 主要以头文件形式存在，推荐直接通过包管理器安装或使用框架内置版本。\n\n### 方式一：通过 conda 安装（推荐国内用户）\n\n```bash\nconda install -c conda-forge dlpack\n```\n\n> 国内用户可使用清华镜像加速：\n```bash\nconda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fconda-forge\nconda install dlpack\n```\n\n### 方式二：手动获取头文件\n\n克隆仓库并复制头文件到项目包含路径：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack.git\ncp -r dlpack\u002Finclude\u002Fdlpack \u002Fyour\u002Fproject\u002Finclude\u002F\n```\n\n## 基本使用\n\n以下示例展示如何在 PyTorch 和 NumPy 之间通过 DLPack 共享张量（零拷贝）：\n\n```python\nimport torch\nfrom torch.utils.dlpack import to_dlpack, from_dlpack\nimport numpy as np\n\n# 创建 PyTorch 张量\nx = torch.tensor([1, 2, 3], device=\"cuda\")\n\n# 转换为 DLPack 胶囊对象\ndlpack_tensor = to_dlpack(x)\n\n# 假设另一个框架（如自定义 C++ 程序或 TensorFlow）接收该胶囊\n# 此处模拟从 DLPack 恢复为 PyTorch 张量\ny = from_dlpack(dlpack_tensor)\n\nprint(y)  # 输出: tensor([1, 2, 3], device='cuda:0')\n```\n\n在 C++ 中，只需包含 `dlpack.h` 即可解析张量元数据并访问原始数据指针：\n\n```cpp\n#include \u003Cdlpack\u002Fdlpack.h>\n\nvoid process_tensor(DLManagedTensor* managed_tensor) {\n    DLTensor* tensor = managed_tensor->dl_tensor;\n    \u002F\u002F 访问 tensor->data, tensor->shape, tensor->ndim 等\n}\n```\n\n> 提示：大多数现代框架已内置 DLPack 支持，开发者通常只需调用框架提供的 `to_dlpack` \u002F `from_dlpack` 接口即可完成跨框架数据传递。","某计算机视觉团队正在构建一个混合推理系统，需要同时调用 PyTorch 训练的模型和 TensorRT 优化的算子来处理高清视频流。\n\n### 没有 dlpack 时\n- **内存拷贝开销大**：在不同框架间传递图像张量时，必须先将数据从 GPU 显存拷贝到 CPU 内存，再重新分配到目标框架的显存中，导致推理延迟显著增加。\n- **开发维护成本高**：每当引入新的硬件后端（如新版本的 NPU），工程师都需要为每种框架组合编写专用的数据转换接口代码，工作重复且容易出错。\n- **生态隔离严重**：无法直接复用社区中针对特定硬件优化的高质量算子，因为数据格式不兼容，迫使团队只能使用性能较差的通用实现。\n- **调试困难**：多次不必要的数据搬运不仅掩盖了真实的性能瓶颈，还增加了显存溢出的风险，使得系统稳定性难以保障。\n\n### 使用 dlpack 后\n- **零拷贝共享**：dlpack 定义了统一的内存张量结构，允许 PyTorch 和 TensorRT 直接指向同一块 GPU 显存地址，彻底消除了框架间的数据拷贝延迟。\n- **快速接入新硬件**：只需让新设备驱动支持 dlpack 标准接口，即可立即被所有主流框架识别和调用，无需为每对框架单独开发适配器。\n- **灵活混合编程**：团队可以自由选择各框架中最强的算子进行组合，例如用 A 框架做预处理，B 框架做核心推理，充分发挥异构计算优势。\n- **资源效率提升**：减少了中间缓冲区的显存占用，降低了显存溢出概率，使系统在同等硬件下能处理更高分辨率的视频流。\n\ndlpack 通过建立统一的内存桥梁，打破了深度学习框架间的“数据孤岛”，让异构计算协作变得像本地调用一样高效自然。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdmlc_dlpack_09422ce8.png","dmlc","Distributed (Deep) Machine Learning Community","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdmlc_b69cc302.png","A Community of Awesome Machine Learning Projects",null,"https:\u002F\u002Fgithub.com\u002Fdmlc",[79,83,87,91,95,99],{"name":80,"color":81,"percentage":82},"C++","#f34b7d",57,{"name":84,"color":85,"percentage":86},"Python","#3572A5",29.5,{"name":88,"color":89,"percentage":90},"CMake","#DA3434",9.1,{"name":92,"color":93,"percentage":94},"Makefile","#427819",2.1,{"name":96,"color":97,"percentage":98},"Shell","#89e051",1.8,{"name":100,"color":101,"percentage":102},"C","#555555",0.4,1189,160,"2026-04-07T05:59:17","Apache-2.0",1,"","未说明",{"notes":111,"python":109,"dependencies":112},"DLPack 是一个用于在不同深度学习框架之间共享张量的内存结构标准（头文件规范），而非具体的可执行软件或模型库。它主要包含 C\u002FC++ 头文件，旨在作为桥梁实现算子和张量的跨框架复用，因此没有特定的操作系统、GPU、内存或 Python 版本强制要求，具体运行环境取决于宿主框架（如 PyTorch, TensorFlow, TVM 等）的配置。",[],[14],[115,116,117],"tensor","operator","deep-learning","2026-03-27T02:49:30.150509","2026-04-12T20:07:00.043248",[121,126,131,136,140,145],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},30986,"DLPack 如何处理不同设备（如 CUDA 流）之间的同步语义？","在 Python 端，已对齐使用 `__dlpack_device__` 协议和接受 `stream` 作为输入的 `__dlpack__` 协议。生产者负责确保其产生的数据在给定流上是安全可用的。对于 C 库，建议添加接口推荐标准来解决相同问题。消费者内部实现细节包括查找交换流：`consumer_stream = _find_exchange_stream(device)`，然后调用 `producer.__dlpack__(consumer_stream)` 获取数据。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fissues\u002F57",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},30987,"如何保证 DLPack 未来的 ABI（二进制接口）兼容性以便添加新字段？","建议在 DLTensor 结构体末尾附加版本信息以最小化 ABI 变更。具体方案是引入 `DLManagedTensorVersioned` 结构体，其中包含 `DLPackVersion`（含 dlpack 版本和 abi 版本）、`manager_ctx`、`deleter`、`flags` 以及原有的 `dl_tensor`。旧框架可以通过忽略新增字段继续消费新结构的 Tensor，因为现有字段的内存布局保持不变。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fissues\u002F104",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},30988,"为什么需要更改 Python Capsule 的名称（如从 'dltensor' 改为带版本的名称）？","虽然 'dltensor' 和 'used_dltensor' 是现有的契约，但为了在 ABI 不兼容时提供清晰的错误提示而非直接崩溃，建议更改 Capsule 名称（例如命名为 `\"dltensor_0.6_1\"`）。如果不改名，当旧代码尝试读取包含新字段的结构体时可能会因 ABI 差异而崩溃。改名可以作为一种信号，表明发生了破坏性变更，同时 `PyCapsule_GetPointer` 通常需要检查名称，因此大多数代码都会受到影响从而避免静默失败。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fissues\u002F34",{"id":137,"question_zh":138,"answer_zh":139,"source_url":130},30989,"DLPack 是否计划推出带有版本管理的新结构体？具体时间线如何？","是的，社区已达成共识引入 `DLManagedTensorVersioned` 并更改 pyscapsule 名称以确保正确的错误处理。维护者计划在讨论期结束后发布通知，并在一个月后执行更新。新结构体定义为：`struct DLManagedTensorVersioned { DLPackVersion version; void * manager_ctx; void (*deleter)(struct DLManagedTensorVersioned * self); uint64_t flags; DLTensor dl_tensor; }`。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},30990,"如何通过 C 函数指针 API 加速 DLPack 交换以减少 GPU 应用中的开销？","针对 Python 函数交换带来的 0.7us-3us 开销，提议引入通用的 C 风格分配器函数指针 API。该 API 不依赖 Python 环境，允许被调用方直接使用原型 DLTensor 信息进行分配。函数原型包括传入原型 Tensor、输出 DLManagedTensorVersioned 以及错误处理上下文，成功返回 0，失败返回 -1。这有望带来 3-5 倍的速度提升，特别适用于对延迟敏感的 GPU 内核场景。","https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fissues\u002F175",{"id":146,"question_zh":147,"answer_zh":148,"source_url":130},30991,"在 DLPack 版本更新中，只读标志（read-only flag）是如何设计的？","在提出的 `DLManagedTensorVersioned` 结构体中，增加了一个 `uint64_t flags` 字段用于存储标志位。其中定义了 `DLPACK_BIT_MASK_READ_ONLY` 为 1。这使得张量可以标记为只读，帮助消费者在不复制数据的情况下安全地处理内存，进一步优化了内存管理和交换效率。",[150,155,160,165,170,175,180,185,190,195,200,205,210],{"id":151,"version":152,"summary_zh":153,"released_at":154},222872,"v1.3","本次发布包含对 DLPack 快速 C 交换 API 规范的更新。\n\n## 变更内容\n* [文档] 在文档中加入交换 API，由 @tqchen 在 https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fpull\u002F181 中完成。\n* 按照新规范将交换 API 更新为胶囊格式，由 @tqchen 在 https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fpull\u002F180 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fcompare\u002Fv1.2...v1.3","2026-01-26T13:23:49",{"id":156,"version":157,"summary_zh":158,"released_at":159},222873,"v1.2","此版本为该标准引入了以下新变更：\n\n- 在 https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fpull\u002F168 中添加对 Trainium 设备的支持\n- 在 https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fpull\u002F178 中强制要求当 ndim 不为零时，strides 不得为空\n- 在 https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fpull\u002F174 中支持用于快速数据交换和流处理的 DLPACK C 函数\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fcompare\u002Fv1.1...v1.2","2025-10-11T21:15:40",{"id":161,"version":162,"summary_zh":163,"released_at":164},222874,"v1.1","本次发布主要聚焦于低精度数据类型的支持，这在最新的机器学习工作负载中愈发重要。\n\n- 新增对 F8 的支持\n- 新增对 F4 的支持\n- 新增对 F6 的支持\n\n","2025-03-11T15:05:00",{"id":166,"version":167,"summary_zh":168,"released_at":169},222875,"v1.0","本次发布标记为 DLPack 1.0 版本。\n\n- 引入版本化结构 `DLManagedTensorVersioned`\n- 导出张量的相关标志\n\n本次发布伴随数组 API 的变更，详情请参阅下方说明。\n\n自 Python 数组 API 标准 2023 版起，`__dlpack__` 方法新增了一个 `max_version` 参数，用于让消费方告知生产方所支持的 DLPack 最高版本。从 DLPack 1.0 开始，应使用 `DLManagedTensorVersioned` 结构体，而现有的 `DLManagedTensor` 结构体已被弃用。不过，在过渡期内，库开发者应尽量同时支持这两种结构体。","2024-09-09T15:40:21",{"id":171,"version":172,"summary_zh":173,"released_at":174},222876,"v1.0rc","本次发布标记为 DLPack v1.0 发布候选版。主要变更包括：\n\n- 引入版本化结构 `DLManagedTensorVersioned`\n- 导出张量的相关标志\n\n本次发布伴随数组 API 的变更，详情请参阅下方说明。\n\n自 Python 数组 API 标准 2023 版起，`__dlpack__` 方法新增了一个 `max_version` 参数，用于让消费方告知生产方所支持的最高 DLPack 版本。自 DLPack 1.0 起，应使用 `DLManagedTensorVersioned` 结构体，现有的 `DLManagedTensor` 结构体已被弃用；不过，在过渡期内，库开发者应尽可能同时支持这两种结构体。","2024-02-14T18:19:31",{"id":176,"version":177,"summary_zh":178,"released_at":179},222877,"v0.8","这是在 DLPack ABI 发生变更以加入版本控制之前的最后一个版本。\n\n- 添加 kDLBool","2023-01-05T18:42:00",{"id":181,"version":182,"summary_zh":183,"released_at":184},222878,"v0.7","此版本新增以下字段：\n- 添加 kDLHexagon\n- 添加 kDLOneAPI\n- 添加 DLPACK_VERSION 和 DLPACK_ABI_VERSION","2022-06-01T20:44:32",{"id":186,"version":187,"summary_zh":188,"released_at":189},222879,"v0.6","- 添加 kDLROCMHost\r\n- 添加 kDLCUDAManaged","2021-07-01T14:01:53",{"id":191,"version":192,"summary_zh":193,"released_at":194},222880,"v0.5","重命名枚举名称：\n\n- kDLGPU -> kDLCUDA\n- kDLCPUPinned -> kDLCUDAHost\n\nABI 兼容性保持不变，因为这只是常量名称的更改，新旧版本之间仍可正常互操作。","2021-05-17T17:37:32",{"id":196,"version":197,"summary_zh":198,"released_at":199},222881,"v0.4","- OpaqueHandle 类型\n- 复数支持\n- 将 DLContext 重命名为 DLDevice\n    - DLTensor.ctx 改为 DLTensor.device\n    - 这需要依赖框架升级类型名称。\n    - ABI 兼容旧版本，因为只是常量名称的更改，新旧版本之间仍可进行互操作。","2021-02-20T16:14:03",{"id":201,"version":202,"summary_zh":203,"released_at":204},222882,"v0.3","Minor release\r\n- Add bfloat16\r\n- Vulkan support","2021-01-13T16:14:42",{"id":206,"version":207,"summary_zh":208,"released_at":209},222883,"v0.2","- Add DLManagedTensor structure for borrowing tensors \r\n- Add prefix DL to all enum constant values\r\n  - This requires dependent frameworks to upgrade their reference to these constant\r\n  - The ABI is compatible, as it is only change of constant name.\r\n- New device types\r\n  - kDLMetal for Apple Metal device\r\n  - kDLVPI for verilog simulator memory\r\n  - kDLROCM for AMD GPUs","2017-11-02T12:39:08",{"id":211,"version":212,"summary_zh":213,"released_at":214},222884,"v0.1","- Stablized DLTensor\r\n- Standard project structure for RPC and stable version\r\n- Major adoption from frameworks confirmed https:\u002F\u002Fgithub.com\u002Fdmlc\u002Fdlpack\u002Fissues\u002F10\r\n","2017-06-03T16:16:29"]