[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MishaLaskin--vqvae":3,"tool-MishaLaskin--vqvae":64},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,2,"2026-04-06T11:32:50",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[15,16,52,61,13,62,43,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":32,"env_os":97,"env_gpu":98,"env_ram":97,"env_deps":99,"category_tags":105,"github_topics":96,"view_count":32,"oss_zip_url":96,"oss_zip_packed_at":96,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":109},4489,"MishaLaskin\u002Fvqvae","vqvae","A pytorch implementation of the vector quantized variational autoencoder (https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.00937)","vqvae 是一个基于 PyTorch 实现的向量量化变分自编码器（VQ-VAE）开源项目，旨在复现 DeepMind 提出的经典生成模型架构。它主要解决了传统变分自编码器在生成高质量离散数据时面临的“后验坍塌”难题，通过将连续的特征空间映射为离散的代码本索引，显著提升了图像重建的清晰度与细节表现力。\n\n该工具特别适合人工智能研究人员、深度学习开发者以及对生成式模型感兴趣的技术人员使用。用户不仅可以利用它进行图像压缩与重建实验，还能结合 PixelCNN 在离散潜空间中进行高质量的图像采样与生成。\n\nvqvae 的核心技术亮点在于其独特的“向量量化”机制：编码器将输入图像转化为连续向量后，通过查找最接近的嵌入向量将其离散化，再由解码器还原图像。这种设计使得潜空间具有明确的离散结构，便于后续建模。项目代码结构清晰，模块化封装了编码器、解码器、量化器及残差网络组件，并提供了完整的训练脚本与超参数配置示例，方便用户快速上手研究与二次开发。","# Vector Quantized Variational Autoencoder\n\nThis is a PyTorch implementation of the vector quantized variational autoencoder (https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.00937). \n\nYou can find the author's [original implementation in Tensorflow here](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\u002Fblob\u002Fmaster\u002Fsonnet\u002Fpython\u002Fmodules\u002Fnets\u002Fvqvae.py) with [an example you can run in a Jupyter notebook](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\u002Fblob\u002Fmaster\u002Fsonnet\u002Fexamples\u002Fvqvae_example.ipynb).\n\n## Installing Dependencies\n\nTo install dependencies, create a conda or virtual environment with Python 3 and then run `pip install -r requirements.txt`. \n\n## Running the VQ VAE\n\nTo run the VQ-VAE simply run `python3 main.py`. Make sure to include the `-save` flag if you want to save your model. You can also add parameters in the command line. The default values are specified below:\n\n```python\nparser.add_argument(\"--batch_size\", type=int, default=32)\nparser.add_argument(\"--n_updates\", type=int, default=5000)\nparser.add_argument(\"--n_hiddens\", type=int, default=128)\nparser.add_argument(\"--n_residual_hiddens\", type=int, default=32)\nparser.add_argument(\"--n_residual_layers\", type=int, default=2)\nparser.add_argument(\"--embedding_dim\", type=int, default=64)\nparser.add_argument(\"--n_embeddings\", type=int, default=512)\nparser.add_argument(\"--beta\", type=float, default=.25)\nparser.add_argument(\"--learning_rate\", type=float, default=3e-4)\nparser.add_argument(\"--log_interval\", type=int, default=50)\n```\n\n## Models\n\nThe VQ VAE has the following fundamental model components:\n\n1. An `Encoder` class which defines the map `x -> z_e`\n2. A `VectorQuantizer` class which transform the encoder output into a discrete one-hot vector that is the index of the closest embedding vector `z_e -> z_q`\n3. A `Decoder` class which defines the map `z_q -> x_hat` and reconstructs the original image\n\nThe Encoder \u002F Decoder classes are convolutional and inverse convolutional stacks, which include Residual blocks in their architecture [see ResNet paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385). The residual models are defined by the `ResidualLayer` and `ResidualStack` classes.\n\nThese components are organized in the following folder structure:\n\n```\nmodels\u002F\n    - decoder.py -> Decoder\n    - encoder.py -> Encoder\n    - quantizer.py -> VectorQuantizer\n    - residual.py -> ResidualLayer, ResidualStack\n    - vqvae.py -> VQVAE\n```\n\n## PixelCNN - Sampling from the VQ VAE latent space \n\nTo sample from the latent space, we fit a PixelCNN over the latent pixel values `z_ij`. The trick here is recognizing that the VQ VAE maps an image to a latent space that has the same structure as a 1 channel image. For example, if you run the default VQ VAE parameters you'll RGB map images of shape `(32,32,3)` to a latent space with shape `(8,8,1)`, which is equivalent to an 8x8 grayscale image. Therefore, you can use a PixelCNN to fit a distribution over the \"pixel\" values of the 8x8 1-channel latent space.\n\nTo train the PixelCNN on latent representations, you first need to follow these steps:\n\n1. Train the VQ VAE on your dataset of choice\n2. Use saved VQ VAE parameters to encode your dataset and save discrete latent space representations with `np.save` API. In the `quantizer.py` this is the `min_encoding_indices` variable. \n3. Specify path to your saved latent space dataset in `utils.load_latent_block` function.\n4. Run the PixelCNN script\n\nTo run the PixelCNN, simply type \n\n`python pixelcnn\u002Fgated_pixelcnn.py`\n\nas well as any parameters (see the argparse statements). The default dataset is `LATENT_BLOCK` which will only work if you have trained your VQ VAE and saved the latent representations.\n","# 向量量化变分自编码器\n\n这是一个基于 PyTorch 的向量量化变分自编码器实现（https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.00937）。\n\n您可以在这里找到作者的 [TensorFlow 原始实现](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\u002Fblob\u002Fmaster\u002Fsonnet\u002Fpython\u002Fmodules\u002Fnets\u002Fvqvae.py)，并附带一个可以在 Jupyter Notebook 中运行的 [示例](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\u002Fblob\u002Fmaster\u002Fsonnet\u002Fexamples\u002Fvqvae_example.ipynb)。\n\n## 安装依赖\n\n要安装依赖，请创建一个包含 Python 3 的 conda 或虚拟环境，然后运行 `pip install -r requirements.txt`。\n\n## 运行 VQ-VAE\n\n要运行 VQ-VAE，只需执行 `python3 main.py`。如果您想保存模型，请务必加上 `-save` 标志。您还可以在命令行中添加参数。默认值如下：\n\n```python\nparser.add_argument(\"--batch_size\", type=int, default=32)\nparser.add_argument(\"--n_updates\", type=int, default=5000)\nparser.add_argument(\"--n_hiddens\", type=int, default=128)\nparser.add_argument(\"--n_residual_hiddens\", type=int, default=32)\nparser.add_argument(\"--n_residual_layers\", type=int, default=2)\nparser.add_argument(\"--embedding_dim\", type=int, default=64)\nparser.add_argument(\"--n_embeddings\", type=int, default=512)\nparser.add_argument(\"--beta\", type=float, default=.25)\nparser.add_argument(\"--learning_rate\", type=float, default=3e-4)\nparser.add_argument(\"--log_interval\", type=int, default=50)\n```\n\n## 模型\n\nVQ-VAE 包含以下基本模型组件：\n\n1. `Encoder` 类，定义映射 `x -> z_e`。\n2. `VectorQuantizer` 类，将编码器输出转换为离散的独热向量，该向量是与之最接近的嵌入向量的索引：`z_e -> z_q`。\n3. `Decoder` 类，定义映射 `z_q -> x_hat`，用于重建原始图像。\n\n编码器和解码器类都是卷积和反卷积堆栈，其架构中包含残差块 [参见 ResNet 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)。残差模型由 `ResidualLayer` 和 `ResidualStack` 类定义。\n\n这些组件按照以下文件夹结构组织：\n\n```\nmodels\u002F\n    - decoder.py -> Decoder\n    - encoder.py -> Encoder\n    - quantizer.py -> VectorQuantizer\n    - residual.py -> ResidualLayer, ResidualStack\n    - vqvae.py -> VQVAE\n```\n\n## PixelCNN — 从 VQ-VAE 隐空间采样\n\n要从隐空间采样，我们需要在隐层像素值 `z_ij` 上拟合一个 PixelCNN。这里的关键在于认识到 VQ-VAE 将图像映射到一个具有与单通道图像相同结构的隐空间。例如，如果您使用默认的 VQ-VAE 参数，它会将形状为 `(32,32,3)` 的 RGB 图像映射到形状为 `(8,8,1)` 的隐空间，这相当于一张 8×8 的灰度图像。因此，您可以使用 PixelCNN 来拟合 8×8 单通道隐空间“像素”值的分布。\n\n要训练 PixelCNN 对隐表示进行建模，您需要先执行以下步骤：\n\n1. 在您选择的数据集上训练 VQ-VAE。\n2. 使用保存的 VQ-VAE 参数对您的数据集进行编码，并使用 `np.save` API 保存离散的隐空间表示。在 `quantizer.py` 中，这个变量是 `min_encoding_indices`。\n3. 在 `utils.load_latent_block` 函数中指定您已保存的隐空间数据集路径。\n4. 运行 PixelCNN 脚本。\n\n要运行 PixelCNN，只需输入：\n\n`python pixelcnn\u002Fgated_pixelcnn.py`\n\n以及任何其他参数（请参阅 argparse 语句）。默认数据集是 `LATENT_BLOCK`，只有在您已经训练过 VQ-VAE 并保存了隐表示的情况下才能使用。","# VQ-VAE 快速上手指南\n\n本指南基于 PyTorch 实现的向量量化变分自编码器（Vector Quantized Variational Autoencoder），帮助开发者快速搭建并运行模型。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：Python 3.x\n- **依赖管理**：推荐使用 `conda` 或 `virtualenv` 创建独立虚拟环境\n- **网络建议**：若下载依赖较慢，可配置国内镜像源（如清华源、阿里源）加速 `pip` 安装\n\n## 安装步骤\n\n1. 创建并激活 Python 虚拟环境（以 conda 为例）：\n   ```bash\n   conda create -n vqvae python=3.8\n   conda activate vqvae\n   ```\n\n2. 克隆项目代码并进入目录（假设已获取源码）：\n   ```bash\n   cd path\u002Fto\u002Fvqvae\n   ```\n\n3. 安装依赖包（推荐使用国内镜像加速）：\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n## 基本使用\n\n### 训练 VQ-VAE 模型\n\n运行主脚本即可开始训练，默认参数适用于大多数实验场景：\n\n```bash\npython3 main.py\n```\n\n若需保存训练好的模型，请添加 `-save` 标志：\n\n```bash\npython3 main.py -save\n```\n\n可通过命令行自定义超参数，例如：\n\n```bash\npython3 main.py --batch_size 64 --n_updates 10000 --learning_rate 1e-4\n```\n\n常用参数说明：\n- `--batch_size`: 批次大小（默认 32）\n- `--n_updates`: 训练迭代次数（默认 5000）\n- `--embedding_dim`: 嵌入维度（默认 64）\n- `--n_embeddings`: 码本大小（默认 512）\n- `--beta`: 承诺损失权重（默认 0.25）\n\n### 模型结构概览\n\n核心组件位于 `models\u002F` 目录：\n- `encoder.py`: 编码器（$x \\to z_e$）\n- `quantizer.py`: 向量量化器（$z_e \\to z_q$）\n- `decoder.py`: 解码器（$z_q \\to \\hat{x}$）\n- `residual.py`: 残差块与残差堆栈\n- `vqvae.py`: 整体 VQ-VAE 模型封装\n\n### 潜在空间采样（可选）\n\n若需从潜在空间生成新样本，可结合 PixelCNN 进行建模：\n\n1. 先训练并保存 VQ-VAE 模型；\n2. 编码数据集并保存离散潜在表示（`min_encoding_indices`）；\n3. 在 `utils.load_latent_block` 中指定保存路径；\n4. 运行 PixelCNN 脚本：\n\n```bash\npython pixelcnn\u002Fgated_pixelcnn.py\n```\n\n> 注意：PixelCNN 训练依赖于已生成的潜在空间数据，默认数据集为 `LATENT_BLOCK`。","某游戏开发团队正在为一款复古像素风格 RPG 制作程序化生成的角色头像，需要确保新图像既多样又严格符合原有的低分辨率美术规范。\n\n### 没有 vqvae 时\n- 直接使用传统 VAE 生成的图像往往模糊不清，丢失了像素艺术至关重要的锐利边缘和清晰色块。\n- 难以控制生成内容的离散性，导致输出颜色混杂，无法直接映射到游戏引擎限定的有限调色板中。\n- 缺乏有效的潜在空间结构化手段，设计师无法通过简单的索引组合来复用或微调特定的面部特征（如眼睛形状、发型）。\n- 训练过程不稳定，生成的样本经常出现伪影，需要大量人工后期修图才能投入使用，严重拖慢迭代速度。\n\n### 使用 vqvae 后\n- 利用向量量化机制将连续潜在变量强制离散化，生成的头像边缘锐利、色彩分明，完美还原像素画质感。\n- 编码器输出的离散索引天然对应有限的嵌入向量，确保所有生成结果自动落在预设的合法色彩与结构空间内。\n- 潜在空间被压缩为类似 8x8 的离散网格，团队可结合 PixelCNN 对索引分布建模，实现按“部件”精准控制生成内容。\n- 模型训练收敛更快且稳定，产出的素材无需后期修图即可直接导入游戏资源库，大幅缩短美术生产管线。\n\nvqvae 通过将连续图像信息转化为高质量离散表示，解决了生成式模型在像素艺术领域难以保持结构清晰与色彩规范的核心难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMishaLaskin_vqvae_2e37bb7e.png","MishaLaskin","Michael Laskin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMishaLaskin_35a7c087.png","Senior Research Scientist at DeepMind","DeepMind","New York City","laskin.misha@gmail.com","https:\u002F\u002Fwww.mishalaskin.com\u002F","https:\u002F\u002Fgithub.com\u002FMishaLaskin",[85,89],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",89.9,{"name":90,"color":91,"percentage":92},"Python","#3572A5",10.1,889,105,"2026-03-31T12:35:08",null,"未说明","未说明 (基于 PyTorch 实现，通常支持 CUDA GPU 加速，但 README 未明确指定型号或显存要求)",{"notes":100,"python":101,"dependencies":102},"需创建 conda 或 virtualenv 环境并安装 requirements.txt 中的依赖。若需保存模型需添加 -save 参数。若要进行 PixelCNN 采样，需先训练 VQ-VAE 并将离散潜在空间表示保存为 np.save 格式。","3.x",[103,104],"torch","requirements.txt 中列出的其他依赖 (具体版本未列出)",[15,62],"2026-03-27T02:49:30.150509","2026-04-06T23:58:48.071324",[],[]]