[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-JayYip--m3tl":3,"tool-JayYip--m3tl":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":99,"env_ram":99,"env_deps":100,"category_tags":104,"github_topics":107,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":154},8787,"JayYip\u002Fm3tl","m3tl","BERT for Multitask Learning","m3tl 是一个基于 Hugging Face Transformers 构建的开源框架，旨在简化多模态多任务学习（Multi-Modal Multi-Task Learning）的开发流程。在深度学习领域，同时处理多个相关任务虽能提升模型性能，但传统方法往往面临数据预处理繁琐、任务管理复杂以及任务间交互难以协调等挑战。m3tl 的出现正是为了解决这些痛点，它让开发者编写多任务模型的难度降至与单任务模型相当的水平，同时无缝支持文本、图像等多模态数据的联合训练。\n\n该工具特别适合从事自然语言处理、计算机视觉及推荐系统方向的算法工程师和研究人员使用。其核心亮点在于提供了高度可编程的模块化设计，用户可灵活定制问题采样策略、损失函数组合方式、梯度手术（Gradient Surgery）以及基础模型后的网络结构。此外，m3tl 内置了多种业界领先的多任务学习算法，让用户无需深究底层细节即可复现前沿成果。目前，它已广泛支持分类、序列标注、回归、对比学习等多种任务类型。借助强大的 Transformers 底座，m3tl 帮助研究者更高效地探索复杂算法，将精力集中于模型创新而非工程琐事。","# M3TL\n\n\n\n**M**ulti-**M**odal **M**ulti-**T**ask **L**earning\n\n## Install\n\n```\npip install m3tl\n```\n\n## What is it\n\nThis is a project that uses transformers(based on huggingface transformers) as base model to do **multi-modal multi-task learning**.   \n\n## Why do I need this\n\nMulti-task learning(MTL) is gaining more and more attention, especially in deep learning era. It is widely used in NLP, CV, recommendation, etc. However, MTL usually involves complicated data preprocessing, task managing and task interaction. Other open-source projects, like TencentNLP and PyText, supports MTL but in a naive way and it's not straightforward to implement complicated MTL algorithm. In this project, we try to make writing MTL model as easy as single task learning model and further extend MTL to multi-modal multi-task learning. To do so, we expose following MTL related programable module to user:\n\n- problem sampling strategy\n- loss combination strategy\n- gradient surgery\n- model after base model(transformers)\n\nApart from programable modules, we also provide various built-in SOTA MTL algorithms.\n\nIn a word, you can use this project to:\n\n- implement complicated MTL algorithm\n- do SOTA MTL without diving into details\n- do multi-modal learning\n\nAnd since we use transformers as base model, you get all the benefits that you can get from transformers!\n\n## What type of problems are supported?\n\n```\nparams = Params()\nfor problem_type in params.list_available_problem_types():\n    print('`{problem_type}`: {desc}'.format(\n        desc=params.problem_type_desc[problem_type], problem_type=problem_type))\n\n```\n\n    `cls`: Classification\n    `multi_cls`: Multi-Label Classification\n    `seq_tag`: Sequence Labeling\n    `masklm`: Masked Language Model\n    `pretrain`: NSP+MLM(Deprecated)\n    `regression`: Regression\n    `vector_fit`: Vector Fitting\n    `premask_mlm`: Pre-masked Masked Language Model\n    `contrastive_learning`: Contrastive Learning\n\n\n\n## Get Started\n\nPlease see tutorials.\n\n","# M3TL\n\n\n\n**M**ulti-**M**odal **M**ulti-**T**ask **L**earning\n\n## 安装\n\n```\npip install m3tl\n```\n\n## 是什么\n\n这是一个以 transformers（基于 Hugging Face 的 transformers 库）为基础模型，用于进行**多模态多任务学习**的项目。\n\n## 为什么需要这个\n\n多任务学习（MTL）在深度学习时代越来越受到关注，广泛应用于自然语言处理、计算机视觉、推荐系统等领域。然而，多任务学习通常涉及复杂的数据预处理、任务管理和任务间的交互。虽然一些开源项目，如 TencentNLP 和 PyText，也支持多任务学习，但它们的实现方式较为简单，难以直接应用复杂的多任务学习算法。在本项目中，我们致力于让编写多任务学习模型像编写单任务学习模型一样简单，并进一步将多任务学习扩展到多模态场景。为此，我们向用户开放了以下可编程的多任务学习模块：\n\n- 问题采样策略\n- 损失组合策略\n- 梯度手术\n- 基础模型（transformers）后的自定义模型\n\n除了这些可编程模块外，我们还提供了多种现成的 SOTA 多任务学习算法。\n\n总之，你可以使用本项目来：\n\n- 实现复杂的多任务学习算法\n- 在无需深入细节的情况下进行 SOTA 多任务学习\n- 进行多模态学习\n\n由于我们以 transformers 作为基础模型，你还可以享受到 transformers 所带来的所有优势！\n\n## 支持哪些类型的任务？\n\n```\nparams = Params()\nfor problem_type in params.list_available_problem_types():\n    print('`{problem_type}`: {desc}'.format(\n        desc=params.problem_type_desc[problem_type], problem_type=problem_type))\n\n```\n\n    `cls`: 分类\n    `multi_cls`: 多标签分类\n    `seq_tag`: 序列标注\n    `masklm`: 掩码语言模型\n    `pretrain`: NSP+MLM（已弃用）\n    `regression`: 回归\n    `vector_fit`: 向量拟合\n    `premask_mlm`: 预掩码掩码语言模型\n    `contrastive_learning`: 对比学习\n\n\n\n## 开始使用\n\n请参阅教程。","# M3TL 快速上手指南\n\nM3TL (Multi-Modal Multi-Task Learning) 是一个基于 Hugging Face Transformers 的多模态多任务学习框架。它旨在简化复杂的多任务算法实现，支持从数据采样、损失组合到梯度手术等可编程模块，让开发者能像编写单任务模型一样轻松构建多任务模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：建议 Python 3.7 及以上\n*   **前置依赖**：\n    *   `torch` (PyTorch)\n    *   `transformers` (Hugging Face)\n    *   `numpy`\n    *   `scikit-learn`\n\n> **提示**：M3TL 底层依赖 Hugging Face Transformers，因此您可以直接享受 Transformers 生态带来的所有预训练模型优势。\n\n## 安装步骤\n\n您可以通过 pip 直接安装最新版本的 M3TL。\n\n### 标准安装\n```bash\npip install m3tl\n```\n\n### 国内加速安装（推荐）\n如果您在中国大陆地区，建议使用清华源或阿里源以加快下载速度：\n\n```bash\npip install m3tl -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\nM3TL 支持多种任务类型，包括分类、序列标注、回归、对比学习等。以下是查看支持的任务类型及初始化的基本流程。\n\n### 1. 查看支持的任务类型\n运行以下代码即可列出所有内置支持的问题类型及其描述：\n\n```python\nfrom m3tl import Params\n\nparams = Params()\nfor problem_type in params.list_available_problem_types():\n    print('`{problem_type}`: {desc}'.format(\n        desc=params.problem_type_desc[problem_type], problem_type=problem_type))\n```\n\n**输出示例：**\n*   `cls`: Classification (分类)\n*   `multi_cls`: Multi-Label Classification (多标签分类)\n*   `seq_tag`: Sequence Labeling (序列标注)\n*   `masklm`: Masked Language Model (掩码语言模型)\n*   `regression`: Regression (回归)\n*   `contrastive_learning`: Contrastive Learning (对比学习)\n*   ...以及其他类型\n\n### 2. 构建多任务模型\nM3TL 的核心优势在于将复杂的多任务逻辑封装为可配置模块。您只需定义问题采样策略、损失组合策略以及基于 Transformers 的模型结构，即可快速启动多模态多任务训练。\n\n具体的训练循环和详细配置请参考官方 `tutorials` 目录中的完整示例。","某电商平台的算法团队正致力于构建一个统一的智能客服系统，需要同时处理用户意图分类、实体抽取以及情感分析等多个任务，且输入数据包含文本和用户上传的商品图片。\n\n### 没有 m3tl 时\n- **开发流程繁琐**：工程师需为每个任务单独编写数据预处理管道，导致多模态数据（文本 + 图像）的对齐与清洗代码冗余且难以维护。\n- **任务协调困难**：手动设计多任务间的损失函数权重和梯度更新策略极其复杂，容易陷入“负迁移”陷阱，即优化一个任务反而导致其他任务性能下降。\n- **算法复现门槛高**：想要尝试梯度手术（Gradient Surgery）等前沿多任务学习算法，必须从零底层实现，耗费大量研发时间且易出错。\n- **模型架构僵化**：难以灵活地在同一个 BERT 基座后挂载不同类型的任务头（如分类、序列标注、回归），扩展新业务场景周期长。\n\n### 使用 m3tl 后\n- **一站式建模**：利用 m3tl 内置的多模态多任务框架，仅需少量配置即可统一加载文本与图像数据，自动完成复杂的任务管理与数据采样。\n- **智能优化策略**：直接调用内置的 SOTA 损失组合策略与梯度手术模块，自动平衡各任务梯度冲突，显著提升了整体模型的收敛速度与准确率。\n- **快速落地前沿算法**：无需深究数学细节，通过可编程模块即可轻松部署复杂的多任务学习算法，将原本数周的算法验证工作缩短至几天。\n- **灵活的任务扩展**：基于 Transformers 架构，团队可以像搭建积木一样，轻松在基座模型后新增“序列标注”或“对比学习”等任务头，迅速响应新的业务需求。\n\nm3tl 将复杂的多模态多任务学习简化为单任务般的开发体验，让团队能专注于业务逻辑而非底层算法实现的泥潭。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJayYip_m3tl_5692eba2.png","JayYip","Jay Yip","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJayYip_bd76b8d3.jpg","NLPer, Deep Learner, Google Developer Expert in Machine Learning","IDEA","Dongguan","junpang.yip@gmail.com",null,"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fjunpeng-jay-ye-58626a129\u002F","https:\u002F\u002Fgithub.com\u002FJayYip",[83,87,91],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",72,{"name":88,"color":89,"percentage":90},"Python","#3572A5",28,{"name":92,"color":93,"percentage":94},"Makefile","#427819",0,544,123,"2026-03-15T06:05:44","Apache-2.0","未说明",{"notes":101,"python":99,"dependencies":102},"该工具基于 Hugging Face Transformers 构建，用于多模态多任务学习。安装命令为'pip install m3tl'。具体硬件需求取决于所选的基础模型（Base Model）及任务复杂度，README 中未提供具体的显存、内存或 CUDA 版本要求。",[103],"transformers",[15,105,35,106],"视频","音频",[108,109,110,111,112,113,114,115,116,117,118,119,120],"bert","named-entity-recognition","nlp","word-segmentation","multitask-learning","part-of-speech","cws","pretrained-models","ner","text-classification","multi-task-learning","transformer","encoder-decoder","2026-03-27T02:49:30.150509","2026-04-18T09:20:49.475834",[124,129,134,139,144,149],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},39410,"如何在多 GPU 环境下解决 BERT 位置嵌入（Position Embedding）的 GPU 分配错误？","如果在多 GPU 训练时遇到 'Could not satisfy explicit device specification... because no supported kernel for GPU devices is available' 错误，通常是因为断言操作（assert_op）被强制分配到了 GPU 上。解决方法是在 modeling.py 文件中，将相关代码块强制指定在 CPU 上运行。具体修改如下：\n```python\nif use_position_embeddings:\n    with tf.device('\u002Fcpu:0'): # 新增此行\n      assert_op = tf.assert_less_equal(seq_length, max_position_embeddings)\n```\n此外，请确保最大序列长度（max seq length）不超过位置嵌入的大小（positional embedding size）。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F7",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},39411,"如何修改原始 BERT 代码以支持多 GPU 训练（特别是优化器部分）？","在使用官方 BERT 代码配合 MirroredStrategy 进行多 GPU 训练时，如果遇到 'ValueError: You must specify an aggregation method...' 错误，核心解决方案是替换优化器。你需要将原始代码中的 `AdamWeightDecayOptimizer` 类替换为该项目中 `src\u002Foptimizer.py` 提供的同名类。该项目中的优化器实现已经处理了多 GPU 环境下的变量聚合问题。建议参考 TensorFlow 1.12 版本进行测试，兼容性较好。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F6",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39412,"运行代码时报错且 Registered devices 中未显示 GPU，可能是什么原因？","如果代码直接复用示例但仍无法识别 GPU（Registered devices 中没有 GPU），这通常不是代码逻辑问题。请依次检查以下三点：\n1. 显卡驱动程序是否正确安装；\n2. TensorFlow 版本是否与 CUDA\u002FcuDNN 版本匹配；\n3. 环境变量 `CUDA_VISIBLE_DEVICES` 是否设置正确（例如是否被设置为空或错误的索引）。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F24",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39413,"使用 TensorFlow 1.15 运行预定义任务 Notebook 时报 'Must specify max_steps > 0' 错误怎么办？","这是一个已知兼容性问题。在 TensorFlow 1.15 环境下运行旧版 Notebook 可能会因为参数传递问题导致 `max_steps` 为 0。维护者已更新了相关的 Notebook 文件以修复此问题。请务必拉取最新的代码库，并使用更新后的 `notebooks\u002FRun Pre-defined problems.ipynb` 文件来运行演示代码，不要使用旧版本的脚本。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F56",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},39414,"在多任务学习中，如何使用 '&' 符号连接多个任务？对输入数据有什么要求？","当你使用 '&' 符号连接多个任务（例如 `problem='task1&task2'`）时，系统会在每个迭代步骤中检查来自不同任务的 `input_list` 是否完全一致。如果输入数据不一致，程序将抛出断言错误（Assertion Error）。因此，使用 '&' 连接的任务必须共享相同的输入数据格式和内容。如果任务输入不同，不应使用此方式连接，而应分别处理或使用其他数据生成策略。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F19",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},39415,"如何为分类任务准备数据？支持句子分类和句子对分类吗？","该项目支持句子分类和句子对分类任务。准备数据时，你需要模仿 Keras 数据集的加载格式。通常需要将数据整理为列表形式：\n`(train_data, train_labels), (test_data, test_labels)`\n其中左侧的每个参数都应是一个列表。对于句子对分类，输入数据通常需要包含两个句子序列。你需要编写自定义的 `processing_fn` 来处理原始数据，将其转换为模型所需的 `input_list` 和 `target_list` 格式。","https:\u002F\u002Fgithub.com\u002FJayYip\u002Fm3tl\u002Fissues\u002F20",[]]