[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-EricFillion--happy-transformer":3,"tool-EricFillion--happy-transformer":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":148},7181,"EricFillion\u002Fhappy-transformer","happy-transformer","Happy Transformer makes it easy to fine-tune and perform inference with  NLP Transformer models.  ","Happy Transformer 是一款专为简化自然语言处理（NLP）流程而设计的开源库，旨在让开发者轻松地对 Transformer 模型进行微调和推理。在人工智能领域，直接调用预训练的大模型往往面临环境配置复杂、代码门槛高等挑战，Happy Transformer 通过封装底层细节，将文本生成、分类、问答及词预测等核心任务转化为简洁的接口调用，显著降低了技术落地难度。\n\n这款工具特别适合希望快速构建 NLP 应用的软件开发者、进行算法验证的研究人员以及正在学习深度学习的学生。无论是需要定制专属的垃圾邮件过滤器，还是开发智能聊天机器人，用户无需深入钻研复杂的框架底层，即可高效完成从模型训练到部署的全过程。其独特的亮点在于对多种主流任务的全面支持，并提供了丰富的教程资源与活跃的社区互动，帮助用户快速上手。需要注意的是，目前该库正处于版本迭代期，官方建议在新项目中暂时锁定 4.0.0 以下版本以确保稳定性。对于追求高效开发体验的团队而言，Happy Transformer 是连接前沿算法与实际应用之间的理想桥梁。","\u003C!-- HEADER -->\n\u003Ch1 align=\"center\">\n  HAPPY TRANSFORMER\n\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEricFillion_happy-transformer_readme_a4959df81089.png\" alt=\"Happy Transformer logo\" width=\"200\">\n\u003C\u002Fp>\n\n\u003C!-- BADGES -->\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg\" alt=\"License: Apache-2.0\" height=\"20\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fhappytransformer\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEricFillion_happy-transformer_readme_992cfbe958cd.png\" alt=\"Downloads\" height=\"20\">\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fhappytransformer\" alt=\"PyPI\" height=\"20\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FpsVwe3wfTb\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F839263772312862740.svg?label=Discord&logo=Discord&colorB=7289da\" alt=\"Discord\" height=\"20\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- SITE LINK -->\n\u003Cp align=\"center\">\n  \u003Cstrong>\u003Ca href=\"https:\u002F\u002Fhappytransformer.com\">happytransformer.com\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003C!-- DIVIDER -->\n\u003Chr>\n\n\nHappy Transformer makes it easy to fine-tune and perform inference with NLP Transformer models.\n\n\n## Upcoming Version 4.0.0 \n\nVersion 4.0.0 is in the final stages of development. \nIt's a complete rewrite of the library with many new features.\nIt includes breaking changes, and so we recommend you set the version to \u003C4.0.0 in your requirements.   \n\n\n## Tasks \n\n| Tasks                    | Inference | Training   |\n|--------------------------|-----------|------------|\n| Text Generation          | ✔         | ✔          |\n| Text Classification      | ✔         | ✔          | \n| Word Prediction          | ✔         | ✔          |\n| Question Answering       | ✔         | ✔          | \n| Text-to-Text             | ✔         | ✔          | \n| Next Sentence Prediction | ✔         |            | \n| Token Classification     | ✔         |            | \n\nNote: word prediction, question answering, next sentence prediction and token classification have been deprecated. \n\n## Install\n```sh\npip install \"happytransformer\u003C4.0.0\"\n```\n\n\n## Maintainers\n- [Eric Fillion](https:\u002F\u002Fgithub.com\u002Fericfillion)  Lead Maintainer\n- [Ted Brownlow](https:\u002F\u002Fgithub.com\u002Fted537) Maintainer\n\n\n## Tutorial Articles\n\n[Text classification (training)](https:\u002F\u002Fwww.vennify.ai\u002Ftrain-text-classification-transformers\u002F) \n\n[Top T5 Models ](https:\u002F\u002Fwww.vennify.ai\u002Ftop-t5-transformer-models\u002F)\n\n[Grammar Correction](https:\u002F\u002Fwww.vennify.ai\u002Fgrammar-correction-python\u002F)\n\n[Fine-tune a Grammar Correction Model](https:\u002F\u002Fwww.vennify.ai\u002Ffine-tune-grammar-correction\u002F)\n\n## Tutorial Videos\n\n[Text generation with training (GPT-Neo)](https:\u002F\u002Fyoutu.be\u002FGzHJ3NUVtV4)\n\n[Text classification (hate speech detection)](https:\u002F\u002Fyoutu.be\u002Fjti2sPQYzeQ) \n\n[Text classification (sentiment analysis)](https:\u002F\u002Fyoutu.be\u002FEw72EAgM7FM)\n\n[Word prediction with training (DistilBERT, RoBERTa)](https:\u002F\u002Fyoutu.be\u002FAWe0PHsPc_M)\n","\u003C!-- 头部 -->\n\u003Ch1 align=\"center\">\n  快乐变压器\n\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEricFillion_happy-transformer_readme_a4959df81089.png\" alt=\"快乐变压器 logo\" width=\"200\">\n\u003C\u002Fp>\n\n\u003C!-- 徽章 -->\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg\" alt=\"许可证：Apache-2.0\" height=\"20\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fhappytransformer\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEricFillion_happy-transformer_readme_992cfbe958cd.png\" alt=\"下载量\" height=\"20\">\n  \u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fhappytransformer\" alt=\"PyPI\" height=\"20\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FpsVwe3wfTb\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F839263772312862740.svg?label=Discord&logo=Discord&colorB=7289da\" alt=\"Discord\" height=\"20\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- 网站链接 -->\n\u003Cp align=\"center\">\n  \u003Cstrong>\u003Ca href=\"https:\u002F\u002Fhappytransformer.com\">happytransformer.com\u003C\u002Fa>\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003C!-- 分隔线 -->\n\u003Chr>\n\n\n快乐变压器让微调和推理 NLP 变压器模型变得简单易行。\n\n\n## 即将发布的 4.0.0 版本\n\n4.0.0 版本正处于开发的最后阶段。\n它是对整个库的一次彻底重写，包含许多新功能。\n由于存在一些破坏性变更，我们建议您在依赖项中将版本设置为 \u003C4.0.0。\n\n\n## 任务\n\n| 任务                    | 推理 | 训练   |\n|--------------------------|-----------|------------|\n| 文本生成          | ✔         | ✔          |\n| 文本分类      | ✔         | ✔          | \n| 单词预测          | ✔         | ✔          |\n| 问答       | ✔         | ✔          | \n| 文本到文本             | ✔         | ✔          | \n| 下一句预测 | ✔         |            | \n| 标记分类     | ✔         |            | \n\n注意：单词预测、问答、下一句预测和标记分类已被弃用。 \n\n## 安装\n```sh\npip install \"happytransformer\u003C4.0.0\"\n```\n\n\n## 维护者\n- [Eric Fillion](https:\u002F\u002Fgithub.com\u002Fericfillion) 首席维护者\n- [Ted Brownlow](https:\u002F\u002Fgithub.com\u002Fted537) 维护者\n\n\n## 教程文章\n\n[文本分类（训练）](https:\u002F\u002Fwww.vennify.ai\u002Ftrain-text-classification-transformers\u002F) \n\n[T5 模型排行榜](https:\u002F\u002Fwww.vennify.ai\u002Ftop-t5-transformer-models\u002F)\n\n[语法纠正](https:\u002F\u002Fwww.vennify.ai\u002Fgrammar-correction-python\u002F)\n\n[微调语法纠正模型](https:\u002F\u002Fwww.vennify.ai\u002Ffine-tune-grammar-correction\u002F)\n\n## 教程视频\n\n[带训练的文本生成（GPT-Neo）](https:\u002F\u002Fyoutu.be\u002FGzHJ3NUVtV4)\n\n[文本分类（仇恨言论检测）](https:\u002F\u002Fyoutu.be\u002Fjti2sPQYzeQ) \n\n[文本分类（情感分析）](https:\u002F\u002Fyoutu.be\u002FEw72EAgM7FM)\n\n[带训练的单词预测（DistilBERT、RoBERTa）](https:\u002F\u002Fyoutu.be\u002FAWe0PHsPc_M)","# Happy Transformer 快速上手指南\n\nHappy Transformer 是一个简化 NLP Transformer 模型微调（Fine-tuning）和推理（Inference）的 Python 库。它支持文本生成、分类、问答等多种任务。\n\n> **注意**：版本 4.0.0 正在进行重大重构并包含破坏性更新。本指南基于当前稳定的 **3.x 版本**，请在依赖中指定版本低于 4.0.0。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.7 - 3.9\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `PyTorch` (Happy Transformer 底层依赖，安装时会自动处理，但需确保系统支持 CUDA 若需 GPU 加速)\n\n## 2. 安装步骤\n\n### 标准安装\n使用 pip 直接安装指定版本（兼容最新版 3.x）：\n\n```sh\npip install \"happytransformer\u003C4.0.0\"\n```\n\n### 国内加速安装（推荐）\n如果您在中国大陆地区，建议使用国内镜像源以提升下载速度和稳定性：\n\n```sh\npip install \"happytransformer\u003C4.0.0\" -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 3. 基本使用\n\nHappy Transformer 的核心优势在于极简的 API。以下以**文本分类（Text Classification）**为例，展示如何加载预训练模型并进行推理。\n\n### 示例：情感分析推理\n\n```python\nfrom happytransformer import HAPPYClassification\n\n# 初始化分类器\n# task_type: 任务类型 (CLF=分类, GEN=生成, WP=词预测等)\n# model_name: Hugging Face 模型名称\nhappy_clf = HAPPYClassification(model_name=\"distilbert-base-uncased-finetuned-sst-2-english\")\n\n# 执行推理\ntext = \"I love using Happy Transformer!\"\nresult = happy_clf.predict(text)\n\nprint(result)\n# 输出示例：ClassificationResult(label='POSITIVE', score=0.99...)\n```\n\n### 支持的任务类型\n初始化时可通过 `task_type` 参数切换不同任务：\n\n| 任务类型 | 代码常量 | 说明 |\n| :--- | :--- | :--- |\n| 文本生成 | `GEN` | 类似 GPT 的续写任务 |\n| 文本分类 | `CLF` | 情感分析、垃圾邮件检测等 |\n| 词预测 | `WP` | 完形填空 (Masked LM) |\n| 问答 | `QA` | 基于上下文回答问题 |\n| 文本到文本 | `TTG` | 翻译、摘要、改写 (T5 系列) |\n\n**简单切换任务示例（文本生成）：**\n\n```python\nfrom happytransformer import HAPPYGeneration\n\nhappy_gen = HAPPYGeneration()\n\noutput = happy_gen.generate_text(\"Once upon a time\", min_length=50)\nprint(output.text)\n```\n\n如需进行模型微调（Training），只需调用 `.train()` 方法并传入训练数据文件路径即可，API 设计风格与推理保持一致。","某电商初创公司的数据团队需要快速构建一个定制化的“用户评论情感分析系统”，以实时监测新上线产品的市场反馈，但团队中缺乏深厚的深度学习框架底层开发经验。\n\n### 没有 happy-transformer 时\n- **代码门槛极高**：开发人员必须手动编写大量 PyTorch 或 TensorFlow 底层代码来处理数据加载、模型初始化和训练循环，极易出错且耗时。\n- **环境配置繁琐**：为了运行预训练的 Transformer 模型，需要花费数天时间解决复杂的依赖冲突、GPU 显存优化及分布式训练配置问题。\n- **迭代周期漫长**：从选择模型到完成微调（Fine-tuning）并部署推理接口，通常需要数周时间，导致无法及时响应业务对情感数据的迫切需求。\n- **任务切换困难**：若需从“情感分类”切换到“评论摘要生成”，几乎需要重写整套数据处理和模型适配逻辑，复用性极差。\n\n### 使用 happy-transformer 后\n- **极简 API 调用**：只需几行 Python 代码即可初始化模型并启动训练，happy-transformer 自动封装了复杂的底层逻辑，让非算法专家也能上手。\n- **开箱即用体验**：内置了对主流 Transformer 架构的支持，自动处理设备映射和批处理，将环境搭建和调试时间从几天缩短至几小时。\n- **高效敏捷迭代**：团队能在一天内完成从数据准备、模型微调到推理测试的全流程，迅速为产品部门提供可视化的情感分析报告。\n- **灵活任务支持**：通过简单修改参数，即可在同一套代码框架下无缝切换文本分类、生成或问答任务，极大提升了原型验证的灵活性。\n\nhappy-transformer 通过高度封装的接口，将 NLP 大模型的落地门槛从“专家级”降低至“应用级”，让中小团队也能低成本享受前沿 AI 技术红利。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEricFillion_happy-transformer_a4959df8.png","EricFillion","Eric Fillion","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FEricFillion_68b67ec5.jpg","\r\n\r\n",null,"Ottawa","https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fericfillion\u002F","https:\u002F\u002Fgithub.com\u002FEricFillion",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,544,68,"2026-03-25T07:53:59","Apache-2.0",1,"","未说明",{"notes":93,"python":91,"dependencies":94},"README 中未明确列出具体的运行环境需求（如操作系统、GPU、内存、Python 版本及依赖库）。仅提到该工具用于微调和推理 NLP Transformer 模型，且当前稳定版本需限制在 4.0.0 以下（安装命令：pip install \"happytransformer\u003C4.0.0\"）。由于底层通常依赖 PyTorch 和 Transformers 库，实际使用中建议参考这些底层库的常规硬件要求。",[],[14,13,15,35],[97,98,99,100,101,102,103,104,105,106,107,108,109],"language-models","artificial-intelligence","ai","question-answering","bert","roberta","nlp","machine-learning","text-classification","deep-learning","transformers","python","natural-language-processing","2026-03-27T02:49:30.150509","2026-04-14T00:12:12.292051",[113,118,123,128,133,138,143],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},32227,"如何获取特定单词在句子中的预测概率或排名？","可以使用 `predict_mask` 方法并指定 `targets` 参数来获取特定单词的概率。若要获取排名，可以使用 Python 的 `enumerate` 函数遍历结果列表，索引即为排名（0 代表概率最高）。\n\n示例代码：\n```python\n# 获取特定单词的概率\ndef probability_of_token(happy_word_predictor, sentence, word):\n    return happy_word_predictor.predict_mask(sentence, targets=[word])[0].score\n\n# 获取单词及其排名\nresults = happy_wp.predict_mask(\"I think therefore I [MASK]\", targets=[\"a\", \"went\"])\nfor rank, result in enumerate(results):\n    print(result.token, result.score, rank)\n```","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F196",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},32228,"是否支持多语言模型（如俄语）或非英语任务？","支持。Happy Transformer 允许使用 Hugging Face 模型分发网络上的任何模型。对于多语言支持，您可以直接加载多语言模型，例如：\n```python\nmodel = HappyBERT('bert-base-multilingual-cased')\n```\n加载后，即可使用该模型进行您选择语言的掩码词预测等任务。此功能已在版本 2.1.0 中可用。","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F121",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},32229,"训练时遇到 \"ValueError: Number of processes must be at least 1\" 错误怎么办？","该错误通常发生在 Google Colab 等环境中，原因是默认进程数设置为了 0。此外，请检查您的训练数据标签，分类任务的标签值必须为 `0` 或 `1`，不接受 `2` 或 `3` 等其他数值。\n\n确保您的 CSV 数据格式正确，例如：\n```csv\n0,\"Hi Anand, how are you\"\n1,\"Hi anand, did you complete\"\n```\n如果问题依旧，可能需要手动设置进程数为 1 或更新库版本以修复内部创建进程池的逻辑。","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F137",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},32230,"微调问答（Question Answering）模型时，CSV 文件应该包含哪些列？","微调问答模型时，CSV 文件的列必须严格符合文档要求。常见的错误是包含了多余的列（如 `answer_end`）或缺少必要的列。\n\n请确保 CSV 格式与官方提供的 `train_eval.csv` 示例一致。如果 CSV 中包含逗号分隔的长段落，可能会导致列解析错误（malformed CSV），建议检查数据中是否意外引入了额外的逗号导致列数不匹配。移除文档未要求的列（如 `answer_end`）通常能解决报错。","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F307",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},32231,"是否支持自定义掩码策略进行微调，而不是随机采样？","是的，项目计划支持并使用户能够编写自定义的掩码策略。如果您已经有一组带有预定义掩码和对应单词的句子，可以将其用于微调 HappyBERT 或 HappyROBERTA。维护者已表示欢迎此类贡献，并计划在后续版本中应用相关代码以支持用户传入自定义的掩码数据进行训练。","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F125",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},32232,"Happy Transformer 是否支持大型模型如 GPT-J 6B？","支持，但需要满足较高的硬件要求。用户反馈在配备 A6000 GPU 的环境（如 Lambda Labs 的笔记本实例）中可以成功运行 GPT-J 6B。\n\n注意：在安装 Happy Transformer 后，您可能需要重启内核（Restart Kernel）才能正常加载和使用该大型模型。","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F262",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},32233,"如何使用 Hugging Face 上的任意模型进行文本分类或词预测？","从版本 2.1.0 开始，Happy Transformer 增加了对 Hugging Face 模型分发网络上任意模型的支持。您不再局限于内置模型，可以直接指定模型名称来初始化类，适用于文本分类、词预测、下一句预测、问答和令牌分类等任务。\n\n例如：\n```python\n# 使用任意 Hugging Face 模型\nhappy_wp = HappyWordPrediction(model_name=\"your-huggingface-model-name\")\n```","https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Fissues\u002F133",[149,154,159,164,169,174,179,184,189,194,199,203,208,213,218,223,228,233,238,242],{"id":150,"version":151,"summary_zh":152,"released_at":153},246988,"3.0.1","- 添加了针对即将发布的 4.0.0 版本更新的弃用警告\n- 更新了依赖项\n- 更新了 transformers 的使用方式，以消除弃用警告\n\n#352\n","2025-12-18T17:32:32",{"id":155,"version":156,"summary_zh":157,"released_at":158},246989,"3.0.0","**新特性：**  \n- 现在支持使用 DeepSpeed 进行微调。  \n- 如果检测到 Apple 的 MPS 后端，训练和微调将自动使用该后端。  \n- 微调过程中会使用评估数据来跟踪微调进度。  \n- 现在可以使用 WandB 记录微调结果。  \n- 支持使用 CSV 文件训练\u002F评估文本生成和词预测模型，便于隔离特定案例。  \n- 可以通过一条命令将模型推送到 Hugging Face Hub。  \n- 在训练过程中启用定期保存模型。\n\n**重大变更：**  \n- 预处理后的数据现在以 Hugging Face 的 Dataset 格式保存，而非 JSON 格式。  \n- 不再支持用于训练和评估的字典形式参数输入。  \n- 移除了 adam_beta1、adam_beta2、adam_epsilon 和 max_grad_norm 等学习超参数。  \n- 将 save_preprocessed_data 和 save_preprocessed_data_path 替换为一个名为 save_path 的单一参数；同样地，load_preprocessed_data 和 load_preprocessed_data_path 也被 load_path 所取代。  \n- 移除了对训练和评估中 args 参数的字典设置的支持。  \n- 移除了训练和评估中的 preprocessing_processes 参数。","2023-08-07T03:02:27",{"id":160,"version":161,"summary_zh":162,"released_at":163},246990,"2.4.1","包含来自 #280 的修复，以确保在训练过程中不会保存模型。","2022-02-06T06:58:53",{"id":165,"version":166,"summary_zh":167,"released_at":168},246991,"2.4.0","- 现在可以使用名为“fp16”的训练参数来启用半精度训练。这有望减少训练时间和内存消耗。#257\n- 将 HappyTextClassification 和 HappyQuestionAnswering 的编码格式设置为 UTF-8。#265\n","2021-11-19T05:50:39",{"id":170,"version":171,"summary_zh":172,"released_at":173},246992,"2.3.3","1. 包含来自 #268 的修复\n2. 在文档中添加了文本到文本的文章，以提供额外的示例。","2021-10-30T18:17:51",{"id":175,"version":176,"summary_zh":177,"released_at":178},246993,"2.3.2","允许用户使用其身份验证令牌从 Hugging Face 模型库访问自己的私有模型。\n\n参见 #266","2021-10-29T23:03:06",{"id":180,"version":181,"summary_zh":182,"released_at":183},246994,"2.3.1","请参阅 #258 和 https:\u002F\u002Fhappytransformer.com\u002Ftext-generation\u002Fsettings\u002F 。","2021-09-11T16:05:23",{"id":185,"version":186,"summary_zh":187,"released_at":188},246995,"2.3.0","您现在可以对像T5这样的文本到文本模型进行微调了！文本到文本微调的常见应用包括机器翻译、文本摘要和语法纠错。您可以在示例文件夹中找到这三个应用的示例，地址是[这里](https:\u002F\u002Fgithub.com\u002FEricFillion\u002Fhappy-transformer\u002Ftree\u002Fmaster\u002Fexamples\u002Ftext-to-text)。您也可以在[官网](https:\u002F\u002Fhappytransformer.com\u002Ftext-to-text\u002Ffinetuning\u002F)上查看最新的文档。","2021-08-15T03:29:44",{"id":190,"version":191,"summary_zh":192,"released_at":193},246996,"2.2.5","见#243","2021-07-21T17:01:24",{"id":195,"version":196,"summary_zh":197,"released_at":198},246997,"2.2.4","- 新增文本到文本功能\n- 修复了使用 ALBERT 进行单词预测时的一个 bug。有时模型会预测出空字符串，从而导致后处理阶段抛出异常。同时，也在 RoBERTa 的后处理方法中添加了预防性代码。\n\n#236 ","2021-06-17T19:37:05",{"id":200,"version":201,"summary_zh":76,"released_at":202},246998,"2.2.3","2021-06-12T22:20:51",{"id":204,"version":205,"summary_zh":206,"released_at":207},246999,"2.2.2","Resolves #220 by using a TextGenerationPipeline. It also improves consistency as all most of the other tasks use a Pipeline (other than next sentence prediction). ","2021-05-08T03:12:08",{"id":209,"version":210,"summary_zh":211,"released_at":212},247000,"2.2.1","Increased the minimum version for Hugging Face's transformers library from 4.0.0 to 4.4.0. \r\n\r\nSee #215 for more details ","2021-05-04T18:54:33",{"id":214,"version":215,"summary_zh":216,"released_at":217},247001,"2.2.0","New Features:\r\n\r\nText generation with training\r\nWord prediction training\r\nSaving\u002Floading models\r\nSaving\u002Floading preprocessed data\r\nYou can now change the batch size when training and evaluating\r\nDataclasses can now be used for all finetuning “arg” parameters","2021-05-04T18:19:33",{"id":219,"version":220,"summary_zh":221,"released_at":222},247002,"2.1.0","- You can now use any model that's available on Hugging Face's model distribution network for text classification, word prediction, next sentence prediction, question answering and token classification. \r\n- You can now perform token classification using HappyTokenClassification \r\n\r\nAddresses: \r\n#193\r\n#133\r\n#121\r\n\r\n\r\n","2021-03-03T03:57:33",{"id":224,"version":225,"summary_zh":226,"released_at":227},247003,"2.0.0","Introducing Version 2.0.0!\r\n\r\nWe fully redesigned Happy Transformer from the ground up.\r\n\r\nNew Features:\r\nQuestion answering training\r\nMulti label text classification training\r\nSingle predictions for text classification\r\n\r\nDeprecated Features:\r\nMasked word prediction training\r\nMasked word prediction with multiple masks\r\n\r\nBreaking changes:\r\nEverything\r\n\r\nHappy Transformer have been redesigned to promote scalability. Now it's easier than ever to add new models and features, and we encourage you to create PRs to contribute to the project.","2021-01-13T08:00:30",{"id":229,"version":230,"summary_zh":231,"released_at":232},247004,"1.1.3","- Cleaned up logging \r\n- Resolved #137 \r\n- Added \"use_probability\" parameter to next sentence prediction methods \r\n- Resolved #144 \r\n- Fixed a bug that prevented using a GPU for masked word prediction ","2020-12-13T06:04:23",{"id":234,"version":235,"summary_zh":236,"released_at":237},247005,"1.1.2","Fixed issues regarding fine tuning masked word prediction models. ","2020-04-28T18:54:03",{"id":239,"version":240,"summary_zh":76,"released_at":241},247006,"1.1.0-alpha","2020-04-28T04:30:30",{"id":243,"version":244,"summary_zh":76,"released_at":245},247007,"1.1.1-alpha","2020-04-28T04:36:24"]