[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-chengchingwen--Transformers.jl":3,"tool-chengchingwen--Transformers.jl":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":77,"owner_website":75,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":32,"env_os":92,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":135},9133,"chengchingwen\u002FTransformers.jl","Transformers.jl","Julia Implementation of Transformer models","Transformers.jl 是一个基于 Julia 语言开发的开源库，专为构建和运行 Transformer 架构模型而设计。它紧密集成 Flux.jl 深度学习框架，让开发者能够以高效、灵活的方式实现如 BERT 等主流预训练模型，轻松完成文本编码、分词及特征提取等任务。\n\n在自然语言处理领域，许多现有工具主要依赖 Python 生态，而 Transformers.jl 填补了 Julia 社区在这一关键领域的空白。它不仅解决了高性能计算场景下对速度与内存管理的严苛需求，还通过简洁的 API 降低了复杂模型的调用门槛。用户只需几行代码，即可加载预训练模型并进行推理或微调，极大提升了研发效率。\n\n这款工具特别适合熟悉 Julia 语言的科研人员、算法工程师以及希望探索高性能 AI 原型的开发者使用。其独特亮点在于充分利用 Julia 的高性能特性，同时保持代码的可读性与易用性，并提供了与 Hugging Face 模型生态的便捷对接能力。无论你是想快速验证新想法，还是构建生产级应用，Transformers.jl 都能为你提供坚实的技术支持。","\u003Cdiv align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchengchingwen_Transformers.jl_readme_38001b401f36.png\" alt=\"Transformers.jl\" width=\"512\">\u003C\u002Fimg>\u003C\u002Fdiv>\n\n[![Build status](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Factions\u002Fworkflows\u002FCI.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Factions\u002Fworkflows\u002FCI.yml?query=branch%3Amaster)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fchengchingwen\u002FTransformers.jl\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fchengchingwen\u002FTransformers.jl)\n[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-dev-blue.svg)](https:\u002F\u002Fchengchingwen.github.io\u002FTransformers.jl\u002Fdev\u002F)\n\nJulia implementation of [transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.03762)-based models, with [Flux.jl](https:\u002F\u002Fgithub.com\u002FFluxML\u002FFlux.jl).\n\n*notice: The current version is almost completely different from the 0.1.x version. If you are using the old version, make sure to update the changes or stick to the old version.*\n\n# Installation\n\nIn the Julia REPL:\n\n    ]add Transformers\n\n\n# Example\n\nUsing pretrained Bert with `Transformers.jl`.\n\n```julia\nusing Transformers\nusing Transformers.TextEncoders\nusing Transformers.HuggingFace\n\ntextencoder, bert_model = hgf\"bert-base-uncased\"\n\ntext1 = \"Peter Piper picked a peck of pickled peppers\"\ntext2 = \"Fuzzy Wuzzy was a bear\"\n\ntext = [[ text1, text2 ]] # 1 batch of contiguous sentences\nsample = encode(textencoder, text) # tokenize + pre-process (add special tokens + truncate \u002F padding + one-hot encode)\n\n@assert reshape(decode(textencoder, sample.token), :) == [\n    \"[CLS]\", \"peter\", \"piper\", \"picked\", \"a\", \"peck\", \"of\", \"pick\", \"##led\", \"peppers\", \"[SEP]\",\n    \"fuzzy\", \"wu\", \"##zzy\",  \"was\", \"a\", \"bear\", \"[SEP]\"\n]\n\nbert_features = bert_model(sample).hidden_state\n```\n\nSee `example` folder for the complete example.\n\n\n# For more information\n\nIf you want to know more about this package, see the [document](https:\u002F\u002Fchengchingwen.github.io\u002FTransformers.jl\u002Fdev\u002F)\n and read code in the `example` folder. You can also tag me (@chengchingwen) on Julia's slack or discourse if\n you have any questions, or just create a new Issue on GitHub.\n","\u003Cdiv align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchengchingwen_Transformers.jl_readme_38001b401f36.png\" alt=\"Transformers.jl\" width=\"512\">\u003C\u002Fimg>\u003C\u002Fdiv>\n\n[![构建状态](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Factions\u002Fworkflows\u002FCI.yml\u002Fbadge.svg?branch=master)](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Factions\u002Fworkflows\u002FCI.yml?query=branch%3Amaster)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fchengchingwen\u002FTransformers.jl\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fchengchingwen\u002FTransformers.jl)\n[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-dev-blue.svg)](https:\u002F\u002Fchengchingwen.github.io\u002FTransformers.jl\u002Fdev\u002F)\n\n基于 [transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.03762) 模型的 Julia 实现，结合 [Flux.jl](https:\u002F\u002Fgithub.com\u002FFluxML\u002FFlux.jl)。\n\n*注意：当前版本与 0.1.x 版本几乎完全不同。如果您正在使用旧版本，请务必更新更改或继续使用旧版本。*\n\n# 安装\n\n在 Julia 的 REPL 中：\n\n    ]add Transformers\n\n\n# 示例\n\n使用 `Transformers.jl` 加载预训练的 Bert 模型。\n\n```julia\nusing Transformers\nusing Transformers.TextEncoders\nusing Transformers.HuggingFace\n\ntextencoder, bert_model = hgf\"bert-base-uncased\"\n\ntext1 = \"Peter Piper picked a peck of pickled peppers\"\ntext2 = \"Fuzzy Wuzzy was a bear\"\n\ntext = [[ text1, text2 ]] # 1 批连续的句子\nsample = encode(textencoder, text) # 分词 + 预处理（添加特殊标记 + 截断\u002F填充 + one-hot 编码）\n\n@assert reshape(decode(textencoder, sample.token), :) == [\n    \"[CLS]\", \"peter\", \"piper\", \"picked\", \"a\", \"peck\", \"of\", \"pick\", \"##led\", \"peppers\", \"[SEP]\",\n    \"fuzzy\", \"wu\", \"##zzy\",  \"was\", \"a\", \"bear\", \"[SEP]\"\n]\n\nbert_features = bert_model(sample).hidden_state\n```\n\n完整示例请参阅 `example` 文件夹。\n\n\n# 更多信息\n\n如果您想了解更多关于本包的信息，请查看 [文档](https:\u002F\u002Fchengchingwen.github.io\u002FTransformers.jl\u002Fdev\u002F) 并阅读 `example` 文件夹中的代码。您也可以在 Julia 的 Slack 或 Discourse 上标记我 (@chengchingwen) 提问，或者直接在 GitHub 上创建一个新的 Issue。","# Transformers.jl 快速上手指南\n\nTransformers.jl 是基于 Julia 语言实现的 Transformer 模型库，底层依赖 Flux.jl 深度学习框架。本指南将帮助您快速完成环境配置并运行首个 BERT 示例。\n\n## 环境准备\n\n*   **操作系统**：支持 Linux、macOS 和 Windows。\n*   **前置依赖**：\n    *   已安装 **Julia** (推荐最新稳定版)。\n    *   确保网络通畅以下载模型权重（若访问 Hugging Face 受限，建议配置代理或使用国内镜像加速）。\n*   **核心依赖**：安装时会自动解析并安装 `Flux.jl` 等相关依赖包。\n\n## 安装步骤\n\n启动 Julia REPL（交互式命令行），进入包管理模式并执行安装命令：\n\n```julia\n]add Transformers\n```\n\n> **注意**：当前版本与 0.1.x 旧版本架构完全不同。如果您之前使用过旧版，请务必更新代码或锁定旧版本以避免兼容性问题。\n\n## 基本使用\n\n以下示例演示如何加载预训练的 BERT 模型，对文本进行分词编码，并提取模型特征。\n\n```julia\nusing Transformers\nusing Transformers.TextEncoders\nusing Transformers.HuggingFace\n\n# 1. 加载预训练的 bert-base-uncased 模型和编码器\ntextencoder, bert_model = hgf\"bert-base-uncased\"\n\n# 2. 准备输入文本\ntext1 = \"Peter Piper picked a peck of pickled peppers\"\ntext2 = \"Fuzzy Wuzzy was a bear\"\n\n# 构造一个包含两个句子的批次 (batch)\ntext = [[ text1, text2 ]]\n\n# 3. 编码：分词 + 预处理 (添加特殊令牌、截断\u002F填充、One-hot 编码)\nsample = encode(textencoder, text)\n\n# 验证分词结果 (可选)\n@assert reshape(decode(textencoder, sample.token), :) == [\n    \"[CLS]\", \"peter\", \"piper\", \"picked\", \"a\", \"peck\", \"of\", \"pick\", \"##led\", \"peppers\", \"[SEP]\",\n    \"fuzzy\", \"wu\", \"##zzy\",  \"was\", \"a\", \"bear\", \"[SEP]\"\n]\n\n# 4. 前向传播：获取模型输出的隐藏状态 (hidden_state)\nbert_features = bert_model(sample).hidden_state\n```\n\n更多完整示例请参考项目根目录下的 `example` 文件夹，或查阅[官方文档](https:\u002F\u002Fchengchingwen.github.io\u002FTransformers.jl\u002Fdev\u002F)。","某生物信息学团队正利用 Julia 语言的高性能计算优势，构建大规模基因序列变异检测模型，急需在现有流程中集成预训练的 BERT 模型以提取深层语义特征。\n\n### 没有 Transformers.jl 时\n- **语言生态割裂**：团队被迫通过 PyCall 调用 Python 的 Hugging Face 库，导致 Julia 与 Python 间频繁的数据序列化开销，严重拖慢训练速度。\n- **类型系统冲突**：Python 的动态类型对象难以直接融入 Julia 的静态类型编译流程，使得即时编译（JIT）优化失效，内存占用激增。\n- **部署运维复杂**：生产环境需同时维护 Python 和 Julia 两套依赖环境及版本兼容性，增加了容器化部署的难度和出错概率。\n- **自定义扩展困难**：若想修改 Transformer 底层架构以适应基因序列特性，需在两种语言间切换开发，调试链路冗长且痛苦。\n\n### 使用 Transformers.jl 后\n- **原生无缝集成**：直接在 Julia 中加载 `bert-base-uncased` 等预训练模型，无需跨语言调用，数据在内存中零拷贝流转，推理吞吐量提升显著。\n- **编译性能最大化**：模型完全基于 Flux.jl 构建，完美契合 Julia 的类型推断机制，充分发挥 JIT 加速优势，大幅降低显存占用。\n- **单一环境交付**：仅需维护纯 Julia 项目依赖，简化了从研发到生产的部署管线，彻底消除了多语言环境冲突隐患。\n- **灵活架构定制**：研究人员可用纯 Julia 代码轻松修改注意力机制或嵌入层，快速验证针对生物序列优化的新型网络结构。\n\nTransformers.jl 让科研人员能在保持 Julia 高性能计算特性的同时，零摩擦地复用主流 NLP 模型资产，真正实现了“鱼与熊掌兼得”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchengchingwen_Transformers.jl_9453ab21.png","chengchingwen","Peter","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fchengchingwen_61ff7117.png",null,"chengchingwen214@gmail.com","Cheng_Ching_Wen","https:\u002F\u002Fgithub.com\u002Fchengchingwen",[80,84],{"name":81,"color":82,"percentage":83},"Julia","#a270ba",95.1,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",4.9,573,81,"2026-04-11T01:49:00","MIT","未说明",{"notes":94,"python":95,"dependencies":96},"该工具是 Julia 语言实现的 Transformer 模型库，而非 Python。安装需在 Julia REPL 中运行 `]add Transformers`。当前版本与 0.1.x 版本完全不兼容，旧用户需注意升级或保留旧版本。具体硬件需求取决于所使用的底层 Flux.jl 后端配置及加载的模型大小。","不适用 (基于 Julia 语言)",[81,97],"Flux.jl",[14,35],[100,101,102,103,104,105,106],"transformer","natural-language-processing","deep-learning","attention","nlp","flux","machine-learning","2026-03-27T02:49:30.150509","2026-04-18T22:32:41.381067",[110,115,120,125,130],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},40993,"如何获取 Transformer 模型的逐层激活值（layer-wise activations）或注意力分数？","默认情况下，模型输出可能只包含最后一层的信息。要获取所有层的激活值或注意力分数，需要在加载配置时显式开启相关选项。\n\n具体步骤如下：\n1. 加载配置并设置 `output_attentions = true`（或其他所需输出）：\n   ```julia\n   bert_config = HuggingFace.HGFConfig(load_config(\"bert-base-uncased\"); output_attentions = true)\n   ```\n2. 使用该配置加载模型：\n   ```julia\n   bert_model = load_model(\"bert-base-uncased\"; config=bert_config)\n   ```\n3. 运行模型后，所有层的输出存储在 `.outputs` 字段中，它是一个包含每层信息的元组。例如，获取第一层的注意力分数：\n   ```julia\n   result = bert_model(sample)\n   # 访问特定层的注意力分数 (例如第 1 层)\n   layer_1_attention = result.outputs[1].attention_score\n   ```\n注意：直接访问 `model.attention_score` 通常只返回最后一层的数据。","https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fissues\u002F166",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},40994,"在验证 HuggingFace 模型（如 DistilBert）时遇到 'Unknown model type' 错误怎么办？","这通常是因为代码引用的已发布包版本尚未包含该模型的支持，而本地开发版本已有支持。解决方法是强制项目使用本地的修改版包。\n\n方法一（推荐）：使用 Pkg.jl 的 `dev` 功能。\n在项目目录下运行：\n```bash\njulia --project\n]\ndev ..\u002F..\u002Fpath\u002Fto\u002FTransformers.jl\n```\n这将修改 `Manifest.toml` 以使用本地包，无需修改代码。\n\n方法二：手动包含本地源文件。\n在主脚本中添加以下行以直接使用本地代码：\n```julia\ninclude(\".\u002F..\u002F..\u002Fsrc\u002FTransformers.jl\")\nusing .Transformers\nusing .Transformers.HuggingFace\n```\n然后即可正常运行验证命令，例如：\n`julia --project example\u002FHuggingFaceValidation\u002Fmain.jl -s based_model distilbert\u002Fdistilbert-base-cased`","https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fissues\u002F195",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},40995,"如何将基于旧版本 Transformers (~0.1.15) 的时间序列预测代码迁移到新版本 (~0.2.8)？","在升级版本时，API 可能会发生变化。关于模型评估，需要注意新版本可能不再直接提供通用的 \"accuracy\" 指标用于时间序列预测任务。\n\n建议方案：\n1. 检查其他类似时间序列任务通常使用的评估指标（如 MSE, MAE 等），而不是依赖默认的 accuracy。\n2. 手动编写损失计算和评估逻辑。例如，在训练循环外，使用测试数据运行模型，并计算预测值与真实值之间的差异：\n   ```julia\n   # 伪代码示例\n   predictions = model(test_input)\n   loss_value = loss_function(predictions, test_target)\n   ```\n维护者指出，用户需要根据具体任务定义自己的评估指标。","https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fissues\u002F196",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},40996,"为什么该包与 Flux 0.14 和 NNlib 0.9 不兼容？是否有计划更新？","目前该包与较新版本的 Flux (0.14+) 和 NNlib (0.9+) 存在兼容性问题。这是因为上游包 Flux.jl 已经放弃了对某些旧特性的支持，导致依赖链断裂。\n\n目前的状况：\n- 维护者指出，由于 Julia 1.6 是 LTS（长期支持）版本，而新版的 Flux 可能要求更高版本的 Julia 或引入了破坏性变更，因此产生了利益冲突。\n- 社区建议可能需要为该仓库创建一个 LTS 分支来调解这种冲突，以便在不破坏现有稳定性的前提下支持新版本。\n- 截至 Issue 关闭时，尚未有明确的更新时间表，用户可能需要暂时锁定旧版本依赖或关注后续的 LTS 分支动态。","https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fissues\u002F153",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},40997,"如何触发 TagBot 以发布新的注册表版本？","TagBot 用于自动处理包的标签和注册。如果需要在合并注册表 PR 后触发 TagBot，可以通过以下方式：\n\n1. **自动触发**：通常在合并到主分支或满足特定条件时自动运行。\n2. **手动触发**：在相关的 Issue 下评论 `TagBot fix`，机器人会在几小时内打开一个 PR 进行处理。\n3. **配置更新**：确保你的 `.github\u002FTagBot.yml` 文件中包含了 issue comment 触发器。如果没有，请参考 Julia Discourse 上的指南进行更新。\n\n示例评论操作：\n> 在 Issue 评论区输入：`TagBot fix`\n\n机器人回复示例：\n> \"Triggering TagBot for merged registry pull request: [PR Link]\"","https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fissues\u002F54",[136,141,146,151,156,161,166,171,176,181,186,191,196,201,206,211,216,221,226,231],{"id":137,"version":138,"summary_zh":139,"released_at":140},324545,"v0.3.1","## Transformers v0.3.1\n\n[自 v0.3.0 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.3.0...v0.3.1)","2024-06-28T08:41:08",{"id":142,"version":143,"summary_zh":144,"released_at":145},324546,"v0.3.0","## Transformers v0.3.0\n\n[与 v0.2.8 的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.8...v0.3.0)\n\n\n**已合并的拉取请求：**\n- 重写文本编码器 (#161) (@chengchingwen)\n- 优化 Hugging Face 接口 (#162) (@chengchingwen)\n- Phi (#169) (@pevnak)\n- 使用 pkg 扩展支持 GPU (#178) (@chengchingwen)\n\n**已关闭的问题：**\n- Hugging Face 下载在 Julia 1.10 上失效（是否由 ValSplit.jl 引起？）(#147)\n- 希望更新 Transformers.jl 及相关模块 (#176)\n- 从整数 token 转换为 one-hot token 时结果不一致。(#179)","2024-06-09T16:52:50",{"id":147,"version":148,"summary_zh":149,"released_at":150},324547,"v0.2.8","## Transformers v0.2.8\n\n[与 v0.2.7 的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.7...v0.2.8)\n\n\n**已合并的拉取请求：**\n- 修复 README.md 中的拼写错误 (#150) (@LilithHafner)\n- 修复测试中关于 \\eps 的警告 (#152) (@originalsouth)\n\n**已关闭的问题：**\n- 文本生成示例输出与 print_tree() 相关的错误 (#145)\n- 掩码功能失效。(#146)\n- GPT-2 分词器不支持不同的词汇表大小 (#148)","2023-10-01T16:13:48",{"id":152,"version":153,"summary_zh":154,"released_at":155},324548,"v0.2.7","## Transformers v0.2.7\n\n[自 v0.2.6 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.6...v0.2.7)","2023-07-31T13:23:38",{"id":157,"version":158,"summary_zh":159,"released_at":160},324549,"v0.2.6","## Transformers v0.2.6\n\n[自 v0.2.5 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.5...v0.2.6)","2023-06-24T08:45:07",{"id":162,"version":163,"summary_zh":164,"released_at":165},324550,"v0.2.5","## Transformers v0.2.5\n\n[与 v0.2.4 的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.4...v0.2.5)\n\n\n**已关闭的问题：**\n- 在 Transformers@0.1.25 中加载使用 Transformers@0.1.15 构建的旧 Transformer 模型 (#125)\n- 创建 Hugging Face Transformer 模型 (#137)\n- gtp_neo 模型函数抛出 UndefVarError: LocalMask 未定义 (#138)\n- 下载 BERT 时出现 404 错误 (#139)\n- 基于 Transformers 的推荐系统实现 (#140)","2023-05-27T17:01:33",{"id":167,"version":168,"summary_zh":169,"released_at":170},324551,"v0.2.4","## Transformers v0.2.4\n\n[自 v0.2.3 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.3...v0.2.4)","2023-03-31T10:34:07",{"id":172,"version":173,"summary_zh":174,"released_at":175},324552,"v0.2.3","## Transformers v0.2.3\n\n[自 v0.2.2 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.2...v0.2.3)","2023-03-17T16:24:41",{"id":177,"version":178,"summary_zh":179,"released_at":180},324553,"v0.2.2","## Transformers v0.2.2\n\n[自 v0.2.1 以来的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.1...v0.2.2)\n\n\n**已关闭的问题：**\n- README 示例失败 (#131)","2023-03-10T19:52:10",{"id":182,"version":183,"summary_zh":184,"released_at":185},324554,"v0.2.1","## Transformers v0.2.1\n\n[与 v0.2.0 的差异](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.2.0...v0.2.1)\n\n\n\n**已合并的拉取请求：**\n- 修复拼写错误 (#130) (@ymtoo)","2023-02-23T12:07:11",{"id":187,"version":188,"summary_zh":189,"released_at":190},324555,"v0.2.0","## Transformers v0.2.0\n\n[Diff since v0.1.25](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.25...v0.2.0)\n\n\n**Closed issues:**\n- Redesign `AbstractHGFConfig` loading with JSON3.jl (#10)\n- About choice of Tokenizers (#14)\n- Creating a new Stacks.jl library (#63)\n- Support for HuggingFace bert-base-portuguese-cased (#78)\n- scibert models missing loading_method? (#91)\n- Transformer tutorial is outdated (#98)\n- Transformers.jl failing to load in Julia 1.8 on Mac M1  (#122)\n- Bug(?) while displaying a huggingface model (#123)\n\n**Merged pull requests:**\n- 0.2 (#126) (@chengchingwen)","2023-02-15T05:04:31",{"id":192,"version":193,"summary_zh":194,"released_at":195},324556,"v0.1.25","## Transformers v0.1.25\n\n[Diff since v0.1.24](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.24...v0.1.25)\n\n\n**Closed issues:**\n- Error Pre-Compiling While Using Pluto (#121)","2022-12-12T15:31:59",{"id":197,"version":198,"summary_zh":199,"released_at":200},324557,"v0.1.24","## Transformers v0.1.24\n\n[Diff since v0.1.23](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.23...v0.1.24)\n\n\n\n**Merged pull requests:**\n- T5 (#117) (@chengchingwen)","2022-11-27T16:52:11",{"id":202,"version":203,"summary_zh":204,"released_at":205},324558,"v0.1.23","## Transformers v0.1.23\n\n[Diff since v0.1.22](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.22...v0.1.23)\n\n\n\n**Merged pull requests:**\n- Handle post-processor from fast tokenizer and add some tokenizers (#115) (@chengchingwen)","2022-09-30T08:53:15",{"id":207,"version":208,"summary_zh":209,"released_at":210},324559,"v0.1.22","## Transformers v0.1.22\n\n[Diff since v0.1.21](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.21...v0.1.22)\n\n\n**Closed issues:**\n- Tokenizer not support yet | Example GPT2_TextGeneration (#112)\n\n**Merged pull requests:**\n- Refactor hgf tokenizer code (#114) (@chengchingwen)","2022-09-15T13:23:39",{"id":212,"version":213,"summary_zh":214,"released_at":215},324560,"v0.1.21","## Transformers v0.1.21\n\n[Diff since v0.1.20](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.20...v0.1.21)\n\n\n**Closed issues:**\n- MbedTLS error code -76: NET - Reading information from the socket failed (#107)\n- Evaluation into the closed module `Transformers` breaks incremental compilation (enable_gpu) (#108)\n\n**Merged pull requests:**\n- gpt \u002F gpt2 textencoder and hgf gpt2 tokenizer (#111) (@chengchingwen)","2022-08-24T13:42:16",{"id":217,"version":218,"summary_zh":219,"released_at":220},324561,"v0.1.20","## Transformers v0.1.20\n\n[Diff since v0.1.19](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.19...v0.1.20)\n\n\n**Closed issues:**\n- SystemError: Permission Denied (hgf) (#106)","2022-08-04T07:43:24",{"id":222,"version":223,"summary_zh":224,"released_at":225},324562,"v0.1.19","## Transformers v0.1.19\n\n[Diff since v0.1.18](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.18...v0.1.19)\n\n\n**Closed issues:**\n- BERT CoLA Example Question (#102)\n\n**Merged pull requests:**\n- Adapting Huggingfaceapi (#103) (@chengchingwen)\n- Use Base.libblas_name instead of LinearAlgebra.BLAS.libblas. (#104) (@jwkvam)","2022-07-31T17:47:44",{"id":227,"version":228,"summary_zh":229,"released_at":230},324563,"v0.1.18","## Transformers v0.1.18\n\n[Diff since v0.1.17](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.17...v0.1.18)\n\n\n**Closed issues:**\n- possible issues in PositionEmbedding ? (#92)\n- Bert Cola Example Missing Import (#100)\n\n**Merged pull requests:**\n- addresses issue #92 (#93) (@Alexander-Barth)","2022-07-06T14:11:16",{"id":232,"version":233,"summary_zh":234,"released_at":235},324564,"v0.1.17","## Transformers v0.1.17\n\n[Diff since v0.1.16](https:\u002F\u002Fgithub.com\u002Fchengchingwen\u002FTransformers.jl\u002Fcompare\u002Fv0.1.16...v0.1.17)\n\n\n**Closed issues:**\n- Problem precompiling v0.1.14 on Julia 1.7.2 (#90)","2022-05-25T20:39:34"]