[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-BatsResearch--bonito":3,"tool-BatsResearch--bonito":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":138},9612,"BatsResearch\u002Fbonito","bonito","A lightweight library for generating synthetic instruction tuning datasets for your data without GPT.","Bonito 是一款轻量级开源库，专为将未标注的原始文本自动转化为高质量的指令微调数据集而设计。在大型语言模型训练中，获取大量带标注的任务数据往往成本高昂且耗时，Bonito 巧妙地解决了这一痛点：它无需依赖 GPT 等付费闭源模型，即可基于用户自有数据生成合成训练样本，显著降低了数据准备门槛。\n\n该工具特别适合 AI 研究人员、开发者以及希望定制垂直领域模型的技术团队使用。无论是需要构建特定任务（如情感分析、文本摘要、问答系统等）的训练集，还是希望在零样本场景下快速适配新任务，Bonito 都能提供高效支持。其核心亮点在于“条件任务生成”能力，能够理解上下文并生成多样化的指令 - 输出对；同时，它深度集成 Hugging Face Transformers 与 vLLM 库，支持多种任务类型，并提供从量化模型到 Google Colab 教程的完整生态支持，让数据集构建过程变得简单快捷。作为 ACL Findings 2024 收录的研究成果，Bonito 以开放、高效的姿态，助力社区更轻松地探索指令微调的无限可能。","# Bonito\n\nBonito is an open-source model for conditional task generation: the task of converting unannotated text into task-specific training datasets for instruction tuning. This repo is a lightweight library for Bonito to easily create synthetic datasets built on top of the Hugging Face `transformers` and `vllm` libraries.\n\n- Paper: [Learning to Generate Instruction Tuning Datasets for\nZero-Shot Task Adaptation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.18334)\n- Model: [bonito-v1](https:\u002F\u002Fhuggingface.co\u002FBatsResearch\u002Fbonito-v1)\n- Demo: [Bonito on Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnihalnayak\u002Fbonito)\n- Dataset: [ctga-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBatsResearch\u002Fctga-v1)\n- Code: To reproduce experiments in our paper, see [nayak-aclfindings24-code](https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fnayak-aclfindings24-code).\n\n![Bonito](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBatsResearch_bonito_readme_12ce5c5beb43.png)\n\n## News\n- 🐠 February 2025: Uploaded `bonito-llm` to PyPI.\n- 🐡 August 2024: Released [new Bonito model](https:\u002F\u002Fhuggingface.co\u002FBatsResearch\u002FLlama-3.1-8B-bonito-v1) with Meta Llama 3.1 as the base model.\n- 🐟 June 2024: Bonito is accepted to ACL Findings 2024.\n\n## Installation\nCreate an environment and install the package using the following command:\n```bash\npip3 install bonito-llm\n```\n\n## Basic Usage\nTo generate synthetic instruction tuning dataset using Bonito, you can use the following code:\n```python\nfrom bonito import Bonito\nfrom vllm import SamplingParams\nfrom datasets import load_dataset\n\n# Initialize the Bonito model\nbonito = Bonito(\"BatsResearch\u002Fbonito-v1\")\n\n# load dataset with unannotated text\nunannotated_text = load_dataset(\n    \"BatsResearch\u002Fbonito-experiment\",\n    \"unannotated_contract_nli\"\n)[\"train\"].select(range(10))\n\n# Generate synthetic instruction tuning dataset\nsampling_params = SamplingParams(max_tokens=256, top_p=0.95, temperature=0.5, n=1)\nsynthetic_dataset = bonito.generate_tasks(\n    unannotated_text,\n    context_col=\"input\",\n    task_type=\"nli\",\n    sampling_params=sampling_params\n)\n```\n\n## Supported Task Types\nHere we include the supported task types [full name (short form)]: `extractive question answering` (`exqa`), `multiple-choice question answering` (`mcqa`), `question generation` (`qg`), `question answering without choices` (`qa`), `yes-no question answering` (`ynqa`), `coreference resolution` (`coref`), `paraphrase generation` (`paraphrase`), `paraphrase identification` (`paraphrase_id`), `sentence completion` (`sent_comp`), `sentiment` (`sentiment`), `summarization` (`summarization`), `text generation` (`text_gen`), `topic classification` (`topic_class`), `word sense disambiguation` (`wsd`), `textual entailment` (`te`), `natural language inference` (`nli`)\n\nYou can use either the full name or the short form to specify the `task_type` in `generate_tasks`.\n\n## Tutorial\nWe have created a tutorial [here](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F12OCh4OYo1vr9ZvwIWK4JwZT7rkMrYrx2?usp=sharing) for how to use a quantized version of the model in a Google Colab T4 instance. The quantized version was graciously contributed by user [alexandreteles](https:\u002F\u002Fgithub.com\u002Falexandreteles).\nWe have an additional tutorial to try out the Bonito model on A100 GPU on Google Colab [here](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1XuDRVKpUUqdjrqg2-P2FIqkdAQBnqoNL?usp=sharing).\n\n\n## Citation\nIf you use Bonito in your research, please cite the following paper:\n```\n@inproceedings{bonito:aclfindings24,\n  title = {Learning to Generate Instruction Tuning Datasets for Zero-Shot Task Adaptation},\n  author = {Nayak, Nihal V. and Nan, Yiyang and Trost, Avi and Bach, Stephen H.},\n  booktitle = {Findings of the Association for Computational Linguistics: ACL 2024},\n  year = {2024}}\n```\n","# Bonito\n\nBonito 是一个用于条件任务生成的开源模型：其任务是将未标注文本转换为特定任务的训练数据集，以用于指令微调。该仓库是一个轻量级库，基于 Hugging Face 的 `transformers` 和 `vllm` 库，方便用户使用 Bonito 创建合成数据集。\n\n- 论文：[学习生成用于零样本任务适配的指令微调数据集](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.18334)\n- 模型：[bonito-v1](https:\u002F\u002Fhuggingface.co\u002FBatsResearch\u002Fbonito-v1)\n- 演示：[Bonito on Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnihalnayak\u002Fbonito)\n- 数据集：[ctga-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBatsResearch\u002Fctga-v1)\n- 代码：如需复现论文中的实验，请参阅 [nayak-aclfindings24-code](https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fnayak-aclfindings24-code)。\n\n![Bonito](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBatsResearch_bonito_readme_12ce5c5beb43.png)\n\n## 最新动态\n- 🐠 2025年2月：已将 `bonito-llm` 上架至 PyPI。\n- 🐡 2024年8月：发布了新的 Bonito 模型 [BatsResearch\u002FLlama-3.1-8B-bonito-v1]，以 Meta Llama 3.1 为基础模型。\n- 🐟 2024年6月：Bonito 被 ACL Findings 2024 接收。\n\n## 安装\n创建环境并使用以下命令安装包：\n```bash\npip3 install bonito-llm\n```\n\n## 基本用法\n要使用 Bonito 生成合成指令微调数据集，可以使用以下代码：\n```python\nfrom bonito import Bonito\nfrom vllm import SamplingParams\nfrom datasets import load_dataset\n\n# 初始化 Bonito 模型\nbonito = Bonito(\"BatsResearch\u002Fbonito-v1\")\n\n# 加载包含未标注文本的数据集\nunannotated_text = load_dataset(\n    \"BatsResearch\u002Fbonito-experiment\",\n    \"unannotated_contract_nli\"\n)[\"train\"].select(range(10))\n\n# 生成合成指令微调数据集\nsampling_params = SamplingParams(max_tokens=256, top_p=0.95, temperature=0.5, n=1)\nsynthetic_dataset = bonito.generate_tasks(\n    unannotated_text,\n    context_col=\"input\",\n    task_type=\"nli\",\n    sampling_params=sampling_params\n)\n```\n\n## 支持的任务类型\n以下是支持的任务类型 [全称 (简写)]：`抽取式问答` (`exqa`)、`选择题问答` (`mcqa`)、`问题生成` (`qg`)、`无选项问答` (`qa`)、`是非问答` (`ynqa`)、`指代消解` (`coref`)、`同义句生成` (`paraphrase`)、`同义句识别` (`paraphrase_id`)、`句子补全` (`sent_comp`)、`情感分析` (`sentiment`)、`摘要生成` (`summarization`)、`文本生成` (`text_gen`)、`主题分类` (`topic_class`)、`词义消歧` (`wsd`)、`文本蕴含` (`te`)、`自然语言推理` (`nli`)。\n\n在 `generate_tasks` 中，您可以使用全称或简写来指定 `task_type`。\n\n## 教程\n我们在此处创建了一个教程 [链接](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F12OCh4OYo1vr9ZvwIWK4JwZT7rkMrYrx2?usp=sharing)，介绍如何在 Google Colab T4 实例中使用模型的量化版本。该量化版本由用户 [alexandreteles](https:\u002F\u002Fgithub.com\u002Falexandreteles) 慷慨提供。此外，我们还有一个教程，可在 Google Colab 的 A100 GPU 上试用 Bonito 模型 [链接](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1XuDRVKpUUqdjrqg2-P2FIqkdAQBnqoNL?usp=sharing)。\n\n## 引用\n如果您在研究中使用了 Bonito，请引用以下论文：\n```\n@inproceedings{bonito:aclfindings24,\n  title = {Learning to Generate Instruction Tuning Datasets for Zero-Shot Task Adaptation},\n  author = {Nayak, Nihal V. and Nan, Yiyang and Trost, Avi and Bach, Stephen H.},\n  booktitle = {Findings of the Association for Computational Linguistics: ACL 2024},\n  year = {2024}}\n```","# Bonito 快速上手指南\n\nBonito 是一个开源的条件任务生成模型，能够将未标注的文本自动转换为特定任务的指令微调（Instruction Tuning）训练数据集。本项目基于 Hugging Face `transformers` 和 `vllm` 构建，旨在帮助用户轻松创建合成数据。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（推荐 Linux 以获得最佳 GPU 兼容性）。\n*   **Python 版本**：Python 3.8 或更高版本。\n*   **硬件要求**：\n    *   运行基础模型建议具备 NVIDIA GPU（支持 CUDA）。\n    *   若使用 CPU 推理，速度会显著较慢。\n*   **前置依赖**：建议先安装 PyTorch（需匹配您的 CUDA 版本），`bonito-llm` 会自动处理其他依赖（如 `transformers`, `vllm`, `datasets`）。\n\n> **国内加速建议**：\n> 推荐使用国内镜像源安装依赖，以提升下载速度：\n> ```bash\n> pip3 install bonito-llm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n> 加载模型时，若访问 Hugging Face 困难，可配置环境变量使用镜像：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> ```\n\n## 安装步骤\n\n通过 pip 直接安装官方发布的 `bonito-llm` 包：\n\n```bash\npip3 install bonito-llm\n```\n\n## 基本使用\n\n以下是最简单的代码示例，展示如何加载未标注文本并生成用于自然语言推断（NLI）任务的合成指令微调数据集。\n\n```python\nfrom bonito import Bonito\nfrom vllm import SamplingParams\nfrom datasets import load_dataset\n\n# 初始化 Bonito 模型\n# 国内用户若无法直连，请确保已设置 export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\nbonito = Bonito(\"BatsResearch\u002Fbonito-v1\")\n\n# 加载包含未标注文本的数据集\nunannotated_text = load_dataset(\n    \"BatsResearch\u002Fbonito-experiment\",\n    \"unannotated_contract_nli\"\n)[\"train\"].select(range(10))\n\n# 配置采样参数\nsampling_params = SamplingParams(max_tokens=256, top_p=0.95, temperature=0.5, n=1)\n\n# 生成合成指令微调数据集\n# task_type 支持全称或缩写，例如 \"nli\" 或 \"natural language inference\"\nsynthetic_dataset = bonito.generate_tasks(\n    unannotated_text,\n    context_col=\"input\",\n    task_type=\"nli\",\n    sampling_params=sampling_params\n)\n\n# 查看生成的前几条数据\nprint(synthetic_dataset[:2])\n```\n\n**支持的任务类型简述**：\n除了 `nli`，您还可以使用 `exqa` (抽取式问答), `mcqa` (多选问答), `summarization` (摘要), `sentiment` (情感分析) 等。具体可在 `task_type` 参数中传入任务全称或上述缩写。","某法律科技团队希望基于内部积累的大量未标注合同文本，快速构建一个能理解法律条款逻辑的专属大模型，但面临训练数据匮乏的难题。\n\n### 没有 bonito 时\n- **高昂的数据标注成本**：依赖人工律师逐条阅读合同并编写“指令 - 回答”对，耗时数月且费用昂贵，难以规模化。\n- **过度依赖闭源模型**：若尝试用 GPT-4 等闭源模型自动生成数据，不仅 API 调用成本极高，还存在将敏感合同内容上传至第三方服务器的合规风险。\n- **任务适配灵活性差**：针对特定的法律推理任务（如自然语言推断 NLI），缺乏现成的微调数据集，导致通用模型在专业场景下表现不佳，无法直接落地。\n- **迭代周期漫长**：从原始文本到可用的训练集，中间涉及繁琐的清洗、格式化和质量校验流程，严重拖慢模型研发进度。\n\n### 使用 bonito 后\n- **零成本自动化生成**：利用 bonito 本地部署的轻量级模型，直接将未标注的合同文本转化为高质量的“自然语言推断”合成数据集，无需任何人工标注或外部 API 费用。\n- **数据隐私绝对安全**：整个数据生成过程完全在本地环境中运行，敏感的法律合同数据无需出域，完美满足企业级的数据合规要求。\n- **精准的任务定制能力**：通过简单指定 `task_type=\"nli\"`，bonito 即可针对性地生成符合法律逻辑推理需求的训练样本，显著提升模型在特定任务上的零样本适应能力。\n- **研发效率大幅提升**：原本需要数周的数据准备工作缩短至几小时，团队能快速完成多轮“数据生成 - 模型微调 - 效果验证”的闭环迭代。\n\nbonito 让团队在不泄露数据且不依赖昂贵算力的前提下，将沉睡的非结构化文档瞬间转化为驱动大模型进化的核心燃料。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBatsResearch_bonito_0f5486c2.png","BatsResearch","Bats Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FBatsResearch_44ca5ead.png","We are a machine learning research group at Brown University. We work on improving the processes by which humans teach and instruct computers.",null,"http:\u002F\u002Fcs.brown.edu\u002Fpeople\u002Fsbach\u002F","https:\u002F\u002Fgithub.com\u002FBatsResearch",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,824,57,"2026-04-12T16:14:29","BSD-3-Clause","未说明","需要 NVIDIA GPU（基于 vllm 库），教程中提及支持 T4 和 A100 实例，具体显存需求取决于所选模型版本（如 Llama-3.1-8B 需较大显存）",{"notes":92,"python":89,"dependencies":93},"该工具可通过 PyPI 安装 (pip3 install bonito-llm)。核心功能依赖 vllm 进行推理加速，因此通常需要 NVIDIA GPU 环境。官方提供了在 Google Colab T4（使用量化模型）和 A100 上运行的教程。支持多种任务类型（如 NLI、问答、摘要等），可生成用于指令微调的合成数据集。",[94,95,96,97],"bonito-llm","vllm","transformers","datasets",[16,13,14,35],[100,101,102,103,104,105,106],"llm","synthetic-data","synthetic-dataset-generation","zero-shot-learning","domain-adaptation","gpt","task-adaptation","2026-03-27T02:49:30.150509","2026-04-20T04:06:08.793481",[110,115,120,125,130,134],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},43139,"如何在本地加载已下载的模型，而不是从 Hugging Face 远程下载？","如果您已经本地下载了模型，只需将初始化代码中的模型名称替换为本地模型路径即可。例如：`bonito = Bonito(\"\u002Fpath\u002Fto\u002Flocal\u002Fmodel\")`。这遵循 Transformers 库 `AutoModel.from_pretrained()` 的标准行为。如果遇到网络错误（如 ConnectionError），请确保使用正确的本地路径。","https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fissues\u002F42",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},43140,"是否有更小的模型版本可以在资源受限的环境（如 Google Colab T4 GPU）中运行？","官方提供了量化版本的模型教程，专门用于在 T4 实例（如 Google Colab）上运行。您可以使用社区提供的量化模型，例如 `alexandreteles\u002Fbonito-v1-awq`（适用于 vllm）或 `alexandreteles\u002Fbonito-v1-gguf`（适用于 llama.cpp）。官方教程地址：https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1tfAqUsFaLWLyzhnd1smLMGcDXSzOwp9r?usp=sharing。注意：AWQ 版本可能需要 CUDA 兼容性 7.5 以上。","https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fissues\u002F9",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},43141,"当 task_type 设置为 \"text_gen\" 时，为什么输出结果是 \"{{context}}\" 占位符？","这是一个已知的问题，源于推理代码中的模板处理逻辑。该问题已在 PR #48 中修复。如果您遇到此问题，请确保更新到包含该修复的最新版本代码。如果输出仍然是原始上下文内容而非生成的指令，说明推理代码未正确替换模板变量。","https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fissues\u002F47",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},43142,"如何解决导入错误 \"ImportError: cannot import name 'Bonito' from 'bonito'\"？","此错误通常由版本不匹配或安装问题引起。请确认您安装的是正确版本的 bonito 库（例如 0.2 版或更高），并检查 Python 版本兼容性（建议 Python 3.8+）。如果问题依旧，尝试重新安装：`pip install --upgrade bonito`。此外，确保没有本地文件名为 `bonito.py` 冲突。","https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fissues\u002F39",{"id":131,"question_zh":132,"answer_zh":133,"source_url":129},43143,"如何让模型支持自定义分类类别，而不是仅输出训练数据中的固定类别（如 AGNews）？","模型可能会过拟合到训练数据中的类别。解决方法是修改 `process` 函数，在输入提示中显式包含自定义类别。示例代码如下：\n```python\ndef process(example):\n    input_text = \"\u003C|tasktype|>\\n\" + full_task_type.strip()\n    input_text += (\n        \"\\n\u003C|context|>\\n\" + example[context_col].strip() + \"\\n\u003C|task|>\\n\"\n        \"{{context}} classify the following into X, Y, or Z.\\n\u003C|pipe|>\\n\" # 在此处添加自定义指令\n    )\n    return {\"input\": input_text}\n```\n另外，也可以尝试使用经过指令微调的模型，如 `BatsResearch\u002FMistral-7B-v0.1-P3`。",{"id":135,"question_zh":136,"answer_zh":137,"source_url":114},43144,"如果直接使用 Transformers 的 AutoModelForCausalLM 加载模型，如何生成任务数据？","如果您使用 `AutoModelForCausalLM.from_pretrained()` 直接加载模型，则无法直接调用 bonito 库特有的 `generate_tasks` 方法。您需要遵循 Transformers 库的原生生成管道（generation pipeline），自行编写函数来模拟 `generate_tasks` 的逻辑，包括构建特定的输入提示模板和处理输出解析。目前库尚未提供直接适配原生 Transformers 模型的封装函数。",[139,144,149],{"id":140,"version":141,"summary_zh":142,"released_at":143},342840,"v0.1.0","已将 bonito-llm 包上传至 PyPI（https:\u002F\u002Fpypi.org\u002Fproject\u002Fbonito-llm\u002F0.1.0\u002F）\n\n## 变更内容\n* 由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F33 中更新了 README.md\n* 由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F38 中添加了仓库的演示链接\n* 由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F45 中完成了打包\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fcompare\u002Fv0.0.2...v0.1.0\n\n","2025-02-12T16:50:05",{"id":145,"version":146,"summary_zh":147,"released_at":148},342841,"v0.0.2","## 变更内容\n* 由 @stephenbach 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F13 中重构量化功能\n* 由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F14 中更新教程\n* 修复：由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F19 中修复的多预测错误\n* 修复：由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F25 中修复的教程中的 autoawq 错误\n* 更新了参考文献条目，由 @nihalnayak 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F26 中完成\n\n## 新贡献者\n* @stephenbach 在 https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fpull\u002F13 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fbonito\u002Fcompare\u002Fv0.0.1...v0.0.2","2024-06-25T14:03:33",{"id":150,"version":151,"summary_zh":152,"released_at":153},342842,"v0.0.1","- 实现了使用 vLLM 和 Transformers 对 Bonito 模型的基本用法。\n- 发布版本与 [实验代码](https:\u002F\u002Fgithub.com\u002FBatsResearch\u002Fnayak-arxiv24-code) 兼容。","2024-03-20T16:30:41"]