[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-georgian-io--LLM-Finetuning-Toolkit":3,"tool-georgian-io--LLM-Finetuning-Toolkit":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",157379,2,"2026-04-15T23:32:42",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":99,"env_deps":101,"category_tags":110,"github_topics":111,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":130,"updated_at":131,"faqs":132,"releases":162},7856,"georgian-io\u002FLLM-Finetuning-Toolkit","LLM-Finetuning-Toolkit","Toolkit for fine-tuning, ablating and unit-testing open-source LLMs.","LLM-Finetuning-Toolkit 是一款专为开源大语言模型（LLM）打造的命令行工具，旨在简化模型的微调、消融实验及单元测试流程。它通过单一的 YAML 配置文件，让用户能够轻松掌控从数据导入、提示词设计、模型选择到优化策略及质量评估的完整实验链路。\n\n对于需要反复调整参数进行模型优化的开发者和研究人员而言，手动管理复杂的实验变量往往耗时且易错。这款工具有效解决了这一痛点，支持用户在一个配置文件中定义并批量运行多组对比实验，自动收集结果，从而大幅提升研发效率。无论是使用 Hugging Face 上的公开数据集，还是加载本地的 JSON\u002FCSV 数据，都能灵活适配。\n\n其技术亮点在于对前沿特性的原生支持，例如可一键开启 Flash Attention 2 以加速训练，并集成 bitsandbytes 实现高效的 4-bit 量化，显著降低显存需求。只需几条简单的命令，即可完成从生成初始配置到启动微调的全过程。如果你正致力于探索不同提示词模板、基座模型或优化技巧对效果的影响，LLM-Finetuning-Toolkit 将是你得力的实验助手。","# LLM Finetuning Toolkit\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgian-io_LLM-Finetuning-Toolkit_readme_57cc000102c0.gif\" width=\"900\" \u002F>\n\u003C\u002Fp>\n\n## Overview\n\nLLM Finetuning toolkit is a config-based CLI tool for launching a series of LLM fine-tuning experiments on your data and gathering their results. From one single `yaml` config file, control all elements of a typical experimentation pipeline - **prompts**, **open-source LLMs**, **optimization strategy** and **LLM testing**.\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgian-io_LLM-Finetuning-Toolkit_readme_81f38f38f981.png\" width=\"900\" \u002F>\n\u003C\u002Fp>\n\n## Installation\n\n### [pipx](https:\u002F\u002Fpipx.pypa.io\u002Fstable\u002F) (recommended)\n\n[pipx](https:\u002F\u002Fpipx.pypa.io\u002Fstable\u002F) installs the package and dependencies in a separate virtual environment\n\n```shell\npipx install llm-toolkit\n```\n\n### pip\n\n```shell\npip install llm-toolkit\n```\n\n## Quick Start\n\nThis guide contains 3 stages that will enable you to get the most out of this toolkit!\n\n- **Basic**: Run your first LLM fine-tuning experiment\n- **Intermediate**: Run a custom experiment by changing the components of the YAML configuration file\n- **Advanced**: Launch series of fine-tuning experiments across different prompt templates, LLMs, optimization techniques -- all through **one** YAML configuration file\n\n### Basic\n\n```shell\nllmtune generate config\nllmtune run .\u002Fconfig.yml\n```\n\nThe first command generates a helpful starter `config.yml` file and saves in the current working directory. This is provided to users to quickly get started and as a base for further modification.\n\nThen the second command initiates the fine-tuning process using the settings specified in the default YAML configuration file `config.yaml`.\n\n### Intermediate\n\nThe configuration file is the central piece that defines the behavior of the toolkit. It is written in YAML format and consists of several sections that control different aspects of the process, such as data ingestion, model definition, training, inference, and quality assurance. We highlight some of the critical sections.\n\n#### Flash Attention 2\n\nTo enable Flash-attention for [supported models](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fperf_infer_gpu_one#flashattention-2). First install `flash-attn`:\n\n**pipx**\n\n```shell\npipx inject llm-toolkit flash-attn --pip-args=--no-build-isolation\n```\n\n**pip**\n\n```\npip install flash-attn --no-build-isolation\n```\n\nThen, add to config file.\n\n```yaml\nmodel:\n  torch_dtype: \"bfloat16\" # or \"float16\" if using older GPU\n  attn_implementation: \"flash_attention_2\"\n```\n\n#### Data Ingestion\n\nAn example of what the data ingestion may look like:\n\n```yaml\ndata:\n  file_type: \"huggingface\"\n  path: \"yahma\u002Falpaca-cleaned\"\n  prompt:\n    ### Instruction: {instruction}\n    ### Input: {input}\n    ### Output:\n  prompt_stub: { output }\n  test_size: 0.1 # Proportion of test as % of total; if integer then # of samples\n  train_size: 0.9 # Proportion of train as % of total; if integer then # of samples\n  train_test_split_seed: 42\n```\n\n- While the above example illustrates using a public dataset from Hugging Face, the config file can also ingest your own data.\n\n```yaml\n   file_type: \"json\"\n   path: \"\u003Cpath to your data file>\n```\n\n```yaml\n   file_type: \"csv\"\n   path: \"\u003Cpath to your data file>\n```\n\n- The prompt fields help create instructions to fine-tune the LLM on. It reads data from specific columns, mentioned in {} brackets, that are present in your dataset. In the example provided, it is expected for the data file to have column names: `instruction`, `input` and `output`.\n\n- The prompt fields use both `prompt` and `prompt_stub` during fine-tuning. However, during testing, **only** the `prompt` section is used as input to the fine-tuned LLM.\n\n#### LLM Definition\n\n```yaml\nmodel:\n  hf_model_ckpt: \"NousResearch\u002FLlama-2-7b-hf\"\n  quantize: true\n  bitsandbytes:\n    load_in_4bit: true\n    bnb_4bit_compute_dtype: \"bf16\"\n    bnb_4bit_quant_type: \"nf4\"\n\n# LoRA Params -------------------\nlora:\n  task_type: \"CAUSAL_LM\"\n  r: 32\n  lora_dropout: 0.1\n  target_modules:\n    - q_proj\n    - v_proj\n    - k_proj\n    - o_proj\n    - up_proj\n    - down_proj\n    - gate_proj\n```\n\n- While the above example showcases using Llama2 7B, in theory, any open-source LLM supported by Hugging Face can be used in this toolkit.\n\n```yaml\nhf_model_ckpt: \"mistralai\u002FMistral-7B-v0.1\"\n```\n\n```yaml\nhf_model_ckpt: \"tiiuae\u002Ffalcon-7b\"\n```\n\n- The parameters for LoRA, such as the rank `r` and dropout, can be altered.\n\n```yaml\nlora:\n  r: 64\n  lora_dropout: 0.25\n```\n\n#### Quality Assurance\n\n```yaml\nqa:\n  llm_metrics:\n    - length_test\n    - word_overlap_test\n```\n\n- To ensure that the fine-tuned LLM behaves as expected, you can add tests that check if the desired behaviour is being attained. Example: for an LLM fine-tuned for a summarization task, we may want to check if the generated summary is indeed smaller in length than the input text. We would also like to learn the overlap between words in the original text and generated summary.\n\n#### Artifact Outputs\n\nThis config will run fine-tuning and save the results under directory `.\u002Fexperiment\u002F[unique_hash]`. Each unique configuration will generate a unique hash, so that our tool can automatically pick up where it left off. For example, if you need to exit in the middle of the training, by relaunching the script, the program will automatically load the existing dataset that has been generated under the directory, instead of doing it all over again.\n\nAfter the script finishes running you will see these distinct artifacts:\n\n```shell\n\u002Fdataset # generated pkl file in hf datasets format\n\u002Fmodel # peft model weights in hf format\n\u002Fresults # csv of prompt, ground truth, and predicted values\n\u002Fqa # csv of test results: e.g. vector similarity between ground truth and prediction\n```\n\nOnce all the changes have been incorporated in the YAML file, you can simply use it to run a custom fine-tuning experiment!\n\n```shell\npython toolkit.py --config-path \u003Cpath to custom YAML file>\n```\n\n### Advanced\n\nFine-tuning workflows typically involve running ablation studies across various LLMs, prompt designs and optimization techniques. The configuration file can be altered to support running ablation studies.\n\n- Specify different prompt templates to experiment with while fine-tuning.\n\n```yaml\ndata:\n  file_type: \"huggingface\"\n  path: \"yahma\u002Falpaca-cleaned\"\n  prompt:\n    - >-\n      This is the first prompt template to iterate over\n      ### Input: {input}\n      ### Output:\n    - >-\n      This is the second prompt template\n      ### Instruction: {instruction}\n      ### Input: {input}\n      ### Output:\n  prompt_stub: { output }\n  test_size: 0.1 # Proportion of test as % of total; if integer then # of samples\n  train_size: 0.9 # Proportion of train as % of total; if integer then # of samples\n  train_test_split_seed: 42\n```\n\n- Specify various LLMs that you would like to experiment with.\n\n```yaml\nmodel:\n  hf_model_ckpt:\n    [\n      \"NousResearch\u002FLlama-2-7b-hf\",\n      mistralai\u002FMistral-7B-v0.1\",\n      \"tiiuae\u002Ffalcon-7b\",\n    ]\n  quantize: true\n  bitsandbytes:\n    load_in_4bit: true\n    bnb_4bit_compute_dtype: \"bf16\"\n    bnb_4bit_quant_type: \"nf4\"\n```\n\n- Specify different configurations of LoRA that you would like to ablate over.\n\n```yaml\nlora:\n  r: [16, 32, 64]\n  lora_dropout: [0.25, 0.50]\n```\n\n## Extending\n\nThe toolkit provides a modular and extensible architecture that allows developers to customize and enhance its functionality to suit their specific needs. Each component of the toolkit, such as data ingestion, fine-tuning, inference, and quality assurance testing, is designed to be easily extendable.\n\n## Contributing\n\nOpen-source contributions to this toolkit are welcome and encouraged.\nIf you would like to contribute, please see [CONTRIBUTING.md](CONTRIBUTING.md).\n","# LLM 微调工具包\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgian-io_LLM-Finetuning-Toolkit_readme_57cc000102c0.gif\" width=\"900\" \u002F>\n\u003C\u002Fp>\n\n## 概述\n\nLLM 微调工具包是一个基于配置的命令行工具，用于在您的数据上启动一系列 LLM 微调实验，并收集其结果。您只需一个 `yaml` 配置文件，即可控制典型实验流程中的所有要素——**提示模板**、**开源 LLM**、**优化策略**以及**LLM 测试**。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgian-io_LLM-Finetuning-Toolkit_readme_81f38f38f981.png\" width=\"900\" \u002F>\n\u003C\u002Fp>\n\n## 安装\n\n### [pipx](https:\u002F\u002Fpipx.pypa.io\u002Fstable\u002F)（推荐）\n\n[pipx](https:\u002F\u002Fpipx.pypa.io\u002Fstable\u002F) 会将软件包及其依赖项安装在一个独立的虚拟环境中。\n\n```shell\npipx install llm-toolkit\n```\n\n### pip\n\n```shell\npip install llm-toolkit\n```\n\n## 快速入门\n\n本指南包含三个阶段，帮助您充分利用此工具包！\n\n- **基础**：运行您的第一个 LLM 微调实验\n- **中级**：通过修改 YAML 配置文件中的组件来运行自定义实验\n- **高级**：通过**一个** YAML 配置文件，在不同的提示模板、LLM 和优化技术之间启动一系列微调实验\n\n### 基础\n\n```shell\nllmtune generate config\nllmtune run .\u002Fconfig.yml\n```\n\n第一条命令会生成一个实用的入门级 `config.yml` 文件，并保存到当前工作目录中。该文件旨在帮助用户快速上手，并作为进一步修改的基础。\n\n第二条命令则使用默认的 YAML 配置文件 `config.yaml` 中指定的设置，启动微调过程。\n\n### 中级\n\n配置文件是定义工具包行为的核心部分。它采用 YAML 格式编写，由多个部分组成，分别控制数据加载、模型定义、训练、推理和质量保证等不同环节。以下我们重点介绍几个关键部分。\n\n#### Flash Attention 2\n\n要为[支持的模型](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fperf_infer_gpu_one#flashattention-2)启用 Flash-Attention，首先需要安装 `flash-attn`：\n\n**pipx**\n\n```shell\npipx inject llm-toolkit flash-attn --pip-args=--no-build-isolation\n```\n\n**pip**\n\n```\npip install flash-attn --no-build-isolation\n```\n\n然后，在配置文件中添加以下内容：\n\n```yaml\nmodel:\n  torch_dtype: \"bfloat16\" # 或者如果使用较旧的 GPU，则为 \"float16\"\n  attn_implementation: \"flash_attention_2\"\n```\n\n#### 数据加载\n\n数据加载部分的示例如下：\n\n```yaml\ndata:\n  file_type: \"huggingface\"\n  path: \"yahma\u002Falpaca-cleaned\"\n  prompt:\n    ### Instruction: {instruction}\n    ### Input: {input}\n    ### Output:\n  prompt_stub: { output }\n  test_size: 0.1 # 测试集占总数据的比例；若为整数，则表示样本数量\n  train_size: 0.9 # 训练集占总数据的比例；若为整数，则表示样本数量\n  train_test_split_seed: 42\n```\n\n- 上述示例展示了如何使用 Hugging Face 上的公开数据集，但配置文件同样可以加载您自己的数据。\n\n```yaml\n   file_type: \"json\"\n   path: \"\u003C您的数据文件路径>\"\n```\n\n```yaml\n   file_type: \"csv\"\n   path: \"\u003C您的数据文件路径>\"\n```\n\n- 提示字段用于构建微调 LLM 的指令模板。它会从您数据集中特定的列中读取信息，这些列名被放在 `{}` 括号内。在提供的示例中，假设数据文件包含 `instruction`、`input` 和 `output` 三列。\n\n- 在微调过程中，提示字段会同时使用 `prompt` 和 `prompt_stub`；而在测试阶段，**仅**使用 `prompt` 部分作为微调后 LLM 的输入。\n\n#### LLM 定义\n\n```yaml\nmodel:\n  hf_model_ckpt: \"NousResearch\u002FLlama-2-7b-hf\"\n  quantize: true\n  bitsandbytes:\n    load_in_4bit: true\n    bnb_4bit_compute_dtype: \"bf16\"\n    bnb_4bit_quant_type: \"nf4\"\n\n# LoRA 参数 -------------------\nlora:\n  task_type: \"CAUSAL_LM\"\n  r: 32\n  lora_dropout: 0.1\n  target_modules:\n    - q_proj\n    - v_proj\n    - k_proj\n    - o_proj\n    - up_proj\n    - down_proj\n    - gate_proj\n```\n\n- 上述示例展示了使用 Llama2 7B 的情况，理论上，任何受 Hugging Face 支持的开源 LLM 都可以在此工具包中使用。\n\n```yaml\nhf_model_ckpt: \"mistralai\u002FMistral-7B-v0.1\"\n```\n\n```yaml\nhf_model_ckpt: \"tiiuae\u002Ffalcon-7b\"\n```\n\n- LoRA 的参数，如秩 `r` 和丢弃率，都可以调整。\n\n```yaml\nlora:\n  r: 64\n  lora_dropout: 0.25\n```\n\n#### 质量保证\n\n```yaml\nqa:\n  llm_metrics:\n    - length_test\n    - word_overlap_test\n```\n\n- 为了确保微调后的 LLM 行为符合预期，您可以添加一些测试来验证是否达到了所需的效果。例如，对于一个用于摘要任务的微调 LLM，我们可能希望检查生成的摘要长度是否确实短于输入文本，同时还要了解原始文本与摘要之间的词汇重叠程度。\n\n#### 输出成果\n\n该配置将执行微调，并将结果保存到 `.\u002Fexperiment\u002F[unique_hash]` 目录下。每个独特的配置都会生成一个唯一的哈希值，以便工具能够自动从中断处继续执行。例如，如果您在训练过程中需要退出，重新运行脚本时，程序会自动加载该目录下已生成的数据集，而无需从头开始。\n\n脚本运行完成后，您将看到以下几类输出成果：\n\n```shell\n\u002Fdataset # 以 HF 数据集格式生成的 pkl 文件\n\u002Fmodel # 以 HF 格式保存的 PEFT 模型权重\n\u002Fresults # 包含提示、真实标签和预测值的 CSV 文件\n\u002Fqa # 包含测试结果的 CSV 文件：例如，真实标签与预测之间的向量相似度\n```\n\n完成对 YAML 文件的所有修改后，您只需使用它即可运行自定义的微调实验！\n\n```shell\npython toolkit.py --config-path \u003C自定义 YAML 文件路径>\n```\n\n### 高级\n\n微调工作流通常涉及在不同的大语言模型、提示词设计和优化技术之间进行消融实验。可以通过修改配置文件来支持运行消融实验。\n\n- 指定不同的提示模板，以便在微调过程中进行实验。\n\n```yaml\ndata:\n  file_type: \"huggingface\"\n  path: \"yahma\u002Falpaca-cleaned\"\n  prompt:\n    - >-\n      这是第一个要迭代的提示模板\n      ### 输入: {input}\n      ### 输出:\n    - >-\n      这是第二个提示模板\n      ### 指令: {instruction}\n      ### 输入: {input}\n      ### 输出:\n  prompt_stub: { output }\n  test_size: 0.1 # 测试集占总数据的比例；若为整数，则表示样本数量\n  train_size: 0.9 # 训练集占总数据的比例；若为整数，则表示样本数量\n  train_test_split_seed: 42\n```\n\n- 指定您希望尝试的各种大语言模型。\n\n```yaml\nmodel:\n  hf_model_ckpt:\n    [\n      \"NousResearch\u002FLlama-2-7b-hf\",\n      mistralai\u002FMistral-7B-v0.1\",\n      \"tiiuae\u002Ffalcon-7b\",\n    ]\n  quantize: true\n  bitsandbytes:\n    load_in_4bit: true\n    bnb_4bit_compute_dtype: \"bf16\"\n    bnb_4bit_quant_type: \"nf4\"\n```\n\n- 指定您希望进行消融实验的不同 LoRA 配置。\n\n```yaml\nlora:\n  r: [16, 32, 64]\n  lora_dropout: [0.25, 0.50]\n```\n\n## 扩展\n\n该工具包提供了一个模块化且可扩展的架构，使开发者能够根据自身需求自定义和增强其功能。工具包中的每个组件，例如数据摄取、微调、推理和质量保证测试，都设计为易于扩展。\n\n## 贡献\n\n欢迎并鼓励对该工具包的开源贡献。\n如果您希望做出贡献，请参阅 [CONTRIBUTING.md](CONTRIBUTING.md)。","# LLM-Finetuning-Toolkit 快速上手指南\n\nLLM-Finetuning-Toolkit 是一款基于配置文件的命令行工具，旨在简化大语言模型（LLM）的微调实验流程。只需一个 `yaml` 配置文件，即可统一管理提示词（Prompts）、开源模型选择、优化策略及模型测试。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户建议使用 WSL2）。\n*   **Python 版本**：推荐 Python 3.8 及以上版本。\n*   **GPU 支持**：如需进行实际微调训练，建议配备 NVIDIA GPU 并安装对应的 CUDA 驱动。\n*   **前置依赖**：\n    *   推荐使用 `pipx` 进行隔离安装（避免污染全局环境）。\n    *   若需启用 Flash Attention 2 加速，需额外安装 `flash-attn`（仅支持特定 GPU）。\n\n> **国内加速建议**：\n> 在安装依赖时，建议使用国内镜像源以提升下载速度。例如使用清华源：\n> ```shell\n> export PIP_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n您可以选择以下任一方式进行安装：\n\n### 方式一：使用 pipx（推荐）\n此方式会将工具及其依赖安装在独立的虚拟环境中，避免版本冲突。\n\n```shell\npipx install llm-toolkit\n```\n\n*若需启用 Flash Attention 2，执行以下命令注入依赖：*\n```shell\npipx inject llm-toolkit flash-attn --pip-args=--no-build-isolation\n```\n\n### 方式二：使用 pip\n直接安装到当前 Python 环境。\n\n```shell\npip install llm-toolkit\n```\n\n*若需启用 Flash Attention 2，执行以下命令：*\n```shell\npip install flash-attn --no-build-isolation\n```\n\n## 基本使用\n\n本部分介绍如何运行您的第一个 LLM 微调实验。整个流程分为两步：生成配置文件和启动训练。\n\n### 1. 生成默认配置文件\n运行以下命令，工具将在当前工作目录下生成一个名为 `config.yml` 的 starter 配置文件。该文件包含了默认的模型、数据集和训练参数，可作为修改的基础。\n\n```shell\nllmtune generate config\n```\n\n### 2. 启动微调实验\n使用生成的配置文件启动微调过程。工具会自动读取 `config.yml` 中的设置，处理数据、加载模型并开始训练。\n\n```shell\nllmtune run .\u002Fconfig.yml\n```\n\n### 实验结果\n训练完成后，结果将保存在 `.\u002Fexperiment\u002F[unique_hash]` 目录下。每个独特的配置会生成唯一的哈希值，支持断点续训。主要输出文件包括：\n*   `\u002Fdataset`: 生成的 HF datasets 格式 pickle 文件。\n*   `\u002Fmodel`: PEFT 模型权重（HF 格式）。\n*   `\u002Fresults`: 包含提示词、真实值和预测值的 CSV 文件。\n*   `\u002Fqa`: 质量评估测试结果（如向量相似度等）。\n\n---\n*进阶用法（如自定义数据集路径、切换模型、调整 LoRA 参数或进行消融实验）可通过编辑 `config.yml` 文件实现，详细参数请参考官方文档。*","某电商公司的算法团队需要将通用的开源大模型（如 Llama 2）快速适配到自家的客服对话数据上，以构建专属的智能问答助手。\n\n### 没有 LLM-Finetuning-Toolkit 时\n- **实验管理混乱**：每次尝试不同的提示词模板或量化策略，都需要手动修改 Python 脚本并重新运行，难以追踪哪次配置产生了最佳效果。\n- **流程割裂繁琐**：数据清洗、模型加载、微调训练和最终测试分散在不同的代码文件中，缺乏统一入口，排查错误耗时极长。\n- **复现成本高昂**：由于缺乏标准化的配置文件，团队成员间难以共享实验参数，导致相同的实验结果无法稳定复现。\n- **资源优化困难**：手动配置 Flash Attention 2 或 4-bit 量化等高级加速技术门槛高，容易因配置错误导致显存溢出或训练失败。\n\n### 使用 LLM-Finetuning-Toolkit 后\n- **一键配置实验**：仅需维护一个 YAML 配置文件，即可统一定义数据源、提示词模板、模型版本及优化策略，轻松发起系列对比实验。\n- **全流程自动化**：通过 `llmtune run` 命令自动串联数据摄入、模型微调、推理及单元测试环节，大幅降低工程落地复杂度。\n- **标准化与可复现**：所有实验细节均固化在配置文件中，团队成员可直接复用他人的配置方案，确保实验结果高度一致且易于迭代。\n- **高性能低门槛**：在配置文件中简单添加几行代码即可启用 Flash Attention 2 和 bitsandbytes 量化，显著降低显存占用并提升训练速度。\n\nLLM-Finetuning-Toolkit 将原本碎片化、高门槛的微调过程转化为标准化的配置驱动流程，让算法团队能专注于策略优化而非工程琐事。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgian-io_LLM-Finetuning-Toolkit_7ff2b109.png","georgian-io","Georgian","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgeorgian-io_b2844023.png","",null,"https:\u002F\u002Fgithub.com\u002Fgeorgian-io",[79,83,87,91],{"name":80,"color":81,"percentage":82},"Python","#3572A5",98.3,{"name":84,"color":85,"percentage":86},"Shell","#89e051",1.1,{"name":88,"color":89,"percentage":90},"Dockerfile","#384d54",0.5,{"name":92,"color":93,"percentage":94},"Makefile","#427819",0.1,869,105,"2026-04-15T01:02:11","Apache-2.0","未说明","需要 NVIDIA GPU（用于 Flash Attention 2 和 bitsandbytes 量化），显存需求取决于模型大小（示例使用 4bit 量化加载 7B 模型），需支持 bfloat16 或 float16",{"notes":102,"python":99,"dependencies":103},"推荐使用 pipx 安装以隔离环境；若启用 Flash Attention 2 需单独安装 flash-attn 且禁止构建隔离（--no-build-isolation）；支持通过 YAML 配置自动进行多模型、多提示词和多 LoRA 参数的消融实验；实验结果会自动保存并支持断点续训。",[104,105,106,107,108,109],"flash-attn","bitsandbytes","transformers","peft","datasets","accelerate",[14,35],[112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129],"classification","fine-tuning","finetuning","large-language-models","nlp","nlp-machine-learning","summarization","falcon","flan-t5","llama2","lora","qlora","redpajama","ablation-study","llm-test","mistral-7b","unit-testing","zephyr","2026-03-27T02:49:30.150509","2026-04-16T08:12:32.447297",[133,138,143,148,153,158],{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},35199,"运行命令后没有输出或卡住怎么办？","尝试删除之前的实验缓存文件夹（例如 `experiment\\sHR8ns`），然后重新运行脚本。这通常能解决因残留数据导致的执行停滞问题。","https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fissues\u002F176",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},35200,"遇到 'charmap' codec 无法编码字符的 UnicodeEncodeError 错误如何解决？","该错误通常与系统环境或 CUDA 配置有关。建议首先运行 `nvidia-smi` 命令检查 GPU 驱动是否正常识别。如果是在 Windows 上，可能需要检查控制台编码设置或确保环境变量配置正确。","https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fissues\u002F174",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},35201,"在自定义数据集上训练时出现 'cuda device-side runtime error' 错误怎么办？","这可能是由于多 GPU 冲突或数据类型转换问题引起的。建议：1. 运行 `transformers-cli env` 收集环境信息；2. 如果模型较小，尝试通过 `device_map` 参数将权重固定在单个 GPU 上；3. 检查数据集中是否包含导致 YAML 解析错误的特殊字符或未转换为字符串的数字类型（int\u002Ffloat）。","https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fissues\u002F170",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},35202,"执行推理脚本时报错提示缺少 Accelerate 或 bitsandbytes 依赖怎么办？","即使已安装相关包，版本不匹配也可能导致此错误。请尝试升级 `datasets` 库 (`pip install -U datasets`)。如果问题依旧，请提供 `conda list -e` 或 `pip3 freeze` 的输出以便排查具体的版本冲突，必要时需调整 `transformers` 或其他核心库的版本以匹配要求。","https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fissues\u002F68",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},35203,"项目是否支持 Docker 部署？","是的，官方仓库中已经添加了 Dockerfile。您可以直接使用仓库中的 Dockerfile 来构建镜像，从而简化环境配置和部署流程。","https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fissues\u002F34",{"id":159,"question_zh":160,"answer_zh":161,"source_url":147},35204,"如何确认当前的运行环境配置是否正确？","当遇到难以复现的错误时，维护者建议运行 `transformers-cli env` 命令并粘贴输出结果，或者在非 Conda 环境下运行 `pip3 freeze` \u002F Conda 环境下运行 `conda list -e`，以便开发者根据具体的包版本进行调试。",[163,168,173,178,183,188,193],{"id":164,"version":165,"summary_zh":166,"released_at":167},280218,"v0.2.3","## 变更内容\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F173 中将 requests 从 2.31.0 升级至 2.32.0\n* 由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F177 中修复了 Docker 构建命令\n* 由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F178 中添加了 JSON 格式有效性测试\n* 由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F172 中修复了 Rich 无法显示非字符串类型的问题\n* 由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F180 中将 tests 目录下的 metrics 重命名为 metrics\n* 由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F184 中添加了 pytest 的 GitHub Actions CI 配置\n* 由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F183 中将版本号更新为 20240620\n* 由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F185 中为较旧的 GPU 添加了 Ampere+ 注释\n* 由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F186 中将 metrics 移动到 metrics 目录，并添加了通过\u002F失败的 LLM 测试\n* 由 @Titus-von-Koeller 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F190 中更新了 pyproject.toml 文件中的 BNB 依赖版本\n\n## 新贡献者\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F173 中完成了首次贡献\n* @Titus-von-Koeller 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F190 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.2.2...v0.2.3","2024-07-25T15:15:43",{"id":169,"version":170,"summary_zh":171,"released_at":172},280219,"v0.2.2","## 变更内容\n* 更新 README.md，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F149 中完成\n* 集成主要的问答功能，由 @viveksingh-ctrl 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F131 中完成\n* 修订 README 并将其重构为 contributing.md，由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F156 中完成\n* 【单元测试】引入单元测试，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F162 中完成\n* 【版本更新】2024年5月7日，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F165 中完成\n* 默认配置中使用较小的模型，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F166 中完成\n* 修复 LLM 问答功能，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F167 中完成\n* 更新 requirements.txt 以匹配 poetry.lock 文件，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F168 中完成\n* 更新 issue 模板，增加关于 GPU 配置和运行时的信息，由 @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F171 中完成\n\n## 新贡献者\n* @viveksingh-ctrl 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F131 中完成了首次贡献\n* @SinclairHudson 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F156 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.2.1...v0.2.2","2024-05-13T17:01:00",{"id":174,"version":175,"summary_zh":176,"released_at":177},280220,"v0.2.1","## 变更内容\n* 修复 bug - `llmtune generate config` 无法找到 YAML 文件，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F150 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.2.0...v0.2.1","2024-04-10T14:52:22",{"id":179,"version":180,"summary_zh":181,"released_at":182},280221,"v0.2.0","## 变更内容\n* 文档（README.md）：修复由 @akashsaravanan-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F138 中提出的拼写错误\n* 支持 `jsonl` 格式：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F136 中实现\n* [CLI] 通过 `llmtune generate config` 命令在任意位置生成示例 `config.yml` 文件：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F137 中实现\n* Flash Attention 实现及更丰富的配置选项：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F139 中实现\n* 移除未使用的 `accelerate` 代码：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F145 中完成\n* 更优的入门配置：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F146 中优化\n* 对 UI 日志和警告的更好处理：由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F148 中改进\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.1.4...v0.2.0","2024-04-10T14:13:06",{"id":184,"version":185,"summary_zh":186,"released_at":187},280222,"v0.1.4","本次发布_尝试_解决 PyPI 中 README 图片无法显示的问题。\n\n## 变更内容\n* 由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F128 中更新了 README 的图片引用。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.1.3...v0.1.4","2024-04-05T21:22:36",{"id":189,"version":190,"summary_zh":191,"released_at":192},280223,"v0.1.3","本次发布对 `README` 和 `pyproject.toml` 的元数据进行了修改和修正。\n\n\n## 变更内容\n* 更新 README 中的图片链接，改为完整链接，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F125 中完成。\n* 修正容器镜像的链接，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F126 中完成。\n* 更新 `pyproject.toml` 的元数据，由 @benjaminye 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F127 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fcompare\u002Fv0.1.2...v0.1.3","2024-04-05T19:28:46",{"id":194,"version":195,"summary_zh":196,"released_at":197},280224,"v0.1.2","这标志着我们微调工具包的首次正式发布！🥳  \n如果您想查看我们之前的研究内容，请访问 [`legacy\u002Fllm-finetuning-hub` 分支](https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Ftree\u002Flegacy\u002Fllm-finetuning-hub)。\n\n## 变更内容\n* @georgianpoole 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F1 中更新了 README.md\n* @georgianpoole 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F2 中更新了 README.md\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F3 中将指标字典保存到实验文件夹\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F4 中使用 black 格式化代码\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F5 中更新了依赖包\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F7 中修复了 LinkedIn 和电子邮件链接\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F8 中移除了开发版本\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F9 中实现了 FastAPI 和负载测试\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F11 中移除了内容小标题\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F12 中添加了 tiktoken\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F13 中更改了文件夹名称\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F14 中统一并更改了文件夹路径\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F15 中进行了 Flan 测试\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F16 中实现了文本生成推理\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F17 中修复了 README\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F18 中更新了图片路径\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F19 中更新了消融实验部分\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F20 中更新了 README\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F21 中添加了 Falcon 相关脚本\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F22 中更新了模型规格说明\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F23 中添加了 Falcon 模型\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F24 中更新了 Falcon 的 README\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F25 中添加了 RedPajama 脚本\n* @RohitSaha 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F26 中编写了 RedPajama 的测试代码\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F27 中完成了 Red Pajama 的相关工作\n* @mariia-georgian 在 https:\u002F\u002Fgithub.com\u002Fgeorgian-io\u002FLLM-Finetuning-Toolkit\u002Fpull\u002F28 中修复了 README。","2024-04-05T17:58:48"]