[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ashishpatel26--LLM-Finetuning":3,"tool-ashishpatel26--LLM-Finetuning":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":82,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":108,"github_topics":109,"view_count":23,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":123},2776,"ashishpatel26\u002FLLM-Finetuning","LLM-Finetuning","LLM Finetuning with peft","LLM-Finetuning 是一个专注于利用 PEFT（参数高效微调）技术对大型语言模型进行定制化训练的开源项目。它主要解决了大模型全量微调成本高昂、硬件资源需求巨大的痛点，让开发者无需昂贵算力也能轻松适配专属模型。\n\n该项目非常适合 AI 开发者、研究人员以及希望探索大模型应用的技术爱好者使用。通过集成 Hugging Face Transformers 库与 LoRA（低秩适应）技术，LLM-Finetuning 能够仅更新极少量的模型参数，在显著降低显存占用和训练时间的同时，保持接近全量微调的性能表现。\n\n项目提供了丰富的实战指南，包含多个可直接在 Google Colab 上运行的 Notebook 教程。用户不仅可以学习如何高效训练通用大模型，还能跟随步骤微调 Llama 2、LLaMA-7B 或 Bloom 等主流模型，甚至快速构建如 Guanaco 这样的聊天机器人演示。无论是想深入理解微调原理，还是急需为特定任务定制模型，LLM-Finetuning 都提供了一套流畅、低门槛的解决方案，助力用户高效释放大型语言模型的潜力。","# LLM-Finetuning\n\n# PEFT Fine-Tuning Project 🚀\n\nWelcome to the PEFT (Pretraining-Evaluation Fine-Tuning) project repository! This project focuses on efficiently fine-tuning large language models using LoRA and Hugging Face's transformers library.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fashishpatel26_LLM-Finetuning_readme_0fc45057d11e.png)\n\n## Fine Tuning Notebook Table 📑\n\n| Notebook Title                                                                                               | Description                                                                                                                                                                                   | Colab Badge                                                                                                                                                                                                                         |\n| ------------------------------------------------------------------------------------------------------------ | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| **1. Efficiently Train Large Language Models with LoRA and Hugging Face**                              | Details and code for efficient training of large language models using LoRA and Hugging Face.                                                                                                 | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F1.Efficiently_train_Large_Language_Models_with_LoRA_and_Hugging_Face.ipynb) |\n| **2. Fine-Tune Your Own Llama 2 Model in a Colab Notebook**                                            | Guide to fine-tuning your Llama 2 model using Colab.                                                                                                                                          | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F2.Fine_Tune_Your_Own_Llama_2_Model_in_a_Colab_Notebook.ipynb)               |\n| **3. Guanaco Chatbot Demo with LLaMA-7B Model**                                                        | Showcase of a chatbot demo powered by LLaMA-7B model.                                                                                                                                         | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F3.Guanaco%20Chatbot%20Demo%20with%20LLaMA-7B%20Model.ipynb)                 |\n| **4. PEFT Finetune-Bloom-560m-tagger**                                                                 | Project details for PEFT Finetune-Bloom-560m-tagger.                                                                                                                                          | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F4.PEFT%20Finetune-Bloom-560m-tagger.ipynb#scrollTo=MDqJWba-tpnv)            |\n| **5. Finetune_Meta_OPT-6-1b_Model_bnb_peft**                                                           | Details and guide for finetuning the Meta OPT-6-1b Model using PEFT and Bloom-560m-tagger.                                                                                                    | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F5.Finetune_Meta_OPT-6-1b_Model_bnb_peft.ipynb)                              |\n| **6.Finetune Falcon-7b with BNB Self Supervised Training**                                             | Guide for finetuning Falcon-7b using BNB self-supervised training.                                                                                                                            | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F6.Finetune%20Falcon-7b%20with%20BNB%20Self%20Supervised%20Training.ipynb)   |\n| **7.FineTune LLaMa2 with QLoRa**                                                                       | Guide to fine-tune the Llama 2 7B pre-trained model using the PEFT library and QLoRa method                                                                                                   | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F7.FineTune_LLAMA2_with_QLORA.ipynb)                                         |\n| **8.Stable_Vicuna13B_8bit_in_Colab**                                                                   | Guide of Fine Tuning Vecuna 13B_8bit                                                                                                                                                          | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F8.Stable_Vicuna13B_8bit_in_Colab.ipynb)                                     |\n| **9. GPT-Neo-X-20B-bnb2bit_training**                                                                  | Guide How to train the GPT-NeoX-20B model using bfloat16 precision                                                                                                                            | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F9.GPT-neo-x-20B-bnb_4bit_training.ipynb)                                    |\n| **10. MPT-Instruct-30B Model Training**                                                                | MPT-Instruct-30B is a large language model from MosaicML that is trained on a dataset of short-form instructions. It can be used to follow instructions, answer questions, and generate text. | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F10.MPT_Instruct_30B.ipynb)                                                  |\n| **11.RLHF_Training_for_CustomDataset_for_AnyModel**                                                    | How train a Model with RLHF training on any LLM model with custom dataset                                                                                                                     | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F11_RLHF_Training_for_CustomDataset_for_AnyModel.ipynb)                      |\n| **12.Fine_tuning_Microsoft_Phi_1_5b_on_custom_dataset(dialogstudio)**                                  | How train a model with trl SFT Training on Microsoft Phi 1.5 with custom                                                                                                                      | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F12_Fine_tuning_Microsoft_Phi_1_5b_on_custom_dataset(dialogstudio).ipynb)    |\n| **13. Finetuning OpenAI GPT3.5 Turbo**                                                                 | How to finetune GPT 3.5 on your own data                                                                                                                                                      | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F13.Fine_tuning_OpenAI_GPT_3_5_turbo.ipynb)                                  |\n| **14. Finetuning Mistral-7b FineTuning Model using Autotrain-advanced**                                | How to finetune Mistral-7b using autotrained-advanced                                                                                                                                         | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F14.Finetuning_Mistral_7b_Using_AutoTrain.ipynb)                             |\n| **15. RAG LangChain Tutorial**                                                                         | How to Use RAG using LangChain                                                                                                                                                                | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F15.RAG_LangChain.ipynb)                                                     |\n| **16. Knowledge Graph LLM with LangChain PDF Question Answering**                                      | How to build knowledge graph with pdf question answering                                                                                                                                      | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F16.Neo4j_and_LangChain_for_Enhanced_Question_Answering.ipynb)               |\n| **17. Text to Knolwedge Graph with OpenAI Function with Neo4j and Langchain Agent Question Answering** | How to build knowledge graph from text or Pdf Document with pdf question Answering                                                                                                            | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F17.OpenAI_Constructing_Graph_for_Questio_Answer.ipynb)                      |\n| **18. Convert the Document to Knowledgegraph using Langchain and Openai**                              | This notebook is help you to understand how easiest way you can convert your any documents into Knowledgegraph for your next RAG based Application                                            | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F18.Convert_Document_to_Knowledge_Graph_Langchain_Openai.ipynb)              |\n| **19. How to train a 1-bit Model with LLMs?**                                                          | This notebook is help you to train a model with 1-bit and 2-bit quantization method using hqq framework                                                                                       | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F19.HQQ_1bit_ipynb.ipynb)                                                    |\n| **20.Alpaca_+_Gemma2_9b_Unsloth_2x_faster_finetuning**                                                 | This notebook is help you to train a model with gemma2 9b                                                                                                                                     | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F20.Alpaca_%2B_Gemma2_9b_Unsloth_2x_faster_finetuning.ipynb)                 |\n| **21.RAG Pipeline Evaluation Using MLFLOW Best Industry Practice**                                     | This notebook provides a comprehensive guide to evaluating the 21 RAG (Retrieve-then-Answer Generation) pipeline using MLFLOW, adhering to best industry practices.                           | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F21_RAG_Pipeline_Evaluation_Using_MLFLOW_Best_Industry_Practise.ipynb)       |\n| **22. Evaluate a Hugging Face LLM with `mlflow.evaluate()`**                                         | This notebook provides a comprehensive guide on evaluating a Hugging Face Language Learning Model (LLM) using mlflow_evaluate.                                                                | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F22.Evaluate_a_Hugging_Face_LLM_with_mlflow_evaluate.ipynb)                  |\n| **23. Optimizing LLMs with Cache-Augmented-Generation**                                                | Explores techniques from the research paper Cache-Augmented Generation (CAG) to enhance LLM efficiency and response speed using caching strategies.                                           | [![Open in Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F23_CAG_Optimizing_LLMs_with_cache_augmented_generation.ipynb)               |\n\n## Contributing 🤝\n\nContributions are welcome! If you'd like to contribute to this project, feel free to open an issue or submit a pull request.\n\n## License 📝\n\nThis project is licensed under the [MIT License](LICENSE).\n\n---\n\nCreated with ❤️ by [Ashish](https:\u002F\u002Fgithub.com\u002Fashishpatel26\u002F)\n","# 大语言模型微调\n\n# PEFT 微调项目 🚀\n\n欢迎来到 PEFT（预训练-评估-微调）项目仓库！本项目专注于使用 LoRA 和 Hugging Face 的 transformers 库高效地微调大型语言模型。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fashishpatel26_LLM-Finetuning_readme_0fc45057d11e.png)\n\n## 微调笔记本目录 📑\n\n| 笔记本标题                                                                                               | 描述                                                                                                                                                                                   | Colab 徽章                                                                                                                                                                                                                         |\n| ------------------------------------------------------------------------------------------------------------ | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\n| **1. 使用 LoRA 和 Hugging Face 高效训练大型语言模型**                              | 详细介绍并提供代码，展示如何使用 LoRA 和 Hugging Face 高效训练大型语言模型。                                                                                                 | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F1.Efficiently_train_Large_Language_Models_with_LoRA_and_Hugging_Face.ipynb) |\n| **2. 在 Colab 笔记本中微调您自己的 Llama 2 模型**                                            | 使用 Colab 微调 Llama 2 模型的指南。                                                                                                                                          | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F2.Fine_Tune_Your_Own_Llama_2_Model_in_a_Colab_Notebook.ipynb)               |\n| **3. 基于 LLaMA-7B 模型的 Guanaco 聊天机器人演示**                                                        | 展示由 LLaMA-7B 模型驱动的聊天机器人演示。                                                                                                                                         | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F3.Guanaco%20Chatbot%20Demo%20with%20LLaMA-7B%20Model.ipynb)                 |\n| **4. PEFT 微调 Bloom-560m 标注器**                                                                 | PEFT 微调 Bloom-560m 标注器的项目详情。                                                                                                                                          | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F4.PEFT%20Finetune-Bloom-560m-tagger.ipynb#scrollTo=MDqJWba-tpnv)            |\n| **5. Meta OPT-6-1b 模型的 bnb-peft 微调**                                                           | 详细介绍并提供指南，说明如何使用 PEFT 和 Bloom-560m 标注器对 Meta OPT-6-1b 模型进行微调。                                                                                                    | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F5.Finetune_Meta_OPT-6-1b_Model_bnb_peft.ipynb)                              |\n| **6. 使用 BNB 自监督训练微调 Falcon-7b**                                             | 使用 BNB 自监督训练微调 Falcon-7b 的指南。                                                                                                                            | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F6.Finetune%20Falcon-7b%20with%20BNB%20Self%20Supervised%20Training.ipynb)   |\n| **7. 使用 QLoRa 微调 Llama 2**                                                                       | 使用 PEFT 库和 QLoRa 方法微调 Llama 2 7B 预训练模型的指南                                                                                                   | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F7.FineTune_LLAMA2_with_QLORA.ipynb)                                         |\n| **8. Colab 中的 Stable Vicuna13B_8bit**                                                                   | 微调 Vecuna 13B_8bit 的指南                                                                                                                                                          | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F8.Stable_Vicuna13B_8bit_in_Colab.ipynb)                                     |\n| **9. GPT-Neo-X-20B-bnb2bit 训练**                                                                  | 使用 bfloat16 精度训练 GPT-NeoX-20B 模型的指南                                                                                                                            | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F9.GPT-neo-x-20B-bnb_4bit_training.ipynb)                                    |\n| **10. MPT-Instruct-30B 模型训练**                                                                | MPT-Instruct-30B 是 MosaicML 推出的一款大型语言模型，基于短文本指令数据集进行训练。它可以用于执行指令、回答问题和生成文本。 | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F10.MPT_Instruct_30B.ipynb)                                                  |\n| **11. 针对任意模型的自定义数据集 RLHF 训练**                                                    | 如何使用自定义数据集对任意 LLM 模型进行 RLHF 训练                                                                                                                     | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F11_RLHF_Training_for_CustomDataset_for_AnyModel.ipynb)                      |\n| **12. 在自定义数据集上微调 Microsoft Phi 1.5b（DialogStudio）**                                  | 如何使用 trl SFT 训练方法在自定义数据集上微调 Microsoft Phi 1.5 模型                                                                                                                      | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F12_Fine_tuning_Microsoft_Phi_1_5b_on_custom_dataset(dialogstudio).ipynb)    |\n| **13. 微调 OpenAI GPT3.5 Turbo**                                                                 | 如何使用您自己的数据微调 GPT 3.5                                                                                                                                                    | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F13.Fine_tuning_OpenAI_GPT_3_5_turbo.ipynb)                                  |\n| **14. 使用 Autotrain-advanced 微调 Mistral-7b**                                | 如何使用自动训练高级工具微调 Mistral-7b                                                                                                                                         | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F14.Finetuning_Mistral_7b_Using_AutoTrain.ipynb)                             |\n| **15. RAG LangChain 教程**                                                                         | 如何使用 LangChain 进行 RAG 操作                                                                                                                                                                | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F15.RAG_LangChain.ipynb)                                                     |\n| **16. 基于 LangChain 和 PDF 的问答知识图谱 LLM**                                      | 如何构建包含 PDF 问答功能的知识图谱                                                                                                                                      | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F16.Neo4j_and_LangChain_for_Enhanced_Question_Answering.ipynb)               |\n| **17. 使用 OpenAI 函数、Neo4j 和 Langchain 代理问答将文本转换为知识图谱** | 如何从文本或 PDF 文档构建知识图谱，并实现 PDF 问答功能                                                                                                            | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F17.OpenAI_Constructing_Graph_for_Questio_Answer.ipynb)                      |\n| **18. 使用 LangChain 和 OpenAI 将文档转换为知识图谱**                              | 本笔记本帮助您了解如何以最简单的方式将任何文档转换为知识图谱，以便用于后续的 RAG 应用程序                                            | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F18.Convert_Document_to_Knowledge_Graph_Langchain_Openai.ipynb)              |\n| **19. 如何使用 LLMs 训练 1 位模型？**                                                          | 本笔记本帮助您使用 hqq 框架，通过 1 位和 2 位量化方法训练模型                                                                                       | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F19.HQQ_1bit_ipynb.ipynb)                                                    |\n| **20. Alpaca + Gemma2 9b，Unsloth 实现 2 倍速微调**                                                 | 本笔记本帮助您训练带有 gemma2 9b 的模型                                                                                                                                     | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F20.Alpaca_%2B_Gemma2_9b_Unsloth_2x_faster_finetuning.ipynb)                 |\n| **21. 使用 MLFLOW 最佳实践评估 RAG 流程**                                     | 本笔记本提供了使用 MLFLOW 评估 21 种检索后生成答案（RAG）流程的全面指南，遵循行业最佳实践。                           | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F21_RAG_Pipeline_Evaluation_Using_MLFLOW_Best_Industry_Practise.ipynb)       |\n| **22. 使用 `mlflow.evaluate()` 评估 Hugging Face LLM**                                         | 本笔记本提供了使用 mlflow_evaluate 评估 Hugging Face 语言学习模型（LLM）的全面指南。                                                                | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F22.Evaluate_a_Hugging_Face_LLM_with_mlflow_evaluate.ipynb)                  |\n| **23. 使用缓存增强生成优化 LLM**                                                | 探讨来自研究论文“缓存增强生成（CAG）”的技术，利用缓存策略提升 LLM 的效率和响应速度。                                           | [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F23_CAG_Optimizing_LLMs_with_cache_augmented_generation.ipynb)               |\n\n## 贡献 🤝\n\n欢迎贡献！如果您想为本项目做出贡献，可以随时提交问题或拉取请求。\n\n## 许可证 📝\n\n本项目采用 [MIT 许可证](LICENSE) 许可。\n\n---\n\n由 [Ashish](https:\u002F\u002Fgithub.com\u002Fashishpatel26\u002F) 用心创建","# LLM-Finetuning 快速上手指南\n\n本指南基于 **LLM-Finetuning** 项目，旨在帮助开发者利用 PEFT（参数高效微调）、LoRA\u002FQLoRA 技术及 Hugging Face 生态，快速对大型语言模型（如 Llama 2、Falcon、Mistral 等）进行微调。项目核心优势在于通过 Google Colab 笔记本提供开箱即用的代码示例，极大降低了显存需求和部署门槛。\n\n## 环境准备\n\n本项目主要依托于 Python 环境和 Hugging Face 库。虽然大部分示例设计为在 **Google Colab** 云端环境中直接运行（推荐新手使用），若需在本地或自有服务器运行，请确保满足以下条件：\n\n*   **操作系统**: Linux (Ubuntu 20.04+ 推荐) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**: 3.8 - 3.10\n*   **硬件要求**:\n    *   **GPU**: 建议配备 NVIDIA GPU (显存 >= 16GB 用于全量微调，>= 8GB 可用于 QLoRA\u002FLoRA 微调)。\n    *   **Colab 用户**: 免费 tier 通常提供 T4 GPU，足以运行大多数 LoRA\u002FQLoRA 示例。\n*   **前置依赖**:\n    *   `transformers`\n    *   `peft`\n    *   `accelerate`\n    *   `bitsandbytes` (用于量化)\n    *   `trl` (用于强化学习和监督微调)\n\n> **国内加速建议**: 由于 Hugging Face 模型下载在国内可能受限，建议在代码中配置镜像源或使用代理。在环境变量中设置：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> ```\n\n## 安装步骤\n\n如果您选择在本地环境运行，请使用以下命令安装核心依赖库。推荐使用虚拟环境（如 `conda` 或 `venv`）。\n\n### 1. 创建并激活虚拟环境 (可选但推荐)\n```bash\nconda create -n llm-ft python=3.9\nconda activate llm-ft\n```\n\n### 2. 安装核心库\n```bash\npip install transformers peft accelerate bitsandbytes trl datasets scipy sentencepiece\n```\n\n### 3. 安装 PyTorch (根据 CUDA 版本选择)\n请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) 获取适合您系统的命令。例如对于 CUDA 11.8：\n```bash\npip3 install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n\n> **注意**: 本项目最便捷的使用方式是直接点击 README 中的 **\"Open in Colab\"** 按钮，无需本地安装任何依赖，云端环境已预装所需库。\n\n## 基本使用\n\n本项目提供了 20+ 个针对不同模型和场景的 Jupyter Notebook 教程。最简单的上手方式是运行 **LoRA 微调 Llama 2** 的示例。\n\n### 方式一：使用 Google Colab (推荐)\n1. 点击项目仓库中的 **[2. Fine-Tune Your Own Llama 2 Model in a Colab Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fashishpatel26\u002FLLM-Finetuning\u002Fblob\u002Fmain\u002F2.Fine_Tune_Your_Own_Llama_2_Model_in_a_Colab_Notebook.ipynb)** 链接。\n2. 在 Colab 界面中，点击菜单栏的 **代码执行程序 (Runtime)** -> **更改运行时类型**，选择 **GPU**。\n3. 按顺序执行单元格：\n   - 安装依赖（如果在 Colab 中未预装）。\n   - 加载模型和数据集。\n   - 配置 LoRA 参数。\n   - 开始训练。\n   - 推理测试。\n\n### 方式二：本地代码示例 (基于 PEFT + LoRA)\n\n以下是一个最小化的本地微调代码片段，展示了如何使用 `peft` 和 `transformers` 加载模型并应用 LoRA：\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments\nfrom peft import LoraConfig, get_peft_model, TaskType\nfrom trl import SFTTrainer\nfrom datasets import load_dataset\n\n# 1. 加载模型和分词器 (以 TinyLlama 为例，节省显存)\nmodel_name = \"TinyLlama\u002FTinyLlama-1.1B-Chat-v1.0\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    device_map=\"auto\",\n    load_in_4bit=True,  # 使用 4-bit 量化节省显存\n)\n\n# 2. 配置 LoRA\npeft_config = LoraConfig(\n    task_type=TaskType.CAUSAL_LM,\n    r=8,\n    lora_alpha=32,\n    lora_dropout=0.05,\n    target_modules=[\"q_proj\", \"k_proj\", \"v_proj\", \"o_proj\"],\n)\n\nmodel = get_peft_model(model, peft_config)\nmodel.print_trainable_parameters()\n\n# 3. 准备数据集\ndataset = load_dataset(\"imdb\", split=\"train[:1%]\") # 仅取少量数据演示\n\n# 4. 配置训练参数\ntraining_args = TrainingArguments(\n    output_dir=\".\u002Fresults\",\n    per_device_train_batch_size=4,\n    gradient_accumulation_steps=4,\n    learning_rate=2e-4,\n    num_train_epochs=1,\n    fp16=True,\n    logging_steps=10,\n)\n\n# 5. 初始化训练器并开始训练\ntrainer = SFTTrainer(\n    model=model,\n    args=training_args,\n    train_dataset=dataset,\n    dataset_text_field=\"text\",\n    max_seq_length=512,\n)\n\ntrainer.train()\n\n# 6. 保存模型\ntrainer.save_model(\".\u002Fmy-lora-model\")\n```\n\n### 进阶场景索引\n根据您的需求，可选择对应的 Notebook 进行深入实践：\n*   **聊天机器人构建**: 参考 `3. Guanaco Chatbot Demo` 或 `7. FineTune LLaMa2 with QLoRa`。\n*   **特定模型微调**: 支持 Falcon-7b (`6`), Mistral-7b (`14`), Gemma2 (`20`) 等。\n*   **RAG 与知识图谱**: 参考 `15. RAG LangChain Tutorial` 至 `18. Convert Document to Knowledgegraph`。\n*   **RLHF 训练**: 参考 `11. RLHF_Training_for_CustomDataset_for_AnyModel`。","某电商初创公司的算法团队需要在有限的 GPU 资源下，快速将通用的 Llama 2 模型改造为能精准处理售后退换货政策的专属客服机器人。\n\n### 没有 LLM-Finetuning 时\n- **硬件门槛极高**：全量微调需要加载完整的模型参数，单张消费级显卡显存瞬间爆满，团队被迫租用昂贵的多卡云服务器，预算严重超支。\n- **开发周期漫长**：每次调整超参数或更换数据集都需要重新保存巨大的模型副本，数据传输和存储耗时数小时，严重拖慢迭代速度。\n- **领域适配困难**：通用模型对公司特有的“七天无理由”例外条款理解偏差大，频繁产生幻觉，人工编写规则补丁的工作量巨大且难以维护。\n- **部署成本高昂**：训练出的庞大模型文件难以在边缘设备或低配服务器上运行，导致无法灵活部署到各类终端。\n\n### 使用 LLM-Finetuning 后\n- **资源利用高效**：借助 LoRA 技术仅训练极少量适配器参数，显存占用降低 70% 以上，团队直接在单块 T4 显卡上即可完成全流程训练。\n- **迭代敏捷迅速**：只需保存和加载轻量级的适配器权重，实验切换从小时级缩短至分钟级，一天内可完成数十次策略验证。\n- **业务理解精准**：模型通过少量高质量售后对话数据微调，准确掌握了公司复杂的退换规则，回答专业度显著提升，幻觉率大幅降低。\n- **部署灵活轻便**：最终模型体积小巧，可轻松集成到现有的客服系统中，甚至支持在本地服务器低成本运行，响应延迟更低。\n\nLLM-Finetuning 让中小团队也能以极低的算力成本，将通用大模型快速转化为懂业务的行业专家。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fashishpatel26_LLM-Finetuning_15b8358e.png","ashishpatel26","Ashish Patel","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fashishpatel26_9e4e7549.jpg","AI Researcher & Principal Architect AI\u002FML & Data Science at Oracle\r\n| xIBMers | Rank 3 Kaggle Kernel Master","Oracle | xIBMers","Ahmedabad","shriganesh.patel@gmail.com",null,"https:\u002F\u002Fmedium.com\u002Fml-research-lab","https:\u002F\u002Fgithub.com\u002Fashishpatel26",[86],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",100,2897,761,"2026-04-03T11:29:50","未说明","需要 NVIDIA GPU（基于 Colab 环境及 BNB\u002FQLoRA\u002F4bit\u002F8bit 量化技术推断），显存需求视模型大小而定（7B 模型建议 12GB+，30B 模型需更高显存或使用重度量化），支持 CUDA（具体版本未说明，通常需 11.8+ 以支持最新量化库）","未说明（建议 16GB+ 以处理大型模型加载和数据预处理）",{"notes":97,"python":93,"dependencies":98},"该项目主要提供 Google Colab 笔记本教程，涵盖从 Llama 2、Falcon 到 MPT-30B 等多种模型的微调。广泛使用了 LoRA、QLoRA、BNB (bitsandbytes) 量化技术以降低显存需求。部分教程涉及 RLHF、RAG 和知识图谱构建。由于主要在 Colab 运行，本地部署需自行安装对应的量化库（如 bitsandbytes）并确保 GPU 驱动兼容。",[99,100,101,102,103,104,105,106,107],"transformers","peft","accelerate","bitsandbytes","trl","langchain","hqq","unsloth","autotrain-advanced",[26,13,14],[110,111,112,113,114,115,116,117,100,118,119],"falcon","fine-tuning","huggingface","llama","llama2","llm","llms","lora","pytorch","text-generation","2026-03-27T02:49:30.150509","2026-04-06T05:32:14.590920",[],[]]