[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-22-hours--cabrita":3,"tool-22-hours--cabrita":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":103,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":122},2383,"22-hours\u002Fcabrita","cabrita","Finetuning InstructLLaMA with portuguese data","Cabrita 是一个专为葡萄牙语优化的指令微调大语言模型，基于 Meta 的 LLaMA-7B 架构打造。它主要解决了原生 LLaMA 模型在葡萄牙语语境下理解与生成能力不足的问题，能够更自然、准确地响应葡语用户的指令需求，例如提供创意建议或职业规划指导。\n\n该项目通过利用 ChatGPT 将斯坦福 Alpaca 数据集低成本翻译为葡萄牙语，构建了专属训练数据，并借助 Hugging Face 的 PEFT 技术和 LoRA 方法，仅用单张 A100 显卡在约一小时内便完成了高效微调。这种低资源消耗的训练方式是其显著的技术亮点，证明了在有限算力下也能实现高质量的语种适配。\n\n需要注意的是，Cabrita 目前仅限于学术研究用途，严禁用于商业盈利或娱乐场景。因此，它非常适合从事自然语言处理研究的研究人员、希望探索小样本微调技术的开发者，以及对葡语大模型感兴趣的教育机构使用。对于需要高质量葡语交互原型的学术项目而言，Cabrita 提供了一个极具参考价值的开源范例。","\u003Cp align=\"center\" width=\"100%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F22-hours_cabrita_readme_4f5017bf293e.png\" alt=\"Cabrita\" style=\"width: 20%; min-width: 300px; display: block; margin: auto;\">\n\u003C\u002Fp>\n\n# Cabrita: A portuguese finetuned instruction LLaMA\n\nThis repository is intended to share all the steps and resources that we used to finetune our version of LLaMA.\n\nThis model is designed for research use only, i.e., cannot be used for commercial purposes or entertainment.\n\n\n## References\n\n> If I have seen further it is by standing on the sholders [sic] of Giants.\n> -- \u003Ccite>Isaac Newton\u003C\u002Fcite>\n\nWe started this section with this citation because everything we did was only possible due to the strong community and works that other people and groups did. For our work, we rely mainly in the works developed by: [LLaMA](https:\u002F\u002Fai.facebook.com\u002Fblog\u002Flarge-language-model-llama-meta-ai\u002F), [Stanford Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca), [Alpaca Lora](https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora), [ChatGPT](https:\u002F\u002Fopenai.com\u002Fblog\u002Fchatgpt) and [Hugging Face](https:\u002F\u002Fhuggingface.co\u002F). So, thank you all for the great work and open this to the world!\n\n\n## Data\n\nWe translated the [alpaca_data.json](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002Falpaca_data.json) to portuguese using ChatGPT. Even this translation was not the best, the tradeoff between costs and results were. We paid around US$ 8.00 to translate the full dataset to portuguese.\nIf you want to know more about how the dataset was built go to: [Stanford Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca).\n\n\n## Finetuning\n\nTo finetuned the LLaMA model we used the code available on [Alpaca Lora](https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora), which provides code to finetune the LLaMA model using PEFT from Hugging Face. With this, we could run our finetuning step using 1 A100 at Colab on top of LLaMA-7B. We trained during 1 hour and we found the results pretty incredible with just that much time. The notebook we used is avaible [here](notebooks\u002Ftrain_lora.ipynb).\n\n\n## Example outputs\n\nStanford Alpaca:\n```\nInstruction: Invente uma desculpa criativa pra dizer que não preciso ir à festa.\nResponse: Eu preciso se concentrar em trabalho importante para mim, por isso eu não posso ir à festa.\n```\n\nCabrita:\n```\nInstrução: Invente uma desculpa criativa pra dizer que não preciso ir à festa.\nResposta: \"Eu preciso ficar em casa para cuidar dos meus animais de estimação.\"\n```\n\n\nStanford Alpaca:\n```\nInstruction: Como posso começar a carreira como cientista de dados? Escreva na forma de lista.\nResponse:\n1. Comece por se especializar em um campo específico, como big data, computação, bioinformática ou estatística.\n2. Obtivere um diploma em um programa de graduação relacionado a ciência de dados, como informática, matemática ou estatística.\n3. Aquisite experiência prática através de internships ou projetos em empresas ou instituições.\n4. Ameize sua resumo e currículo com resultados relevantes e experiência em trabalho relacionado.\n5. Leia artigos, livros e atualizações sobre ciência de dados.\n6. Crie um portfólio com projetos e experimentos que tenha realizado.\n7. Receba um certificado de qualificação em alguma área de ciência de dados.\n8. Tente obter contato com profissionais da área para conversar sobre oportunidades de emprego.\n9. Acesse redes sociais, como LinkedIn, para encontrar empregos e conexões.\n10. Continui sua formação atualizando-se com tecnologias e ferramentas de ciência de dados.\n```\n\nCabrita:\n```\nInstrução: Como posso começar a carreira como cientista de dados? Escreva na forma de lista.\nResposta: \n1. Obtenha um mestrado em ciência de dados ou engenharia de dados.\n2. Encontre um emprego como cientista de dados ou engenheiro de dados.\n3. Conheça as principais ferramentas de análise de dados, como Python, R e SQL.\n4. Conheça as principais técnicas de análise de dados, como regressão linear, regressão logística e análise de clustering.\n5. Conheça as principais abordagens de análise de dados, como análise exploratória, análise de associação e análise de regressão.\n6. Conheça as principais ferramentas de visualização de dados, como Tableau, QlikView e Power BI.\n7. Conheça as principais abordagens de análise de dados, como análise de associação, análise de regressão e análise exploratória.\n```\n\nYou can test it using the eval notebook [here](notebooks\u002Fcabrita-lora.ipynb).\n\n## Next steps\n\n- Create a better portuguese dataset\n- Evaluate the toxicity\n- Finetune large models\n\n\n## Authors\n\n- [piEsposito](https:\u002F\u002Fgithub.com\u002FpiEsposito)\n- [pedrogengo](https:\u002F\u002Fgithub.com\u002Fpedrogengo)\n","\u003Cp align=\"center\" width=\"100%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F22-hours_cabrita_readme_4f5017bf293e.png\" alt=\"Cabrita\" style=\"width: 20%; min-width: 300px; display: block; margin: auto;\">\n\u003C\u002Fp>\n\n# Cabrita：葡萄牙语微调版的LLaMA指令模型\n\n本仓库旨在分享我们用于微调LLaMA模型版本的所有步骤和资源。\n\n该模型仅限于研究用途，即不得用于商业目的或娱乐用途。\n\n\n## 参考文献\n\n> 如果我看得更远，那是因为我站在巨人的肩膀上。\n> —— \u003Ccite>艾萨克·牛顿\u003C\u002Fcite>\n\n我们以这句引言开篇，因为我们的所有工作都离不开强大的社区以及其他个人和团队所做出的努力。在我们的工作中，主要依赖以下项目：[LLaMA](https:\u002F\u002Fai.facebook.com\u002Fblog\u002Flarge-language-model-llama-meta-ai\u002F)、[斯坦福Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)、[Alpaca Lora](https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora)、[ChatGPT](https:\u002F\u002Fopenai.com\u002Fblog\u002Fchatgpt)以及[Hugging Face](https:\u002F\u002Fhuggingface.co\u002F)。在此向各位的杰出工作及开放精神致以诚挚的感谢！\n\n\n## 数据\n\n我们使用ChatGPT将[alpaca_data.json](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca\u002Fblob\u002Fmain\u002Falpaca_data.json)翻译成了葡萄牙语。尽管翻译质量并非最佳，但考虑到成本与效果之间的权衡，这一选择是合理的。我们为此支付了大约8美元，完成了整个数据集的葡萄牙语翻译。\n\n如需了解更多关于数据集构建的信息，请参阅：[斯坦福Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)。\n\n\n## 微调\n\n为了微调LLaMA模型，我们使用了[Alpaca Lora](https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora)中提供的代码，该代码利用Hugging Face的PEFT框架对LLaMA模型进行微调。借助此方法，我们能够在Colab平台上使用一台A100显卡，在LLaMA-7B的基础上运行微调步骤。我们仅训练了1小时，便获得了令人印象深刻的效果。我们使用的笔记本可在[这里](notebooks\u002Ftrain_lora.ipynb)找到。\n\n\n## 示例输出\n\n斯坦福Alpaca：\n```\n指令：编造一个有创意的借口，说明我不需要去参加派对。\n回复：我需要专注于对我很重要的工作，所以不能去参加派对。\n```\n\nCabrita：\n```\n指令：编造一个有创意的借口，说明我不需要去参加派对。\n回复：“我需要待在家里照顾我的宠物。”\n```\n\n\n斯坦福Alpaca：\n```\n指令：我该如何开始数据科学家的职业生涯？请以列表形式作答。\n回复：\n1. 首先专精于某一特定领域，例如大数据、计算机科学、生物信息学或统计学。\n2. 获得与数据科学相关的本科专业学位，如计算机科学、数学或统计学。\n3. 通过实习或在企业、机构参与项目来积累实践经验。\n4. 用相关成果和工作经验充实你的简历。\n5. 阅读有关数据科学的文章、书籍和最新资讯。\n6. 创建包含你已完成项目和实验的作品集。\n7. 在数据科学的某个领域获得资格证书。\n8. 尝试与业内人士建立联系，探讨就业机会。\n9. 利用LinkedIn等社交平台寻找工作和人脉。\n10. 持续学习，掌握最新的数据科学技术和工具。\n```\n\nCabrita：\n```\n指令：我该如何开始数据科学家的职业生涯？请以列表形式作答。\n回复：\n1. 获得数据科学或数据工程领域的硕士学位。\n2. 找到一份数据科学家或数据工程师的工作。\n3. 熟悉主要的数据分析工具，如Python、R和SQL。\n4. 掌握主要的数据分析技术，包括线性回归、逻辑回归和聚类分析。\n5. 了解数据分析的主要方法，例如探索性分析、关联分析和回归分析。\n6. 熟悉主要的数据可视化工具，如Tableau、QlikView和Power BI。\n7. 掌握数据分析的主要方法，包括关联分析、回归分析和探索性分析。\n```\n\n您可以通过评估笔记本[在这里](notebooks\u002Fcabrita-lora.ipynb)对其进行测试。\n\n## 后续计划\n\n- 构建更优质的葡萄牙语数据集\n- 评估模型的毒性\n- 对更大规模的模型进行微调\n\n\n## 作者\n\n- [piEsposito](https:\u002F\u002Fgithub.com\u002FpiEsposito)\n- [pedrogengo](https:\u002F\u002Fgithub.com\u002Fpedrogengo)","# Cabrita 快速上手指南\n\nCabrita 是一个基于 LLaMA 架构、针对葡萄牙语指令进行微调的开源大语言模型。本项目主要用于研究目的，严禁用于商业或娱乐用途。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS。\n*   **硬件要求**:\n    *   微调训练：至少需要 1 张 NVIDIA A100 GPU (参考原文在 Colab 上的配置)。\n    *   推理测试：根据模型大小（如 7B），需具备相应的显存空间。\n*   **软件依赖**:\n    *   Python 3.8+\n    *   PyTorch (支持 CUDA)\n    *   Hugging Face `transformers`, `peft`, `accelerate`, `bitsandbytes`\n    *   Git\n\n> **注意**：由于 LLaMA 基座模型的限制，您需要先获得 Meta 的授权并下载对应的 LLaMA 权重文件到本地。\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FpiEsposito\u002Fcabrita.git\n    cd cabrita\n    ```\n\n2.  **安装 Python 依赖**\n    建议创建虚拟环境后安装所需库。虽然原文未提供 `requirements.txt`，但基于其使用的 [Alpaca Lora](https:\u002F\u002Fgithub.com\u002Ftloen\u002Falpaca-lora) 技术栈，通常需要安装以下核心包：\n    ```bash\n    pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n    pip install transformers peft accelerate bitsandbytes sentencepiece\n    ```\n    *(注：国内用户可使用清华源加速安装：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple ...`)*\n\n3.  **准备数据集与基座模型**\n    *   确保已下载 LLaMA-7B 权重。\n    *   项目使用的数据集是将 Stanford Alpaca 数据翻译为葡萄牙语版本 (`alpaca_data.json`)。如需重新生成或修改，可参考原文提到的 ChatGPT 翻译流程。\n\n## 基本使用\n\n您可以通过提供的 Jupyter Notebook 直接加载模型并进行推理测试。\n\n1.  **启动测试环境**\n    打开项目中提供的评估 Notebook：\n    ```bash\n    jupyter notebook notebooks\u002Fcabrita-lora.ipynb\n    ```\n    *(如果是微调训练，请使用 `notebooks\u002Ftrain_lora.ipynb`)*\n\n2.  **代码示例**\n    在 Notebook 中运行以下逻辑来加载模型并生成葡萄牙语回复：\n\n    ```python\n    from peft import PeftModel\n    from transformers import LlamaForCausalLM, LlamaTokenizer\n    import torch\n\n    # 配置路径\n    base_model = \"path\u002Fto\u002Fllama-7b\"  # 替换为您的 LLaMA 基座模型路径\n    adapter_model = \"path\u002Fto\u002Fcabrita-lora\" # 替换为 Cabrita LoRA 权重路径\n\n    # 加载分词器和基座模型\n    tokenizer = LlamaTokenizer.from_pretrained(base_model)\n    model = LlamaForCausalLM.from_pretrained(\n        base_model,\n        load_in_8bit=True, # 如果显存有限，开启 8bit 量化\n        device_map=\"auto\",\n        torch_dtype=torch.float16\n    )\n\n    # 加载 LoRA 适配器\n    model = PeftModel.from_pretrained(model, adapter_model)\n\n    # 构建提示词 (Prompt)\n    instruction = \"Invente uma desculpa criativa pra dizer que não preciso ir à festa.\"\n    prompt = f\"\"\"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n    ### Instruction:\n    {instruction}\n\n    ### Response:\n    \"\"\"\n\n    # 生成回复\n    inputs = tokenizer(prompt, return_tensors=\"pt\")\n    input_ids = inputs[\"input_ids\"].to(\"cuda\")\n\n    generation_output = model.generate(\n        input_ids=input_ids,\n        max_new_tokens=128,\n        temperature=0.7,\n        top_p=0.9,\n        do_sample=True,\n    )\n\n    output = tokenizer.decode(generation_output[0])\n    print(output)\n    ```\n\n3.  **预期输出**\n    模型将返回类似以下的葡萄牙语回答：\n    > \"Eu preciso ficar em casa para cuidar dos meus animais de estimação.\"\n\n---\n*免责声明：本模型仅供学术研究使用，不得用于商业用途。*","一位巴西数据分析师需要快速生成葡萄牙语的客户沟通话术与职业指导文档，以支持本地团队的日常运营。\n\n### 没有 cabrita 时\n- 直接使用英文基座模型或通用翻译工具，生成的葡萄牙语回复生硬刻板，缺乏当地语言的自然流畅感。\n- 在处理创意类指令（如“编造请假理由”）时，模型往往给出过于直白或逻辑牵强的答案，难以满足实际社交场景需求。\n- 面对专业领域问题（如数据科学职业规划），输出的建议条理混乱，甚至出现语法错误和用词不当，降低了文档的可信度。\n- 团队不得不花费大量时间人工润色模型生成的初稿，严重拖慢了内容生产效率。\n\n### 使用 cabrita 后\n- 依托专为葡萄牙语微调的指令能力，生成的文本语气自然地道，完全符合巴西用户的阅读习惯。\n- 在创意任务中表现出色，能给出像“照顾宠物”这样具体且合乎情理的巧妙借口，大幅提升了回复的实用性。\n- 针对专业咨询类问题，能够输出结构清晰、逻辑严密的列表式建议，准确涵盖学历、工具技能及分析方法等关键点。\n- 直接产出高质量终稿，几乎无需人工二次修改，让团队能将精力集中在策略制定而非文字校对上。\n\ncabrita 通过深度的葡萄牙语本地化微调，将原本生硬的机器翻译转化为具备文化语境理解能力的智能助手，显著提升了葡语场景下的内容生成质量与效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002F22-hours_cabrita_e0a207ac.png","22-hours","22 horas","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002F22-hours_61187a0e.png","",null,"https:\u002F\u002Fgithub.com\u002F22-hours",[82,86],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",99.7,{"name":87,"color":88,"percentage":89},"Python","#3572A5",0.3,561,69,"2026-03-19T10:20:03","Apache-2.0",4,"未说明","需要 NVIDIA GPU (文中提及在 Colab 上使用 1 张 A100)，显存大小未明确说明 (基于 LLaMA-7B 和 LoRA 微调推断建议 16GB+)，CUDA 版本未说明",{"notes":98,"python":95,"dependencies":99},"该模型仅用于研究目的，禁止用于商业或娱乐用途。微调过程基于 Stanford Alpaca 和 Alpaca Lora 项目，使用葡萄牙语翻译的数据集。文中提到可在 Google Colab 上使用单张 A100 显卡在 1 小时内完成 LLaMA-7B 的微调。具体环境配置需参考其依赖的 Alpaca Lora 仓库及提供的训练 Notebook。",[100,101,102],"PEFT (Hugging Face)","Alpaca Lora (代码库)","LLaMA (基础模型)",[15],"2026-03-27T02:49:30.150509","2026-04-06T05:36:40.770935",[107,112,117],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},10964,"Cabrita 模型与原始 LLaMA 相比质量如何？使用了什么翻译服务进行微调？","项目团队在首个版本中使用了 OpenAI ChatGPT（付费计划）进行翻译。虽然未进行深度评估，但测试结果显示该模型比纯 LLaMA 更一致，能够减少拼写错误并更好地返回葡萄牙语词汇。未来计划将其与 DeepL 或其他服务进行更深入的对比测试。","https:\u002F\u002Fgithub.com\u002F22-hours\u002Fcabrita\u002Fissues\u002F1",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},10965,"安装时遇到 'Did not find branch or tag' 警告怎么办？","该问题通常与特定的提交哈希值有关。维护者已确认并在 Colab 环境中修复了此问题。如果直接在 Colab 中打开项目，应该可以正常工作；否则需等待维护者将修复同步到 Git 仓库。","https:\u002F\u002Fgithub.com\u002F22-hours\u002Fcabrita\u002Fissues\u002F2",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},10966,"加载 PEFT 微调模型时报错找不到 config.json 如何解决？","如果训练中途取消导致 .save_pretrained() 未执行，生成的检查点可能缺少 config.json。解决方法是：单独保存 config.json 文件，然后在推理加载时，使用保存的权重文件（如 pytorch_model.bin）配合该配置文件进行加载。","https:\u002F\u002Fgithub.com\u002F22-hours\u002Fcabrita\u002Fissues\u002F4",[]]