[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-acon96--home-llm":3,"tool-acon96--home-llm":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":97,"forks":98,"last_commit_at":99,"license":79,"difficulty_score":23,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":110,"github_topics":111,"view_count":114,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":147},3943,"acon96\u002Fhome-llm","home-llm","A Home Assistant integration & Model to control your smart home using a Local LLM","Home LLM 是一款专为 Home Assistant 设计的开源集成方案，旨在让用户通过完全本地运行的大语言模型（LLM）来智能控制智能家居。它解决了传统智能语音助手依赖云端服务、存在隐私泄露风险以及需要订阅费用的痛点，确保所有数据仅在用户自己的硬件上处理，绝不外传。\n\n这套工具非常适合注重隐私的家庭用户、智能家居爱好者以及希望在树莓派等低功耗设备上部署 AI 能力的技术玩家。其核心亮点在于“完全本地化”与“高效轻量”：它不仅提供了专门针对家居控制微调的小型 AI 模型，还能在无需独立显卡的情况下流畅运行。Home LLM 支持自然的语音和文字对话交互，能理解复杂指令并自动生成自动化任务所需的结构化数据。此外，它具备极高的灵活性，既可以直接在 Home Assistant 内部运行模型，也能连接 Ollama、LM Studio 等多种外部后端，同时内置了英语、德语、法语等多语言支持，让全球用户都能轻松享受安全、私密的本地 AI 家居体验。","# Home LLM\n\nControl your Home Assistant smart home with a **completely local** Large Language Model. No cloud services and no subscriptions needed. Just privacy-focused AI running entirely on your own hardware.\n\n[![Open your Home Assistant instance and open a repository inside the Home Assistant Community Store.](https:\u002F\u002Fmy.home-assistant.io\u002Fbadges\u002Fhacs_repository.svg)](https:\u002F\u002Fmy.home-assistant.io\u002Fredirect\u002Fhacs_repository\u002F?category=Integration&repository=home-llm&owner=acon96)\n\n## What is Home LLM?\n\nHome LLM is a complete solution for adding AI-powered voice and chat control to Home Assistant. It consists of two parts:\n\n1. **Local LLM Integration** – A Home Assistant custom component that connects local language models to your smart home\n2. **Home Models** – Small, efficient AI models fine-tuned specifically for smart home control\n\n### Key Features\n\n- 🏠 **Fully Local** – Everything runs on your hardware. Your data never leaves your control (unless you want to!)\n- 🗣️ **Voice & Chat Control** – Use as a conversation agent with voice assistants or chat interfaces\n- 🤖 **AI Task Automation** – Generate dynamic content and structured data for automations\n- 🌍 **Multi-Language Support** – Built-in support for English, German, French, Spanish, and Polish (better translations are welcome!)\n- ⚡ **Runs on Low-Power Devices** – Models work on Raspberry Pi and other modest hardware -- no GPU required!\n- 🔌 **Flexible Backends** – Run models locally as part of Home Assistant **or** connect to external model providers\n\n## Quick Start\n\nSee the [Setup Guide](.\u002Fdocs\u002FSetup.md) for detailed installation instructions.\n\n**Requirements:** Home Assistant 2025.7.0 or newer\n\n---\n\n## Local LLM Integration\n\nThe integration connects language models to Home Assistant, enabling them to understand your requests and control your smart devices.\n\n### Supported Backends\n\nChoose how and where you want to run your models:\n\n| Backend                                                                                             | Best For                                                                      |\n|-----------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------|\n| **Llama.cpp** (built-in)                                                                            | Running models directly in Home Assistant                                     |\n| **[Ollama](https:\u002F\u002Follama.com\u002F)**                                                                   | Easy setup on a separate GPU machine                                          |\n| **[Generic OpenAI API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fconversations\u002Fcreate)**       | LM Studio, LocalAI, vLLM, and other OpenAI-compatible servers                 |\n| **[llama.cpp server](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp\u002Ftree\u002Fmaster\u002Ftools\u002Fserver)**              | Heterogeneous (non-uniform) GPU compute setups, including CPU + GPU inference |\n| **[OpenAI 'Responses' Style API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fresponses\u002Fcreate)** | Cloud services supporting the 'responses' style API                           |\n| **[Anthropic 'Messages' Style API](https:\u002F\u002Fplatform.claude.com\u002Fdocs\u002Fen\u002Fapi\u002Fmessages)**              | Cloud services supporting the 'messages' style API                            |\n| **[text-generation-webui](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Ftext-generation-webui)**                     | Advanced users with existing setups                                           |\n\n> NOTE: When utilizing **external** APIs or model providers, your data will be transmitted over the internet and shared with the respective service providers. Ensure you understand the privacy implications of using these third-party services, since they will be able to see the status of all exposed entities in your Home Assistant instance, which can potentially include your current location.\n\n### Supported Device Types\n\nThe integration can control: **lights, switches, fans, covers, locks, climate, media players, vacuums, buttons, timers, todo lists, and scripts**\n\n### Using the Integration\n\n**As a Conversation Agent:**\n- Chat with your assistant through the Home Assistant UI\n- Connect to voice pipelines with Speech-to-Text and Text-to-Speech\n- Supports voice streaming for faster responses\n\n**As an AI Task Handler:**\n- Create automations that use AI to process data and generate structured responses\n- Perfect for dynamic content generation, data extraction, and intelligent decision making\n- See [AI Tasks documentation](.\u002Fdocs\u002FAI%20Tasks.md) for examples\n\n---\n\n## Home LLM Models\n\nThe \"Home\" models are small language models (under 5B parameters) fine-tuned specifically for smart home control. They understand natural language commands and translate them into Home Assistant service calls.\n\n### Latest Models\n\n| Model Family  | Size | Link                                                                                    |\n|---------------|------|-----------------------------------------------------------------------------------------|\n| **Llama 3.2** | 3B   | [acon96\u002FHome-Llama-3.2-3B](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-Llama-3.2-3B)             |\n| **Gemma**     | 270M | [acon96\u002FHome-FunctionGemma-270m](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-FunctionGemma-270m) |\n\n\u003Cdetails>\n\u003Csummary>Previous Model Versions\u003C\u002Fsummary>\n\n**Stable Models:**\n- 3B v3 (StableLM-Zephyr-3B): [acon96\u002FHome-3B-v3-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-3B-v3-GGUF)\n- 1B v3 (TinyLlama-1.1B): [acon96\u002FHome-1B-v3-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v3-GGUF)\n- 3B v2 (Phi-2): [acon96\u002FHome-3B-v2-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-3B-v2-GGUF)\n- 1B v2 (Phi-1.5): [acon96\u002FHome-1B-v2-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v2-GGUF)\n- 1B v1 (Phi-1.5): [acon96\u002FHome-1B-v1-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v1-GGUF)\n\n**Multilingual Experiments:**\n- German, French, & Spanish (3B): [acon96\u002Fstablehome-multilingual-experimental](https:\u002F\u002Fhuggingface.co\u002Facon96\u002Fstablehome-multilingual-experimental)\n- Polish (1B): [acon96\u002Ftinyhome-polish-experimental](https:\u002F\u002Fhuggingface.co\u002Facon96\u002Ftinyhome-polish-experimental)\n\n> **Note:** Models v1 (3B) and earlier are only compatible with integration version 0.2.17 and older.\n\n\u003C\u002Fdetails>\n\n### Using Other Models\n\nDon't have dedicated hardware? You can use any instruction-tuned model with **in-context learning (ICL)**. The integration provides examples that teach general-purpose models (like Qwen3, Llama 3, Mistral) how to control your smart home. See the [Setup Guide](.\u002Fdocs\u002FSetup.md) for configuration details.\n\n### Training Your Own\n\nThe fine-tuning dataset and training scripts are included in this repository:\n- **Dataset:** [Home-Assistant-Requests-V2](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Facon96\u002FHome-Assistant-Requests-V2) on HuggingFace\n- **Source:** [data\u002F](.\u002Fdata) directory\n- **Training:** See [train\u002FREADME.md](.\u002Ftrain\u002FREADME.md)\n\n---\n\n## Documentation\n\n- [Setup Guide](.\u002Fdocs\u002FSetup.md) – Installation and configuration\n- [Backend Configuration](.\u002Fdocs\u002FBackend%20Configuration.md) – Detailed backend options\n- [Model Prompting](.\u002Fdocs\u002FModel%20Prompting.md) – Customize system prompts\n- [AI Tasks](.\u002Fdocs\u002FAI%20Tasks.md) – Using AI in automations\n\n---\n\n## Version History\n\n| Version    | Highlights                                                                                 |\n|------------|--------------------------------------------------------------------------------------------|\n| **v0.4.6** | Anthropic API support, on-disk caching for Llama.cpp, new tool calling dataset             |\n| **v0.4.5** | AI Task entities, multiple LLM APIs at once, official Ollama package                       |\n| **v0.4**   | Tool calling rewrite, voice streaming, agentic tool use loop, multiple configs per backend |\n| **v0.3**   | Home Assistant LLM API support, improved prompting, HuggingFace GGUF auto-detection        |\n\n\u003Cdetails>\n\u003Csummary>Full Version History\u003C\u002Fsummary>\n\n| Version | Description                                                                                                                                             |\n|---------|---------------------------------------------------------------------------------------------------------------------------------------------------------|\n| v0.4.6  | New dataset supporting proper tool calling, Add Anthropic \"messages\" style API support, Add on-disk caching for Llama.cpp backend                       |\n| v0.4.5  | Add support for AI Task entities, Replace custom Ollama API implementation with the official `ollama-python` package, Support multiple LLM APIs at once |\n| v0.4.4  | Fix issue with OpenAI backends appending `\u002Fv1` to all URLs                                                                                              |\n| v0.4.3  | Fix model config creation during setup                                                                                                                  |\n| v0.4.2  | Fix default model settings, numeric config fields, finish_reason handling                                                                               |\n| v0.4.1  | Fix Llama.cpp models downloaded from HuggingFace                                                                                                        |\n| v0.4    | Rewrite for tool calling models, agentic tool use loop, voice streaming, multiple config sub-entries                                                    |\n| v0.3.11 | Bug-fixes and llama.cpp version update                                                                                                                  |\n| v0.3.10 | OpenAI \"Responses\" API support, HA 2025.7.0 compatibility                                                                                               |\n| v0.3.9  | Fix conversation history                                                                                                                                |\n| v0.3.8  | Thinking model support, HA 2025.4 compatibility                                                                                                         |\n| v0.3.7  | German ICL examples, multi-turn fixes                                                                                                                   |\n| v0.3.6  | Small llama.cpp backend fixes                                                                                                                           |\n| v0.3.5  | Polish ICL examples                                                                                                                                     |\n| v0.3.4  | Full Polish translation, improved language support                                                                                                      |\n| v0.3.3  | Generic OpenAI improvements, area handling                                                                                                              |\n| v0.3.2  | Script entity fixes                                                                                                                                     |\n| v0.3.1  | Basic area support in prompting                                                                                                                         |\n| v0.3    | Home Assistant LLM API support, improved prompting                                                                                                      |\n| v0.2.x  | Ollama support, in-context learning, flash attention, prompt caching                                                                                    |\n| v0.1    | Initial Release                                                                                                                                         |\n\n\u003C\u002Fdetails>\n\n","# 家庭 LLM\n\n使用 **完全本地** 的大型语言模型控制您的 Home Assistant 智能家居。无需云服务，也无需订阅。只需在您自己的硬件上运行注重隐私的人工智能即可。\n\n[![打开您的 Home Assistant 实例，并在 Home Assistant 社区商店中打开一个仓库。](https:\u002F\u002Fmy.home-assistant.io\u002Fbadges\u002Fhacs_repository.svg)](https:\u002F\u002Fmy.home-assistant.io\u002Fredirect\u002Fhacs_repository\u002F?category=Integration&repository=home-llm&owner=acon96)\n\n## 什么是 Home LLM？\n\nHome LLM 是为 Home Assistant 添加人工智能驱动的语音和聊天控制的完整解决方案。它由两部分组成：\n\n1. **本地 LLM 集成** – 一个将本地语言模型连接到您智能家居的 Home Assistant 自定义组件\n2. **家庭模型** – 经过专门微调、适用于智能家居控制的小型高效 AI 模型\n\n### 主要特性\n\n- 🏠 **完全本地化** – 所有内容都在您的硬件上运行。您的数据永远不会离开您的掌控（除非您愿意！）\n- 🗣️ **语音与聊天控制** – 可作为对话代理，与语音助手或聊天界面配合使用\n- 🤖 **AI 任务自动化** – 为自动化生成动态内容和结构化数据\n- 🌍 **多语言支持** – 内置对英语、德语、法语、西班牙语和波兰语的支持（欢迎提供更多语言的翻译！）\n- ⚡ **可在低功耗设备上运行** – 模型可以在树莓派和其他普通硬件上运行——无需 GPU！\n- 🔌 **灵活的后端** – 您可以将模型作为 Home Assistant 的一部分在本地运行，也可以连接到外部模型提供商。\n\n## 快速入门\n\n请参阅 [设置指南](.\u002Fdocs\u002FSetup.md) 以获取详细的安装说明。\n\n**要求：** Home Assistant 2025.7.0 或更高版本\n\n---\n\n## 本地 LLM 集成\n\n该集成将语言模型连接到 Home Assistant，使它们能够理解您的请求并控制您的智能设备。\n\n### 支持的后端\n\n您可以选择如何以及在哪里运行您的模型：\n\n| 后端                                                                                             | 最适合场景                                                                      |\n|-----------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------|\n| **Llama.cpp**（内置）                                                                            | 直接在 Home Assistant 中运行模型                                     |\n| **[Ollama](https:\u002F\u002Follama.com\u002F)**                                                                   | 在独立的 GPU 设备上轻松设置                                          |\n| **[通用 OpenAI API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fconversations\u002Fcreate)**       | LM Studio、LocalAI、vLLM 等兼容 OpenAI 的服务器                 |\n| **[llama.cpp 服务器](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp\u002Ftree\u002Fmaster\u002Ftools\u002Fserver)**              | 异构（非均匀）GPU 计算环境，包括 CPU + GPU 推理                   |\n| **[OpenAI 'Responses' 风格 API](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fresponses\u002Fcreate)** | 支持 'responses' 风格 API 的云服务                           |\n| **[Anthropic 'Messages' 风格 API](https:\u002F\u002Fplatform.claude.com\u002Fdocs\u002Fen\u002Fapi\u002Fmessages)**              | 支持 'messages' 风格 API 的云服务                            |\n| **[text-generation-webui](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Ftext-generation-webui)**                     | 适用于已有相关设置的高级用户                                           |\n\n> 注意：当使用 **外部** API 或模型提供商时，您的数据将通过互联网传输，并与相应的服务提供商共享。请确保您了解使用这些第三方服务可能带来的隐私影响，因为这些服务提供商可以看到您 Home Assistant 实例中所有公开实体的状态，其中可能包含您的当前位置。\n\n### 支持的设备类型\n\n该集成可控制以下设备：**灯光、开关、风扇、遮阳帘、门锁、气候控制、媒体播放器、吸尘器、按钮、定时器、待办事项列表和脚本**\n\n### 使用该集成\n\n**作为对话代理：**\n- 通过 Home Assistant 界面与您的助手聊天\n- 连接到带有语音转文本和文本转语音功能的语音管道\n- 支持语音流式传输，以获得更快的响应\n\n**作为 AI 任务处理者：**\n- 创建利用 AI 处理数据并生成结构化响应的自动化\n- 非常适合动态内容生成、数据提取和智能决策\n- 请参阅 [AI 任务文档](.\u002Fdocs\u002FAI%20Tasks.md) 以获取示例\n\n---\n\n## Home LLM 模型\n\n“Home”系列模型是经过专门微调、用于智能家居控制的小型语言模型（参数量低于 50 亿）。它们能够理解自然语言指令，并将其转换为 Home Assistant 服务调用。\n\n### 最新模型\n\n| 模型家族  | 参数量 | 链接                                                                                    |\n|---------------|------|-----------------------------------------------------------------------------------------|\n| **Llama 3.2** | 30 亿   | [acon96\u002FHome-Llama-3.2-3B](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-Llama-3.2-3B)             |\n| **Gemma**     | 2.7 亿 | [acon96\u002FHome-FunctionGemma-270m](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-FunctionGemma-270m) |\n\n\u003Cdetails>\n\u003Csummary>历史模型版本\u003C\u002Fsummary>\n\n**稳定模型：**\n- 30 亿 v3（StableLM-Zephyr-3B）：[acon96\u002FHome-3B-v3-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-3B-v3-GGUF)\n- 10 亿 v3（TinyLlama-1.1B）：[acon96\u002FHome-1B-v3-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v3-GGUF)\n- 30 亿 v2（Phi-2）：[acon96\u002FHome-3B-v2-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-3B-v2-GGUF)\n- 10 亿 v2（Phi-1.5）：[acon96\u002FHome-1B-v2-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v2-GGUF)\n- 10 亿 v1（Phi-1.5）：[acon96\u002FHome-1B-v1-GGUF](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-1B-v1-GGUF)\n\n**多语言实验：**\n- 德语、法语和西班牙语（30 亿）：[acon96\u002Fstablehome-multilingual-experimental](https:\u002F\u002Fhuggingface.co\u002Facon96\u002Fstablehome-multilingual-experimental)\n- 波兰语（10 亿）：[acon96\u002Ftinyhome-polish-experimental](https:\u002F\u002Fhuggingface.co\u002Facon96\u002Ftinyhome-polish-experimental)\n\n> **注意：** v1（30 亿）及更早版本的模型仅兼容 0.2.17 及更早版本的集成。\n\n\u003C\u002Fdetails>\n\n### 使用其他模型\n\n没有专用硬件？您也可以使用任何经过指令微调、具备上下文学习能力（ICL）的模型。该集成提供了示例，教会通用模型（如 Qwen3、Llama 3、Mistral）如何控制您的智能家居。有关配置详情，请参阅 [设置指南](.\u002Fdocs\u002FSetup.md)。\n\n### 训练您自己的模型\n\n本仓库包含微调数据集和训练脚本：\n- **数据集：** HuggingFace 上的 [Home-Assistant-Requests-V2](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Facon96\u002FHome-Assistant-Requests-V2)\n- **源代码：** [data\u002F](.\u002Fdata) 目录\n- **训练：** 请参阅 [train\u002FREADME.md](.\u002Ftrain\u002FREADME.md)\n\n---\n\n## 文档\n\n- [设置指南](.\u002Fdocs\u002FSetup.md) – 安装与配置\n- [后端配置](.\u002Fdocs\u002FBackend%20Configuration.md) – 详细的后端选项\n- [模型提示](.\u002Fdocs\u002FModel%20Prompting.md) – 自定义系统提示\n- [AI 任务](.\u002Fdocs\u002FAI%20Tasks.md) – 在自动化中使用 AI\n\n---\n\n## 版本历史\n\n| 版本    | 亮点                                                                                 |\n|------------|--------------------------------------------------------------------------------------------|\n| **v0.4.6** | 支持 Anthropic API，为 Llama.cpp 添加磁盘缓存，新增工具调用数据集             |\n| **v0.4.5** | AI 任务实体，同时支持多个 LLM API，官方 Ollama 软件包                       |\n| **v0.4**   | 工具调用功能重写，语音流式传输，代理型工具使用循环，每个后端支持多组配置 |\n| **v0.3**   | 支持 Home Assistant LLM API，改进提示机制，自动检测 HuggingFace GGUF 格式        |\n\n\u003Cdetails>\n\u003Csummary>完整版本历史\u003C\u002Fsummary>\n\n| 版本 | 描述                                                                                                                                             |\n|---------|---------------------------------------------------------------------------------------------------------------------------------------------------------|\n| v0.4.6  | 新增支持正确工具调用的数据集，添加 Anthropic “messages” 风格 API 支持，为 Llama.cpp 后端添加磁盘缓存                       |\n| v0.4.5  | 增加对 AI 任务实体的支持，用官方 `ollama-python` 包替换自定义的 Ollama API 实现，支持同时使用多个 LLM API |\n| v0.4.4  | 修复 OpenAI 后端在所有 URL 上自动添加 `\u002Fv1` 的问题                                                                                              |\n| v0.4.3  | 修复安装过程中模型配置的创建问题                                                                                                                  |\n| v0.4.2  | 修复默认模型设置、数值型配置字段以及 finish_reason 的处理问题                                                                               |\n| v0.4.1  | 修复从 HuggingFace 下载的 Llama.cpp 模型问题                                                                                                        |\n| v0.4    | 重写工具调用模型功能，引入代理型工具使用循环、语音流式传输以及每个后端支持多组配置                                                    |\n| v0.3.11 | 错误修复及 llama.cpp 版本更新                                                                                                                  |\n| v0.3.10 | 支持 OpenAI “Responses” API，兼容 HA 2025.7.0                                                                                               |\n| v0.3.9  | 修复对话历史记录问题                                                                                                                                |\n| v0.3.8  | 支持思考模型，兼容 HA 2025.4                                                                                                         |\n| v0.3.7  | 德语 ICL 示例，修复多轮对话相关问题                                                                                                                   |\n| v0.3.6  | 小幅修复 llama.cpp 后端问题                                                                                                                           |\n| v0.3.5  | 波兰语 ICL 示例                                                                                                                                     |\n| v0.3.4  | 完整波兰语翻译，提升语言支持                                                                                                      |\n| v0.3.3  | 通用 OpenAI 功能改进，区域处理功能优化                                                                                                              |\n| v0.3.2  | 修复脚本实体相关问题                                                                                                                                     |\n| v0.3.1  | 在提示中加入基本的区域支持                                                                                                                         |\n| v0.3    | 支持 Home Assistant LLM API，改进提示机制                                                                                                      |\n| v0.2.x  | 支持 Ollama，上下文学习，闪存注意力机制，提示缓存                                                                                    |\n| v0.1    | 初始发布                                                                                                                                         |\n\n\u003C\u002Fdetails>","# Home LLM 快速上手指南\n\nHome LLM 是一个完全本地化的解决方案，旨在为 Home Assistant 添加基于大语言模型（LLM）的语音和聊天控制功能。所有数据均在本地硬件运行，无需云端服务或订阅，确保隐私安全。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **Home Assistant 版本**：必须为 **2025.7.0** 或更高版本。\n*   **硬件要求**：\n    *   支持在低功耗设备上运行（如 Raspberry Pi），无需专用 GPU。\n    *   若使用内置 `llama.cpp` 后端，建议预留足够的内存和存储空间以存放模型文件。\n*   **网络访问**：需要能够访问 Hugging Face 下载模型（若网络受限，请自行配置镜像源或使用离线传输）。\n*   **安装渠道**：需已安装 **HACS** (Home Assistant Community Store)。\n\n## 安装步骤\n\n### 1. 通过 HACS 安装集成\n\n点击以下按钮直接将仓库添加到您的 Home Assistant HACS 中，或手动添加仓库地址：\n\n[![在 HACS 中打开仓库](https:\u002F\u002Fmy.home-assistant.io\u002Fbadges\u002Fhacs_repository.svg)](https:\u002F\u002Fmy.home-assistant.io\u002Fredirect\u002Fhacs_repository\u002F?category=Integration&repository=home-llm&owner=acon96)\n\n**手动安装步骤：**\n1.  进入 Home Assistant 侧边栏，选择 **HACS**。\n2.  点击右下角的 **...** (菜单) -> **自定义存储库**。\n3.  添加仓库：`acon96\u002Fhome-llm`，类别选择 **Integration**。\n4.  搜索 \"Home LLM\" 并点击 **下载**。\n5.  重启 Home Assistant。\n\n### 2. 配置集成\n\n1.  进入 **设置** > **设备与服务**。\n2.  点击右下角的 **添加集成**，搜索 **Home LLM**。\n3.  按照向导选择后端类型（推荐新手选择内置的 **Llama.cpp** 或外部的 **Ollama**）。\n4.  输入模型路径或连接地址完成配置。\n\n### 3. 下载模型\n\n您需要下载专为智能家居微调的 \"Home\" 系列模型，或使用通用指令微调模型配合上下文学习（ICL）。\n\n**推荐模型（GGUF 格式）：**\n*   **Llama 3.2 (3B)**: [acon96\u002FHome-Llama-3.2-3B](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-Llama-3.2-3B)\n*   **Gemma (270M)**: [acon96\u002FHome-FunctionGemma-270m](https:\u002F\u002Fhuggingface.co\u002Facon96\u002FHome-FunctionGemma-270m)\n\n> **提示**：将下载的 `.gguf` 模型文件放置在 Home Assistant 可访问的目录中（例如 `\u002Fconfig\u002Fhome_llm_models\u002F`），并在集成配置中指向该路径。\n\n## 基本使用\n\n安装配置完成后，您可以通过以下两种主要方式使用 Home LLM：\n\n### 方式一：作为对话代理 (Conversation Agent)\n\n这是最简单的用法，允许您通过文字或语音与智能家居交互。\n\n1.  **启用语音管道**（可选）：\n    在 **设置** > **语音助手** 中，将默认助手更改为 **Home LLM**。\n2.  **测试对话**：\n    进入 **开发者工具** > **助手** (或在 Lovelace 仪表盘添加 \"聊天\" 卡片)，输入自然语言指令。\n\n**示例指令：**\n```text\n打开客厅的灯\n把空调调到 24 度\n今晚 8 点提醒我浇花\n```\n\n系统会自动将您的自然语言转换为 Home Assistant 的服务调用（Service Call），无需编写复杂的自动化脚本。\n\n### 方式二：作为 AI 任务处理器 (AI Task Handler)\n\n您可以在自动化中使用 AI 动态生成内容或处理数据。\n\n**自动化示例 (YAML)：**\n创建一个自动化，当触发时调用 `home_llm.process_task` 服务。\n\n```yaml\nautomation:\n  - alias: \"Generate Daily Summary\"\n    trigger:\n      - platform: time\n        at: \"08:00:00\"\n    action:\n      - service: home_llm.process_task\n        data:\n          prompt: \"总结昨天的能源使用情况，并给出一个简短的建议。\"\n          target_entity: sensor.daily_energy_summary\n```\n\n此功能适用于动态内容生成、数据提取及智能决策场景。更多高级用法请参考官方文档中的 [AI Tasks](.\u002Fdocs\u002FAI%20Tasks.md)。","独居老人张伯伯希望用自然语言控制家中复杂的 Home Assistant 智能家居系统，但受限于技术门槛和隐私顾虑，一直难以实现便捷的语音交互。\n\n### 没有 home-llm 时\n- **指令僵化**：必须背诵精确的自动化脚本或特定关键词（如“打开客厅灯”），一旦口语化表达（如“有点黑，帮我把灯弄亮”）系统便无法识别。\n- **隐私担忧**：若使用云端语音助手，家中的设备状态、作息习惯甚至实时位置数据需上传至第三方服务器，存在泄露风险。\n- **配置繁琐**：为实现复杂场景（如“我要睡觉了”同时关窗帘、调空调、设闹钟），需手动编写冗长的 YAML 配置文件，维护成本极高。\n- **硬件依赖**：想要本地运行智能模型通常需要昂贵的高性能 GPU 服务器，普通树莓派等低功耗设备无法承载。\n\n### 使用 home-llm 后\n- **自然交互**：home-llm 内置的微调模型能理解模糊意图，张伯伯只需说“太冷了”，系统即可自动判断并调节空调温度。\n- **数据本地化**：所有对话推理与设备控制均在本地硬件完成，敏感数据不出家门，彻底消除隐私泄露隐患。\n- **动态自动化**：利用 AI 任务自动化能力，系统能根据上下文动态生成执行逻辑，一句“我出门了”即可智能联动关闭非必要电器并启动安防。\n- **低门槛部署**：得益于对低算力设备的优化，home-llm 可直接在张伯伯现有的树莓派上流畅运行，无需额外购买昂贵显卡。\n\nhome-llm 让完全本地化、隐私安全且懂人话的智能家居控制真正走进了普通用户的家庭。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Facon96_home-llm_cec06ecc.png","acon96","Alex O'Connell","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Facon96_c9d03d3a.png",null,"https:\u002F\u002Fgithub.com\u002Facon96",[82,86,90,93],{"name":83,"color":84,"percentage":85},"Python","#3572A5",94.4,{"name":87,"color":88,"percentage":89},"Jinja","#a52a22",4.5,{"name":91,"color":92,"percentage":54},"Shell","#89e051",{"name":94,"color":95,"percentage":96},"Go Template","#00ADD8",0.1,1279,128,"2026-04-04T22:17:45","未说明 (基于 Home Assistant 运行，支持 HA 兼容的所有系统，包括 Linux, macOS, Windows)","非必需。明确说明可在树莓派等低功耗设备上运行（无需 GPU）。若使用独立 GPU 机器配合 Ollama 或 llama.cpp server 后端可加速，但未指定具体型号或显存要求。","未说明 (模型小于 5B 参数，针对低功率设备优化，具体取决于所选模型大小)",{"notes":104,"python":105,"dependencies":106},"1. 核心需求是安装 Home Assistant 2025.7.0 或更高版本。\n2. 该工具主打完全本地运行，支持在树莓派等无 GPU 设备上运行小型模型（如 270M 或 3B 参数）。\n3. 支持多种后端：内置 llama.cpp、Ollama、Generic OpenAI API、text-generation-webui 等。\n4. 若使用外部 API（如云端服务），数据将传输至互联网，需注意隐私风险。\n5. 推荐使用专为智能家居微调的 'Home' 系列模型（如 Llama 3.2 3B 或 Gemma 270M），也可通过上下文学习 (ICL) 使用其他通用指令微调模型。","未说明 (作为 Home Assistant 自定义组件运行，依赖宿主环境)",[107,108,109],"Home Assistant >= 2025.7.0","ollama-python (可选，用于 Ollama 后端)","llama.cpp (内置或通过服务器调用)",[15],[112,113],"homeassistant-custom-component","large-language-model",4,"2026-03-27T02:49:30.150509","2026-04-11T18:33:05.147059",[118,123,128,133,138,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},18001,"该集成是否支持 LocalAI 后端？","是的，从 v0.2 版本开始已包含对 LocalAI 的支持。如果您之前遇到兼容性问题，请更新到最新版本即可正常使用。","https:\u002F\u002Fgithub.com\u002Facon96\u002Fhome-llm\u002Fissues\u002F3",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},18002,"在 Home Assistant UI 中创建集成时导致系统崩溃或报错\"Unknown error occurred\"怎么办？","这通常是由于 `llama-cpp-python` 版本不匹配或缺少针对特定平台（如 x86_64, Python 3.12）的二进制轮文件引起的。请执行以下步骤：\n1. 升级到集成版本 v0.2.14 或更高，它会自动处理依赖升级。\n2. 如果仍然报错提示无法安装二进制轮文件，请手动从 GitHub Releases 页面下载对应您平台架构和 Python 版本的 `.whl` 文件。\n3. 将下载的 `.whl` 文件放置到 `\u002Fconfig\u002Fcustom_components\u002Fllama_conversation` 目录中。","https:\u002F\u002Fgithub.com\u002Facon96\u002Fhome-llm\u002Fissues\u002F99",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},18003,"加载新版模型（如 v2 系列）时出现 AssertionError 或无法加载，但旧版模型正常，如何解决？","这是因为底层的 `llama-cpp-python` 库版本过低，不支持新模型的格式。您需要将该库升级到 0.2.32 版本或更高。如果您使用的是 text-generation-webui 等第三方工具，请等待其推送包含最新依赖的快照更新，或手动在环境中升级该库。","https:\u002F\u002Fgithub.com\u002Facon96\u002Fhome-llm\u002Fissues\u002F27",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},18004,"如何在单张显卡（如 RTX 4090）上训练较大的模型（如 8B）？","对于显存有限的单卡环境，必须使用 LoRA（Low-Rank Adaptation）技术进行微调，而不是全量训练。配置建议如下：\n1. 启用 `--use_lora` 参数。\n2. 设置较小的秩，例如 `--lora_rank 8` 和 `--lora_alpha 32`。\n3. 指定需要训练的模块，例如：`--lora_modules up_proj,down_proj,q_proj,v_proj,o_proj`。\n4. 结合 `--gradient_checkpointing` 以节省显存。\n注意：目前 DPO（直接偏好优化）相关的训练功能可能尚不稳定，建议优先使用标准的指令微调流程。","https:\u002F\u002Fgithub.com\u002Facon96\u002Fhome-llm\u002Fissues\u002F203",{"id":139,"question_zh":140,"answer_zh":141,"source_url":137},18005,"如何确认不同模型使用的 Chat Template（对话模板）格式？","您可以使用项目提供的 `find_split.py` 脚本来检测模型的模板格式。运行命令如下：\n`python find_split.py \u003C模型名称或路径>`\n\n输出示例：\n- 对于某些模型，模板格式为：\u003C|im_start|>system\\nSYSTEM_PROMPT\u003C|im_end|>...\n- 对于其他模型（如 Bielik），模板格式为：\u003Cs>[INST] \u003C\u003CSYS>>\\nSYSTEM_PROMPT\\n\u003C\u003C\u002FSYS>>...\\nHA_REQUEST [\u002FINST] HA_RESPONSE\u003C\u002Fs>\n确认模板格式有助于您在配置中正确设置系统提示词和用户输入格式。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},18006,"实体处理提示词时失败并报错\"TypeError: Type is not JSON serializable: LoggingUndefined\"是什么原因？","这是一个已知的软件缺陷（Bug），通常发生在特定版本的 Home Assistant 或集成更新后，导致日志未定义对象无法被 JSON 序列化。该问题已在后续的代码更新中修复。如果遇到此错误，请确保您的 Home-LLM 集成已更新到最新版本。如果问题依旧，请检查是否有其他独立的提示词配置错误，并避免在同一个 Issue 线程中混合报告不同问题。","https:\u002F\u002Fgithub.com\u002Facon96\u002Fhome-llm\u002Fissues\u002F302",[148,153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243],{"id":149,"version":150,"summary_zh":151,"released_at":152},108436,"v0.4.6","新增支持正确工具调用的数据集，添加 Anthropic “messages” 风格的 API 支持，为 Llama.cpp 后端添加磁盘缓存。","2026-01-04T15:05:35",{"id":154,"version":155,"summary_zh":156,"released_at":157},108437,"v0.4.5","新增对 [AI 任务实体](https:\u002F\u002Fwww.home-assistant.io\u002Fintegrations\u002Fai_task\u002F) 的支持；用官方的 `ollama-python` 包替换自定义的 Ollama API 实现，以避免未来的兼容性问题；支持同时使用多个大模型 API；修复各后端在工具调用处理中的问题。","2025-12-15T01:25:31",{"id":159,"version":160,"summary_zh":161,"released_at":162},108438,"v0.4.4","修复 OpenAI 后端会在所有 URL 后附加 `\u002Fv1` 的问题，并修复工具被序列化到系统提示中的问题。","2025-11-22T14:43:38",{"id":164,"version":165,"summary_zh":166,"released_at":167},108439,"v0.4.3","修复集成在设置过程中无法正确创建模型配置的问题。","2025-11-02T18:00:01",{"id":169,"version":170,"summary_zh":171,"released_at":172},108440,"v0.4.2","修复以下问题：\n- 初始设置时未能正确设置默认模型配置\n- 允许在数值型配置字段中输入非整数\n- 对 `finish_reason` 的要求过于严格\n- 不允许用户清空当前使用的 LLM API","2025-10-26T03:24:51",{"id":174,"version":175,"summary_zh":176,"released_at":177},108441,"v0.4.1","修复使用从 Hugging Face 下载的 Llama.cpp 模型时出现的问题","2025-10-12T14:40:20",{"id":179,"version":180,"summary_zh":181,"released_at":182},108442,"v0.4","重写集成，以支持工具调用模型\u002F智能体工具使用循环、语音流式传输、每个后端支持多个配置子条目，以及动态选择 llama.cpp 处理器。","2025-10-09T01:42:16",{"id":184,"version":185,"summary_zh":186,"released_at":187},108443,"v0.3.11","错误修复和 llama.cpp 版本更新\n\n**注意：** 这是 v0.4 之前的最后一个版本，v0.4 将不再支持提示格式以及直接使用原始的“completions”远程端点。","2025-09-16T12:42:21",{"id":189,"version":190,"summary_zh":191,"released_at":192},108444,"v0.3.10","新增对 OpenAI 的“Responses”API 端点的支持，更新 llama.cpp 版本，修复 HA 2025.7.0 版本中的破坏性变更。","2025-07-05T23:25:19",{"id":194,"version":195,"summary_zh":196,"released_at":197},108445,"v0.3.9","更新 llama.cpp 版本，修复安装 bug，修复对话历史无法使用的问题。","2025-05-27T02:39:26",{"id":199,"version":200,"summary_zh":201,"released_at":202},108446,"v0.3.8","Update llama.cpp, remove think blocks from \"thinking\" models, fix wheel detection for some Intel CPUs, Fixes for compatibility with latest Home Assistant version (2025.4), other small bug fixes","2025-04-13T22:35:28",{"id":204,"version":205,"summary_zh":206,"released_at":207},108447,"v0.3.7","Update llama.cpp version to support newer models, Update minimum Home Assistant version to 2024.12.3, Add German In-Context Learning examples, Fix multi-turn use, Fix an issue with webcolors","2024-12-15T19:43:19",{"id":209,"version":210,"summary_zh":211,"released_at":212},108448,"v0.3.6","Small llama.cpp backend fixes","2024-08-21T23:08:41",{"id":214,"version":215,"summary_zh":216,"released_at":217},108449,"v0.3.5","Fix for llama.cpp backend installation, Fix for Home LLM v1-3 API parameters, add Polish ICL examples","2024-08-20T23:23:58",{"id":219,"version":220,"summary_zh":221,"released_at":222},108450,"v0.3.4","Significantly improved language support including full Polish translation, Update bundled llama-cpp-python to support new models, various bug fixes","2024-08-12T02:00:54",{"id":224,"version":225,"summary_zh":226,"released_at":227},108451,"v0.3.3","Improvements to the Generic OpenAI Backend, improved area handling, fix issue using RGB colors, remove EOS token from responses, replace requests dependency with aiohttp included with Home Assistant","2024-06-15T22:41:01",{"id":229,"version":230,"summary_zh":231,"released_at":232},108452,"v0.3.2","Fix for exposed script entities causing errors, fix missing GBNF error, trim whitespace from model output","2024-06-08T20:58:50",{"id":234,"version":235,"summary_zh":236,"released_at":237},108453,"v0.3.1","Adds basic area support in prompting, Fix for broken requirements, fix for issue with formatted tools, fix custom API not registering on startup properly","2024-06-08T17:24:28",{"id":239,"version":240,"summary_zh":241,"released_at":242},108454,"v0.3","**NOTE**: This is a breaking change and will require you to re-configure any models you have set up.\r\n\r\nAdds support for Home Assistant LLM APIs, improved model prompting and tool formatting options, and automatic detection of GGUF quantization levels on HuggingFace","2024-06-07T04:22:47",{"id":244,"version":245,"summary_zh":246,"released_at":247},108455,"v0.2.17","Disable native llama.cpp wheel optimizations, add Command R prompt format","2024-05-09T01:21:36"]