home-llm

GitHub
1.3k 128 中等 3 次阅读 6天前语言模型
AI 解读 由 AI 自动生成,仅供参考

Home LLM 是一款专为 Home Assistant 设计的开源集成方案,旨在让用户通过完全本地运行的大语言模型(LLM)来智能控制智能家居。它解决了传统智能语音助手依赖云端服务、存在隐私泄露风险以及需要订阅费用的痛点,确保所有数据仅在用户自己的硬件上处理,绝不外传。

这套工具非常适合注重隐私的家庭用户、智能家居爱好者以及希望在树莓派等低功耗设备上部署 AI 能力的技术玩家。其核心亮点在于“完全本地化”与“高效轻量”:它不仅提供了专门针对家居控制微调的小型 AI 模型,还能在无需独立显卡的情况下流畅运行。Home LLM 支持自然的语音和文字对话交互,能理解复杂指令并自动生成自动化任务所需的结构化数据。此外,它具备极高的灵活性,既可以直接在 Home Assistant 内部运行模型,也能连接 Ollama、LM Studio 等多种外部后端,同时内置了英语、德语、法语等多语言支持,让全球用户都能轻松享受安全、私密的本地 AI 家居体验。

使用场景

独居老人张伯伯希望用自然语言控制家中复杂的 Home Assistant 智能家居系统,但受限于技术门槛和隐私顾虑,一直难以实现便捷的语音交互。

没有 home-llm 时

  • 指令僵化:必须背诵精确的自动化脚本或特定关键词(如“打开客厅灯”),一旦口语化表达(如“有点黑,帮我把灯弄亮”)系统便无法识别。
  • 隐私担忧:若使用云端语音助手,家中的设备状态、作息习惯甚至实时位置数据需上传至第三方服务器,存在泄露风险。
  • 配置繁琐:为实现复杂场景(如“我要睡觉了”同时关窗帘、调空调、设闹钟),需手动编写冗长的 YAML 配置文件,维护成本极高。
  • 硬件依赖:想要本地运行智能模型通常需要昂贵的高性能 GPU 服务器,普通树莓派等低功耗设备无法承载。

使用 home-llm 后

  • 自然交互:home-llm 内置的微调模型能理解模糊意图,张伯伯只需说“太冷了”,系统即可自动判断并调节空调温度。
  • 数据本地化:所有对话推理与设备控制均在本地硬件完成,敏感数据不出家门,彻底消除隐私泄露隐患。
  • 动态自动化:利用 AI 任务自动化能力,系统能根据上下文动态生成执行逻辑,一句“我出门了”即可智能联动关闭非必要电器并启动安防。
  • 低门槛部署:得益于对低算力设备的优化,home-llm 可直接在张伯伯现有的树莓派上流畅运行,无需额外购买昂贵显卡。

home-llm 让完全本地化、隐私安全且懂人话的智能家居控制真正走进了普通用户的家庭。

运行环境要求

操作系统
  • 未说明 (基于 Home Assistant 运行,支持 HA 兼容的所有系统,包括 Linux
  • macOS
  • Windows)
GPU
  • 非必需
  • 明确说明可在树莓派等低功耗设备上运行(无需 GPU)
  • 若使用独立 GPU 机器配合 Ollama 或 llama.cpp server 后端可加速,但未指定具体型号或显存要求
内存

未说明 (模型小于 5B 参数,针对低功率设备优化,具体取决于所选模型大小)

依赖
notes1. 核心需求是安装 Home Assistant 2025.7.0 或更高版本。 2. 该工具主打完全本地运行,支持在树莓派等无 GPU 设备上运行小型模型(如 270M 或 3B 参数)。 3. 支持多种后端:内置 llama.cpp、Ollama、Generic OpenAI API、text-generation-webui 等。 4. 若使用外部 API(如云端服务),数据将传输至互联网,需注意隐私风险。 5. 推荐使用专为智能家居微调的 'Home' 系列模型(如 Llama 3.2 3B 或 Gemma 270M),也可通过上下文学习 (ICL) 使用其他通用指令微调模型。
python未说明 (作为 Home Assistant 自定义组件运行,依赖宿主环境)
Home Assistant >= 2025.7.0
ollama-python (可选,用于 Ollama 后端)
llama.cpp (内置或通过服务器调用)
home-llm hero image

快速开始

家庭 LLM

使用 完全本地 的大型语言模型控制您的 Home Assistant 智能家居。无需云服务,也无需订阅。只需在您自己的硬件上运行注重隐私的人工智能即可。

打开您的 Home Assistant 实例,并在 Home Assistant 社区商店中打开一个仓库。

什么是 Home LLM?

Home LLM 是为 Home Assistant 添加人工智能驱动的语音和聊天控制的完整解决方案。它由两部分组成:

  1. 本地 LLM 集成 – 一个将本地语言模型连接到您智能家居的 Home Assistant 自定义组件
  2. 家庭模型 – 经过专门微调、适用于智能家居控制的小型高效 AI 模型

主要特性

  • 🏠 完全本地化 – 所有内容都在您的硬件上运行。您的数据永远不会离开您的掌控(除非您愿意!)
  • 🗣️ 语音与聊天控制 – 可作为对话代理,与语音助手或聊天界面配合使用
  • 🤖 AI 任务自动化 – 为自动化生成动态内容和结构化数据
  • 🌍 多语言支持 – 内置对英语、德语、法语、西班牙语和波兰语的支持(欢迎提供更多语言的翻译!)
  • 可在低功耗设备上运行 – 模型可以在树莓派和其他普通硬件上运行——无需 GPU!
  • 🔌 灵活的后端 – 您可以将模型作为 Home Assistant 的一部分在本地运行,也可以连接到外部模型提供商。

快速入门

请参阅 设置指南 以获取详细的安装说明。

要求: Home Assistant 2025.7.0 或更高版本


本地 LLM 集成

该集成将语言模型连接到 Home Assistant,使它们能够理解您的请求并控制您的智能设备。

支持的后端

您可以选择如何以及在哪里运行您的模型:

后端 最适合场景
Llama.cpp(内置) 直接在 Home Assistant 中运行模型
Ollama 在独立的 GPU 设备上轻松设置
通用 OpenAI API LM Studio、LocalAI、vLLM 等兼容 OpenAI 的服务器
llama.cpp 服务器 异构(非均匀)GPU 计算环境,包括 CPU + GPU 推理
OpenAI 'Responses' 风格 API 支持 'responses' 风格 API 的云服务
Anthropic 'Messages' 风格 API 支持 'messages' 风格 API 的云服务
text-generation-webui 适用于已有相关设置的高级用户

注意:当使用 外部 API 或模型提供商时,您的数据将通过互联网传输,并与相应的服务提供商共享。请确保您了解使用这些第三方服务可能带来的隐私影响,因为这些服务提供商可以看到您 Home Assistant 实例中所有公开实体的状态,其中可能包含您的当前位置。

支持的设备类型

该集成可控制以下设备:灯光、开关、风扇、遮阳帘、门锁、气候控制、媒体播放器、吸尘器、按钮、定时器、待办事项列表和脚本

使用该集成

作为对话代理:

  • 通过 Home Assistant 界面与您的助手聊天
  • 连接到带有语音转文本和文本转语音功能的语音管道
  • 支持语音流式传输,以获得更快的响应

作为 AI 任务处理者:

  • 创建利用 AI 处理数据并生成结构化响应的自动化
  • 非常适合动态内容生成、数据提取和智能决策
  • 请参阅 AI 任务文档 以获取示例

Home LLM 模型

“Home”系列模型是经过专门微调、用于智能家居控制的小型语言模型(参数量低于 50 亿)。它们能够理解自然语言指令,并将其转换为 Home Assistant 服务调用。

最新模型

模型家族 参数量 链接
Llama 3.2 30 亿 acon96/Home-Llama-3.2-3B
Gemma 2.7 亿 acon96/Home-FunctionGemma-270m
历史模型版本

稳定模型:

多语言实验:

注意: v1(30 亿)及更早版本的模型仅兼容 0.2.17 及更早版本的集成。

使用其他模型

没有专用硬件?您也可以使用任何经过指令微调、具备上下文学习能力(ICL)的模型。该集成提供了示例,教会通用模型(如 Qwen3、Llama 3、Mistral)如何控制您的智能家居。有关配置详情,请参阅 设置指南

训练您自己的模型

本仓库包含微调数据集和训练脚本:


文档


版本历史

版本 亮点
v0.4.6 支持 Anthropic API,为 Llama.cpp 添加磁盘缓存,新增工具调用数据集
v0.4.5 AI 任务实体,同时支持多个 LLM API,官方 Ollama 软件包
v0.4 工具调用功能重写,语音流式传输,代理型工具使用循环,每个后端支持多组配置
v0.3 支持 Home Assistant LLM API,改进提示机制,自动检测 HuggingFace GGUF 格式
完整版本历史
版本 描述
v0.4.6 新增支持正确工具调用的数据集,添加 Anthropic “messages” 风格 API 支持,为 Llama.cpp 后端添加磁盘缓存
v0.4.5 增加对 AI 任务实体的支持,用官方 ollama-python 包替换自定义的 Ollama API 实现,支持同时使用多个 LLM API
v0.4.4 修复 OpenAI 后端在所有 URL 上自动添加 /v1 的问题
v0.4.3 修复安装过程中模型配置的创建问题
v0.4.2 修复默认模型设置、数值型配置字段以及 finish_reason 的处理问题
v0.4.1 修复从 HuggingFace 下载的 Llama.cpp 模型问题
v0.4 重写工具调用模型功能,引入代理型工具使用循环、语音流式传输以及每个后端支持多组配置
v0.3.11 错误修复及 llama.cpp 版本更新
v0.3.10 支持 OpenAI “Responses” API,兼容 HA 2025.7.0
v0.3.9 修复对话历史记录问题
v0.3.8 支持思考模型,兼容 HA 2025.4
v0.3.7 德语 ICL 示例,修复多轮对话相关问题
v0.3.6 小幅修复 llama.cpp 后端问题
v0.3.5 波兰语 ICL 示例
v0.3.4 完整波兰语翻译,提升语言支持
v0.3.3 通用 OpenAI 功能改进,区域处理功能优化
v0.3.2 修复脚本实体相关问题
v0.3.1 在提示中加入基本的区域支持
v0.3 支持 Home Assistant LLM API,改进提示机制
v0.2.x 支持 Ollama,上下文学习,闪存注意力机制,提示缓存
v0.1 初始发布

版本历史

v0.4.62026/01/04
v0.4.52025/12/15
v0.4.42025/11/22
v0.4.32025/11/02
v0.4.22025/10/26
v0.4.12025/10/12
v0.42025/10/09
v0.3.112025/09/16
v0.3.102025/07/05
v0.3.92025/05/27
v0.3.82025/04/13
v0.3.72024/12/15
v0.3.62024/08/21
v0.3.52024/08/20
v0.3.42024/08/12
v0.3.32024/06/15
v0.3.22024/06/08
v0.3.12024/06/08
v0.32024/06/07
v0.2.172024/05/09

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

150k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|5天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|6天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|昨天
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|2天前
语言模型数据工具其他

gpt4all

GPT4All 是一款让普通电脑也能轻松运行大型语言模型(LLM)的开源工具。它的核心目标是打破算力壁垒,让用户无需依赖昂贵的显卡(GPU)或云端 API,即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。 对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说,GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点,让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者,还是单纯想体验私有化 AI 聊天的普通用户,都能从中受益。 技术上,GPT4All 基于高效的 `llama.cpp` 后端,支持多种主流模型架构(包括最新的 DeepSeek R1 蒸馏模型),并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端,支持 Windows、macOS 和 Linux 等多平台一键安装,还为开发者提供了便捷的 Python 库,可轻松集成到 LangChain 等生态中。通过简单的下载和配置,用户即可立即开始探索本地大模型的无限可能。

77.3k|★☆☆☆☆|今天
语言模型开发框架