[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-louisgv--local.ai":3,"tool-louisgv--local.ai":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":32,"env_os":104,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":113,"github_topics":114,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":125,"updated_at":126,"faqs":127,"releases":168},9304,"louisgv\u002Flocal.ai","local.ai","🎒 local.ai - Run AI locally on your PC!","local.ai 是一款专为个人电脑设计的桌面应用，旨在让用户在本地安全、私密地运行和实验人工智能模型。它主要解决了用户依赖云端服务时面临的数据隐私泄露风险、高昂的 API 调用成本以及网络延迟等问题，让 AI 推理完全在本地硬件上完成。\n\n这款软件非常适合注重数据隐私的研究人员、希望零成本集成 AI 功能的开发者，以及想要离线体验大模型的普通用户。local.ai 内置了模型下载器，提供详细的硬件建议、许可证信息及哈希校验，确保模型来源可靠。其核心亮点在于将笔记功能与 AI 推理深度结合：用户可以为每一篇笔记单独配置推理参数，并直接以纯文本 `.mdx` 格式保存内容与设置。此外，它还提供了一个兼容 OpenAI 格式的流式推理服务器，能够与 window.ai 等浏览器扩展无缝协作，使任何网页应用都能免费调用本地算力。\n\n在技术底层，local.ai 基于高性能的 Rust 语言构建（使用 rustformers\u002Fllm crate），兼顾了运行效率与系统资源占用。项目遵循 GPLv3 开源协议，致力于推动 AI 技术的透明化与社区共建，让用户真正拥有对自己数据和模型的控制权。","# 🎒 local.ai\n\nA desktop app for local, private, secured AI experimentation. Included out-of-the box are:\n\n- A known-good model API and a model downloader, with descriptions such as recommended hardware specs, model license, blake3\u002Fsha256 hashes etc...\n- A simple note-taking app, with inference config PER note. The note and its config are output into plain text `.mdx` format\n- A model inference streaming server (\u002Fcompletion endpoint, similar to OpenAI)\n\nIt's made to be used alongside https:\u002F\u002Fgithub.com\u002Falexanderatallah\u002Fwindow.ai\u002F as a simple way to have a local inference server up and running in no time. window.ai + local.ai enable every web app to utilize AI without incurring any cost from either the developer or the user!\n\nRight now, local.ai uses the https:\u002F\u002Fgithub.com\u002Frustformers\u002Fllm rust crate at its core. Check them out, they are super cool!\n\n## 🚀 Install\n\nGo to the site at https:\u002F\u002Fwww.localai.app\u002F and click the button for your machine's architecture. You can also find the build manually in [the GitHub release page](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Freleases).\n\nWindows and MacOS binaries are signed under [Plasmo Corp.](https:\u002F\u002Fwww.plasmo.com\u002F) - a company owned by the author of this project ([@louisgv](https:\u002F\u002Fgithub.com\u002Flouisgv\u002F)).\n\nYou may also [build from source](#-development)!\n\n## 📺 Demo\n\n\u003C!-- https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002F900f6d83-0867-4aa1-886a-e3c59b144864 -->\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002Fba4a04dc-5087-4725-b619-165ad774aedd\" controls=\"controls\" style=\"max-width: 470px;\">\n\u003C\u002Fvideo>\n\n\u003C!-- https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002Fc56400b4-4520-47da-80fb-ab8552a2683b\n -->\n\n## 🧵 Development\n\nHere's how to run the project locally:\n\n### Prerequisites\n\n1. node >= 18\n2. rust >= 1.69\n3. pnpm >= 8\n\n### Workflow\n\n```\ngit submodule update --init --recursive\npnpm i\npnpm dev\n```\n\n## 🪪 License\n\n- Desktop\u002FWeb App: [GNU GPLv3](.\u002FLICENSE)\n- Client SDK: [MIT](.\u002Fsdk\u002FLICENSE)\n\n## 🤔 Trivia\n\n### Why the backpack?\n\n> Ties into the bring your own model concept -- Alex from window.ai\n\n### Why GPLv3?\n\nAnything AI-related including their derivatives should be open-source for all to inspect. GPLv3 enforces this chain of open-source.\n\n### Is there a community?\n\n- [GitHub discussion](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions)\n- Checkout this [poll](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002F51)\n\n### Where should I ask question?\n\n- [Here](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fq-a)\n\n### I made something with `local.ai`, where should I post it?\n\n- [Here](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fshow-and-tell)\n\n### I have some nice things to say about `local.ai`, where should I post it?\n\n- [Here](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fnice-tokens)\n- Also, consider giving the repo a [Star](https:\u002F\u002Fdocs.github.com\u002Fen\u002Fget-started\u002Fexploring-projects-on-github\u002Fsaving-repositories-with-stars) ⭐️\n\n### The naming seems close to [LocalAI](https:\u002F\u002Fgithub.com\u002Fgo-skynet\u002FLocalAI)?\n\n- When I first started the project and got the domain localai.app, I had no idea LocalAI was a thing. A friend of mine forwarded me a link to that project mid May, and I was like dang it, let's just add a dot and call it a day (for now...) - local \"dot\" ai vs LocalAI lol\n- We might [rename the project](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002F71).\n\n### Do you accept contribution\u002FPR?\n\nAbsolutely - Please note that any contribution toward this repo shall be relicensed under GPLv3. There are many ways to contribute, such as:\n\n- Documentation via wiki edit submission and known model documentation\n- Testing and filing BUG issue\n- For beginner, check out [Good First Issues](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues?q=is%3Aopen+is%3Aissue+label%3A%22good+first+issue%22)\n- For seasoned developers, check out [Unassigned Help Wanted Issues](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues?q=is%3Aissue+is%3Aopen+label%3A%22help+wanted%22+no%3Aassignee)\n","# 🎒 local.ai\n\n一款用于本地、私有、安全的 AI 实验的桌面应用。开箱即用的功能包括：\n\n- 一个经过验证的模型 API 和模型下载器，附带推荐硬件规格、模型许可证、blake3\u002Fsha256 哈希值等详细信息。\n- 一个简单的笔记应用，每条笔记都可以单独配置推理参数。笔记及其配置会以纯文本 `.mdx` 格式输出。\n- 一个模型推理流式服务端（\u002Fcompletion 端点，类似于 OpenAI）。\n\n它旨在与 https:\u002F\u002Fgithub.com\u002Falexanderatallah\u002Fwindow.ai\u002F 搭配使用，以便快速搭建并运行本地推理服务器。通过 window.ai + local.ai，任何 Web 应用都可以在不产生开发者或用户成本的情况下利用 AI！\n\n目前，local.ai 的核心基于 https:\u002F\u002Fgithub.com\u002Frustformers\u002Fllm 这个 Rust crate。快去看看吧，它们非常酷！\n\n## 🚀 安装\n\n访问 https:\u002F\u002Fwww.localai.app\u002F，点击对应你机器架构的按钮即可下载。你也可以在 [GitHub 发布页面](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Freleases) 手动找到构建版本。\n\nWindows 和 macOS 的二进制文件由 [Plasmo Corp.](https:\u002F\u002Fwww.plasmo.com\u002F) 签名——这是一家由本项目作者 ([@louisgv](https:\u002F\u002Fgithub.com\u002Flouisgv\u002F)) 拥有的公司。\n\n你也可以 [从源码构建](#-development)！\n\n## 📺 演示\n\n\u003C!-- https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002F900f6d83-0867-4aa1-886a-e3c59b144864 -->\n\u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002Fba4a04dc-5087-4725-b619-165ad774aedd\" controls=\"controls\" style=\"max-width: 470px;\">\n\u003C\u002Fvideo>\n\n\u003C!-- https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002Fc56400b4-4520-47da-80fb-ab8552a2683b\n -->\n\n## 🧵 开发\n\n以下是在本地运行该项目的方法：\n\n### 先决条件\n\n1. node >= 18\n2. rust >= 1.69\n3. pnpm >= 8\n\n### 工作流程\n\n```\ngit submodule update --init --recursive\npnpm i\npnpm dev\n```\n\n## 🪪 许可证\n\n- 桌面\u002FWeb 应用：[GNU GPLv3](.\u002FLICENSE)\n- 客户端 SDK：[MIT](.\u002Fsdk\u002FLICENSE)\n\n## 🤔 小知识\n\n### 为什么是背包？\n\n> 这与“自带模型”的概念相关联——来自 window.ai 的 Alex\n\n### 为什么采用 GPLv3？\n\n所有与 AI 相关的内容，包括其衍生作品，都应开源，供所有人审查。GPLv3 正好强制执行这一开源链条。\n\n### 是否有社区？\n\n- [GitHub 讨论区](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions)\n- 请查看这个 [投票](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002F51)\n\n### 我应该在哪里提问？\n\n- [这里](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fq-a)\n\n### 我用 `local.ai` 做了点东西，应该发到哪里？\n\n- [这里](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fshow-and-tell)\n\n### 我对 `local.ai` 有一些好评，应该发到哪里？\n\n- [这里](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002Fcategories\u002Fnice-tokens)\n- 另外，也别忘了给这个仓库点个 [Star](https:\u002F\u002Fdocs.github.com\u002Fen\u002Fget-started\u002Fexploring-projects-on-github\u002Fsaving-repositories-with-stars) ⭐️\n\n### 名称看起来和 [LocalAI](https:\u002F\u002Fgithub.com\u002Fgo-skynet\u002FLocalAI) 很像？\n\n- 当我刚开始这个项目并注册了 localai.app 这个域名时，完全不知道还有 LocalAI 这个项目。五月中旬，一位朋友给我转发了那个项目的链接，我当时就想：糟糕，那就加个点号算了（至少暂时如此）——local “dot” ai 对比 LocalAI，哈哈。\n- 我们可能会 [重新命名项目](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fdiscussions\u002F71)。\n\n### 接受贡献\u002FPR 吗？\n\n当然！请注意，对该仓库的任何贡献都将被重新许可为 GPLv3。贡献的方式有很多，例如：\n\n- 通过 wiki 编辑提交文档，以及已知模型的文档编写。\n- 测试并提交 BUG 报告。\n- 对于初学者，可以查看 [Good First Issues](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues?q=is%3Aopen+is%3Aissue+label%3A%22good+first+issue%22)。\n- 对于经验丰富的开发者，可以查看 [Unassigned Help Wanted Issues](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues?q=is%3Aissue+is%3Aopen+label%3A%22help+wanted%22+no%3Aassignee)。","# local.ai 快速上手指南\n\nlocal.ai 是一款桌面端应用，专为本地、私密且安全的 AI 实验设计。它内置了模型下载器、支持按笔记配置推理参数的笔记应用，以及兼容 OpenAI 格式的流式推理服务器。配合 `window.ai` 使用，可让任何 Web 应用零成本调用本地 AI 能力。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows 或 macOS（提供已签名二进制文件），也支持 Linux（需源码编译）。\n*   **Node.js**：版本 >= 18\n*   **Rust**：版本 >= 1.69\n*   **包管理器**：pnpm 版本 >= 8\n\n> **提示**：国内开发者安装 Node.js 和 Rust 时，如遇下载缓慢，建议配置国内镜像源（如淘宝 npm 镜像、rustup 国内镜像）以加速安装过程。\n\n## 安装步骤\n\n您可以选择直接下载预编译版本或从源码构建。\n\n### 方式一：下载预编译包（推荐）\n\n1.  访问官方网站：[https:\u002F\u002Fwww.localai.app\u002F](https:\u002F\u002Fwww.localai.app\u002F)\n2.  根据您的机器架构点击对应的下载按钮。\n3.  或者前往 [GitHub Release 页面](https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Freleases) 手动下载最新版本的二进制文件。\n\n### 方式二：从源码构建\n\n如果您需要自定义开发或预编译包无法满足需求，请按以下步骤操作：\n\n```bash\n# 1. 克隆项目并初始化子模块\ngit submodule update --init --recursive\n\n# 2. 安装依赖\npnpm i\n\n# 3. 启动开发模式\npnpm dev\n```\n\n## 基本使用\n\nlocal.ai 的核心工作流是“下载模型 -> 创建笔记 -> 自动启动服务”。\n\n1.  **启动应用**：运行安装好的 desktop app 或通过 `pnpm dev` 启动开发版。\n2.  **下载模型**：\n    *   在应用内使用内置的 **Model Downloader**。\n    *   查看模型的推荐硬件配置、许可证信息及哈希值（blake3\u002Fsha256），选择适合的模型进行下载。\n3.  **创建笔记与配置**：\n    *   新建一个笔记（Note）。\n    *   在该笔记中配置专属的推理参数（Inference Config）。\n    *   笔记内容及其配置将保存为纯文本 `.mdx` 格式。\n4.  **调用推理服务**：\n    *   应用会自动运行一个流式推理服务器，提供 `\u002Fcompletion` 端点。\n    *   该接口行为类似 OpenAI API，可直接被其他应用调用。\n5.  **集成 Web 应用（可选）**：\n    *   安装并配置 [window.ai](https:\u002F\u002Fgithub.com\u002Falexanderatallah\u002Fwindow.ai\u002F) 浏览器扩展。\n    *   此时，支持 window.ai 的网页应用即可无缝连接到 local.ai 运行的本地服务，实现免费且私密的 AI 功能体验。","一位注重数据隐私的自由撰稿人，需要在离线环境下利用本地大模型辅助撰写敏感的行业分析报告，同时希望将 AI 生成的内容直接整合到笔记中。\n\n### 没有 local.ai 时\n- **隐私泄露风险高**：必须将草稿上传至云端 API 处理，担心核心观点或未公开数据被第三方记录。\n- **配置门槛极高**：手动部署本地推理服务需要熟悉 Python 环境、Rust 编译及复杂的命令行参数，耗时数小时仍可能报错。\n- **工作流割裂严重**：模型推理与笔记软件完全分离，需反复复制粘贴提示词和生成结果，难以针对单篇笔记调整模型参数。\n- **持续产生费用**：依赖商业 API 意味着每次实验都在消耗代币，限制了自由尝试不同模型的成本空间。\n\n### 使用 local.ai 后\n- **数据完全本地化**：所有推理过程均在个人电脑内存中完成，无需联网，彻底杜绝了敏感信息外泄的可能。\n- **开箱即用体验**：内置模型下载器自动匹配硬件并验证哈希值，一键启动即可运行经过验证的模型 API，无需手动配置环境。\n- **笔记与推理深度融合**：直接在 `.mdx` 笔记文件中为每篇文章独立配置推理参数，生成内容无缝嵌入文档，实现“所想即所得”。\n- **零成本无限实验**：结合 window.ai 让任意网页应用调用本地算力，开发者与用户均无需支付任何 API 费用，可随意切换模型测试效果。\n\nlocal.ai 通过将复杂的本地部署简化为桌面应用，让每位创作者都能在不牺牲隐私的前提下，免费拥有专属的离线 AI 助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flouisgv_local.ai_aa8116dd.png","louisgv","L","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flouisgv_911be903.png","\r\n    ❤️☮✋\r\n","@OpenRouterTeam","USA",null,"louis_g_v","https:\u002F\u002Flouisgv.github.io\u002F","https:\u002F\u002Fgithub.com\u002Flouisgv",[84,88,92,96],{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",74.1,{"name":89,"color":90,"percentage":91},"Rust","#dea584",24.6,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",1.2,{"name":97,"color":98,"percentage":99},"CSS","#663399",0.1,720,68,"2026-04-17T19:42:59","GPL-3.0","Windows, macOS","未说明",{"notes":107,"python":105,"dependencies":108},"该项目核心基于 Rust 编写（使用 rustformers\u002Fllm crate），而非 Python。开发环境需安装 Node.js、Rust 和 pnpm。普通用户可直接下载预编译的二进制文件运行，无需配置开发环境。该工具旨在作为本地推理服务器配合 window.ai 使用，支持模型下载及按笔记配置的推理功能。",[109,110,111,112],"node >= 18","rust >= 1.69","pnpm >= 8","llm (Rust crate)",[35,13,45,16,14,15],[115,116,117,118,119,120,121,122,123,124],"ai","api","chatgpt-api","llm","localhost","nextjs","rust","sse","streaming","turborepo","2026-03-27T02:49:30.150509","2026-04-19T06:03:19.055821",[128,133,138,143,148,153,158,163],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},41747,"为什么在 M1 Mac 上下载模型并发送消息后没有收到任何响应？","这通常是因为内存不足。8GB 内存对于运行 7B 模型来说太少，甚至运行 3B 模型也比较困难。建议至少拥有 12GB（首选 16GB）内存才能以不错的速度运行 3B 模型。如果内存较小，可以尝试使用更小的模型（如 Dolly 或 GPTJ），它们在低配设备上响应更快。","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F11",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},41748,"在 Windows 上无法显示模型输出或应用崩溃怎么办？","请确保下载的是非 K-Quant 版本的模型。如果您使用的是 TheBloke 提供的模型（例如 airoboros），请下载旧版的量化版本而不是 K-Quant 版本，因为当前的底层 llm rust 项目对新版格式支持尚不完善。参考链接：https:\u002F\u002Fgithub.com\u002Frustformers\u002Fllm\u002Fissues\u002F301","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F6",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},41749,"点击\"New Thread\"（新建线程）按钮没有任何反应怎么办？","在创建新线程之前，您必须先验证并设置一个有效的目录用于保存线程数据。如果在文件选择器中直接点击右上角的关闭按钮而没有选择并确认保存目录，系统将无法创建新线程。请重新点击该功能，选择一个文件夹并确认保存路径。","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F101",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},41750,"安装程序被杀毒软件误报为木马（Trojan）如何处理？","这很可能是误报。您可以选择从源代码自行构建应用以避免此问题，构建说明请参阅 README 文件。此外，您可以在 GitHub Actions 工作流中查看完整的构建过程以验证安全性：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Factions。如果担心预编译包，也可以使用 VirusTotal 等工具进行二次扫描确认。","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F100",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},41751,"如何在外部应用程序（如 Minecraft 模组）中调用 Local.AI 的服务？","Local.AI 会托管一个本地服务器。关于如何正确发送请求和接收响应的详细 API 文档和使用示例，请查阅项目的 Wiki 页面：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fwiki。Wiki 中包含了具体的代码示例，展示了如何处理 API 调用。","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F30",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},41752,"初次运行时配置损坏或后端返回 404 错误如何解决？","此问题已在 v0.6.5 版本中修复。如果您遇到后端显示正常但前端连接失败、模型加载无响应或\"New Thread\"功能失效的情况，请将应用升级到最新版本：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Freleases\u002Ftag\u002Fv0.6.5","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F95",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},41753,"是否支持自定义提示词模板（Prompt Templates）？","是的，项目计划支持此功能。未来将在模型管理页面为每个模型添加设置菜单，允许用户调整提示词模板和其他参数。同时也考虑支持定义一个\"prompt template\"文件夹，让用户以简单的文本格式存储自定义模板（如 Alpaca 等常用模板）。","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F7",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},41754,"在 Linux 上本地编译成功但打包后的应用无法运行怎么办？","这可能是由于缺少 Linux 下的必要依赖导致的。即使本地开发模式（pnpm dev）能运行，打包后也可能因环境差异出错。请参考 Tauri 的 Linux 设置指南安装前置依赖：https:\u002F\u002Ftauri.app\u002Fv1\u002Fguides\u002Fgetting-started\u002Fprerequisites#setting-up-linux","https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F84",[169,174,179,184,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258,263],{"id":170,"version":171,"summary_zh":172,"released_at":173},333806,"v0.6.6","## 破坏性变更\n* 功能：将 `\u002Fcompletions` 移至 `\u002Fv1\u002Fcompletions` 下，由 @tomasmcm 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F112 中完成\n\n## 新贡献者\n* @tomasmcm 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F112 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.6.5...v0.6.6","2023-09-20T23:35:17",{"id":175,"version":176,"summary_zh":177,"released_at":178},333807,"v0.6.5","热修复：正确解析初始配置\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.6.4...v0.6.5","2023-09-17T02:23:02",{"id":180,"version":181,"summary_zh":182,"released_at":183},333808,"v0.6.4","## 变更内容\n* 功能：新增 Orca V2，由 @LLukas22 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F65 中实现\n* 功能：优化长对话的用户体验性能，由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F73 中实现\n* 杂项：按字母顺序对模型列表进行排序，由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F80 中实现\n* 功能：初始化一个基于 MIT 许可证的共享 SDK 包，由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F81 中实现\n* 功能：主题切换器，由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F82 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.5.2...v0.6.4","2023-07-15T01:16:45",{"id":185,"version":186,"summary_zh":79,"released_at":187},333809,"v0.6.3","2023-07-15T00:31:22",{"id":189,"version":190,"summary_zh":191,"released_at":192},333810,"v0.5.2","## 变更内容\n* 功能：@LLukas22 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F53 中将 Nous Hermes 添加到已知模型列表中\n* 功能：GPU 推理支持，Linux\u002FWindows\u002Fmac 上使用 CUDA，mac M1\u002FM2 芯片上使用 Metal，由 @louisgv 实现，详见 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F56\n* 修复：在线程视图中进行推理时，切换路由会导致推理停止\n* 修复：流式输出停止时，正确终止提示词输入\n* 功能：新增推理状态文本\u002F状态注释\n* 修复：@louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F59 中添加了 Linux 和 Windows 的 CUDA 设置\n* 修复：如果没有可用的 GPU，则禁用 GPU 切换功能，由 @louisgv 实现，详见 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F63\n\n**注意**：目前 GPU 推理仅适用于 Mac Metal（M1\u002FM2），详情请参阅 #61。\n\nhttps:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fassets\u002F6723574\u002Fd608529e-84a5-4aa6-814e-f05873fe215d\n\n## 新贡献者\n* @LLukas22 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F53 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.4.0...v0.5.2","2023-07-03T10:35:27",{"id":194,"version":195,"summary_zh":196,"released_at":197},333811,"v0.5.1","🥷\r\n\r\n参考：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fissues\u002F61","2023-07-01T13:49:51",{"id":199,"version":200,"summary_zh":201,"released_at":202},333812,"v0.4.0","## 变更内容\n\n* 功能：由 @Regular-Baf 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F36 中添加的模型信息弹出窗口\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F37 中改进线程用户体验并修复 Linux 开发运行问题\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F38 中添加的提示模板和持久化线程配置侧边栏\n* 功能：由 @louisgv 为每个线程保存上次使用的模型\n* 功能：由 @louisgv 实现的远程分词器\n* 功能：由 @louisgv 实现的模型完整性检查，若已知则应用默认设置\n* 文档：由 @nightscape 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F43 中将 Git 子模块处理加入开发工作流\n* 修复：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F46 中实现的模型统计信息回退机制\n\n## 新贡献者\n* @nightscape 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F43 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.3.0...v0.4.0","2023-06-22T21:42:34",{"id":204,"version":205,"summary_zh":206,"released_at":207},333813,"v0.3.0","## 变更内容\n\n* 功能：WizardCoder 的哈希值和引用，由 @Regular-Baf 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F32 中实现\n* 功能：模型配置，支持自定义远程分词器，由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F35 中实现\n* 修复：Linux 下目录打开问题，由 @Regular-Baf 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F33 中修复\n* 修复：WizardCoder 模型大小问题，由 @Regular-Baf 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F34 中修复\n\n## 新贡献者\n* @Regular-Baf 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F32 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.9...v0.3.0","2023-06-16T09:29:26",{"id":209,"version":210,"summary_zh":211,"released_at":212},333814,"v0.2.9","## 变更内容：\n\n- 添加了实验性模型标签\n- 允许下载器跳过实验性模型的哈希校验\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.8...v0.2.9","2023-06-15T11:15:29",{"id":214,"version":215,"summary_zh":216,"released_at":217},333815,"v0.2.8","## 变更内容\n\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F24 中实现的快速模型切换器\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F25 中实现的从快速模型选择器启动服务器\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F26 中实现的类型安全调用功能\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F27 中实现的向 API 传递补全参数功能\n* 杂项：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F28 中进行的界面优化，为调整提示参数做准备\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.7...v0.2.8","2023-06-12T03:15:58",{"id":219,"version":220,"summary_zh":221,"released_at":222},333816,"v0.2.7","## 变更内容\n* 功能：由 @louisgv 在 https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F23 中实现的停止推理功能\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.5...v0.2.7","2023-06-11T00:40:57",{"id":224,"version":225,"summary_zh":226,"released_at":227},333817,"v0.2.5","## What's Changed\r\n\r\n* feat: check integrity upon download completed by @louisgv in https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fpull\u002F22\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.4...v0.2.5","2023-06-09T03:01:06",{"id":229,"version":230,"summary_zh":231,"released_at":232},333818,"v0.2.4","- feat: warn user if no model loaded or server started\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.3...v0.2.4","2023-06-08T19:49:00",{"id":234,"version":235,"summary_zh":236,"released_at":237},333819,"v0.2.3","- Fix context_size issue, re-enabling dolly and gpt4all\r\n- WIP: thread config UX\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.2...v0.2.3","2023-06-08T11:39:50",{"id":239,"version":240,"summary_zh":241,"released_at":242},333820,"v0.2.2","- Changed the default model type to llama\r\n","2023-06-06T02:53:54",{"id":244,"version":245,"summary_zh":246,"released_at":247},333821,"v0.2.1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.2.0...v0.2.1","2023-06-05T11:15:36",{"id":249,"version":250,"summary_zh":251,"released_at":252},333822,"v0.2.0","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.1.3...v0.2.0","2023-06-05T10:49:57",{"id":254,"version":255,"summary_zh":256,"released_at":257},333823,"v0.1.3","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.1.2...v0.1.3","2023-06-05T09:57:25",{"id":259,"version":260,"summary_zh":261,"released_at":262},333824,"v0.1.2","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.1.1...v0.1.2","2023-06-05T09:00:30",{"id":264,"version":265,"summary_zh":266,"released_at":267},333825,"v0.1.1","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Flouisgv\u002Flocal.ai\u002Fcompare\u002Fv0.1.0...v0.1.1","2023-06-05T08:27:02"]