[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ServiceStack--llms":3,"tool-ServiceStack--llms":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[25,14,26,13],"插件","图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[25,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":41,"last_commit_at":42,"category_tags":43,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,60,61,25,14,62,15,13,63],"数据工具","视频","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":109,"env_os":110,"env_gpu":110,"env_ram":110,"env_deps":111,"category_tags":114,"github_topics":78,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":147},6653,"ServiceStack\u002Fllms","llms","LLM Client, Server API and UI","llms 是一款轻量级的开源工具，集成了命令行界面（CLI）、服务器 API 以及类似 ChatGPT 的网页聊天界面，旨在为用户提供访问多种大语言模型（LLM）的一站式解决方案。它主要解决了用户在本地运行大模型时面临的部署复杂、数据隐私担忧以及对重型界面依赖过高等痛点。\n\n与传统方案不同，llms 强调“完全离线”与“极致隐私”。所有对话数据和交互记录均直接存储在用户的浏览器本地存储中，无需上传至任何云端服务器，确保了敏感信息的绝对安全。同时，它作为 Open WebUI 的轻量化替代方案，去除了冗余功能，让启动和配置过程更加简洁高效。\n\n这款工具非常适合注重数据隐私的研究人员、希望快速搭建本地模型测试环境的开发者，以及不愿依赖云端服务的普通用户。无论是需要在内网环境中工作的团队，还是希望在个人电脑上私密探索大模型能力的爱好者，llms 都能提供流畅且安全的体验。其独特的技术亮点在于将服务端能力与纯前端数据存储完美结合，既保留了强大的 API 扩展性，又实现了无需后端数据库支持的隐私保护架构，让用户能够真正掌控自己的 AI 交互数据。","# llms.py\n\nLightweight CLI, API and ChatGPT-like alternative to Open WebUI for accessing multiple LLMs, entirely offline, with all data kept private in browser storage.\n\n[llmspy.org](https:\u002F\u002Fllmspy.org)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FServiceStack_llms_readme_d4980f8273d6.webp)](https:\u002F\u002Fllmspy.org)\n\nGitHub: [llmspy.org](https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllmspy.org)","# llms.py\n\n轻量级命令行工具、API，以及类似 ChatGPT 的 Open WebUI 替代方案，用于访问多种大语言模型，完全离线运行，所有数据均保存在浏览器存储中，确保隐私安全。\n\n[llmspy.org](https:\u002F\u002Fllmspy.org)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FServiceStack_llms_readme_d4980f8273d6.webp)](https:\u002F\u002Fllmspy.org)\n\nGitHub：[llmspy.org](https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllmspy.org)","# llms.py 快速上手指南\n\nllms.py 是一个轻量级的命令行工具、API 及类 ChatGPT 界面，可作为 Open WebUI 的替代方案。它支持完全离线访问多种大语言模型（LLM），所有数据均私有化存储在浏览器本地，确保数据安全。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows、macOS 或 Linux。\n*   **运行时环境**：已安装 **Python 3.8** 或更高版本。\n*   **前置依赖**：无需安装复杂的数据库或后端服务，工具本身即为独立运行程序。\n\n> **提示**：国内用户建议配置 pip 国内镜像源以提升下载速度（如阿里云、清华大学源）。\n\n## 安装步骤\n\n您可以通过 `pip` 直接安装最新版本的 llms.py。\n\n### 1. 使用国内镜像源安装（推荐）\n\n```bash\npip install llms -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 标准安装方式\n\n```bash\npip install llms\n```\n\n安装完成后，即可在终端中直接使用 `llms` 命令。\n\n## 基本使用\n\nllms.py 启动后会自动在本地浏览器中打开类 ChatGPT 的操作界面，所有交互均在本地完成。\n\n### 启动服务\n\n在终端执行以下命令启动服务：\n\n```bash\nllms\n```\n\n*   默认情况下，服务将运行在 `http:\u002F\u002Flocalhost:5000`（具体端口视输出日志而定）。\n*   浏览器会自动弹出访问页面，若未自动打开，请手动访问上述地址。\n\n### 加载本地模型\n\n由于该工具设计为**完全离线**且**数据私有**，您需要预先在本地拥有兼容的模型文件（通常为 GGUF 格式）。\n\n1.  在网页界面中，点击设置或模型加载选项。\n2.  选择本地路径下的模型文件。\n3.  加载成功后即可开始对话。\n\n### 命令行模式（可选）\n\n除了网页界面，您也可以直接在命令行中进行简单交互：\n\n```bash\nllms chat --model \"path\u002Fto\u002Fyour\u002Fmodel.gguf\" --prompt \"你好，请介绍一下你自己\"\n```\n\n> **注意**：首次运行时可能需要根据提示下载必要的运行时组件，请保持网络连接畅通。后续使用可完全断开网络。","某金融合规团队需要在隔离内网环境中，利用多个本地大模型对敏感合同文档进行批量审查与摘要生成。\n\n### 没有 llms 时\n- 团队成员必须分别启动不同模型的独立服务端口，通过复杂的命令行参数切换模型，操作繁琐且容易出错。\n- 由于缺乏统一的离线交互界面，开发人员只能依赖代码脚本调用 API，非技术背景的合规专员无法直接参与测试与验证。\n- 所有对话记录暂存于服务器内存或临时文件中，存在敏感合同数据意外泄露或被未授权访问的安全隐患。\n- 跨模型对比同一份合同的审查结果时，需要在多个终端窗口间反复复制粘贴，效率极低且难以直观评估模型差异。\n\n### 使用 llms 后\n- 通过 llms 提供的统一 CLI 和类 ChatGPT 网页界面，用户可在一个平台上无缝切换并调用所有本地部署的 LLM，操作流程标准化。\n- 合规专员无需编写代码，直接在浏览器中通过友好的 UI 与模型对话，大幅降低了多模型协作的使用门槛。\n- 所有交互数据仅加密存储于用户浏览器本地，彻底切断网络传输路径，确保敏感金融数据完全私有且不出内网。\n- 支持在同一会话视图中并行请求不同模型，即时对比各模型对合同条款的解读差异，显著提升了评估与决策效率。\n\nllms 通过提供全离线、高隐私且统一的交互入口，让多模型协作在安全受限的环境中变得简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FServiceStack_llms_d4980f82.webp","ServiceStack","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FServiceStack_6f696f85.png","",null,"https:\u002F\u002Fservicestack.net","https:\u002F\u002Fgithub.com\u002FServiceStack",[82,86,90,94,98,102],{"name":83,"color":84,"percentage":85},"JavaScript","#f1e05a",79.1,{"name":87,"color":88,"percentage":89},"Python","#3572A5",13,{"name":91,"color":92,"percentage":93},"CSS","#663399",7.6,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.2,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0,{"name":103,"color":104,"percentage":101},"HTML","#e34c26",601,27,"2026-04-08T12:16:41","BSD-3-Clause",1,"未说明",{"notes":112,"python":110,"dependencies":113},"该工具是一个轻量级 CLI、API 和类似 ChatGPT 的替代方案，用于访问多个大语言模型（LLMs）。其核心特性是完全离线运行，且所有数据均私有化存储在浏览器本地存储中，无需后端服务器。由于 README 提供的信息有限，具体的系统资源需求（如 GPU、内存、Python 版本）未在片段中明确列出，建议查阅完整文档或源代码以获取详细部署指南。",[],[15,25],"2026-03-27T02:49:30.150509","2026-04-11T23:21:18.900856",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},30042,"使用 OpenAI 提供商时遇到 \"HTTP 400 Bad Request\" 或 \"Unrecognized request argument\" 错误怎么办？","这通常是因为请求中包含了 OpenAI API 不支持的参数（如 systemPrompt 或 modalities）。该问题已在最新版本 v3.0.19 中修复。请确保将 llms 更新到最新版本：\n\n对于 Docker 用户：\ndocker pull ghcr.io\u002Fservicestack\u002Fllms:latest\n\n对于 Python 用户，请升级包以获取最新的请求结构修复。","https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fissues\u002F19",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},30043,"Ollama 的工具调用（Tool Calling）功能无法正常工作或没有输出结果怎么办？","如果您使用的是 Docker 镜像且工具调用无效，很可能是因为容器内的版本过旧。请手动拉取最新镜像以更新到包含完整工具支持的版本（v3.0.23 或更高）：\n\ndocker pull ghcr.io\u002Fservicestack\u002Fllms:latest\n\n此外，确保您使用的模型支持工具调用功能。如果是在自定义 Dockerfile 中使用，请记得重新构建镜像以包含最新的依赖。","https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fissues\u002F26",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},30044,"如何启用上下文压缩（Context Compaction）功能以节省内存并支持长对话？","llms-py 最新版本已内置上下文压缩功能。当对话超过 10 条消息或使用超过模型上下文限制的 40% 时，界面底部会自动出现压缩按钮。\n\n默认使用 Gemini 2.5 Flash Lite 模型进行摘要。您可以通过修改配置文件 ~\u002F.llms\u002Fllms.json 中的 **compact** 聊天模板来自定义压缩行为（例如更改摘要模型或提示词）。请注意，升级现有版本时需要手动更新此配置文件。","https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fissues\u002F30",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},30045,"如何在 Ollama 或本地模型中使用和注册自定义工具（Tools）？","从 v3 版本开始，llms 提供了完整的工具支持。您可以安装核心工具包或创建自定义扩展：\n\n1. 安装核心工具：\nllms --add core_tools\n\n2. 创建自定义工具：编写 Python 函数并使用 @tool 装饰器（或显式定义），参考 examples\u002Ftool_extension.py。\n\n3. 在 UI 中，工具箱图标会显示所有已注册的工具，您可以在头部工具栏中选择每次请求包含哪些工具。","https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fissues\u002F12",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},30046,"是否可以使用 API Key 而不是 GitHub OAuth 进行身份验证？","目前推荐使用标准的用户名\u002F密码认证（Credentials Auth Provider），它支持持久的服务器端会话，比在无状态的 Web UI 中直接使用 API Key 更安全（避免 XSS 风险）。\n\n该功能已实现，支持通过 Admin Web UI 和 CLI 管理用户。虽然 GitHub OAuth 仍是主要的集成方式，但简单的凭证认证现已可用，具体配置请参考官方文档中的 \"Credentials Auth Provider\" 部分。","https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fissues\u002F35",{"id":144,"question_zh":145,"answer_zh":146,"source_url":127},30047,"Docker 镜像中的 llms 版本落后于最新发布的 PyPI 版本怎么办？","Docker 镜像理论上应在每次发布后自动更新，但有时可能存在延迟。如果您发现镜像版本（如 v3.0.16）落后于最新版本（如 v3.0.23），请强制拉取最新镜像：\n\ndocker pull ghcr.io\u002Fservicestack\u002Fllms:latest\n\n如果问题依旧，可能是自动构建流程暂时卡顿，建议检查 GitHub Actions 状态或暂时使用 pip install llms-py==\u003C最新版本> 在本地运行。",[148,153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243],{"id":149,"version":150,"summary_zh":151,"released_at":152},206635,"v3.0.42","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.41...v3.0.42","2026-03-22T10:52:21",{"id":154,"version":155,"summary_zh":156,"released_at":157},206636,"v3.0.41","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.40...v3.0.41","2026-03-03T07:18:48",{"id":159,"version":160,"summary_zh":161,"released_at":162},206637,"v3.0.40","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.39...v3.0.40","2026-03-02T16:05:45",{"id":164,"version":165,"summary_zh":166,"released_at":167},206638,"v3.0.39","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.38...v3.0.39","2026-03-01T17:33:35",{"id":169,"version":170,"summary_zh":171,"released_at":172},206639,"v3.0.38","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.37...v3.0.38","2026-02-27T14:09:07",{"id":174,"version":175,"summary_zh":176,"released_at":177},206640,"v3.0.37","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.36...v3.0.37","2026-02-27T13:06:27",{"id":179,"version":180,"summary_zh":181,"released_at":182},206641,"v3.0.36","**完整变更日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.35...v3.0.36","2026-02-27T08:16:37",{"id":184,"version":185,"summary_zh":186,"released_at":187},206642,"v3.0.35","**完整变更日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.34...v3.0.35","2026-02-25T15:19:55",{"id":189,"version":190,"summary_zh":191,"released_at":192},206643,"v3.0.34","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.33...v3.0.34","2026-02-18T13:42:03",{"id":194,"version":195,"summary_zh":196,"released_at":197},206644,"v3.0.33","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.32...v3.0.33","2026-02-15T10:02:50",{"id":199,"version":200,"summary_zh":201,"released_at":202},206645,"v3.0.32","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.31...v3.0.32","2026-02-09T11:24:12",{"id":204,"version":205,"summary_zh":206,"released_at":207},206646,"v3.0.31","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.30...v3.0.31","2026-02-09T08:14:14",{"id":209,"version":210,"summary_zh":211,"released_at":212},206647,"v3.0.30","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.29...v3.0.30","2026-02-08T09:51:12",{"id":214,"version":215,"summary_zh":216,"released_at":217},206648,"v3.0.29","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.28...v3.0.29","2026-02-05T11:19:46",{"id":219,"version":220,"summary_zh":221,"released_at":222},206649,"v3.0.28","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.27...v3.0.28","2026-02-05T06:02:47",{"id":224,"version":225,"summary_zh":226,"released_at":227},206650,"v3.0.27","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.26...v3.0.27","2026-02-03T11:08:19",{"id":229,"version":230,"summary_zh":231,"released_at":232},206651,"v3.0.26","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.25...v3.0.26","2026-02-03T05:19:36",{"id":234,"version":235,"summary_zh":236,"released_at":237},206652,"v3.0.25","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.24...v3.0.25","2026-01-30T17:28:59",{"id":239,"version":240,"summary_zh":241,"released_at":242},206653,"v3.0.24","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.23...v3.0.24","2026-01-30T08:09:30",{"id":244,"version":245,"summary_zh":246,"released_at":247},206654,"v3.0.23","## What's Changed\n* Add local OpenAI provider for clearer custom setup, update docs by @noahkiss in https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fpull\u002F25\n\n## New Contributors\n* @noahkiss made their first contribution in https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fpull\u002F25\n\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FServiceStack\u002Fllms\u002Fcompare\u002Fv3.0.22...v3.0.23","2026-01-30T03:59:35"]