[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SeldonIO--seldon-server":3,"tool-SeldonIO--seldon-server":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":124,"env_deps":125,"category_tags":138,"github_topics":139,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":160,"updated_at":161,"faqs":162,"releases":200},9222,"SeldonIO\u002Fseldon-server","seldon-server","Machine Learning Platform and Recommendation Engine built on Kubernetes","Seldon Server 是一个基于 Kubernetes 构建的开源机器学习平台与推荐引擎，旨在帮助数据科学团队将模型高效部署至生产环境。它解决了机器学习项目中“最后一公里”的难题，即如何让在 TensorFlow、Keras、XGBoost 等框架中训练好的模型，能够稳定、可扩展地在本地或云端（如 AWS、GCP）对外提供服务。\n\n该平台特别适合需要管理复杂模型生命周期的开发者、数据科学家以及运维工程师。无论是初创公司还是大型企业，都能利用 Seldon Server 实现从实验到生产的无缝衔接。其核心技术亮点包括：支持通过容器和微服务架构大规模部署监督学习模型；内置高性能推荐引擎，支持用户行为分析与内容推荐；具备无停机动态算法配置能力，可轻松进行 A\u002FB 测试、多变量测试及算法集成。此外，Seldon Server 还提供了安全的 OAuth 2.0 REST 与 gRPC 接口，便于系统集成，并搭配基于 Kafka 和 Grafana 的实时分析仪表盘，让模型运行状态一目了然。\n\n需要注意的是，Seldon Server 项目目前已归档，不再主动维护，其核心功能已演进并聚焦于","Seldon Server 是一个基于 Kubernetes 构建的开源机器学习平台与推荐引擎，旨在帮助数据科学团队将模型高效部署至生产环境。它解决了机器学习项目中“最后一公里”的难题，即如何让在 TensorFlow、Keras、XGBoost 等框架中训练好的模型，能够稳定、可扩展地在本地或云端（如 AWS、GCP）对外提供服务。\n\n该平台特别适合需要管理复杂模型生命周期的开发者、数据科学家以及运维工程师。无论是初创公司还是大型企业，都能利用 Seldon Server 实现从实验到生产的无缝衔接。其核心技术亮点包括：支持通过容器和微服务架构大规模部署监督学习模型；内置高性能推荐引擎，支持用户行为分析与内容推荐；具备无停机动态算法配置能力，可轻松进行 A\u002FB 测试、多变量测试及算法集成。此外，Seldon Server 还提供了安全的 OAuth 2.0 REST 与 gRPC 接口，便于系统集成，并搭配基于 Kafka 和 Grafana 的实时分析仪表盘，让模型运行状态一目了然。\n\n需要注意的是，Seldon Server 项目目前已归档，不再主动维护，其核心功能已演进并聚焦于新一代项目 Seldon Core。如果您正着手新的 Kubernetes 模型部署计划，建议直接关注 Seldon Core 以获取更前沿的技术支持。","\n# **Update January 2018**\n\n * [Seldon Core open sourced](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core). \n    * Seldon Core focuses purely on deploying a wide range of ML models on Kubernetes, allowing complex runtime serving graphs to be managed in production. Seldon Core is a progression of the goals of the Seldon-Server project but also a more restricted focus to solving the final step in a machine learning project which is serving models in production. Please have a look at the [project page](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core) which includes extensive documentation to investigate further.\n\n\n\n# Seldon Server : * * Archived * *\n\n**This project is not actively maintained anymore please see** [Seldon Core](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core).\n\nSeldon Server is a machine learning platform that helps your data science team deploy models into production.\n\nIt provides an open-source data science stack that runs within a [Kubernetes](http:\u002F\u002Fkubernetes.io\u002F) Cluster. You can use Seldon to deploy machine learning and deep learning models into production on-premise or in the cloud (e.g. [GCP](http:\u002F\u002Fdocs.seldon.io\u002Fkubernetes-google-cloud.html), AWS, Azure).\n\nSeldon supports models built with TensorFlow, Keras, Vowpal Wabbit, XGBoost, Gensim and any other model-building tool  — it even supports models built with commercial tools and services where the model is exportable.\n\nIt includes an API with two key endpoints:\n\n1.  **[Predict](http:\u002F\u002Fdocs.seldon.io\u002Fprediction-guide.html)** - Build and deploy supervised machine learning models created in any machine learning library or framework at scale using containers and [microservices](http:\u002F\u002Fdocs.seldon.io\u002Fapi-microservices.html).\n2.  **[Recommend](http:\u002F\u002Fdocs.seldon.io\u002Fcontent-recommendation-guide.html)** - High-performance user activity and content based recommendation engine with various algorithms ready to run out of the box. \n\nOther features include:\n\n- Complex dynamic [algorithm configuration and combination](http:\u002F\u002Fdocs.seldon.io\u002Fadvanced-recommender-config.html) with no downtime: run A\u002FB and Multivariate tests, cascade algorithms and create ensembles.\n- Command Line Interface ([CLI](http:\u002F\u002Fdocs.seldon.io\u002Fseldon-cli.html)) for configuring and managing Seldon Server.\n- Secure OAuth 2.0 REST and [gRPC](http:\u002F\u002Fdocs.seldon.io\u002Fgrpc.html) APIs to streamline integration with your data and application.\n- Grafana dashboard for [real-time analytics](http:\u002F\u002Fdocs.seldon.io\u002Fanalytics.html) built with Kafka Streams, Fluentd and InfluxDB.\n\nSeldon is used by some of the world's most innovative organisations — it's the perfect machine learning deployment platform for start-ups and can scale to meet the demands of large enterprises.\n\n## Get Started\n\nIt takes a few minutes to install Seldon on a Kubernetes cluster. Visit our [install guide](http:\u002F\u002Fdocs.seldon.io\u002Finstall.html) and read our [tech docs](http:\u002F\u002Fdocs.seldon.io).\n\n## Community & Support\n\n* Join the [Seldon Users Group](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fseldon-users).\n* [Register for our newsletter](http:\u002F\u002Feepurl.com\u002F6X6n1) to be the first to receive updates about our products and events.\n* Visit [our website](https:\u002F\u002Fwww.seldon.io\u002F), follow [@seldon_io](https:\u002F\u002Ftwitter.com\u002Fseldon_io) on Twitter and like [our Facebook page](https:\u002F\u002Fwww.facebook.com\u002Fseldonhq\u002F).\n* If you're in London, meet us at [TensorFlow London](https:\u002F\u002Fwww.meetup.com\u002FTensorFlow-London\u002F) - a community of over 1200 data scientists that we co-organise.\n* We also offer [commercial support plans and managed services](https:\u002F\u002Fwww.seldon.io\u002Fenterprise\u002F).\n\n## License\nSeldon is available under [Apache Licence, Version 2.0](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fblob\u002Fmaster\u002FREADME.md)\n","# **2018年1月更新**\n\n * [Seldon Core 开源](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core)。 \n    * Seldon Core 专注于在 Kubernetes 上部署各种机器学习模型，允许在生产环境中管理复杂的运行时服务图。Seldon Core 是 Seldon-Server 项目目标的延续，但其侧重点更加明确，即解决机器学习项目中的最后一步——在生产环境中部署和提供模型服务。请访问[项目页面](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core)，其中包含丰富的文档，供您进一步了解。\n\n\n\n# Seldon Server：* * 已归档 * *\n\n**本项目已不再积极维护，请参阅** [Seldon Core](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core)。\n\nSeldon Server 是一个机器学习平台，可帮助您的数据科学团队将模型部署到生产环境。\n\n它提供了一个开源的数据科学栈，可在 [Kubernetes](http:\u002F\u002Fkubernetes.io\u002F) 集群中运行。您可以使用 Seldon 将机器学习和深度学习模型部署到本地或云端的生产环境中（例如 [GCP](http:\u002F\u002Fdocs.seldon.io\u002Fkubernetes-google-cloud.html)、AWS、Azure）。\n\nSeldon 支持使用 TensorFlow、Keras、Vowpal Wabbit、XGBoost、Gensim 以及其他任何模型构建工具训练的模型——甚至支持那些可以导出模型的商业工具和服务所构建的模型。\n\n它包含一个具有两个关键端点的 API：\n\n1.  **[预测](http:\u002F\u002Fdocs.seldon.io\u002Fprediction-guide.html)** - 使用容器和 [微服务](http:\u002F\u002Fdocs.seldon.io\u002Fapi-microservices.html)，大规模构建并部署由任何机器学习库或框架创建的监督学习模型。\n2.  **[推荐](http:\u002F\u002Fdocs.seldon.io\u002Fcontent-recommendation-guide.html)** - 高性能的基于用户行为和内容的推荐引擎，内置多种算法，开箱即用。\n\n其他功能包括：\n\n- 复杂动态的 [算法配置与组合](http:\u002F\u002Fdocs.seldon.io\u002Fadvanced-recommender-config.html)，无需停机：进行 A\u002FB 测试和多变量测试，级联算法并创建集成模型。\n- 命令行界面 ([CLI](http:\u002F\u002Fdocs.seldon.io\u002Fseldon-cli.html))，用于配置和管理 Seldon Server。\n- 安全的 OAuth 2.0 REST 和 [gRPC](http:\u002F\u002Fdocs.seldon.io\u002Fgrpc.html) API，以简化与您的数据和应用程序的集成。\n- 基于 Kafka Streams、Fluentd 和 InfluxDB 构建的 Grafana 仪表板，用于 [实时分析](http:\u002F\u002Fdocs.seldon.io\u002Fanalytics.html)。\n\nSeldon 被世界上一些最具创新性的组织所采用——它是初创企业的理想机器学习部署平台，并且能够扩展以满足大型企业的需求。\n\n## 开始使用\n\n在 Kubernetes 集群上安装 Seldon 只需几分钟。请访问我们的 [安装指南](http:\u002F\u002Fdocs.seldon.io\u002Finstall.html) 并阅读我们的 [技术文档](http:\u002F\u002Fdocs.seldon.io)。\n\n## 社区与支持\n\n* 加入 [Seldon 用户组](https:\u002F\u002Fgroups.google.com\u002Fforum\u002F#!forum\u002Fseldon-users)。\n* [注册我们的新闻通讯](http:\u002F\u002Feepurl.com\u002F6X6n1)，第一时间获取有关我们产品和活动的最新信息。\n* 访问 [我们的官网](https:\u002F\u002Fwww.seldon.io\u002F)、关注 Twitter 上的 [@seldon_io](https:\u002F\u002Ftwitter.com\u002Fseldon_io) 并点赞 [我们的 Facebook 页面](https:\u002F\u002Fwww.facebook.com\u002Fseldonhq\u002F)。\n* 如果您在伦敦，欢迎参加 [TensorFlow London](https:\u002F\u002Fwww.meetup.com\u002FTensorFlow-London\u002F) 活动——这是一个由我们共同组织的、拥有超过 1200 名数据科学家的社区。\n* 我们还提供 [商业支持计划和托管服务](https:\u002F\u002Fwww.seldon.io\u002Fenterprise\u002F)。\n\n## 许可证\nSeldon 根据 [Apache 许可证 2.0 版](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fblob\u002Fmaster\u002FREADME.md) 提供。","# Seldon Server 快速上手指南\n\n> **⚠️ 重要提示**：本项目（Seldon Server）已归档，不再积极维护。官方推荐迁移至其继任项目 **[Seldon Core](https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-core)**，后者专注于在 Kubernetes 上部署各类机器学习模型。本指南仅作为历史版本参考或旧系统维护使用。\n\nSeldon Server 是一个运行在 Kubernetes 集群上的开源机器学习平台，支持将 TensorFlow、Keras、XGBoost 等框架训练的模型部署为生产级微服务，提供预测（Predict）和推荐（Recommend）两大核心功能。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **操作系统**：Linux (Ubuntu\u002FCentOS) 或 macOS。\n*   **Kubernetes 集群**：需要一个正在运行的 Kubernetes 集群 (v1.6+)。\n    *   本地开发推荐使用 [Minikube](https:\u002F\u002Fkubernetes.io\u002Fdocs\u002Ftasks\u002Ftools\u002Finstall-minikube\u002F)。\n    *   云端支持 GCP (Google Cloud Platform), AWS, Azure 等。\n*   **命令行工具**：\n    *   `kubectl`：已配置并连接到您的集群。\n    *   `helm` (可选但推荐)：用于简化包管理（视具体安装方式而定）。\n    *   `docker`：用于构建和推送自定义模型镜像。\n*   **网络要求**：集群节点需能访问 Docker Hub 以拉取 Seldon 基础镜像。\n    *   *国内加速建议*：若拉取镜像缓慢，请配置 Docker 国内镜像加速器（如阿里云、腾讯云、中科大源），或在 `daemon.json` 中配置 `registry-mirrors`。\n\n## 安装步骤\n\nSeldon Server 的安装主要通过向 Kubernetes 集群部署资源文件完成。以下是基于官方文档的快速安装流程：\n\n1.  **克隆仓库或获取资源文件**\n    您可以直接应用官方提供的 Kubernetes 配置文件。\n\n2.  **部署 Seldon Server**\n    使用 `kubectl` 应用核心配置。以下命令将创建必要的命名空间、服务账户及核心组件：\n\n    ```bash\n    kubectl create namespace seldon-system\n    kubectl apply -f https:\u002F\u002Fraw.githubusercontent.com\u002FSeldonIO\u002Fseldon-server\u002Fmaster\u002Fkube\u002Fconfig\u002Fseldon.yaml\n    ```\n\n    *注：如果上述链接失效（因项目归档），请下载对应版本的 `seldon.yaml` 文件到本地后执行 `kubectl apply -f seldon.yaml`。*\n\n3.  **验证安装状态**\n    等待所有 Pod 运行就绪：\n\n    ```bash\n    kubectl get pods -n seldon-system\n    ```\n\n    当所有状态显示为 `Running` 时，表示安装成功。\n\n4.  **安装 CLI 工具 (可选)**\n    为了方便管理，建议安装 Seldon 命令行工具：\n\n    ```bash\n    pip install seldon-cli\n    ```\n\n## 基本使用\n\n安装完成后，您可以通过部署一个示例模型来测试预测功能。以下是一个最简单的使用流程，演示如何部署一个预训练的模型并发起预测请求。\n\n### 1. 部署示例模型\n\nSeldon 提供了多种示例模型。这里以部署一个简单的逻辑回归模型为例。创建一个名为 `model.json` 的配置文件中，定义模型参数（此处假设使用内置示例镜像）：\n\n```json\n{\n  \"kind\": \"Deployment\",\n  \"apiVersion\": \"apps\u002Fv1\",\n  \"metadata\": {\n    \"name\": \"my-model\"\n  },\n  \"spec\": {\n    \"replicas\": 1,\n    \"selector\": {\n      \"matchLabels\": {\n        \"app\": \"my-model\"\n      }\n    },\n    \"template\": {\n      \"metadata\": {\n        \"labels\": {\n          \"app\": \"my-model\"\n        }\n      },\n      \"spec\": {\n        \"containers\": [\n          {\n            \"image\": \"seldonio\u002Fmock_classifier:1.0\",\n            \"name\": \"classifier\"\n          }\n        ]\n      }\n    }\n  }\n}\n```\n\n应用该配置到集群：\n\n```bash\nkubectl apply -f model.json\n```\n\n或者使用 Seldon CLI (如果已安装) 进行更高级的部署管理：\n\n```bash\nseldon-cli setup --namespace default\nseldon-cli create --model-name my-model --image seldonio\u002Fmock_classifier:1.0\n```\n\n### 2. 暴露服务\n\n为了从集群外部访问模型，需要暴露服务。可以使用 `kubectl port-forward` 进行本地测试：\n\n```bash\nkubectl port-forward svc\u002Fmy-model 8080:8080\n```\n\n### 3. 发送预测请求\n\n使用 `curl` 向预测端点发送 JSON 数据。Seldon 的 Predict API 通常接收包含数据的 JSON 负载。\n\n```bash\ncurl -X POST http:\u002F\u002Flocalhost:8080\u002Fapi\u002F0.1\u002Fpredictions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"data\": {\n      \"names\": [\"a\", \"b\"],\n      \"ndarray\": [[1.0, 2.0]]\n    }\n  }'\n```\n\n**预期响应**：\n如果部署成功，您将收到包含预测概率或类别的 JSON 响应，例如：\n\n```json\n{\n  \"meta\": {\n    \"puid\": \"example-uuid\",\n    \"tags\": {},\n    \"routing\": {},\n    \"requestPath\": {}\n  },\n  \"data\": {\n    \"names\": [\"proba\"],\n    \"ndarray\": [[0.15, 0.85]]\n  }\n}\n```\n\n至此，您已成功在 Kubernetes 上运行 Seldon Server 并完成了第一次模型预测。对于更复杂的推荐系统配置、A\u002FB 测试或多模型编排，请参考官方遗留文档中的 Advanced Recommender Config 部分。","某大型电商平台的算法团队正致力于将多个实验性的商品推荐模型（基于 TensorFlow 和 XGBoost 构建）部署到生产环境，以实时提升用户的点击转化率。\n\n### 没有 seldon-server 时\n- **部署流程繁琐**：数据科学家需手动编写 Dockerfile 和 Kubernetes 配置文件，每次更新模型都耗时数小时，且容易因环境差异导致“在我机器上能跑”的问题。\n- **缺乏灵活测试机制**：想要对比新模型与旧模型的效果（A\u002FB 测试），需要运维人员介入修改路由规则，无法动态调整流量比例，导致实验周期长达数周。\n- **监控盲区**：模型上线后缺乏统一的实时监控面板，无法即时获取预测延迟、请求量或异常错误率，往往等到用户投诉才发现服务故障。\n- **算法组合困难**：试图将多个推荐算法串联成级联策略或集成学习方案时，代码耦合度极高，修改任一环节都需要重新构建整个服务镜像。\n\n### 使用 seldon-server 后\n- **一键标准化部署**：团队只需定义简单的 JSON 配置，seldon-server 即可自动在 Kubernetes 集群中容器化部署各类框架模型，将上线时间从小时级缩短至分钟级。\n- **动态实验管理**：通过内置 API 可零停机动态调整 A\u002FB 测试的流量权重，甚至实时切换多变量测试策略，让算法迭代验证效率提升十倍。\n- **全链路实时洞察**：集成的 Grafana 仪表盘结合 Kafka 与 InfluxDB，实时展示预测性能指标与业务数据，帮助团队在秒级内发现并定位服务瓶颈。\n- **复杂策略编排**：利用其原生支持的算法级联与合奏功能，无需重写代码即可灵活组合多个推荐引擎，轻松实现复杂的业务逻辑编排。\n\nseldon-server 将原本割裂的模型开发与运维环节无缝衔接，让企业能够以低成本、高可靠性实现机器学习模型的规模化生产落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSeldonIO_seldon-server_f6acb3d1.png","SeldonIO","Seldon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSeldonIO_17a4841a.png","Machine Learning Deployment for Kubernetes",null,"hello@seldon.io","https:\u002F\u002Fseldon.io","https:\u002F\u002Fgithub.com\u002FSeldonIO",[82,86,90,94,98,102,106,110,114],{"name":83,"color":84,"percentage":85},"Java","#b07219",59.1,{"name":87,"color":88,"percentage":89},"Python","#3572A5",18.3,{"name":91,"color":92,"percentage":93},"Scala","#c22d40",11.6,{"name":95,"color":96,"percentage":97},"Shell","#89e051",3.8,{"name":99,"color":100,"percentage":101},"Jupyter Notebook","#DA5B0B",3.4,{"name":103,"color":104,"percentage":105},"Makefile","#427819",1.7,{"name":107,"color":108,"percentage":109},"JavaScript","#f1e05a",1.5,{"name":111,"color":112,"percentage":113},"Dockerfile","#384d54",0.5,{"name":115,"color":116,"percentage":117},"Ruby","#701516",0,1479,299,"2026-04-14T18:09:16","Apache-2.0",5,"Linux, macOS, Windows","未说明",{"notes":126,"python":124,"dependencies":127},"该项目已于 2018 年归档，不再积极维护，官方建议迁移至 Seldon Core。Seldon Server 本身是一个运行在 Kubernetes 集群内的平台，支持本地或云端（如 GCP, AWS, Azure）部署。它不直接依赖特定的操作系统，而是依赖 Kubernetes 环境。支持多种机器学习框架构建的模型，但 README 中未列出具体的 Python 版本、GPU 或内存硬性需求。",[128,129,130,131,132,133,134,135,136,137],"Kubernetes","TensorFlow","Keras","Vowpal Wabbit","XGBoost","Gensim","Kafka Streams","Fluentd","InfluxDB","Grafana",[14],[140,141,142,143,144,145,146,147,148,149,150,151,152,153,154,155,156,157,158,159],"machine-learning","deep-learning","deployment","kubernetes","docker","microservices","spark","kafka","kafka-streams","tensorflow","python","java","cloud","aws","gcp","azure","seldon","recommender-system","recommendation-engine","prediction","2026-03-27T02:49:30.150509","2026-04-19T03:05:55.836511",[163,168,173,178,183,188,192,196],{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},41394,"运行 seldon-cli 时出现 'Connection time-out' 或 Zookeeper 连接错误怎么办？","这通常是因为 Zookeeper 服务器未运行或状态信息未更新。可以尝试以下两种解决方案：\n1. 执行 `seldon-down.sh` 然后执行 `seldon-up.sh` 来重置整个系统。\n2. 尝试运行 `seldon-cli client --action zk_push`，然后重启 seldon-server Pod。","https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fissues\u002F21",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},41395,"使用 kubectl create 导入数据时提示 'API version batch\u002Fv1 isn't supported' 错误如何解决？","该错误通常是因为 Kubernetes 集群版本较旧，不支持 'batch\u002Fv1' API 版本。请检查您的 Kubernetes 版本，如果版本较低，可能需要升级集群或使用兼容该版本的 Job 定义文件（例如使用 'extensions\u002Fv1beta1'）。确保使用的配置文件与当前集群的 API 版本匹配。","https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fissues\u002F18",{"id":174,"question_zh":175,"answer_zh":176,"source_url":177},41396,"运行 seldon-up.sh 后 MySQL Pod 状态一直显示为 'Pending' 是什么原因？","这通常是由于节点资源不足导致的，特别是内存不足。即使宿主机有空闲内存，Kubernetes 节点可能因为预留资源或其他 Pod 占用而无法调度。请运行 `kubectl get events` 查看具体报错（如 'Insufficient memory'），并尝试增加 Minikube 或集群节点的内存分配，或者减少其他负载。","https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fissues\u002F27",{"id":179,"question_zh":180,"answer_zh":181,"source_url":182},41397,"运行 seldon-cli 时出现 'expected exec POD_NAME COMMAND' 错误，是否支持 kubectl 1.6+ 版本？","这是 kubectl 1.6+ 版本中 `exec` 命令参数格式变化引起的兼容性问题。Seldon 的脚本可能使用了旧的调用方式。建议将 `kubernetes\u002Fbin` 目录下的 `seldon-cli` 添加到 PATH 环境变量中，因为它内部会调用 seldon-control Pod 中运行的兼容版本的 cli，而不是直接使用宿主机的 kubectl exec 格式。","https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fissues\u002F52",{"id":184,"question_zh":185,"answer_zh":186,"source_url":187},41398,"启动微服务时遇到 Python 语法错误（SyntaxError: Missing parentheses in call to 'print'）怎么办？","这表明脚本是用 Python 2 语法编写的，但您正在使用 Python 3 解释器运行它（Python 3 要求 print 使用括号）。请确保使用 Python 2.7 环境来运行 `start-microservice` 脚本，或者检查项目文档确认是否已有针对 Python 3 的分支或更新版本。","https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fissues\u002F53",{"id":189,"question_zh":190,"answer_zh":191,"source_url":187},41399,"seldon-up 启动后部分 Pod 状态长期处于 'ContainerCreating' 或 'Pending' 如何排查？","需要对有问题的 Pod 进行详细诊断。请使用命令 `kubectl describe pod \u003Cpod-name>` 查看具体事件和错误信息。输出中的 'Events' 部分通常会明确指出失败原因，例如镜像拉取失败、资源不足、卷挂载错误或调度失败等，根据具体提示进行修复。",{"id":193,"question_zh":194,"answer_zh":195,"source_url":172},41400,"如何在 Seldon 集群中配置和使用 GlusterFS 作为存储后端？","要在 Seldon 中使用 GlusterFS，首先需确保已正确安装 GlusterFS。然后，在 Seldon 源码的 `Makefile` 中，取消注释 `DATA_VOLUME=\"glusterfs\"` 这一行。完成修改后重新构建和部署集群，Seldon 将会把数据持久化到 GlusterFS 卷上。",{"id":197,"question_zh":198,"answer_zh":199,"source_url":182},41401,"运行大型数据集（如 ml10m）导入任务时 Pod 被驱逐（Evicted）或杀死（Killing）怎么办？","这通常是因为节点资源耗尽，特别是磁盘空间（nodefs）或内存不足。错误信息 'The node was low on resource: nodefs' 表明磁盘空间不足。请清理节点上的无用文件或日志，扩大磁盘容量，或者尝试先运行较小的数据集（如 ml100k）测试流程是否正常。",[201,206,211,216,221,226,231,236,241,246,251,256,261,266,271,276,281,285,290,295],{"id":202,"version":203,"summary_zh":204,"released_at":205},333369,"v1.4.10","维护版本。\n修复了 OAuth REST API 的问题。","2017-11-01T11:40:17",{"id":207,"version":208,"summary_zh":209,"released_at":210},333370,"v1.4.9","维护版本。 \r\n已修复 seldon-control 容器的问题。","2017-10-24T10:12:09",{"id":212,"version":213,"summary_zh":214,"released_at":215},333371,"v1.4.8","这是一个维护版本。\n- 包含对 seldon-cli 的改进合并请求\n- 更新至最新的 Tomcat 和 Hadoop 版本\n","2017-10-20T10:39:24",{"id":217,"version":218,"summary_zh":219,"released_at":220},333372,"v1.4.7","错误修复版本。更新“seldon-cli client --action processactions”命令，使其使用 Spark 内存设置。","2017-06-29T09:59:49",{"id":222,"version":223,"summary_zh":224,"released_at":225},333373,"v1.4.6","维护版本更新\n\n * 为核心服务设置了 Kubernetes 默认的内存请求和限制\n * 更新了 GlusterFS 持久卷声明，使其兼容 Kubernetes 1.6\n * 可通过 Luigi 和 seldon-cli 设置 Spark Driver 和 Executor 的内存\n * 简化了 Kafka 流处理，用于仪表板上的 API 统计","2017-06-22T07:11:18",{"id":227,"version":228,"summary_zh":229,"released_at":230},333374,"v1.4.5","* Google Cloud 入口控制器，用于通过外部 IP 实现 TLS 安全通信，访问 Google 容器平台上运行的 Seldon API\n* 更新了 Kafka Streams 分析功能，使用 Kafka\u002FKafka Streams 0.10.2.1 版本，并以 Kubernetes Deployment 方式运行\n* 修复了若干小 bug\n","2017-05-22T15:24:21",{"id":232,"version":233,"summary_zh":234,"released_at":235},333375,"v1.4.4","**产品命名更新**  \nSeldon 目前的开源平台已更名为 Seldon Core，以便我们将开源机器学习部署平台与我们正在开发的新产品区分开来。我们很快会分享更多相关信息，并将联系本群组以招募测试用户。\n\nSeldon Core 1.4.4 包含多项更新：\n\n  * 使用 Persistent Volume Claims 对 Kubernetes 持久化存储卷进行抽象化。修复了 issue #50。\n  * 所有组件均以 Kubernetes Deployment 的形式运行。修复了 issue #49。\n  * 初步支持在 Kubernetes 外部运行 [外部 Google MySQL](http:\u002F\u002Fdocs.seldon.io\u002Finstall.html#mysql) 数据库服务器的 Beta 功能。\n  * 更新了用于描述机器学习流水线和内置算法的 [Luigi 配置](http:\u002F\u002Fdocs.seldon.io\u002Fcontent-recommendation-guide.html#model)。\n\n感谢 @colemickens 提交了上述两个问题！","2017-05-04T17:11:08",{"id":237,"version":238,"summary_zh":239,"released_at":240},333376,"v1.4.3","Kubernetes 配置的修复版本","2017-04-06T14:38:09",{"id":242,"version":243,"summary_zh":244,"released_at":245},333377,"v1.4.2","维护版本。\n异常检测演示的文档已更新，Docker 中的 Python 库已修复。","2017-03-28T16:30:21",{"id":247,"version":248,"summary_zh":249,"released_at":250},333378,"v1.4.1","维护版本，包含对[内置推荐算法](http:\u002F\u002Fdocs.seldon.io\u002Fcontent-recommendation-models.html)的更新。\n[异常检测]的初始代码（位于：https:\u002F\u002Fgithub.com\u002FSeldonIO\u002Fseldon-server\u002Fblob\u002Fmaster\u002Fpython\u002Fseldon\u002Fanomaly\u002FAnomalyDetection.py）。\n","2017-03-27T07:32:52",{"id":252,"version":253,"summary_zh":254,"released_at":255},333379,"v1.4","This release contains a gRPC interface for prediction calls to complement the REST APIs.\nDetails can be found [here](http:\u002F\u002Fdocs.seldon.io\u002Fgrpc.html) along with a [benchmarking test](http:\u002F\u002Fdocs.seldon.io\u002Fbenchmark-prediction.html).\n\nThis release contains a breaking change in the prediction [REST](http:\u002F\u002Fdocs.seldon.io\u002Fapi-oauth-prediction.html) and [JS](http:\u002F\u002Fdocs.seldon.io\u002Fapi-javascript-prediction.html) API calls for the format to pass in data.\n\nThere are also changes to the [seldon scripts](http:\u002F\u002Fdocs.seldon.io\u002Fscripts.html) including a new script to start REST and RPC microservices and one to start locust load tests.\n","2016-12-19T13:43:18",{"id":257,"version":258,"summary_zh":259,"released_at":260},333380,"v1.3.11","- bug fix release for Flask microservices\n- scikit example for iris datatset\n","2016-10-06T15:54:05",{"id":262,"version":263,"summary_zh":264,"released_at":265},333381,"v1.3.10","- Adds initial A\u002FB testing for prediction endpoint.\n- Bug fixes for Luigi item-similarity job\n","2016-10-03T14:12:51",{"id":267,"version":268,"summary_zh":269,"released_at":270},333382,"v1.3.9","- Added new demo: digits recogniser based on tensorflow’s tutorial \"deep MNIST for experts\"\n- seldon-cli updates\n","2016-09-21T12:11:44",{"id":272,"version":273,"summary_zh":274,"released_at":275},333383,"v1.3.8","A minor release adding a static recommender that pulls precomputed recommendations from a DB.\n","2016-08-01T10:27:48",{"id":277,"version":278,"summary_zh":279,"released_at":280},333384,"v1.3.7","This a maintenance release\n","2016-07-27T16:41:16",{"id":282,"version":283,"summary_zh":279,"released_at":284},333385,"v1.3.6","2016-07-13T16:29:07",{"id":286,"version":287,"summary_zh":288,"released_at":289},333386,"v1.3.5","Updates to allow use with Kubernetes [minikube](https:\u002F\u002Fgithub.com\u002Fkubernetes\u002Fminikube) for local testing\n","2016-07-06T10:40:46",{"id":291,"version":292,"summary_zh":293,"released_at":294},333387,"v1.3.4","- New sentiment prediction demo\n- Easier modification of resources and settings for Tomcat, Mysql for benchmarking\n","2016-06-20T09:15:02",{"id":296,"version":297,"summary_zh":298,"released_at":299},333388,"v1.3.3","- Updated analytics jobs using Kafka Streams\n- New [Movielens 10 Million Demo](http:\u002F\u002Fdocs.seldon.io\u002Fml10m.html)\n- Guide to [benchmarking Seldon](http:\u002F\u002Fdocs.seldon.io\u002Fbenchmark-guide.html) with load testing for production deployment\n\nFor more information please read our [1.3.3 release blog post](http:\u002F\u002Fwww.seldon.io\u002F2016\u002F06\u002F17\u002Fseldon-1-3-3-released-kafka-streams\u002F).\n","2016-06-14T13:03:04"]