[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-robusta-dev--kubernetes-chatgpt-bot":3,"tool-robusta-dev--kubernetes-chatgpt-bot":65},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,26,14,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":10,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,"2026-04-18T11:00:28",[26,51,52,53,14,54,15,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,51,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":81,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":103,"github_topics":104,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":143},9337,"robusta-dev\u002Fkubernetes-chatgpt-bot","kubernetes-chatgpt-bot","A ChatGPT bot for Kubernetes issues.","kubernetes-chatgpt-bot 是一款专为 Kubernetes 运维设计的智能助手，旨在利用人工智能技术自动化解决集群监控警报问题。当 Prometheus 检测到异常（如 Pod 崩溃或资源不足）时，该工具能自动接收警报，调用 OpenAI 大模型分析故障原因，并在 Slack 等协作平台中直接提供简洁的修复建议。\n\n它主要解决了开发者和运维人员在面对复杂集群警报时“孤军奋战”的痛点，无需手动查阅海量文档或日志，即可快速获得针对性的排查思路，显著缩短故障响应时间。这款工具特别适合负责 Kubernetes 集群维护的 DevOps 工程师、SRE（站点可靠性工程师）以及后端开发人员使用。\n\n其核心技术亮点在于基于开源平台 Robusta 构建，通过 Webhook 无缝集成现有的 Prometheus 告警流程。用户只需简单配置 Helm 图表并填入 API 密钥，即可为所有警报一键添加\"Ask ChatGPT\"交互按钮。此外，项目规划了未来结合 Pod 日志和事件数据以提供更精准诊断的能力。需要注意的是，该项目目前已停止更新，官方建议用户迁移至其升级版产品 Holm","kubernetes-chatgpt-bot 是一款专为 Kubernetes 运维设计的智能助手，旨在利用人工智能技术自动化解决集群监控警报问题。当 Prometheus 检测到异常（如 Pod 崩溃或资源不足）时，该工具能自动接收警报，调用 OpenAI 大模型分析故障原因，并在 Slack 等协作平台中直接提供简洁的修复建议。\n\n它主要解决了开发者和运维人员在面对复杂集群警报时“孤军奋战”的痛点，无需手动查阅海量文档或日志，即可快速获得针对性的排查思路，显著缩短故障响应时间。这款工具特别适合负责 Kubernetes 集群维护的 DevOps 工程师、SRE（站点可靠性工程师）以及后端开发人员使用。\n\n其核心技术亮点在于基于开源平台 Robusta 构建，通过 Webhook 无缝集成现有的 Prometheus 告警流程。用户只需简单配置 Helm 图表并填入 API 密钥，即可为所有警报一键添加\"Ask ChatGPT\"交互按钮。此外，项目规划了未来结合 Pod 日志和事件数据以提供更精准诊断的能力。需要注意的是，该项目目前已停止更新，官方建议用户迁移至其升级版产品 HolmesGPT 以获取更强大的 DevOps 辅助功能。"," ## 🚨The Kubernetes ChatGPT Bot project will be deprecated and replaced by [HolmesGPT](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt), our advanced Open Source DevOps assistant. With Holmes you can investigate incidents, triage issues, enrich alerts and much more. Check it out [https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt)\n\n# Introduction\n\nA ChatGPT[^1] bot for Kubernetes issues. Ask the AI how to solve your Prometheus alerts, get pithy responses.\n\nNo more solving alerts alone in the darkness - the internet has your back.\n\n\u003Ca href=\"https:\u002F\u002Fwww.loom.com\u002Fshare\u002F0f9db7b7013d46b0ac3afc590103a095\">\n    \u003Cimg style=\"max-width:300px;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frobusta-dev_kubernetes-chatgpt-bot_readme_cb745a9038da.gif\">\n  \u003C\u002Fa>\n  \nPlease consider upvoting on [Product Hunt](https:\u002F\u002Fwww.producthunt.com\u002Fposts\u002Fkubernetes-chatgpt-bot) or sending to your favorite newsletter. One day, Skynet will remember your kindness and spare you!\n\n# How it works\nPrometheus forwards alerts to the bot using a webhook receiver.\n\nThe bot sends a query to OpenAI, asking it how to fix your alerts.\n\nYou stockpile food in your pantry for the robot uprising.\n\nThe bot is implemented using [Robusta.dev](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Frobusta), an open source platform for responding to Kubernetes alerts. We also have a SaaS platform for [multi-cluster Kubernetes observability](https:\u002F\u002Fhome.robusta.dev\u002F).\n\n# Prerequisites\n* A Slack workspace\n\n# Setup\n1. [Install Robusta with Helm](https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002Finstallation.html)\n2. Load the ChatGPT playbook. Add the following to `generated_values.yaml`: \n```\nplaybookRepos:\n  chatgpt_robusta_actions:\n    url: \"https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot.git\"\n\ncustomPlaybooks:\n# Add the 'Ask ChatGPT' button to all Prometheus alerts\n- triggers:\n  - on_prometheus_alert: {}\n  actions:\n  - chat_gpt_enricher: {}\n```\n\n3. Add your [OpenAI API key](https:\u002F\u002Fbeta.openai.com\u002Faccount\u002Fapi-keys) to `generated_values.yaml`. Make sure you edit the existing `globalConfig` section, don't add a duplicate section.\n\n```\nglobalConfig:\n  chat_gpt_token: YOUR KEY GOES HERE\n```\n\n4. Do a Helm upgrade to apply the new values: `helm upgrade robusta robusta\u002Frobusta --values=generated_values.yaml --set clusterName=\u003CYOUR_CLUSTER_NAME>`\n\n5. [Send your Prometheus alerts to Robusta](https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002Fuser-guide\u002Falert-manager.html). Alternatively, just use Robusta's bundled Prometheus stack.\n\n# Demo\nInstead of waiting around for a Prometheus alert, lets cause one.\n\n1. Deploy a broken pod that will be stuck in pending state:\n\n```\nkubectl apply -f https:\u002F\u002Fraw.githubusercontent.com\u002Frobusta-dev\u002Fkubernetes-demos\u002Fmain\u002Fpending_pods\u002Fpending_pod_node_selector.yaml\n```\n\n2. Trigger a Prometheus alert immediately, skipping the normal delays:\n\n```\nrobusta playbooks trigger prometheus_alert alert_name=KubePodCrashLooping namespace=default pod_name=example-pod\n```\n\nAn alert will arrive in Slack with a button. Click the button to ask ChatGPT about the alert.\n\n# Future Improvements\nCan ChatGPT give better answers if you feed it pod logs or the output of `kubectl get events`?\n\n[Robusta](http:\u002F\u002Frobusta.dev) already collects this data and attaches it to Prometheus alerts, so it should be easy to add. \n\nPRs are welcome!\n\n# Community\n[Share your funniest output and suggest new features on our Slack.](https:\u002F\u002Fhome.robusta.dev\u002Fslack)\n\n# Promotional Images\nFeel free to use the following image or create your own.\n\n![Screen Shot 2023-01-10 at 18 29 56](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frobusta-dev_kubernetes-chatgpt-bot_readme_26e71b6f49f8.png)\n\n# More Resources\n* [Natan tests ChatGPT on production Kubernetes alerts](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RVK6jb4Ssuo)\n* [Natan Yellin and Sid Palas go over the code on YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jMR8M3Xqlzg\n) - relevant part starts at 38:54\n\n[^1]: Technically this project doesn't use ChatGPT. It uses the `text-davinci-003` model which is a [GPT3.5-based sibling of ChatGPT](https:\u002F\u002Fmatt-rickard.ghost.io\u002Fgpt-lineage\u002F). Given that most people are familiar with ChatGPT, but not `text-davinci-003` or GPT3.5, we've decided to keep the name \"ChatGPT bot\" despite the technical inaccuracy.\n","## 🚨Kubernetes ChatGPT 机器人项目将被弃用，并由我们的先进开源 DevOps 助手 [HolmesGPT](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt) 取代。使用 Holmes，您可以调查事件、对问题进行分类优先级排序、丰富告警信息等等。快去看看吧：[https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt)\n\n# 简介\n\n一款用于处理 Kubernetes 问题的 ChatGPT[^1] 机器人。向 AI 咨询如何解决您的 Prometheus 告警，获取简洁明了的回答。\n\n再也不用独自在黑暗中解决告警了——互联网会帮您！\n\n\u003Ca href=\"https:\u002F\u002Fwww.loom.com\u002Fshare\u002F0f9db7b7013d46b0ac3afc590103a095\">\n    \u003Cimg style=\"max-width:300px;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frobusta-dev_kubernetes-chatgpt-bot_readme_cb745a9038da.gif\">\n  \u003C\u002Fa>\n  \n如果您喜欢这个项目，请在 [Product Hunt](https:\u002F\u002Fwww.producthunt.com\u002Fposts\u002Fkubernetes-chatgpt-bot) 上为它点赞，或者分享给您最喜欢的新闻通讯。总有一天，天网会记住您的善意，并饶恕您！\n\n# 工作原理\n\nPrometheus 通过 Webhook 接收器将告警转发给机器人。\n\n机器人向 OpenAI 发送查询，询问如何修复您的告警。\n\n与此同时，您可以在家中储备食物，以备机器人大起义之需。\n\n该机器人基于 [Robusta.dev](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Frobusta) 构建，这是一个用于响应 Kubernetes 告警的开源平台。我们还提供面向 [多集群 Kubernetes 可观测性](https:\u002F\u002Fhome.robusta.dev\u002F) 的 SaaS 平台。\n\n# 先决条件\n* 一个 Slack 工作区\n\n# 部署步骤\n1. 使用 Helm 安装 Robusta：[安装文档](https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002Finstallation.html)\n2. 加载 ChatGPT playbook。在 `generated_values.yaml` 中添加以下内容：\n```\nplaybookRepos:\n  chatgpt_robusta_actions:\n    url: \"https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot.git\"\n\ncustomPlaybooks:\n# 为所有 Prometheus 告警添加“Ask ChatGPT”按钮\n- triggers:\n  - on_prometheus_alert: {}\n  actions:\n  - chat_gpt_enricher: {}\n```\n\n3. 将您的 [OpenAI API 密钥](https:\u002F\u002Fbeta.openai.com\u002Faccount\u002Fapi-keys) 添加到 `generated_values.yaml` 文件中。请确保编辑现有的 `globalConfig` 部分，不要添加重复的部分。\n```\nglobalConfig:\n  chat_gpt_token: 您的密钥放在这里\n```\n\n4. 执行 Helm 升级以应用新配置：`helm upgrade robusta robusta\u002Frobusta --values=generated_values.yaml --set clusterName=\u003CYOUR_CLUSTER_NAME>`\n\n5. [将您的 Prometheus 告警发送到 Robusta](https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002Fuser-guide\u002Falert-manager.html)。或者直接使用 Robusta 自带的 Prometheus 堆栈。\n\n# 示例演示\n与其等待 Prometheus 告警触发，不如我们手动制造一个告警。\n\n1. 部署一个处于 Pending 状态的故障 Pod：\n\n```\nkubectl apply -f https:\u002F\u002Fraw.githubusercontent.com\u002Frobusta-dev\u002Fkubernetes-demos\u002Fmain\u002Fpending_pods\u002Fpending_pod_node_selector.yaml\n```\n\n2. 跳过正常延迟，立即触发一个 Prometheus 告警：\n\n```\nrobusta playbooks trigger prometheus_alert alert_name=KubePodCrashLooping namespace=default pod_name=example-pod\n```\n\nSlack 中会收到一条带有按钮的告警消息。点击按钮即可向 ChatGPT 提问关于该告警的问题。\n\n# 未来改进方向\n如果将 Pod 日志或 `kubectl get events` 的输出输入给 ChatGPT，它能否给出更优质的解答呢？\n\n[Robusta](http:\u002F\u002Frobusta.dev) 已经收集这些数据并将其附加到 Prometheus 告警中，因此集成起来应该并不困难。欢迎提交 PR！\n\n# 社区交流\n[在我们的 Slack 群组分享您遇到的有趣回复，并提出新功能建议。](https:\u002F\u002Fhome.robusta.dev\u002Fslack)\n\n# 宣传图片\n您可以自由使用以下图片，也可以自行创作。\n\n![Screen Shot 2023-01-10 at 18 29 56](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frobusta-dev_kubernetes-chatgpt-bot_readme_26e71b6f49f8.png)\n\n# 更多资源\n* [Natan 在生产环境的 Kubernetes 告警上测试 ChatGPT](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=RVK6jb4Ssuo)\n* [Natan Yellin 和 Sid Palas 在 YouTube 上讲解代码](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=jMR8M3Xqlzg) - 相关部分从 38 分 54 秒开始\n[^1]: 从技术上讲，本项目并未使用 ChatGPT，而是采用了 `text-davinci-003` 模型，它是基于 GPT3.5 的 ChatGPT 兄弟模型。由于大多数人熟悉 ChatGPT，却不太了解 `text-davinci-003` 或 GPT3.5，因此尽管名称存在技术上的不准确，我们仍决定沿用“ChatGPT 机器人”这一称呼。","# Kubernetes ChatGPT Bot 快速上手指南\n\n> **⚠️ 重要提示**：本项目已停止维护，官方推荐使用其继任者 [HolmesGPT](https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fholmesgpt)。以下指南仅适用于希望体验旧版本功能的用户。\n\nKubernetes ChatGPT Bot 是一个基于 Robusta 平台的开源工具，它能将 Prometheus 告警自动发送给 AI（OpenAI），并在 Slack 中提供故障排查建议。\n\n## 环境准备\n\n在开始之前，请确保满足以下前置条件：\n\n*   **Kubernetes 集群**：拥有一个可正常运行的 K8s 集群。\n*   **Slack 工作区**：需要一个 Slack  workspace 用于接收告警和交互。\n*   **OpenAI API Key**：拥有有效的 OpenAI API 密钥（需具备访问 `text-davinci-003` 或兼容模型的权限）。\n*   **Helm**：本地已安装 Helm 包管理工具。\n*   **kubectl**：已配置好与集群的连接。\n\n## 安装步骤\n\n### 1. 安装 Robusta 基础平台\n首先通过 Helm 安装 Robusta 核心组件：\n\n```bash\nhelm repo add robusta https:\u002F\u002Fcharts.robusta.dev\nhelm repo update\nhelm install robusta robusta\u002Frobusta --namespace robusta --create-namespace\n```\n\n### 2. 配置 ChatGPT Playbook\n创建或编辑 `generated_values.yaml` 文件，添加 ChatGPT 插件仓库及触发规则。这将使所有 Prometheus 告警附带\"Ask ChatGPT\"按钮。\n\n```yaml\nplaybookRepos:\n  chatgpt_robusta_actions:\n    url: \"https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot.git\"\n\ncustomPlaybooks:\n# Add the 'Ask ChatGPT' button to all Prometheus alerts\n- triggers:\n  - on_prometheus_alert: {}\n  actions:\n  - chat_gpt_enricher: {}\n```\n\n### 3. 配置 OpenAI 密钥\n在同一个 `generated_values.yaml` 文件中，找到或添加 `globalConfig` 部分，填入你的 API Key：\n\n```yaml\nglobalConfig:\n  chat_gpt_token: YOUR KEY GOES HERE\n```\n*注意：请确保不要重复定义 `globalConfig` 段落。*\n\n### 4. 升级部署\n应用配置文件并升级 Robusta 部署（请将 `\u003CYOUR_CLUSTER_NAME>` 替换为你的集群名称）：\n\n```bash\nhelm upgrade robusta robusta\u002Frobusta --values=generated_values.yaml --set clusterName=\u003CYOUR_CLUSTER_NAME> -n robusta\n```\n\n### 5. 配置 Prometheus 告警转发\n将 Prometheus Alertmanager 配置为将告警发送至 Robusta。\n*   **方式 A**：参考 [Robusta 官方文档](https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002Fuser-guide\u002Falert-manager.html) 配置现有的 Alertmanager。\n*   **方式 B**：直接使用 Robusta 自带的 Prometheus 监控栈（如果安装时已启用）。\n\n## 基本使用\n\n安装完成后，你可以通过手动触发一个测试告警来验证功能。\n\n### 1. 部署一个故障 Pod\n部署一个因节点选择器不匹配而处于 `Pending` 状态的 Pod，以模拟故障：\n\n```bash\nkubectl apply -f https:\u002F\u002Fraw.githubusercontent.com\u002Frobusta-dev\u002Fkubernetes-demos\u002Fmain\u002Fpending_pods\u002Fpending_pod_node_selector.yaml\n```\n\n### 2. 手动触发告警\n使用 Robusta CLI 立即触发一个 Prometheus 告警（跳过正常的等待时间）：\n\n```bash\nrobusta playbooks trigger prometheus_alert alert_name=KubePodCrashLooping namespace=default pod_name=example-pod\n```\n\n### 3. 获取 AI 建议\n1.  前往你的 **Slack** 频道，你会收到一条关于该告警的消息。\n2.  消息中包含一个 **\"Ask ChatGPT\"** 按钮。\n3.  点击按钮，机器人将向 OpenAI 发送查询，并返回针对该告警的修复建议。","某电商平台的运维团队在深夜收到 Prometheus 发出的\"KubePodCrashLooping\"警报，显示核心支付服务的 Pod 陷入重启循环，急需定位根因。\n\n### 没有 kubernetes-chatgpt-bot 时\n- 值班工程师需在睡梦中惊醒，手动登录集群执行 `kubectl describe` 和 `logs` 命令抓取碎片化信息。\n- 面对晦涩的错误日志，工程师不得不中断排查思路，切换浏览器去搜索引擎或技术论坛寻找类似案例。\n- 在缺乏上下文的情况下，难以快速判断是代码缺陷、资源不足还是配置错误，导致平均修复时间（MTTR）长达数小时。\n- 初级工程师因经验不足不敢独自决策，必须电话摇人等待资深专家上线支援，加剧了故障响应延迟。\n\n### 使用 kubernetes-chatgpt-bot 后\n- Prometheus 警报直接推送到 Slack，kubernetes-chatgpt-bot 自动关联 Pod 日志与事件，并在消息卡片中生成“询问 ChatGPT\"按钮。\n- 点击按钮后，工具立即将完整的故障上下文发送给 AI，秒级返回针对该特定错误的根因分析及修复建议。\n- 输出结果不仅指出具体配置错误（如节点选择器不匹配），还提供可执行的 `kubectl` 修正命令，无需人工二次检索。\n- 即使是初级工程师也能依据清晰的指引独立解决复杂问题，大幅降低对资深专家的依赖，实现全天候自动化辅助。\n\nkubernetes-chatgpt-bot 通过将 AI 深度集成到告警工作流，把原本耗时的“人工搜索 + 经验判断”过程转化为秒级的智能决策闭环。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frobusta-dev_kubernetes-chatgpt-bot_26e71b6f.png","robusta-dev","Robusta","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frobusta-dev_15805727.png","Open source Kubernetes troubleshooting and automation platform",null,"https:\u002F\u002Fdocs.robusta.dev\u002Fmaster\u002F","https:\u002F\u002Fgithub.com\u002Frobusta-dev",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,919,98,"2026-04-10T16:55:57",4,"","未说明",{"notes":96,"python":94,"dependencies":97},"该项目已弃用，建议迁移至 HolmesGPT。运行需依赖 Kubernetes 集群、Slack 工作空间及 Prometheus 告警系统。通过 Helm 安装 Robusta 平台，并配置 OpenAI API Key。无需本地 GPU 或特定 Python 环境，核心逻辑在集群内以容器方式运行。",[98,99,100,101,102],"Robusta.dev","Helm","Kubernetes","Prometheus","Slack",[15],[105,106,107,108,109],"chatbot","chatgpt","kubernetes","prometheus","slack","2026-03-27T02:49:30.150509","2026-04-19T09:15:05.643159",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},41889,"配置后点击\"Ask ChatGPT\"按钮没有响应怎么办？","首先，请在 `generated_values.yaml` 文件中确认 `disableCloudRouting` 设置为 `false`（这是默认值）。其次，如果报错提示 Robusta 无法自动检测到 Prometheus 服务，您需要手动在配置文件中指定 Prometheus URL，示例如下：\n```yaml\nglobalConfig:\n  prometheus_url: http:\u002F\u002Fmy-prometheus-cluster-dns....\n```","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F24",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},41890,"Slack 中能看到\"Ask ChatGPT\"按钮但收不到回复，可能是什么原因？","最常见的原因是 OpenAI API 配额已用尽。请检查 Robusta Runner 的日志，如果看到类似 `error_message='You exceeded your current quota, please check your plan and billing details.'` 的错误信息，说明需要更换有效的 API Key 或升级账户配额。","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F21",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},41891,"安装后 Pod 处于 Pending 状态，提示缺少 PersistentVolume (PV) 如何解决？","如果您使用 `kubeadm` 部署 Kubernetes 集群，系统不会自动创建动态存储卷。您需要手动创建 PersistentVolume (PV) 来匹配已生成的 PersistentVolumeClaim (PVC)。例如，为 Alertmanager 创建 PV 的配置如下：\n```yaml\napiVersion: v1\nkind: PersistentVolume\nmetadata:\n  name: alertmanager-robusta-kube-prometheus-st-alertmanager-db\n  labels:\n    alertmanager: robusta-kube-prometheus-st-alertmanager\nspec:\n  capacity:\n    storage: 10Gi\n  accessModes:\n    - ReadWriteOnce\n  persistentVolumeReclaimPolicy: Retain\n  hostPath:\n    path: \u002Fmnt\u002Fdata\u002Falertmanager\n```\n请根据实际报错的 PVC 名称创建对应的 PV。","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F10",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},41892,"配置完成后 Slack 中不显示\"Ask Chat GPT\"按钮怎么办？","请检查您的自定义 Playbook 配置是否正确添加到了 `generated_values.yaml` 中。确保包含以下两部分内容以启用 ChatGPT 增强功能：\n1. 在 `playbookRepos` 中添加仓库地址。\n2. 在 `customPlaybooks` 中定义触发器和动作，示例如下：\n```yaml\nplaybookRepos:\n  chatgpt_robusta_actions:\n    url: \"https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot.git\"\ncustomPlaybooks:\n- triggers:\n  - on_prometheus_alert: {}\n  actions:\n  - chat_gpt_enricher: {}\n```","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F14",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},41893,"Robusta Runner 启动时报错 `'utf-8' codec can't decode bytes` 如何处理？","该错误通常与配置中的编码问题或损坏的密钥文件有关。虽然具体案例中用户通过加入社区 Slack 频道解决了问题，但建议首先检查 `generated_values.yaml` 中的 `signing_key`、`token` 或其他敏感字段是否包含非法字符或复制时引入了不可见字符。确保所有配置项均符合 UTF-8 编码规范。","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F13",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},41894,"该工具使用的是 ChatGPT (GPT-4) 还是 GPT-3？","该工具通过 OpenAI API 调用模型。具体使用的模型版本取决于您在配置中提供的 API Key 所对应的权限以及代码中的默认设置。早期版本主要基于 GPT-3，但如果您的 API Key 支持 GPT-4 且在配置或代码中指定了相应模型，也可以使用更高级的模型。建议查阅官方文档或更新到最新版本以获取对最新模型的支持。","https:\u002F\u002Fgithub.com\u002Frobusta-dev\u002Fkubernetes-chatgpt-bot\u002Fissues\u002F3",[]]