[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zaidmukaddam--scira-mcp-chat":3,"tool-zaidmukaddam--scira-mcp-chat":64},[4,18,26,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,2,"2026-04-10T01:20:03",[13,14,15,16],"插件","Agent","图像","开发框架","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[13,16],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":10,"last_commit_at":32,"category_tags":33,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[15,34,35,13,14,36,37,16,38],"数据工具","视频","其他","语言模型","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":17},7525,"codex","openai\u002Fcodex","Codex 是 OpenAI 推出的一款轻量级编程智能体，专为在终端环境中高效运行而设计。它允许开发者直接在命令行界面与 AI 交互，完成代码生成、调试、重构及项目维护等任务，无需频繁切换至浏览器或集成开发环境，从而显著提升了编码流程的连贯性与专注度。\n\n这款工具主要解决了传统 AI 辅助编程中上下文割裂的问题。通过将智能体本地化运行，Codex 能够更紧密地结合当前工作目录的文件结构，提供更具针对性的代码建议，同时支持以自然语言指令驱动复杂的开发操作，让“对话即编码”成为现实。\n\nCodex 非常适合习惯使用命令行的软件工程师、全栈开发者以及技术研究人员。对于追求极致效率、偏好键盘操作胜过图形界面的极客用户而言，它更是理想的结对编程伙伴。\n\n其独特亮点在于灵活的部署方式：既可作为全局命令行工具通过 npm 或 Homebrew 一键安装，也能无缝对接现有的 ChatGPT 订阅计划（如 Plus 或 Pro），直接复用账户权益。此外，它还提供了从纯文本终端到桌面应用的多形态体验，并支持基于 API 密钥的深度定制，充分满足不同场景下的开发需求。",75220,1,"2026-04-14T14:40:34",[37,14,13],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":17},6520,"openai-cookbook","openai\u002Fopenai-cookbook","openai-cookbook 是 OpenAI 官方提供的一套实用代码示例与指南合集，旨在帮助开发者快速上手并掌握 OpenAI API 的核心用法。面对大模型应用中常见的提示词工程、函数调用、数据嵌入及复杂任务编排等挑战，新手往往难以找到标准化的实现路径。openai-cookbook 通过提供经过验证的代码片段和详细教程，有效解决了“如何从零开始构建应用”以及“如何最佳实践特定功能”的痛点。\n\n这套资源主要面向软件开发者和 AI 技术研究人员，同时也适合希望深入理解大模型能力的技术爱好者。虽然示例代码主要以 Python 编写，但其背后的设计思路和技术逻辑具有通用性，可轻松迁移至其他编程语言。其独特亮点在于内容紧跟官方最新特性更新，覆盖了从基础文本生成到高级代理（Agent）构建的全场景需求，且所有示例均支持在本地环境直接运行调试。作为开源项目，它采用宽松的 MIT 许可证，鼓励社区贡献与二次开发，是学习大模型应用开发不可或缺的实战手册。",72659,"2026-04-10T21:55:21",[37,13],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":17},51,"gstack","garrytan\u002Fgstack","gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置，旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战，gstack 提供了一套标准化解决方案，帮助开发者实现堪比二十人团队的高效产出。\n\n这套配置特别适合希望提升交付效率的创始人、技术负责人，以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具，涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令（如 `\u002Freview` 进行代码审查、`\u002Fqa` 执行测试、`\u002Fplan-ceo-review` 规划功能），即可自动化处理从需求分析到部署上线的全链路任务。\n\n所有操作基于 Markdown 和斜杠命令，无需复杂配置，完全免费且遵循 MIT 协议。gstack 不仅是一套工具集，更是一种现代化的软件工厂实践，让单人开发者也能拥有严谨的工程流程。",72039,"2026-04-14T11:09:58",[14,13],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":76,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":106,"env_os":107,"env_gpu":107,"env_ram":107,"env_deps":108,"category_tags":115,"github_topics":116,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":127},7514,"zaidmukaddam\u002Fscira-mcp-chat","scira-mcp-chat","A minimalistic MCP client with a good feature set.","scira-mcp-chat 是一款基于 Model Context Protocol (MCP) 构建的开源 AI 聊天应用，旨在为开发者提供一个轻量级但功能丰富的客户端原型。它主要解决了现有 AI 工具在连接外部数据源和功能插件时配置复杂、扩展性差的问题，让用户能轻松通过标准协议接入各类 MCP 服务器，从而大幅拓展 AI 的能力边界。\n\n这款工具特别适合开发者和技术研究人员使用，尤其是那些希望快速验证 MCP 生态集成、测试不同 AI 模型与工具链交互效果的人群。借助 scira-mcp-chat，用户可以灵活切换多个 AI 提供商，并通过 HTTP 或 SSE 传输类型无缝连接远程服务（如 Composio、Zapier 或 Hugging Face 等），实时调用搜索、代码解释等高级功能。\n\n其技术亮点包括：采用 Vercel AI SDK 实现流式文本响应，支持推理模型；内置现代化的 shadcn\u002Fui 组件库与 Tailwind CSS，确保界面响应迅速且美观；基于最新的 Next.js App Router 架构开发，代码结构清晰易维护。无论是作为学习 MCP 协议的入","scira-mcp-chat 是一款基于 Model Context Protocol (MCP) 构建的开源 AI 聊天应用，旨在为开发者提供一个轻量级但功能丰富的客户端原型。它主要解决了现有 AI 工具在连接外部数据源和功能插件时配置复杂、扩展性差的问题，让用户能轻松通过标准协议接入各类 MCP 服务器，从而大幅拓展 AI 的能力边界。\n\n这款工具特别适合开发者和技术研究人员使用，尤其是那些希望快速验证 MCP 生态集成、测试不同 AI 模型与工具链交互效果的人群。借助 scira-mcp-chat，用户可以灵活切换多个 AI 提供商，并通过 HTTP 或 SSE 传输类型无缝连接远程服务（如 Composio、Zapier 或 Hugging Face 等），实时调用搜索、代码解释等高级功能。\n\n其技术亮点包括：采用 Vercel AI SDK 实现流式文本响应，支持推理模型；内置现代化的 shadcn\u002Fui 组件库与 Tailwind CSS，确保界面响应迅速且美观；基于最新的 Next.js App Router 架构开发，代码结构清晰易维护。无论是作为学习 MCP 协议的入门项目，还是作为构建自定义 AI 助手的基础框架，scira-mcp-chat 都提供了极佳的起点。","\u003Ca href=\"https:\u002F\u002Fmcp.scira.ai\">\n  \u003Ch1 align=\"center\">Scira MCP Chat\u003C\u002Fh1>\n\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  An open-source AI chatbot app powered by Model Context Protocol (MCP), built with Next.js and the AI SDK by Vercel.\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#features\">\u003Cstrong>Features\u003C\u002Fstrong>\u003C\u002Fa> •\n  \u003Ca href=\"#mcp-server-configuration\">\u003Cstrong>MCP Configuration\u003C\u002Fstrong>\u003C\u002Fa> •\n  \u003Ca href=\"#license\">\u003Cstrong>License\u003C\u002Fstrong>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cbr\u002F>\n\n## Features\n\n- Streaming text responses powered by the [AI SDK by Vercel](https:\u002F\u002Fsdk.vercel.ai\u002Fdocs), allowing multiple AI providers to be used interchangeably with just a few lines of code.\n- Full integration with [Model Context Protocol (MCP)](https:\u002F\u002Fmodelcontextprotocol.io) servers to expand available tools and capabilities.\n- HTTP and SSE transport types for connecting to various MCP tool providers.\n- Built-in tool integration for extending AI capabilities.\n- Reasoning model support.\n- [shadcn\u002Fui](https:\u002F\u002Fui.shadcn.com\u002F) components for a modern, responsive UI powered by [Tailwind CSS](https:\u002F\u002Ftailwindcss.com).\n- Built with the latest [Next.js](https:\u002F\u002Fnextjs.org) App Router.\n\n## MCP Server Configuration\n\nThis application supports connecting to Model Context Protocol (MCP) servers to access their tools. You can add and manage MCP servers through the settings icon in the chat interface.\n\n### Adding an MCP Server\n\n1. Click the settings icon (⚙️) next to the model selector in the chat interface.\n2. Enter a name for your MCP server.\n3. Select the transport type:\n   - **HTTP**: For HTTP-based remote servers\n   - **SSE (Server-Sent Events)**: For SSE-based remote servers\n\n#### HTTP or SSE Configuration\n\n1. Enter the server URL (e.g., `https:\u002F\u002Fmcp.example.com\u002Fmcp` or `https:\u002F\u002Fmcp.example.com\u002Ftoken\u002Fsse`)\n2. Click \"Add Server\"\n3. Click \"Enable Server\" to activate the server for the current chat session.\n\n### Available MCP Servers\n\nYou can use any MCP-compatible server with this application. Here are some examples:\n\n- [Composio](https:\u002F\u002Fcomposio.dev\u002Fmcp) - Provides search, code interpreter, and other tools\n- [Zapier MCP](https:\u002F\u002Fzapier.com\u002Fmcp) - Provides access to Zapier tools\n- [Hugging Face MCP](https:\u002F\u002Fhuggingface.co\u002Fmcp) - Provides tool access to Hugging Face Hub\n- Any MCP server compatible with HTTP or SSE transport\n\n## License\n\nThis project is licensed under the Apache License 2.0 - see the [LICENSE](LICENSE) file for details.","\u003Ca href=\"https:\u002F\u002Fmcp.scira.ai\">\n  \u003Ch1 align=\"center\">Scira MCP 聊天\u003C\u002Fh1>\n\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  一款由 Model Context Protocol (MCP) 驱动的开源 AI 聊天机器人应用，基于 Next.js 和 Vercel 的 AI SDK 构建。\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#features\">\u003Cstrong>功能\u003C\u002Fstrong>\u003C\u002Fa> •\n  \u003Ca href=\"#mcp-server-configuration\">\u003Cstrong>MCP 服务器配置\u003C\u002Fstrong>\u003C\u002Fa> •\n  \u003Ca href=\"#license\">\u003Cstrong>许可证\u003C\u002Fstrong>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Cbr\u002F>\n\n## 功能\n\n- 基于 [Vercel 的 AI SDK](https:\u002F\u002Fsdk.vercel.ai\u002Fdocs) 的流式文本响应，只需几行代码即可轻松切换不同的 AI 提供商。\n- 与 [Model Context Protocol (MCP)](https:\u002F\u002Fmodelcontextprotocol.io) 服务器完全集成，以扩展可用工具和功能。\n- 支持 HTTP 和 SSE 传输协议，用于连接各种 MCP 工具提供商。\n- 内置工具集成，可进一步增强 AI 能力。\n- 支持推理模型。\n- 使用 [shadcn\u002Fui](https:\u002F\u002Fui.shadcn.com\u002F) 组件，并由 [Tailwind CSS](https:\u002F\u002Ftailwindcss.com) 提供支持，打造现代化、响应式的用户界面。\n- 基于最新的 [Next.js](https:\u002F\u002Fnextjs.org) 应用程序路由构建。\n\n## MCP 服务器配置\n\n本应用支持连接到 Model Context Protocol (MCP) 服务器以访问其提供的工具。您可以通过聊天界面中的设置图标添加和管理 MCP 服务器。\n\n### 添加 MCP 服务器\n\n1. 点击聊天界面中模型选择器旁边的设置图标（⚙️）。\n2. 为您的 MCP 服务器输入一个名称。\n3. 选择传输类型：\n   - **HTTP**：适用于基于 HTTP 的远程服务器。\n   - **SSE（服务器发送事件）**：适用于基于 SSE 的远程服务器。\n\n#### HTTP 或 SSE 配置\n\n1. 输入服务器 URL（例如：`https:\u002F\u002Fmcp.example.com\u002Fmcp` 或 `https:\u002F\u002Fmcp.example.com\u002Ftoken\u002Fsse`）。\n2. 点击“添加服务器”。\n3. 点击“启用服务器”，以在当前聊天会话中激活该服务器。\n\n### 可用的 MCP 服务器\n\n您可以使用任何兼容 MCP 的服务器与本应用配合使用。以下是一些示例：\n\n- [Composio](https:\u002F\u002Fcomposio.dev\u002Fmcp) - 提供搜索、代码解释器等工具。\n- [Zapier MCP](https:\u002F\u002Fzapier.com\u002Fmcp) - 提供对 Zapier 工具的访问权限。\n- [Hugging Face MCP](https:\u002F\u002Fhuggingface.co\u002Fmcp) - 提供对 Hugging Face Hub 工具的访问权限。\n- 任何兼容 HTTP 或 SSE 传输协议的 MCP 服务器。\n\n## 许可证\n\n本项目采用 Apache License 2.0 许可证授权——详情请参阅 [LICENSE](LICENSE) 文件。","# Scira MCP Chat 快速上手指南\n\nScira MCP Chat 是一款基于 Model Context Protocol (MCP) 的开源 AI 聊天应用，采用 Next.js 和 Vercel AI SDK 构建。它支持流式响应、多种 AI 提供商切换，并能通过 HTTP 或 SSE 协议连接各类 MCP 服务器以扩展工具能力。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **Node.js**：版本 18.17 或更高（推荐使用 LTS 版本）\n*   **包管理器**：npm, yarn, pnpm 或 bun\n*   **代码编辑器**：推荐 VS Code\n\n**前置依赖检查：**\n```bash\nnode -v\nnpm -v\n```\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fscira-ai\u002Fscira-mcp-chat.git\n    cd scira-mcp-chat\n    ```\n\n2.  **安装依赖**\n    *国内开发者如遇网络延迟，可配置淘宝镜像源加速安装：*\n    ```bash\n    # 使用 npm 并指定 registry\n    npm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n    \n    # 或者如果您使用 pnpm\n    pnpm install --registry=https:\u002F\u002Fregistry.npmmirror.com\n    ```\n\n3.  **配置环境变量**\n    复制示例环境变量文件并根据需要修改（主要需配置您的 AI Provider API Key）：\n    ```bash\n    cp .env.example .env.local\n    ```\n    编辑 `.env.local` 文件，填入相应的 API 密钥（如 `OPENAI_API_KEY` 等）。\n\n4.  **启动开发服务器**\n    ```bash\n    npm run dev\n    ```\n    应用将在 `http:\u002F\u002Flocalhost:3000` 运行。\n\n## 基本使用\n\n启动应用后，您即可在浏览器中体验核心功能。以下是连接 MCP 服务器扩展能力的最简流程：\n\n1.  **进入聊天界面**\n    打开浏览器访问 `http:\u002F\u002Flocalhost:3000`，选择您想要使用的 AI 模型。\n\n2.  **添加 MCP 服务器**\n    *   点击聊天界面模型选择器旁边的 **设置图标 (⚙️)**。\n    *   输入服务器名称（例如：`Composio Tools`）。\n    *   选择传输类型：\n        *   **HTTP**：适用于基于 HTTP 的远程服务器。\n        *   **SSE (Server-Sent Events)**：适用于基于 SSE 的远程服务器。\n    *   输入服务器 URL（例如：`https:\u002F\u002Fmcp.example.com\u002Fmcp`）。\n    *   点击 **\"Add Server\"**。\n\n3.  **启用并测试**\n    *   在列表中找到刚添加的服务器，点击 **\"Enable Server\"** 以在当前会话中激活它。\n    *   现在，您可以在对话框中直接使用与该 MCP 服务器关联的工具（如搜索、代码解释器、Zapier 自动化等）。\n\n**示例场景：**\n若已启用 [Composio MCP](https:\u002F\u002Fcomposio.dev\u002Fmcp) 服务器，您可以直接询问：“帮我查询最新的科技新闻”或“运行这段 Python 代码”，AI 将自动调用后端工具执行任务并返回结果。","某全栈开发者需要在 Next.js 项目中快速集成外部数据源（如 Hugging Face 模型库）和自动化工作流（如 Zapier），同时保持代码库的轻量与灵活。\n\n### 没有 scira-mcp-chat 时\n- **开发成本高**：每次接入新工具（如搜索或代码解释器）都需要手动编写大量 API 对接代码，耗时且容易出错。\n- **供应商锁定风险**：硬编码特定 AI 提供商的逻辑，导致切换模型时需要重构核心聊天逻辑，缺乏灵活性。\n- **上下文割裂**：无法在同一个对话窗口中直接调用外部服务器工具，开发者需在多个平台间切换复制粘贴信息。\n- **界面定制困难**：缺乏现代化的 UI 组件支持，自行搭建响应式聊天界面需要额外消耗前端开发时间。\n- **流式体验缺失**：难以低成本实现打字机效果的流式文本输出，用户等待响应时体验较差。\n\n### 使用 scira-mcp-chat 后\n- **零代码集成工具**：只需在设置中输入 MCP 服务器 URL（如 Hugging Face 或 Zapier），即可立即在对话中调用其所有能力，无需编写后端胶水代码。\n- **模型自由切换**：依托 Vercel AI SDK，仅需修改几行配置即可无缝切换不同的 AI 提供商，彻底解除供应商锁定。\n- **一站式工作流**：在统一的聊天界面内直接通过 HTTP 或 SSE 协议连接远程工具，实现“提问 - 调用工具 - 获取结果”的闭环。\n- **开箱即用的现代 UI**：直接复用基于 shadcn\u002Fui 和 Tailwind CSS 构建的精美组件，瞬间拥有专业级的响应式交互界面。\n- **流畅流式响应**：内置流式传输支持，让用户实时看到 AI 的思考与生成过程，显著提升交互流畅度。\n\nscira-mcp-chat 通过标准化 MCP 协议与现代化技术栈的结合，将原本繁琐的多工具集成工作简化为分钟级的配置操作，极大提升了原型开发与日常协作效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzaidmukaddam_scira-mcp-chat_47bb5b19.png","zaidmukaddam","Zaid Mukaddam","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzaidmukaddam_e7225a6f.png","founder @ scira.ai\r\n\r\n","Scira AI","Mumbai",null,"https:\u002F\u002Fzaidmukaddam.com","https:\u002F\u002Fgithub.com\u002Fzaidmukaddam",[86,90,94,98],{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",94.7,{"name":91,"color":92,"percentage":93},"CSS","#663399",4.4,{"name":95,"color":96,"percentage":97},"Python","#3572A5",0.6,{"name":99,"color":100,"percentage":101},"JavaScript","#f1e05a",0.2,832,208,"2026-04-07T22:19:02","Apache-2.0",4,"未说明",{"notes":109,"python":107,"dependencies":110},"该项目是一个基于 Next.js 和 Vercel AI SDK 构建的 Web 应用程序，主要通过 HTTP 或 SSE 协议连接远程 MCP 服务器。README 中未提及本地运行所需的特定操作系统、GPU、内存或 Python 版本要求，通常此类项目依赖 Node.js 环境而非 Python 环境。",[111,112,113,114],"Next.js","AI SDK by Vercel","shadcn\u002Fui","Tailwind CSS",[13],[117,118,119,120,121,122,123],"anthropic","grok3","mcp","mcp-client","model-context-protocol","openai","xai","2026-03-27T02:49:30.150509","2026-04-15T06:24:49.909534",[],[]]