ChatGPT-Plugins-Collection
ChatGPT-Plugins-Collection 是一个由社区驱动的非官方开源项目,旨在汇集各种编程语言的 ChatGPT 插件实现代码。它主要解决了开发者在尝试为 ChatGPT 构建自定义功能时缺乏多样化参考示例和起步模板的痛点。通过提供从 Python、JavaScript 到 Julia 等多种语言的实战案例,该项目让不同技术背景的开发者都能快速找到适合自己技术栈的插件开发思路。
无论是希望扩展 AI 能力的后端工程师,还是想要探索大模型应用边界的研究人员,都能从中获益。项目中包含了如 NotesGPT(笔记管理)、TodoGPT(待办事项)以及 AnimalGPT(虚拟动物园管理)等丰富示例,展示了如何让 AI 具备创建、检索、更新和删除数据的能力。其独特的技术亮点在于“语言无关性”,不仅涵盖了主流的 Web 框架如 FastAPI 和 Express.js,还纳入了较少见的 HTTP.jl 等实现,极大地拓宽了插件开发的可行性边界。如果你正计划为 ChatGPT 添加专属技能,这里提供了一个极佳的起点,帮助你低成本验证想法并加速开发进程。请注意,由于这是社区维护的资源,使用时需自行评估代码安全性。
使用场景
一位全栈开发者希望为团队内部的知识库系统快速集成一个能自然语言交互的待办事项管理功能,以替代繁琐的传统表单操作。
没有 ChatGPT-Plugins-Collection 时
- 重复造轮子耗时:开发者需从零编写后端 API、设计数据库 schema 并处理用户鉴权逻辑,仅基础功能就需耗费数天时间。
- 多语言适配困难:若团队部分成员习惯使用 Julia 或 JavaScript 进行开发,缺乏现成的跨语言插件模板,导致技术栈统一成本高。
- 交互体验割裂:用户必须在聊天窗口和独立的待办应用间频繁切换,无法通过自然语言直接指令(如“帮我添加下周会议提醒”)完成任务。
- 维护负担重:自行开发的插件缺乏社区验证,遇到边界情况(如并发冲突、数据持久化)时需独自排查,稳定性难以保障。
使用 ChatGPT-Plugins-Collection 后
- 极速落地功能:直接复用仓库中成熟的 TodoGPT 插件代码(支持 Python/JS/Julia 等多版本),仅需修改少量配置即可在几小时内上线可用服务。
- 灵活技术选型:团队可根据现有架构自由选择对应语言的实现版本(如后端用 FastAPI 或 Express.js),无需强制转换技术栈。
- 无缝自然交互:用户直接在对话中输入“删除明天下午的任务”,ChatGPT 自动调用插件接口完成操作,实现“所说即所得”的流畅体验。
- 社区赋能稳定:基于经过社区测试的代码框架,继承了已有的错误处理机制和用户隔离逻辑,显著降低运维风险。
ChatGPT-Plugins-Collection 让开发者从繁琐的基础设施构建中解放出来,专注于业务逻辑创新,真正实现了 AI 能力的“即插即用”。
运行环境要求
未说明
未说明

快速开始
ChatGPT 插件合集 ⭐️(非官方)
一个用于 ChatGPT 的非官方插件集合,支持任意编程语言!请注意:这不是 OpenAI 或 ChatGPT 官方相关的仓库。这是一个由社区维护的资源库。请自行承担使用此处代码的风险。
提交插件 🫵 🔌
请在相应语言的文件夹下为插件创建一个新的子文件夹,并放入所有相关代码。如果能添加一个 README.md 文件,详细介绍插件及其开发过程,将获得额外加分。
示例 👀 😯:
| 插件名称 | 描述 | 语言 | 框架 |
|---|---|---|---|
| NotesGPT | 一个允许用户创建、检索和删除笔记的插件。每条笔记都与特定用户关联。 | Python | Quart |
| TodoGPT | 一个允许用户添加、检索和删除待办事项的插件。每个待办事项都与特定用户关联。 | Python | Quart |
| AnimalGPT | 一个允许用户在虚拟动物园中创建、检索、更新和删除动物的插件。每只动物都与特定用户关联。 | Julia | HTTP.jl |
| SquareGPT | 一个计算给定数字平方的插件。 | Julia | HTTP.jl |
| secretMessage | 一个作为 ChatGPT 插件的 FastAPI 应用程序,用于返回一条秘密消息。 | Python | FastAPI |
| TodoGPT | 一个允许用户添加、检索和删除待办事项的插件。每个待办事项都与特定用户关联。 | JavaScript | Express.js |
| TodoGPT | 一个允许用户添加、检索和删除待办事项的插件。每个待办事项都与特定用户关联。 | Julia | HTTP.jl |
更多内容即将推出!
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。