aiwechat-vercel
aiwechat-vercel 是一款专为微信公众号打造的 AI 机器人开源项目,旨在让开发者无需购买服务器或进行繁琐的域名备案,即可低成本地将大模型对话能力接入公众号。它利用 Vercel 的 Serverless Functions 和 KV Redis 数据库,解决了传统部署方式门槛高、成本贵以及国内网络访问受限等痛点。
该项目非常适合具备基础开发能力的个人开发者、技术爱好者或希望快速验证 AI 应用场景的小团队使用。其核心亮点在于“零服务器”架构:用户只需绑定一个未备案的域名到 Vercel,配置好环境变量,即可在几分钟内完成部署。aiwechat-vercel 不仅支持 GPT、讯飞星火、通义千问、Gemini 等多种主流 AI 模型的一键切换,还内置了连续对话记忆(基于 Redis)、自定义指令系统(如切换模型、设置提示词、关键词回复)以及图片处理等功能。此外,项目针对微信平台的字数限制和超时问题提供了专门的优化方案,确保交互流畅。对于想要低成本体验 AI 与社交生态结合的开发者和研究者来说,这是一个极具参考价值的轻量级解决方案。
使用场景
某独立开发者运营着一个分享技术教程的微信公众号,希望为粉丝提供实时的代码答疑和资料检索服务,但受限于预算和技术架构,难以部署稳定的后端服务。
没有 aiwechat-vercel 时
- 服务器成本高昂:为了运行 AI 对话逻辑,必须购买并维护云服务器,每月产生固定支出,且需应对流量波动。
- 开发部署复杂:需要自行搭建 WebSocket 或轮询机制来处理微信消息转发,配置域名备案繁琐,耗时数周才能上线。
- 无法记忆上下文:简单的脚本无法保存用户历史对话,导致每次提问都被视为新会话,AI 无法进行连续的技术指导。
- 模型切换困难:若想尝试星火或通义千问等不同大模型,需要修改大量底层代码并重新编译部署,灵活性极差。
使用 aiwechat-vercel 后
- 实现零成本运营:利用 Vercel Functions 和无服务器架构,无需购买服务器,仅需绑定免备案域名即可免费运行,彻底消除资金压力。
- 分钟级快速上线:通过 Fork 项目并配置环境变量,几分钟内即可完成从 Redis 连接到微信后台服务器的全流程部署。
- 原生支持连续对话:内置 Redis 存储方案,自动保留 30 分钟内的对话记忆,让 AI 能像真人专家一样理解上下文并进行多轮代码调试。
- 指令灵活切换模型:用户在公众号内发送
/spark或/qwen等指令即可实时切换底层大模型,无需任何代码改动或重新部署。
aiwechat-vercel 将复杂的 AI 微信机器人开发简化为纯配置工作,让个人开发者也能以零成本拥有具备长期记忆和多模型能力的智能助手。
运行环境要求
无需本地 GPU,基于 Vercel Serverless 函数运行
无需本地内存,依赖 Vercel 运行时环境

快速开始
aiwechat-vercel
使用vercel的functions,将ai功能加入微信公众号

介绍
无需服务器,门槛低,只需一个可以绑定到vercel的域名(无需备案)即可,基本0成本
快速开始
提前到Vercel创建Redis数据库
- Dashboard--Storage--Create--KV Redis

- Dashboard--Storage--Create--KV Redis
Fork本Github项目,到Vercel点击构建,环境变量填写参数
在vercel该项目详情页面的Storage选择连接前面创建的redis数据库
- 数据库链接成功后,Vercel会自动配置KV_URL环境变量
数据库配置详情
图片步骤:
更多配置config
GPT_TOKEN=sk-*** 你的gpt token
GPT_URL=https://xxx/v1 代理gpt服务器(选填,默认openai官网api 例如https://api.openai.com/v1)
gptModel=gpt-3.5-turbo gpt模型(选填,默认gpt-3.5-turbo)
WX_TOKEN=*** 微信公众号开发平台设置的token
botType=** 机器人类型 目前支持(gpt,echo,spark,qwen,gemini)例如botType=gpt
如何检查是否配置成功
部署后访问 vercel提供的域名/api/check 页面返回check ok即可
到域名提供商,域名增加cname解析到cname-china.vercel-dns.com
到vercel的该项目添加自定义域名(使用国内网络在访问你的域名/api/check看看能否访问)
微信公众号配置:
微信公众号。微信公众平台后台管理页面上找到
设置与开发-基本配置-服务器配置,修改服务器地址url为https://你的域名/api/wx消息加解密选择明文模式(后续添加支持加密)
录制了一期简单的视频教程供参考b站
也有大佬写了自己在cloudflare部署的教程discussions
功能支持
- 支持接入gpt,星火,通义千问,gemini
- 超时回复(go协程很好用)
- 支持连续问答(只需要在vercel创建一个redis实例,在本项目下的Storage设置连接即可,vercel会自动配置KV_URL环境变量,默认记忆对话30分钟内的内容)
- 隐藏功能 你的域名/api/chat?msg=你的问题 (仅用于测试是否配置gpt成功,也可用作于简单的接口api,中文乱码问题已修复)
- 检查配置:你的域名/api/check (显示当前bot的配置信息是否正确)
- 支持图床功能,即发送图片给公众号,返回图片url
- 被关注自定义回复
- 支持设置system prompt
- 支持指令
指令支持
/help:查看帮助
/gpt:切换与GPT对话
/spark:切换与星火对话
/qwen:切换与通义千问对话
/gemini:切换与gemini对话
/prompt: 你的prompt: 设置system prompt
/getpt: 获取当前设置prompt
/cpt: 清除当前设置prompt
/setmodel model_name:设置当前bot使用的模型
/setmodel:重置当前bot的模型为默认值
/getmodel:获取当前bot自定义的模型名
/clear:清除对话列表
/keyword:切换到关键词回复模式
/ai:切换到AI对话模式
/addkeyword 关键词:回复内容:添加关键词
/delkeyword 关键词:删除关键词
/listkeywords:查看关键词列表
有其它想要支持的指令欢迎提issue或者pr (例如查看天气啥的)
后续计划添加指令
- /fy: 翻译文本
- /wec: 查看天气
- todolist管理: /ta: 添加待办事项 /td: 删除待办事项 /tl: 查看待办事项列表
后续
- 支持国内大部分可以白嫖的ai 如星火(已支持,感谢大佬pr),通义千问(已支持,感谢大佬pr)等(有想要添加的可以提个issue)
- 增加指令控制(已支持),增加管理员设置
- 关键词自定义回复
- 支持限制问答次数
- 支持企业微信群机器人
- todolist功能,用户可以在机器人管理待办事件
- 查看股票和币价
杂念
项目起因:偶然看到网上有人使用vercel实现了,但是功能比较单一,看了一下文档,支持go所以就想自己开发下,支持接入多一点ai和自定义功能,项目仅供学习参考 也欢迎各位大佬pr,来个免费的star
问题汇总
- 为啥要使用域名? 答: vercel提供的域名国内被墙了,微信无法访问
- 为啥有时候可以回复,有时候没有回复?答: 微信公众号限制答复500多字,超过回复会失败,可以增加限制字数的提示词解决。还有一个原因是答复太久,接口超时了免费版vercel的functions限制接口10s
- 域名需要备案吗?答:不需要,另外也可以在cloudflare托管域名(白嫖一些2级域名,托管上去,可以达到0成本)
- 我的是订阅号支持吗?答:无论是公众号还是订阅号,自动回复都是一个机制,所以都支持
- 发送信息返回错误error, status code: 403, message: invalid character '<' looking for beginning of value怎么回事?答:检查GPT_URL是不是漏了/v1或者cf开了盾,墙之类的
- 支持接入deepseek吗?答:支持,不过有一点要注意deepseek支持的模型为deepseek-coder,deepseek-chat要正常使用,需要改gptModel为这两个模型之一
- 修改环境变量后,还是不成功?答:在修改环境变量后要重新部署下配置才后生效,因为vercel原来的实例没有被销毁读取的还是未修改的环境变量。建议每次修改环境变量后手动重新部署一下
- 微信字数限制如何解决?答:已经有大佬提pr了,可以通过设置最大token解决,设置环境变量maxOutput即可,一般设置到500,回答没有完整可以和ai说继续即可,pr详情pr
更多功能探讨discussions
Star History

项目灵感来源
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
