getting-started
getting-started 是专为 Wechaty 框架打造的开箱即用入门模板,旨在帮助开发者零门槛启动聊天机器人项目。Wechaty 本身是一款强大的对话式 RPA(机器人流程自动化)SDK,支持微信、企业微信、WhatsApp 等多种即时通讯平台,但初学者往往受困于复杂的环境配置。getting-started 完美解决了这一痛点,它预置了标准的项目结构,确保在 Linux、Mac 或 Windows 系统上无需额外调整即可直接运行。
该项目特别适合刚接触 Wechaty 的开发者使用。无论是希望在本地机器快速搭建,还是倾向于使用 Gitpod、Google Cloud Shell 等云端 IDE 进行免环境部署的初学者,都能通过它迅速上手。其核心功能直观清晰:当机器人收到"ding"消息时,会自动回复"dong",帮助用户立即验证消息收发流程是否正常。
技术层面,getting-started 基于 TypeScript 和 ES Modules 构建,兼容 Node.js v16 及以上版本,并支持 Web、Pad、Windows、Mac 等多种底层协议(Puppet)。作为进入 Wechaty 生态的第一站,它让开发者能跳过繁琐的配置环节,将精力专注于业务逻辑与人工智能功能的开发,是开启智能对话机器人创作之旅的理想起点。
使用场景
某初创团队希望快速构建一个跨平台(微信、企业微信、WhatsApp)的客服自动回复机器人,以处理用户常见的“在吗”类问候。
没有 getting-started 时
- 环境配置繁琐:开发者需手动安装 Node.js、配置 TypeScript 及 ES Modules 环境,常因版本不兼容(如 v0.x 与 v1.x 混淆)导致项目无法启动。
- 多端适配困难:若要同时支持微信和 WhatsApp,需分别查找并调试不同的 Puppet 插件,缺乏统一的接入标准。
- 起步代码缺失:没有现成的“收到消息即回复”的最小可行示例,开发者需从零编写消息监听与发送逻辑,耗时耗力。
- 部署门槛高:本地开发受限于操作系统(如 Windows 下缺少某些依赖),且缺乏云端一键运行方案,团队协作效率低。
使用 getting-started 后
- 开箱即用:直接克隆项目即可在 Linux、Mac 或 Windows 上运行,内置正确的 Node.js v16+ 与 TypeScript 配置,彻底消除环境报错。
- 统一多端接口:项目原生支持 Web、Pad、Windows 等多种 Puppet,只需切换配置参数即可无缝对接微信、企业微信及 WhatsApp。
- 核心逻辑现成:内置经典的"Ding-Dong"示例代码,收到"ding"自动回复"dong",开发者可在此基础上直接扩展业务逻辑。
- 云端极速开发:支持通过 Gitpod 或 Google Cloud Shell 一键启动云端开发环境,无需本地安装任何依赖,浏览器内即可完成调试与部署。
getting-started 将原本需要数天的环境搭建与基础架构工作缩短至几分钟,让开发者能立即专注于对话逻辑与业务创新。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
Wechaty 入门 
关于 Wechaty
Wechaty 是一个面向聊天机器人开发者的对话式 RPA(机器人流程自动化)SDK(软件开发工具包)。它设计精良,API 简单易用。支持所有操作系统,包括 Linux、OSX、Win32 和 Docker,以及众多即时通讯平台,如微信、企业微信、WhatsApp、飞书、Gitter 等。
作为开发者,您可以使用 Wechaty 轻松构建自己的机器人,高效管理消息的收发、创建群聊并发送邀请、添加好友,并在用户与您的机器人之间巧妙地融入人工智能功能。
关于 Wechaty 入门项目
如果您是 Wechaty 的完全新手,那么这个项目将是您的最佳起点。您可以在几分钟内通过云端 IDE 运行它,也可以按照以下章节的说明在本地机器上进行设置。
如果您遇到困难或有任何疑问,欢迎在我们的 Discord 社区 https://discord.gg/7q8NBZbQzt 寻求帮助。
注意:当前 Wechaty 的活跃版本是 v1.x,它与大多数 v0.x 模块不兼容。
wechaty@0.x- 如果您想使用 Wechaty v0.x,请访问 Wechaty 入门 v0.x 分支。
Wechaty 入门项目的特性
- 在 Linux、Mac 或 Windows 上开箱即用。
- 支持所有客户端,如 Web、Pad、Windows 和 Mac。
- 当收到
ding消息时,会回复一条dong消息。
Wechaty 入门视频教程
以上是一个简短的演示,展示了如何使用微信、WhatsApp 和企业微信部署 ding-dong 机器人。
在云端 IDE 上运行 Wechaty 入门项目
开始使用 Wechaty 最快的方式是使用云端 IDE 来运行 Wechaty 入门项目。您可以选择 Gitpod 或 Google Cloud Shell。
如果您是完全的新手,我们推荐使用 Gitpod。
使用 Gitpod ❤️ Wechaty
Gitpod 是一个在线开源平台,用于提供自动化的、开箱即用的开发环境。您可以点击下方按钮,在 Gitpod 上访问 Wechaty 入门 ding-dong BOT 项目的完整配置。如果您之前从未使用过 Gitpod,您需要使用 GitHub 账号登录。
您可以通过我们的博客了解更多关于 Gitpod ❤️ Wechaty 的信息:无需离开浏览器即可入门:Wechaty ❤️ Gitpod,@huan,2021 年 2 月 6 日
使用 Google Cloud Shell
Google Cloud Shell 是一个可通过浏览器随时随地访问的在线开发和运维环境。您可以通过点击下方按钮在 Google Cloud Shell 上运行该项目。
由 open-in-cloud-shell 生成
打开 Google Cloud Shell 编辑器后,右侧面板中应该会有一个打开的教程,您可以按照该教程进一步了解 Wechaty。
有关在 Google Cloud Shell 上运行该项目的更多信息,请参阅我们的博客:Wechaty 的 Google Cloud Shell 教程,@huan,2021 年 2 月 20 日
在本地机器上运行 Wechaty 入门项目
前提条件
要在您的本地机器上运行该项目,您需要:
已在您的机器上安装 Node.js v16 或更高版本。您可以在终端运行
node -v命令来检查是否已安装 Node.js。如果已安装,您应该能在终端看到类似v16.13.0的版本号。您的版本可能与v16.13.0不同。如果未安装或版本低于 16,您需要按照以下链接安装最新版本:其他平台的 Node.js 可以在 https://nodejs.org/en/download/package-manager/ 找到。
如果您想使用 Web 以外的 RPA 协议,需要拥有 Wechaty Puppet Service TOKEN。
步骤 1:克隆此仓库
您需要将此仓库克隆到本地机器上,然后通过以下命令切换到 wechaty-getting-started 目录。
git clone https://github.com/wechaty/getting-started.git
cd getting-started
步骤 2:安装依赖项
您需要通过以下命令安装依赖项。
npm install
步骤 3:运行机器人
在 Linux 中可以使用 export 设置环境变量,在 Windows 中则使用 set。如果在运行此命令时遇到错误,请查看第 4 步中的故障排除提示。
Linux
export WECHATY_LOG=verbose
export WECHATY_PUPPET=wechaty-puppet-wechat
npm start
# 上述命令等同于以下命令:
# npx ts-node examples/ding-dong-bot.ts
Windows
set WECHATY_LOG=verbose
set WECHATY_PUPPET=wechaty-puppet-wechat
npm start
# 上述命令等同于以下命令:
# npx ts-node examples/ding-dong-bot.ts
现在您已经准备好了!
步骤 4:故障排除
如果您在按照上述步骤操作时遇到问题,请尝试以下方法。您也可以在我们的 gitter 聊天室 中提问。
如果您使用的是 Windows,可能还需要 windows-build-tool:
npm install windows-build-tools
使用不同的木偶
在我们的入门示例中,当未设置 WECHATY_PUPPET 时,ding-dong BOT 会使用 wechaty-puppet-wechat4u,这主要是为了方便新手使用。
默认情况下,Wechaty 会使用 Puppet Service 来登录你的机器人。你也可以使用其他 Puppet Provider,比如 WhatsApp Web 协议(wechaty-puppet-whatsapp)。
如果你想使用 Wechaty Puppet Provider 的其他协议,就需要通过设置环境变量 WECHATY_PUPPET 来指定一个木偶服务提供商名称(与它的 NPM 名称相同)。
感谢社区的大力贡献,目前有许多 Wechaty 木偶可供 Wechaty 使用。它们帮助我们支持 Web、Pad、Mac 和 Windows 等多种协议。
Wechaty 木偶
| 协议 | NPM |
|---|---|
| Puppet Service | wechaty-puppet-service |
| Whatsapp Web | wechaty-puppet-whatsapp |
| 微信 Web | wechaty-puppet-wechat |
| 微信 Pad | wechaty-puppet-padlocal |
访问我们的官网了解更多关于 Wechaty Puppet 服务提供商 的信息。
例如,如果你想使用 padlocal 木偶,你应该在运行 npm start 之前设置 WECHATY_PUPPET=wechaty-puppet-padlocal。同时,你还需要为 wechaty-puppet-padlocal 准备一个 TOKEN,并将其设置到环境变量 WECHATY_PUPPET_PADLOCAL_TOKEN 中。你可以从 这里 申请 PadLocal TOKEN。下面的代码片段展示了上述内容在 Linux/macOS 和 Windows 上的具体操作。
在 Linux / macOS 上
export WECHATY_PUPPET=wechaty-puppet-padlocal
export WECHATY_PUPPET_PADLOCAL_TOKEN='puppet_padlocal_your-token-here'
npm start
在 Windows 上
set WECHATY_PUPPET=wechaty-puppet-padlocal
set WECHATY_PUPPET_PADLOCAL_TOKEN='puppet_padlocal_your-token-here'
npm start
更多关于在 Windows 上安装 Wechaty 的信息,请参阅这篇 博客文章。
进阶教程
1. Wechaty 教程
以上是一个 10 分钟的视频教程。它使用的是 Wechaty 0.14 或更早版本,因此已经有些过时了。如果你是 Wechaty 的新手,这是一个不错的入门方式。
2. 更多示例
注意:在尝试更多示例之前,请确保你已经试用了本仓库中的 Wechaty 入门项目。
API 参考
- 官方 API 文档: https://wechaty.js.org/docs/api
更多资源
1. Docker Wechaty 入门
https://github.com/wechaty/docker-wechaty-getting-started
2. Heroku Wechaty 入门
https://github.com/wechaty/heroku-wechaty-getting-started
3. Wechaty 主页
常见问题解答
1. 我无法用我的微信账号登录
2017 年之后注册的微信账号将无法通过 Web API 登录。更多信息请参见 https://github.com/Chatie/wechaty/issues/872。
解决方案:你可以使用 Wechaty 支持的其他协议,比如 pad。更多信息请参见 https://github.com/Chatie/wechaty/issues/1296。
2. Wechaty 中的“木偶”是什么?
在 Wechaty 中,“木偶”(Puppet)是一个用于实现协议插件的抽象类。这些插件是帮助 Wechaty 控制微信的关键组件,这也是我们称之为“木偶”的原因。
插件通常命名为“PuppetXXX”,例如 PuppetWeChat 使用 Google Puppeteer 通过 Chrome 浏览器控制 微信 Web API,而 PuppetPadchat 则使用 WebSocket 协议连接到协议服务器来控制 iPad 版微信程序。更多详细信息可以参考 维基中的木偶章节。
有关 Wechaty 木偶的更多信息,请参阅我们的文档 Wechaty 木偶。
Wechaty 多语言入门
- TypeScript 版本的 Wechaty 入门
- Python 版本的 Wechaty 入门
- Go 版本的 Wechaty 入门
- Java 版本的 Wechaty 入门
- Scala 版本的 Wechaty 入门
- PHP 版本的 Wechaty 入门
- .NET(C#) 版本的 Wechaty 入门
历史
main v1.18(2022年3月14日)
添加 CQRS Wechaty 示例。
v1.11(2021年10月30日)
分支:v1.11:发布 Wechaty v1.11。
- v0.13:启用 ESM(ES 模块)支持(chatie/tsconfig#16)。
v0.8(2021年2月20日)
使用 Google Cloud Shell 快速搭建!
v0.6(2021年2月11日)
使用 Gitpod 快速搭建!
v0.0.1(2017年1月12日)
初始版本
贡献者
维护者
版权与许可
- 代码及文档 © 2018至今 Huan 和 Wechaty 贡献者
- 代码采用 Apache-2.0 许可证发布
- 文档采用知识共享许可协议发布
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。



