recurrentjs
RecurrentJS 是一个基于 JavaScript 的深度学习库,专注于实现深度循环神经网络(RNN)和长短期记忆网络(LSTM)。它主要解决了在浏览器或 Node.js 环境中直接构建、训练序列模型的需求,让开发者无需依赖 Python 后端即可处理文本生成、字符预测等任务。
这款工具非常适合前端开发者、教育者以及希望快速原型验证算法的研究人员使用。其核心亮点在于不仅限于预置的 RNN/LSTM 结构,更提供了一个通用的“表达式图”机制,支持任意神经网络的构建与自动微分(自动反向传播)。这一特性类似于 Python 生态中的 Theano 或 Torch,但完全运行在 JavaScript 环境中。通过简单的 API,用户可以定义矩阵运算、构建计算图并自动计算梯度,从而灵活地定制各种神经网络架构。此外,RecurrentJS 还内置了求解器和正则化功能,帮助用户轻松完成模型训练与参数更新,是探索序列数据和理解深度学习原理的轻量级利器。
使用场景
某前端团队希望在浏览器端直接运行一个能根据用户输入实时预测下一个字符的轻量级文本生成模型,以提供流畅的即时写作辅助功能。
没有 recurrentjs 时
- 依赖重型后端:必须将用户输入发送至服务器进行推理,导致网络延迟高,无法实现真正的“零延迟”交互体验。
- 缺乏自动微分支持:若需在浏览器内进行在线微调或增量学习,开发者需手动推导并编写复杂的反向传播公式,极易出错且维护成本极高。
- 技术栈割裂:为了使用成熟的 Python 深度学习框架(如 TensorFlow 或 PyTorch),被迫搭建额外的后端服务,增加了架构复杂度和部署成本。
- 定制灵活性差:难以在 JavaScript 环境中灵活构建非标准的循环神经网络结构或自定义损失函数,限制了实验创新的空间。
使用 recurrentjs 后
- 纯前端即时推理:利用 recurrentjs 直接在浏览器中构建 LSTM 网络,消除了网络往返延迟,让用户感受到丝滑的实时字符预测效果。
- 内置自动微分引擎:借助其类似 Theano 的表达式图机制,自动处理梯度计算与反向传播,让开发者只需关注模型逻辑而非数学推导细节。
- 全栈 JavaScript 统一:无需引入 Python 后端,整个训练与推理流程均在 Node.js 或浏览器中完成,大幅简化了技术栈和运维流程。
- 高度可定制的图结构:通过底层的 Graph 和 Mat 类,可以轻松构建任意复杂的神经网络的表达式图,快速验证针对特定文本任务的创新模型结构。
recurrentjs 通过将强大的深度循环神经网络与自动微分能力带入 JavaScript 生态,让开发者能在轻量级前端环境中高效实现复杂的序列建模任务。
运行环境要求
未说明
未说明

快速开始
RecurrentJS
RecurrentJS 是一个 JavaScript 库,实现了以下功能:
- 深度 循环神经网络(RNN)
- 长短期记忆网络(LSTM)
- 实际上,该库更加通用,因为它具备构建任意 表达式图 的功能,并且可以在这些图上执行 自动微分,类似于 Python 中的 Theano 或 Torch 等工具。目前,代码利用这一通用功能实现了 RNN/LSTM,但用户也可以构建任意神经网络并进行自动反向传播。
在线演示
下面提供了一个在线演示,用于记忆字符序列。输入数据是句子,网络被训练来预测句子中的下一个字符。因此,它们可以从零开始逐字符地学习英语,并在经过一定训练后生成全新的句子,有时甚至能说得通 :)
示例代码
该库的核心是一个 Graph 结构,它维护矩阵之间的连接关系以及它们通过变换相互关联的方式。另一个重要的组成部分是 Mat 类,它表示一个二维的 N x D 矩阵,其值存储在 .w 字段中,导数存储在 .dw 字段中。以下是如何实现一个简单的神经网络层:
var W = new R.RandMat(10, 4); // 权重矩阵
var x = new R.RandMat(4, 1); // 随机输入矩阵
var b = new R.RandMat(10, 1); // 偏置向量
// 矩阵乘法后加上偏置。h 是一个 Mat
var G = new R.Graph();
var h = G.add(G.mul(W, x), b);
// Graph 结构会跟踪各个 Mat 之间的连接关系
// 现在我们可以为 h 设置损失
h.dw[0] = 1.0; // 假设我们希望第一个值更低
// 将所有梯度从 h 开始,沿着图反向传播到 W、x 和 b
// 即为 W、x 和 b 的 .dw 字段设置梯度
G.backward();
// 对 W 和 b 进行参数更新:
var s = new R.Solver(); // Solver 使用 RMSProp 算法
// 更新 W 和 b,学习率为 0.01,正则化强度为 0.0001,并将梯度大小限制在 5.0 以内
var model = {'W':W, 'b':b};
s.step(model, 0.01, 0.0001, 5.0)
例如,要构建并训练一个 LSTM,可以按照以下步骤进行:
// 输入为 10x1 的矩阵,包含两层隐藏层,每层 20 个神经元,输出为 2x1 的矩阵
var hidden_sizes = [20, 20];
var lstm_model = R.initLSTM(10, hidden_sizes, 2);
var x1 = new R.RandMat(10, 1); // 示例输入 #1
var x2 = new R.RandMat(10, 1); // 示例输入 #2
var x3 = new R.RandMat(10, 1); // 示例输入 #3
// 将三个示例输入传递给 LSTM
var G = new R.Graph();
var out1 = R.forwardLSTM(G, lstm_model, hidden_sizes, x1, {});
var out2 = R.forwardLSTM(G, lstm_model, hidden_sizes, x2, out1);
var out3 = R.forwardLSTM(G, lstm_model, hidden_sizes, x3, out2);
// 字段 .o 包含输出矩阵:
// 例如,x1.o 是一个 2x1 的矩阵
// 假设我们有一个二分类问题
// LSTM 的输出是两个类别的对数概率。首先计算概率:
var prob1 = R.softmax(out1.o);
var target1 = 0; // 假设第一个输入属于类别 0
cost += -Math.log(probs.w[ix_target]); // softmax 损失函数
// softmax 的交叉熵损失就是概率本身:
out1.dw = prob1.w;
// 但正确类别的概率还要减去 1:
out1.dw[ix_target] -= 1;
// 在实际应用中,你可能需要为每个输入指定目标类别,因此需要依次为每个输入设置 .dw 损失。在提供的示例演示中,我们正在预测输入句子中下一个字母的索引。
// 更新 LSTM 参数
G.backward();
var s = new R.Solver();
// 使用 RMSProp 算法进行更新,步长为 0.01,
// L2 正则化为 0.00001,
// 并将梯度按元素限制在 5.0 以内
s.step(lstm_model, 0.01, 0.00001, 5.0);
你会注意到,Softmax 等操作尚未很好地集成到库中,因此你需要理解反向传播的过程。我很快会修复这个问题。
警告:测试版
这段代码运行良好,但还有一些粗糙的地方——如果你想要使用它,必须对神经网络有深入的理解,而且代码的模块化程度还不够高。不过,我认为现在还是应该先公开代码,以后再进一步完善。因为即使在当前状态下,它也可能对那些想尝试训练这些模型或学习相关知识的人有所帮助。
许可证
MIT
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备