openreview
OpenReview 是一款由 Vercel 推出的开源 AI 代码审查机器人,旨在为开发者提供智能、自动化的 Pull Request(PR)评审服务。它主要解决了传统代码审查中人工耗时较长、反馈不及时以及基础格式错误占用精力等问题。通过简单的部署,团队即可获得一个私有的 AI 助手,在代码提交后迅速提供高质量的分析与建议。
这款工具特别适合追求高效开发流程的软件工程师、技术团队负责人以及开源项目维护者使用。其核心亮点在于“按需触发”与“沙箱执行”机制:开发者只需在 PR 评论中提及 @openreview,系统便会启动一个隔离的 Vercel 沙箱环境,完整克隆代码库并安装依赖。基于强大的 Claude 模型,OpenReview 不仅能阅读代码、运行 lint 检查和测试,还能直接生成行级修改建议甚至自动修复格式错误并提交推送。此外,它支持通过表情反应来批准或跳过建议,并允许用户自定义扩展技能。作为一个处于测试阶段的内部项目转开源工具,OpenReview 展现了将大语言模型深度集成到现代开发工作流中的巨大潜力,帮助团队更专注于核心逻辑的创新。
使用场景
某电商团队的后端工程师正在紧急修复一个支付模块的并发漏洞,并提交了包含复杂逻辑变更的 Pull Request(PR)。
没有 openreview 时
- 人工审查耗时久:资深架构师需手动拉取代码到本地,配置环境并运行测试,往往需要数小时才能给出反馈,严重阻塞合并流程。
- 静态检查覆盖不全:传统 Linter 只能发现格式错误,无法识别深层的逻辑隐患或未处理的边界情况,导致潜在 Bug 流入生产环境。
- 修复互动成本高:发现格式不规范或简单错误时,审查者只能留言指出,开发者需反复切换上下文进行修改、提交和推送,沟通效率低下。
- 环境一致性风险:不同审查者的本地环境差异可能导致“在我机器上是好的”这类问题,难以复现真实的构建失败原因。
使用 openreview 后
- 即时按需审查:开发者在 PR 评论区提及
@openreview,系统立即在隔离的 Vercel Sandbox 中克隆代码并启动基于 Claude 的智能代理,几分钟内即可输出深度报告。 - 动态执行与深度洞察:openreview 自动安装依赖并运行项目原有的测试套件和 Linter,不仅能发现语法错误,还能结合上下文分析出并发竞争等逻辑缺陷。
- 一键修复建议:针对格式错误或简单 Bug,openreview 直接生成行级代码建议块,审查者点击即可应用,甚至能自动提交修复补丁到当前分支。
- 标准化沙箱环境:所有分析均在统一的云端沙箱中执行,确保了依赖版本和运行环境的一致性,彻底消除了本地环境差异带来的干扰。
openreview 通过将耗时的手动代码审查转化为分钟级的自动化闭环,显著提升了团队的交付速度与代码质量。
运行环境要求
- 未说明
不需要本地 GPU
未说明

快速开始
OpenReview
一款开源、可自托管的 AI 代码审查机器人。部署到 Vercel,连接 GitHub 应用程序,即可获得由 Claude 提供支持的按需 PR 审查。
测试版:OpenReview 目前处于测试阶段。它最初是作为内部项目构建的,旨在帮助 Vercel 团队共同测试其技术。请做好应对不完善之处和可能破坏性变更的准备。
功能特性
- 按需审查 — 在任何 PR 评论中提及
@openreview即可触发审查。由 Chat SDK 提供支持。 - 沙盒执行 — 在具有完整仓库访问权限的隔离 Vercel Sandbox 中运行,能够执行 linter、格式化工具和测试。
- 行级建议 — 发布带有 GitHub 建议块的行级评论,支持一键修复。
- 代码更改 — 可直接修复格式问题、linter 报错及简单 Bug,并提交推送到您的 PR 分支。
- 反应功能 — 使用 👍 或 ❤️ 表示批准建议,或使用 👎 或 😕 表示跳过。
- 持久工作流 — 基于 Vercel Workflow 构建,确保可靠且可恢复的执行。
- 可扩展技能 — 内置审查 skills,并支持通过
.agents/skills/添加自定义技能。 - 由 Claude 提供支持 — 通过 AI SDK 使用 Claude Sonnet 4.6 进行高质量的代码分析。
- 简单路由处理器 — 使用 Next.js 路由处理器 轻松定义自定义 API 端点和 Webhook 的路由处理逻辑。
工作原理
sequenceDiagram
participant U as 开发者
participant GH as GitHub
participant WH as Webhook 处理器
participant WF as Vercel 工作流
participant SB as Vercel 沙盒
participant AI as Claude 代理
U->>GH: PR 评论中 @openreview
GH->>WH: Webhook 事件
WH->>WF: 启动工作流
WF->>GH: 检查推送权限
WF->>SB: 创建沙盒
SB->>SB: 克隆 PR 分支上的仓库
SB->>SB: 安装依赖
SB->>SB: 配置 git
WF->>AI: 使用 PR 上下文运行代理
AI->>SB: 读取文件、运行 linter、探索代码
SB-->>AI: 命令输出
AI->>GH: 发布行内评论与建议
AI-->>WF: 代理完成
WF->>SB: 检查是否有未提交的更改
alt 有更改
WF->>SB: 提交并推送到 PR 分支
SB->>GH: 推送更改
end
WF->>SB: 停止沙盒
U->>GH: 对建议进行 👍 或 ❤️ 反应
GH->>WH: 反应事件
WH->>WF: 启动新的工作流运行
- 在 PR 评论中提及
@openreview(可选附带具体指令)。 - OpenReview 启动一个沙盒环境,并在 PR 分支上克隆仓库。
- 由 Claude 提供支持的代理会审查差异、探索代码库并运行项目工具。
- 代理将发现的结果以 PR 评论的形式发布,并附带行内建议。
- 如果进行了更改(如格式修复、linter 修复等),这些更改会被提交并推送到分支。
- 沙盒随后被清理。
设置步骤
1. 部署到 Vercel
点击上方按钮,或将此仓库克隆后部署到您的 Vercel 账户。
2. 创建 GitHub 应用程序
创建一个新的 GitHub 应用程序,配置如下:
Webhook URL:https://your-deployment.vercel.app/api/webhooks
仓库权限:
- 内容:读取与写入
- 问题:读取与写入
- 拉取请求:读取与写入
- 元数据:只读
订阅事件:
- 问题评论
- 拉取请求评审评论
生成私钥和 webhook 密钥,并记下您的应用 ID 和安装 ID。
3. 配置环境变量
将以下环境变量添加到您的 Vercel 项目中:
| 变量 | 描述 |
|---|---|
ANTHROPIC_API_KEY |
Claude 的 API 密钥 |
GITHUB_APP_ID |
您的 GitHub 应用程序 ID |
GITHUB_APP_INSTALLATION_ID |
您所监控仓库的安装 ID |
GITHUB_APP_PRIVATE_KEY |
为您的 GitHub 应用程序生成的私钥(换行符用 \n 表示) |
GITHUB_APP_WEBHOOK_SECRET |
您配置的 webhook 密钥 |
REDIS_URL |
(可选)用于持久化状态的 Redis URL,若未设置则回退至内存存储 |
4. 安装 GitHub 应用程序
将 GitHub 应用程序安装到您希望 OpenReview 监控的仓库中。安装完成后,在任意 PR 评论中提及 @openreview 即可触发审查。
使用方法
触发审查:在任意 PR 上留言 @openreview。您还可以附带具体指令:
@openreview 检查安全漏洞
@openreview 运行 linter 并修复所有问题
@openreview 解释认证流程的工作原理
反应:对 OpenReview 的评论使用 👍 或 ❤️ 表示批准并应用其建议;使用 👎 或 😕 表示跳过。
技能
OpenReview 采用渐进式技能系统——代理仅在相关时加载特定指令,从而保持上下文聚焦并确保审查的彻底性。技能会在运行时从 .agents/skills/ 中自动发现。
内置技能
| 技能 | 描述 |
|---|---|
next-best-practices |
文件规范、RSC 边界、数据模式、异步 API、元数据、错误处理 |
next-cache-components |
PPR、use cache 指令、cacheLife、cacheTag、updateTag |
next-upgrade |
按照官方迁移指南和代码改造工具升级 Next.js |
vercel-composition-patterns |
可扩展的 React 组合模式,适用于组件重构 |
vercel-react-best-practices |
React 和 Next.js 性能优化指南 |
vercel-react-native-skills |
React Native 和 Expo 的最佳实践,用于构建高性能移动应用 |
web-design-guidelines |
审查 UI 代码,确保符合 Web 界面指南和无障碍访问要求 |
添加自定义技能
在 .agents/skills/ 目录下创建一个文件夹,并在其中放置一个包含 YAML 前置元数据的 SKILL.md 文件:
.agents/skills/
└── my-custom-skill/
└── SKILL.md
---
name: my-custom-skill
description: 何时使用此技能 — 代理会读取这段描述来决定是否加载它。
---
# 我的自定义技能
在此处填写您的专业评审说明……
代理仅在其系统提示中看到技能名称和描述。当请求匹配某项技能时,它会调用 loadSkill 来获取完整的指导说明,从而保持上下文窗口的简洁。
技术栈
- Next.js — 应用框架
- Vercel Workflow — 长效执行
- Vercel Sandbox — 隔离的代码执行
- AI SDK — AI 模型集成
- Chat SDK — GitHub webhook 处理
- Octokit — GitHub API 客户端
开发
bun install
bun dev
许可证
MIT
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
