tabby

GitHub
33.3k 1.7k 中等 1 次阅读 今天NOASSERTION开发框架语言模型Agent图像视频
AI 解读 由 AI 自动生成,仅供参考

Tabby 是一款可私有化部署的开源 AI 编程助手,旨在为开发团队提供 GitHub Copilot 的安全替代方案。它核心解决了代码辅助过程中的数据隐私顾虑与云端依赖问题,让企业能够在完全掌控数据的前提下享受智能代码补全、聊天问答及上下文理解带来的效率提升。

这款工具特别适合注重代码安全的企业开发团队、希望本地化运行大模型的科研机构,以及拥有消费级显卡的个人开发者。Tabby 的最大亮点在于其“开箱即用”的自包含架构,无需配置复杂的数据库或依赖云服务即可快速启动。同时,它对硬件十分友好,支持在普通的消费级 GPU 上流畅运行,大幅降低了部署门槛。此外,Tabby 提供了标准的 OpenAPI 接口,能轻松集成到现有的云 IDE 或内部开发流程中,并支持通过 REST API 接入自定义文档以增强知识上下文。从代码自动补全到基于 Git 仓库的智能问答,Tabby 致力于成为开发者身边懂业务、守安全的智能伙伴。

使用场景

某金融科技公司后端团队正在内部私有云环境中开发核心交易系统,由于数据合规要求,代码严禁上传至任何公有云服务。

没有 tabby 时

  • 开发者无法使用 GitHub Copilot 等云端智能助手,只能依靠手动编写重复的样板代码和单元测试,效率低下且容易出错。
  • 团队内部积累的私有技术文档和旧项目代码库成为“数据孤岛”,新成员在查阅内部 API 用法或业务逻辑时,需花费大量时间人工检索。
  • 担心代码泄露,团队不得不禁止所有 AI 编码辅助工具,导致开发体验倒退,资深工程师需频繁打断手头工作去指导新人基础编码规范。
  • 部署自定义大模型门槛极高,需要专门配置数据库和复杂的云服务架构,运维成本让中小团队望而却步。

使用 tabby 后

  • 团队利用消费级显卡即可在本地一键部署 tabby,在完全离线环境下实现了媲美云端助手的代码自动补全功能,样板代码生成效率提升 50%。
  • 通过 tabby 的索引功能,将内部 GitLab 仓库和技术文档直接转化为上下文,开发者在聊天侧边栏即可精准查询私有 API 细节,无需切换窗口。
  • 支持 VSCode 等主流 IDE 插件无缝集成,新人可以直接通过"@提及”文件让 tabby 理解当前项目结构,快速上手复杂业务逻辑,减少了对老员工的依赖。
  • 无需依赖外部数据库或云服务,tabby 自包含的特性极大降低了运维复杂度,让安全合规与智能化开发得以兼得。

tabby 让企业在确保数据绝对安全的前提下,低成本拥有了专属的智能化编程伙伴,彻底打破了私有化部署与高效开发之间的壁垒。

运行环境要求

操作系统
  • Linux
  • macOS
GPU
  • 可选
  • 支持消费级 GPU(NVIDIA CUDA 或 Apple Metal)
  • 若使用 CUDA,需支持 `--gpus all` 的 Docker 环境
  • Apple M1/M2 芯片支持 Metal 推理
  • 未明确具体显存要求,但模型示例为 1B-1.5B 参数量,建议至少 4GB+ 显存
内存

未说明

依赖
notes该工具主要基于 Rust 构建,非 Python 项目。推荐使用 Docker 部署(最简单方式),命令中需指定模型(如 StarCoder-1B)和计算设备(cuda 或 metal)。MacOS 用户需安装 protobuf,Linux 用户需安装 protobuf-compiler 和 libopenblas-dev 等开发库。支持自托管,无需数据库或云服务。
python未说明
Rust
protobuf
libopenblas-dev
sqlite3
make
graphviz
tabby hero image

快速开始

Tabby 是一款可自托管的 AI 编程助手,为 GitHub Copilot 提供了一个开源且本地部署的替代方案。它具备多项核心特性:

  • 完全自包含,无需数据库管理系统或云服务。
  • 提供 OpenAPI 接口,易于与现有基础设施(例如云端 IDE)集成。
  • 支持消费级 GPU。

开放在线演示

演示

🔥 最新动态

  • 2025年12月12日 通过将 GitHub 问题与 Pochi 任务关联,实现问题的快速落地,并可直接从侧边栏创建 PR,同时提供 CI/Lint/测试结果的详细 breakdown vscode@0.20.0
  • 2025年2月7日 v0.30 支持将 GitLab 合并请求作为上下文进行索引!
  • 2025年5月25日 💡 想加入 Agent 的私密预览吗?请在 X 上私信,抢先加入候补名单!🎫
  • 2025年5月20日 通过 v0.29 中的 REST API,用您自己的文档丰富 Tabby 内容!🎉
  • 2025年5月1日 v0.28 将 Answer Engine 的消息转换为持久、可分享的页面。
  • 2025年3月31日 v0.27 发布,聊天侧边栏中的 @ 菜单更加丰富。
存档
  • 2025年2月5日 Tabby v0.24.0 将推出 LDAP 认证及后台任务更优的通知功能!✨
  • 2025年2月4日 VSCode 1.20.0 升级!现在可以通过 @ 提及文件将其添加为聊天上下文,并可通过新的右键选项进行内联编辑!
  • 2025年1月10日 Tabby v0.23.0 带来了增强的代码浏览器体验和聊天侧边栏改进!
  • 2024年12月24日 Tabby v0.22.0 引入了 通知框
  • 2024年12月6日 Tabby v0.21.0 将集成 Llamafile 部署,并提升 Answer Engine 的用户体验!🚀
  • 2024年11月10日 Tabby v0.20.0 支持在 Answer Engine 中切换不同的后端聊天模型!
  • 2024年10月30日 Tabby v0.19.0 在主页上展示了最近的共享线程,以提高其可发现性。
  • 2024年7月9日 🎉 宣布 Codestral 集成到 Tabby
  • 2024年7月5日 Tabby v0.13.0 推出了 Answer Engine,这是面向内部工程团队的核心知识引擎。它能无缝整合开发团队的内部数据,提供可靠且精准的答案,从而赋能开发者。
  • 2024年6月13日 VSCode 1.7 标志着一个重要的里程碑,在整个编码过程中提供了多功能的聊天体验。快来体验最新的 侧边栏聊天通过聊天命令编辑 功能吧!
  • 2024年6月10日 最新 📃博客文章发布,主题是 增强的代码上下文理解能力 在 Tabby 中的应用!
  • 2024年6月6日 Tabby v0.12.0 发布,带来了 🔗无缝集成(Gitlab SSO、自托管 GitHub/GitLab 等)、⚙️灵活配置(HTTP API 集成)以及 🌐扩展能力(代码浏览器中的仓库上下文)!
  • 2024年5月22日 Tabby VSCode 1.6 提供了内联补全的 多种选择,以及 自动生成的提交信息🐱💻!
  • 2024年5月11日 v0.11.0 带来了显著的企业级升级,包括 📊存储使用情况统计、🔗GitHub & GitLab 集成、📋活动页面,以及备受期待的 🤖Ask Tabby 功能!
  • 2024年4月22日 v0.10.0 发布,新增了最新的 报表 选项卡,提供团队级别的 Tabby 使用分析。
  • 2024年4月19日 📣 Tabby 现在已将 本地相关代码片段(来自本地 LSP 的声明以及最近修改的代码)纳入代码补全中!
  • 2024年4月17日 CodeGemma 和 CodeQwen 系列模型现已加入 官方模型库
  • 2024年3月20日 v0.9 发布,重点介绍了完整的管理员 UI。
  • 2023年12月23日 通过 SkyPilot 的 SkyServe,您可以无缝地 将 Tabby 部署到任何云平台 🛫。
  • 2023年12月15日 v0.7.0 发布,新增了团队管理和安全访问功能!
  • 2023年10月15日 基于 RAG 的代码补全功能已在 v0.3.0 中启用🎉!请查看 博客文章,了解 Tabby 如何利用仓库级别的上下文变得更智能!
  • 2023年11月27日 v0.6.0 发布!
  • 2023年11月9日 v0.5.5 发布!界面重新设计,并提升了性能。
  • 2023年10月24日 ⛳️ Tabby IDE 插件在 VSCode/Vim/IntelliJ 平台上的重大更新!
  • 2023年10月4日 请查看 模型目录,了解 Tabby 支持的最新模型。
  • 2023年9月18日 Apple M1/M2 Metal 推理支持已加入 v0.1.1
  • 2023年8月31日 Tabby 的首个稳定版本 v0.0.1 🥳。
  • 2023年8月28日CodeLlama 7B 的实验性支持。
  • 2023年8月24日 Tabby 现已上线 JetBrains Marketplace

👋 入门指南

您可以在 这里 找到我们的文档。

一分钟启动 Tabby

启动 Tabby 服务器最简单的方式是使用以下 Docker 命令:

docker run -it \
  --gpus all -p 8080:8080 -v $HOME/.tabby:/data \
  tabbyml/tabby \
  serve --model StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct

如需更多选项(例如推理类型、并行度),请参阅 文档页面

🤝 贡献

完整指南请参阅 CONTRIBUTING.md

获取代码

git clone --recurse-submodules https://github.com/TabbyML/tabby
cd tabby

如果您已经克隆了仓库,可以运行 git submodule update --recursive --init 命令来获取所有子模块。

构建

  1. 按照此 教程 设置 Rust 环境。

  2. 安装所需依赖:

# 对于 macOS
brew install protobuf

# 对于 Ubuntu / Debian
apt install protobuf-compiler libopenblas-dev
  1. 安装实用工具:
# 对于 Ubuntu
apt install make sqlite3 graphviz
  1. 现在,您可以通过运行 cargo build 来构建 Tabby。

开始贡献吧!

… 别忘了提交一个 Pull Request

🌍 社区

  • 🎤 Twitter / X - 与 TabbyML 互动,了解最新动态
  • 📚 LinkedIn - 关注社区最新资讯
  • 💌 Newsletter - 订阅以获取 Tabby 的洞察与秘籍

🔆 活动

Git 仓库活动

🌟 星标历史

星标历史图表

版本历史

nightly2023/09/08
next-alpha2026/02/09
v0.32.02026/01/25
v0.32.0-rc.12026/01/22
v0.32.0-rc.02026/01/12
v0.31.22025/09/25
v0.31.2-rc.02025/09/25
v0.31.12025/08/26
v0.31.1-rc.02025/08/26
v0.31.02025/08/19
v0.31.0-rc.22025/08/19
v0.31.0-rc.12025/08/18
v0.31.0-rc.02025/08/08
v0.30.22025/08/07
v0.30.2-rc.22025/08/01
v0.30.12025/07/12
v0.30.1-rc.12025/07/12
v0.30.1-rc.02025/07/11
v0.30.02025/07/02
v0.30.0-rc.22025/07/02

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|昨天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|昨天
语言模型图像Agent