[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TabbyML--tabby":3,"tool-TabbyML--tabby":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":114,"forks":115,"last_commit_at":116,"license":117,"difficulty_score":10,"env_os":118,"env_gpu":119,"env_ram":120,"env_deps":121,"category_tags":129,"github_topics":131,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":141,"updated_at":142,"faqs":143,"releases":174},5295,"TabbyML\u002Ftabby","tabby","Self-hosted AI coding assistant","Tabby 是一款可私有化部署的开源 AI 编程助手，旨在为开发团队提供 GitHub Copilot 的安全替代方案。它核心解决了代码辅助过程中的数据隐私顾虑与云端依赖问题，让企业能够在完全掌控数据的前提下享受智能代码补全、聊天问答及上下文理解带来的效率提升。\n\n这款工具特别适合注重代码安全的企业开发团队、希望本地化运行大模型的科研机构，以及拥有消费级显卡的个人开发者。Tabby 的最大亮点在于其“开箱即用”的自包含架构，无需配置复杂的数据库或依赖云服务即可快速启动。同时，它对硬件十分友好，支持在普通的消费级 GPU 上流畅运行，大幅降低了部署门槛。此外，Tabby 提供了标准的 OpenAPI 接口，能轻松集成到现有的云 IDE 或内部开发流程中，并支持通过 REST API 接入自定义文档以增强知识上下文。从代码自动补全到基于 Git 仓库的智能问答，Tabby 致力于成为开发者身边懂业务、守安全的智能伙伴。","\u003Cdiv align=\"center\">\n  \n# 🐾 Tabby\n\n[📚 Docs](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fwelcome\u002F) • [💬 Slack](https:\u002F\u002Flinks.tabbyml.com\u002Fjoin-slack) • [🗺️ Roadmap](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Froadmap\u002F)\n\n[![latest release](https:\u002F\u002Fshields.io\u002Fgithub\u002Fv\u002Frelease\u002FTabbyML\u002Ftabby)](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Flatest)\n[![PRs Welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg?style=flat-square)](https:\u002F\u002Fmakeapullrequest.com)\n[![Docker pulls](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Ftabbyml\u002Ftabby)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Ftabbyml\u002Ftabby)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FTabbyML\u002Ftabby\u002Fgraph\u002Fbadge.svg?token=WYVVH8MKK3)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FTabbyML\u002Ftabby)\n\n[English](\u002FREADME.md) |\n[简体中文](\u002FREADME-zh.md) |\n[日本語](\u002FREADME-ja.md)\n\n\u003C\u002Fdiv>\n\nTabby is a self-hosted AI coding assistant, offering an open-source and on-premises alternative to GitHub Copilot. It boasts several key features:\n* Self-contained, with no need for a DBMS or cloud service.\n* OpenAPI interface, easy to integrate with existing infrastructure (e.g Cloud IDE).\n* Supports consumer-grade GPUs.\n\n\u003Cp align=\"center\">\n  \u003Ca target=\"_blank\" href=\"https:\u002F\u002Ftabby.tabbyml.com\">\u003Cimg alt=\"Open Live Demo\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOPEN_LIVE_DEMO-blue?logo=xcode&style=for-the-badge&logoColor=green\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg alt=\"Demo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTabbyML_tabby_readme_5a26968067f6.gif\">\n\u003C\u002Fp>\n\n## 🔥 What's New\n* **12\u002F12\u002F2025** Get your GitHub issues implemented by connecting them to [Pochi](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Fpochi) tasks and create PRs directly from the sidebar with a breakdown of CI\u002FLint\u002FTest results [vscode@0.20.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Fpochi\u002Freleases\u002Ftag\u002Fvscode%400.20.0).\n* **07\u002F02\u002F2025** [v0.30](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.30.0) supports indexing GitLab Merge Request as Context! \n* **05\u002F25\u002F2025** 💡Interested in joining [Agent](https:\u002F\u002Flinks.tabbyml.com\u002Fpochi-github-readme) private preview? DM in [X](https:\u002F\u002Fx.com\u002Fgetpochi) for early waitlist approval!🎫\n* **05\u002F20\u002F2025** Enhance Tabby with your own documentation📃 through REST APIs in [v0.29](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.29.0)! 🎉\n* **05\u002F01\u002F2025** [v0.28](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.28.0) transforming Answer Engine messages into persistent, shareable Pages\n* **03\u002F31\u002F2025** [v0.27](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.27.0) released with a richer `@` menu in the chat side panel.\n\n\n\u003Cdetails>\n  \u003Csummary>Archived\u003C\u002Fsummary>\n\n* **02\u002F05\u002F2025** LDAP Authentication and better notification for background jobs coming in Tabby [v0.24.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.24.0)!✨\n* **02\u002F04\u002F2025** [VSCode 1.20.0](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems\u002FTabbyML.vscode-tabby\u002Fchangelog) upgrade! @-mention files to add them as chat context, and edit inline with a new right-click option are available!\n* **01\u002F10\u002F2025** Tabby [v0.23.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.23.0) featuring enhanced code browser experience and chat side panel improvements!\n* **12\u002F24\u002F2024** Introduce **Notification Box** in Tabby [v0.22.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.22.0)!\n* **12\u002F06\u002F2024** Llamafile deployment integration and enhanced Answer Engine user experience are coming in Tabby [v0.21.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.21.0)!🚀\n* **11\u002F10\u002F2024** Switching between different backend chat models is supported in Answer Engine with Tabby [v0.20.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.20.0)!\n* **10\u002F30\u002F2024** Tabby [v0.19.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.19.0) featuring recent shared threads on the main page to improve their discoverability. \n* **07\u002F09\u002F2024** 🎉Announce [Codestral integration in Tabby](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2024\u002F07\u002F09\u002Ftabby-codestral\u002F)!\n* **07\u002F05\u002F2024** Tabby [v0.13.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.13.0) introduces ***Answer Engine***, a central knowledge engine for internal engineering teams. It seamlessly integrates with dev team's internal data, delivering reliable and precise answers to empower developers.\n* **06\u002F13\u002F2024** [VSCode 1.7](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems\u002FTabbyML.vscode-tabby\u002Fchangelog) marks a significant milestone with a versatile Chat experience throughout your coding experience. Come and they the latest **chat in side-panel** and **editing via chat command**!\n* **06\u002F10\u002F2024** Latest 📃blogpost drop on [an enhanced code context understanding](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2024\u002F06\u002F11\u002Frank-fusion-in-tabby-code-completion\u002F) in Tabby!\n* **06\u002F06\u002F2024** Tabby [v0.12.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.12.0) release brings 🔗**seamless integrations** (Gitlab SSO, Self-hosted GitHub\u002FGitLab, etc.), to ⚙️**flexible configurations** (HTTP API integration) and 🌐**expanded capabilities** (repo-context in Code Browser)! \n* **05\u002F22\u002F2024** Tabby [VSCode 1.6](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=TabbyML.vscode-tabby) comes with **multiple choices** in inline completion, and the **auto-generated commit messages**🐱💻!\n* **05\u002F11\u002F2024** [v0.11.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.11.0) brings significant enterprise upgrades, including 📊**storage usage** stats, 🔗**GitHub & GitLab** integration, 📋**Activities** page, and the long-awaited 🤖**Ask Tabby** feature!\n* **04\u002F22\u002F2024** [v0.10.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.10.0) released, featuring the latest **Reports** tab with team-wise analytics for Tabby usage.\n* **04\u002F19\u002F2024** 📣 Tabby now incorporates [locally relevant snippets](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F1844)(declarations from local LSP, and recently modified code) for code completion!\n* **04\u002F17\u002F2024** CodeGemma and CodeQwen model series have now been added to the [official registry](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fmodels\u002F)!\n* **03\u002F20\u002F2024** [v0.9](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.9.1) released, highlighting a full feature admin UI.\n* **12\u002F23\u002F2023** Seamlessly [deploy Tabby on any cloud](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Finstallation\u002Fskypilot\u002F) with [SkyServe](https:\u002F\u002Fskypilot.readthedocs.io\u002Fen\u002Flatest\u002Fserving\u002Fsky-serve.html) 🛫 from SkyPilot.\n* **12\u002F15\u002F2023** [v0.7.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.7.0) released with team management and secured access!\n* **10\u002F15\u002F2023** RAG-based code completion is enabled by detail in [v0.3.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.3.0)🎉! Check out the [blogpost](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2023\u002F10\u002F16\u002Frepository-context-for-code-completion\u002F) explaining how Tabby utilizes repo-level context to get even smarter!\n* **11\u002F27\u002F2023** [v0.6.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.6.0) released!\n* **11\u002F09\u002F2023** [v0.5.5](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.5.5) released! With a redesign of UI + performance improvement.\n* **10\u002F24\u002F2023** ⛳️ Major updates for Tabby IDE plugins across [VSCode\u002FVim\u002FIntelliJ](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fextensions)!\n* **10\u002F04\u002F2023** Check out the [model directory](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fmodels\u002F) for the latest models supported by Tabby.\n* **09\u002F18\u002F2023** Apple's M1\u002FM2 Metal inference support has landed in [v0.1.1](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.1.1)!\n* **08\u002F31\u002F2023** Tabby's first stable release [v0.0.1](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.0.1) 🥳.\n* **08\u002F28\u002F2023** Experimental support for the [CodeLlama 7B](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F370).\n* **08\u002F24\u002F2023** Tabby is now on [JetBrains Marketplace](https:\u002F\u002Fplugins.jetbrains.com\u002Fplugin\u002F22379-tabby)!\n\n\u003C\u002Fdetails>\n\n## 👋 Getting Started\n\nYou can find our documentation [here](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fgetting-started).\n- 📚 [Installation](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Finstallation\u002F)\n- 💻 [IDE\u002FEditor Extensions](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fextensions\u002F)\n- ⚙️ [Configuration](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fconfiguration)\n\n### Run Tabby in 1 Minute\nThe easiest way to start a Tabby server is by using the following Docker command:\n\n```bash\ndocker run -it \\\n  --gpus all -p 8080:8080 -v $HOME\u002F.tabby:\u002Fdata \\\n  tabbyml\u002Ftabby \\\n  serve --model StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct\n```\nFor additional options (e.g inference type, parallelism), please refer to the [documentation page](https:\u002F\u002Ftabbyml.github.io\u002Ftabby).\n\n## 🤝 Contributing\n\nFull guide at [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fblob\u002Fmain\u002FCONTRIBUTING.md);\n\n### Get the Code\n\n```bash\ngit clone --recurse-submodules https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\ncd tabby\n```\n\nIf you have already cloned the repository, you could run the `git submodule update --recursive --init` command to fetch all submodules.\n\n### Build\n\n1. Set up the Rust environment by following this [tutorial](https:\u002F\u002Fwww.rust-lang.org\u002Flearn\u002Fget-started).\n\n2. Install the required dependencies:\n```bash\n# For MacOS\nbrew install protobuf\n\n# For Ubuntu \u002F Debian\napt install protobuf-compiler libopenblas-dev\n```\n\n3. Install useful tools:\n```bash\n# For Ubuntu\napt install make sqlite3 graphviz\n```\n\n4. Now, you can build Tabby by running the command `cargo build`.\n\n### Start Hacking!\n... and don't forget to submit a [Pull Request](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fcompare)\n\n## 🌍 Community\n- 🎤 [Twitter \u002F X](https:\u002F\u002Ftwitter.com\u002FTabby_ML) - engage with TabbyML for all things possible \n- 📚 [LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Ftabbyml\u002F) - follow for the latest from the community \n- 💌 [Newsletter](https:\u002F\u002Fnewsletter.tabbyml.com\u002Farchive) - subscribe to unlock Tabby insights and secrets\n\n### 🔆 Activity\n\n![Git Repository Activity](https:\u002F\u002Frepobeats.axiom.co\u002Fapi\u002Fembed\u002Fe4ef0fbd12e586ef9ea7d72d1fb4f5c5b88d78d5.svg \"Repobeats analytics image\")\n\n### 🌟 Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTabbyML_tabby_readme_488077daac69.png)](https:\u002F\u002Fstar-history.com\u002F#tabbyml\u002Ftabby&Date)\n","\u003Cdiv align=\"center\">\n  \n# 🐾 Tabby\n\n[📚 文档](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fwelcome\u002F) • [💬 Slack](https:\u002F\u002Flinks.tabbyml.com\u002Fjoin-slack) • [🗺️ 路线图](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Froadmap\u002F)\n\n[![最新版本](https:\u002F\u002Fshields.io\u002Fgithub\u002Fv\u002Frelease\u002FTabbyML\u002Ftabby)](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Flatest)\n[![欢迎提交 PR](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg?style=flat-square)](https:\u002F\u002Fmakeapullrequest.com)\n[![Docker 拉取次数](https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Ftabbyml\u002Ftabby)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Ftabbyml\u002Ftabby)\n[![Codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FTabbyML\u002Ftabby\u002Fgraph\u002Fbadge.svg?token=WYVVH8MKK3)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FTabbyML\u002Ftabby)\n\n[English](\u002FREADME.md) |\n[简体中文](\u002FREADME-zh.md) |\n[日本語](\u002FREADME-ja.md)\n\n\u003C\u002Fdiv>\n\nTabby 是一款可自托管的 AI 编程助手，为 GitHub Copilot 提供了一个开源且本地部署的替代方案。它具备多项核心特性：\n* 完全自包含，无需数据库管理系统或云服务。\n* 提供 OpenAPI 接口，易于与现有基础设施（例如云端 IDE）集成。\n* 支持消费级 GPU。\n\n\u003Cp align=\"center\">\n  \u003Ca target=\"_blank\" href=\"https:\u002F\u002Ftabby.tabbyml.com\">\u003Cimg alt=\"开放在线演示\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOPEN_LIVE_DEMO-blue?logo=xcode&style=for-the-badge&logoColor=green\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg alt=\"演示\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTabbyML_tabby_readme_5a26968067f6.gif\">\n\u003C\u002Fp>\n\n## 🔥 最新动态\n* **2025年12月12日** 通过将 GitHub 问题与 [Pochi](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Fpochi) 任务关联，实现问题的快速落地，并可直接从侧边栏创建 PR，同时提供 CI\u002FLint\u002F测试结果的详细 breakdown [vscode@0.20.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Fpochi\u002Freleases\u002Ftag\u002Fvscode%400.20.0)。\n* **2025年2月7日** [v0.30](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.30.0) 支持将 GitLab 合并请求作为上下文进行索引！\n* **2025年5月25日** 💡 想加入 [Agent](https:\u002F\u002Flinks.tabbyml.com\u002Fpochi-github-readme) 的私密预览吗？请在 [X](https:\u002F\u002Fx.com\u002Fgetpochi) 上私信，抢先加入候补名单！🎫\n* **2025年5月20日** 通过 [v0.29](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.29.0) 中的 REST API，用您自己的文档丰富 Tabby 内容！🎉\n* **2025年5月1日** [v0.28](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.28.0) 将 Answer Engine 的消息转换为持久、可分享的页面。\n* **2025年3月31日** [v0.27](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.27.0) 发布，聊天侧边栏中的 `@` 菜单更加丰富。\n\n\n\u003Cdetails>\n  \u003Csummary>存档\u003C\u002Fsummary>\n\n* **2025年2月5日** Tabby [v0.24.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.24.0) 将推出 LDAP 认证及后台任务更优的通知功能！✨\n* **2025年2月4日** [VSCode 1.20.0](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems\u002FTabbyML.vscode-tabby\u002Fchangelog) 升级！现在可以通过 @ 提及文件将其添加为聊天上下文，并可通过新的右键选项进行内联编辑！\n* **2025年1月10日** Tabby [v0.23.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.23.0) 带来了增强的代码浏览器体验和聊天侧边栏改进！\n* **2024年12月24日** Tabby [v0.22.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.22.0) 引入了 **通知框**！\n* **2024年12月6日** Tabby [v0.21.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.21.0) 将集成 Llamafile 部署，并提升 Answer Engine 的用户体验！🚀\n* **2024年11月10日** Tabby [v0.20.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.20.0) 支持在 Answer Engine 中切换不同的后端聊天模型！\n* **2024年10月30日** Tabby [v0.19.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.19.0) 在主页上展示了最近的共享线程，以提高其可发现性。\n* **2024年7月9日** 🎉 宣布 [Codestral 集成到 Tabby](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2024\u002F07\u002F09\u002Ftabby-codestral\u002F)！\n* **2024年7月5日** Tabby [v0.13.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.13.0) 推出了 ***Answer Engine***，这是面向内部工程团队的核心知识引擎。它能无缝整合开发团队的内部数据，提供可靠且精准的答案，从而赋能开发者。\n* **2024年6月13日** [VSCode 1.7](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems\u002FTabbyML.vscode-tabby\u002Fchangelog) 标志着一个重要的里程碑，在整个编码过程中提供了多功能的聊天体验。快来体验最新的 **侧边栏聊天** 和 **通过聊天命令编辑** 功能吧！\n* **2024年6月10日** 最新 📃博客文章发布，主题是 [增强的代码上下文理解能力](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2024\u002F06\u002F11\u002Frank-fusion-in-tabby-code-completion\u002F) 在 Tabby 中的应用！\n* **2024年6月6日** Tabby [v0.12.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.12.0) 发布，带来了 🔗**无缝集成**（Gitlab SSO、自托管 GitHub\u002FGitLab 等）、⚙️**灵活配置**（HTTP API 集成）以及 🌐**扩展能力**（代码浏览器中的仓库上下文）！\n* **2024年5月22日** Tabby [VSCode 1.6](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=TabbyML.vscode-tabby) 提供了内联补全的 **多种选择**，以及 **自动生成的提交信息**🐱💻！\n* **2024年5月11日** [v0.11.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.11.0) 带来了显著的企业级升级，包括 📊**存储使用情况**统计、🔗**GitHub & GitLab** 集成、📋**活动**页面，以及备受期待的 🤖**Ask Tabby** 功能！\n* **2024年4月22日** [v0.10.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.10.0) 发布，新增了最新的 **报表** 选项卡，提供团队级别的 Tabby 使用分析。\n* **2024年4月19日** 📣 Tabby 现在已将 [本地相关代码片段](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F1844)（来自本地 LSP 的声明以及最近修改的代码）纳入代码补全中！\n* **2024年4月17日** CodeGemma 和 CodeQwen 系列模型现已加入 [官方模型库](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fmodels\u002F)！\n* **2024年3月20日** [v0.9](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.9.1) 发布，重点介绍了完整的管理员 UI。\n* **2023年12月23日** 通过 SkyPilot 的 [SkyServe](https:\u002F\u002Fskypilot.readthedocs.io\u002Fen\u002Flatest\u002Fserving\u002Fsky-serve.html)，您可以无缝地 [将 Tabby 部署到任何云平台](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Finstallation\u002Fskypilot\u002F) 🛫。\n* **2023年12月15日** [v0.7.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.7.0) 发布，新增了团队管理和安全访问功能！\n* **2023年10月15日** 基于 RAG 的代码补全功能已在 [v0.3.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.3.0) 中启用🎉！请查看 [博客文章](https:\u002F\u002Ftabby.tabbyml.com\u002Fblog\u002F2023\u002F10\u002F16\u002Frepository-context-for-code-completion\u002F)，了解 Tabby 如何利用仓库级别的上下文变得更智能！\n* **2023年11月27日** [v0.6.0](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.6.0) 发布！\n* **2023年11月9日** [v0.5.5](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.5.5) 发布！界面重新设计，并提升了性能。\n* **2023年10月24日** ⛳️ Tabby IDE 插件在 [VSCode\u002FVim\u002FIntelliJ](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fextensions) 平台上的重大更新！\n* **2023年10月4日** 请查看 [模型目录](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fmodels\u002F)，了解 Tabby 支持的最新模型。\n* **2023年9月18日** Apple M1\u002FM2 Metal 推理支持已加入 [v0.1.1](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.1.1)！\n* **2023年8月31日** Tabby 的首个稳定版本 [v0.0.1](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.0.1) 🥳。\n* **2023年8月28日** 对 [CodeLlama 7B](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F370) 的实验性支持。\n* **2023年8月24日** Tabby 现已上线 [JetBrains Marketplace](https:\u002F\u002Fplugins.jetbrains.com\u002Fplugin\u002F22379-tabby)！\n\n\u003C\u002Fdetails>\n\n## 👋 入门指南\n\n您可以在 [这里](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fgetting-started) 找到我们的文档。\n- 📚 [安装指南](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Finstallation\u002F)\n- 💻 [IDE\u002F编辑器插件](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fextensions\u002F)\n- ⚙️ [配置指南](https:\u002F\u002Ftabby.tabbyml.com\u002Fdocs\u002Fconfiguration)\n\n### 一分钟启动 Tabby\n启动 Tabby 服务器最简单的方式是使用以下 Docker 命令：\n\n```bash\ndocker run -it \\\n  --gpus all -p 8080:8080 -v $HOME\u002F.tabby:\u002Fdata \\\n  tabbyml\u002Ftabby \\\n  serve --model StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct\n```\n如需更多选项（例如推理类型、并行度），请参阅 [文档页面](https:\u002F\u002Ftabbyml.github.io\u002Ftabby)。\n\n## 🤝 贡献\n\n完整指南请参阅 [CONTRIBUTING.md](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fblob\u002Fmain\u002FCONTRIBUTING.md)；\n\n### 获取代码\n\n```bash\ngit clone --recurse-submodules https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\ncd tabby\n```\n\n如果您已经克隆了仓库，可以运行 `git submodule update --recursive --init` 命令来获取所有子模块。\n\n### 构建\n\n1. 按照此 [教程](https:\u002F\u002Fwww.rust-lang.org\u002Flearn\u002Fget-started) 设置 Rust 环境。\n\n2. 安装所需依赖：\n```bash\n# 对于 macOS\nbrew install protobuf\n\n# 对于 Ubuntu \u002F Debian\napt install protobuf-compiler libopenblas-dev\n```\n\n3. 安装实用工具：\n```bash\n# 对于 Ubuntu\napt install make sqlite3 graphviz\n```\n\n4. 现在，您可以通过运行 `cargo build` 来构建 Tabby。\n\n### 开始贡献吧！\n… 别忘了提交一个 [Pull Request](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fcompare)\n\n## 🌍 社区\n- 🎤 [Twitter \u002F X](https:\u002F\u002Ftwitter.com\u002FTabby_ML) - 与 TabbyML 互动，了解最新动态\n- 📚 [LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Ftabbyml\u002F) - 关注社区最新资讯\n- 💌 [Newsletter](https:\u002F\u002Fnewsletter.tabbyml.com\u002Farchive) - 订阅以获取 Tabby 的洞察与秘籍\n\n### 🔆 活动\n\n![Git 仓库活动](https:\u002F\u002Frepobeats.axiom.co\u002Fapi\u002Fembed\u002Fe4ef0fbd12e586ef9ea7d72d1fb4f5c5b88d78d5.svg \"Repobeats 分析图\")\n\n### 🌟 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTabbyML_tabby_readme_488077daac69.png)](https:\u002F\u002Fstar-history.com\u002F#tabbyml\u002Ftabby&Date)","# Tabby 快速上手指南\n\nTabby 是一款自托管的开源 AI 编程助手，可作为 GitHub Copilot 的本地化替代方案。它无需数据库或云服务支持，支持消费级显卡，并提供 OpenAPI 接口以便集成到现有基础设施中。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS, 或 Windows (通过 WSL2\u002FDocker)\n*   **GPU 支持**（可选但推荐）：\n    *   NVIDIA GPU (需安装 CUDA 驱动)\n    *   Apple Silicon (M1\u002FM2\u002FM3) 支持 Metal 加速\n    *   若无独立显卡，可使用 CPU 模式（速度较慢）\n*   **运行时依赖**：\n    *   **Docker** (推荐方式)：需安装 Docker Engine 并配置 GPU 支持 (如 `nvidia-container-toolkit`)。\n    *   **或者 原生构建**：需安装 Rust 环境、`protobuf` 编译器及开发库。\n\n> **提示**：国内用户若拉取 Docker 镜像缓慢，建议配置 Docker 国内镜像加速器。\n\n## 安装步骤\n\n最快捷的启动方式是使用 Docker。以下命令将启动 Tabby 服务器，并加载代码补全模型 (`StarCoder-1B`) 和对话模型 (`Qwen2-1.5B-Instruct`)。\n\n### 使用 Docker 启动\n\n在终端执行以下命令：\n\n```bash\ndocker run -it \\\n  --gpus all -p 8080:8080 -v $HOME\u002F.tabby:\u002Fdata \\\n  tabbyml\u002Ftabby \\\n  serve --model StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct\n```\n\n**参数说明：**\n*   `--gpus all`：启用所有可用 GPU。若无 NVIDIA GPU 或使用 CPU 模式，请移除此参数或改为 `--device cpu`。\n*   `-p 8080:8080`：将容器的 8080 端口映射到主机。\n*   `-v $HOME\u002F.tabby:\u002Fdata`：将数据持久化存储到宿主机的 `~\u002F.tabby` 目录。\n*   `--model`：指定代码补全模型。\n*   `--chat-model`：指定聊天对话模型。\n\n> **注意**：首次运行时会自动下载模型文件，请保持网络连接畅通。\n\n## 基本使用\n\n启动成功后，您可以通过以下方式开始使用：\n\n### 1. 访问 Web 界面\n打开浏览器访问 `http:\u002F\u002Flocalhost:8080`。\n*   您可以在此界面管理模型、查看日志、配置团队权限以及体验内置的聊天功能。\n\n### 2. 配置 IDE 插件\n要在编码时获得智能补全，需安装 Tabby 的 IDE 扩展：\n\n1.  **安装插件**：\n    *   **VS Code**: 在扩展市场搜索 `Tabby` (发布者: TabbyML) 并安装。\n    *   **IntelliJ IDEA \u002F JetBrains 系列**: 在插件市场搜索 `Tabby` 并安装。\n    *   **Vim\u002FNeovim**: 参考官方文档配置 Lua 插件。\n\n2.  **连接服务器**：\n    *   打开 IDE 中的 Tabby 插件设置。\n    *   在 **Endpoint** (端点) 栏填入您的服务器地址：`http:\u002F\u002Flocalhost:8080`。\n    *   保存设置，状态栏显示绿色图标即表示连接成功。\n\n3.  **开始编码**：\n    *   在编辑器中输入代码，Tabby 将以灰色文本提供行内自动补全建议。\n    *   按 `Tab` 键接受建议。\n    *   部分插件支持侧边栏聊天，可直接询问代码逻辑或生成单元测试。\n\n现在，您已经拥有了一个完全私有、可控的 AI 编程助手！","某金融科技公司后端团队正在内部私有云环境中开发核心交易系统，由于数据合规要求，代码严禁上传至任何公有云服务。\n\n### 没有 tabby 时\n- 开发者无法使用 GitHub Copilot 等云端智能助手，只能依靠手动编写重复的样板代码和单元测试，效率低下且容易出错。\n- 团队内部积累的私有技术文档和旧项目代码库成为“数据孤岛”，新成员在查阅内部 API 用法或业务逻辑时，需花费大量时间人工检索。\n- 担心代码泄露，团队不得不禁止所有 AI 编码辅助工具，导致开发体验倒退，资深工程师需频繁打断手头工作去指导新人基础编码规范。\n- 部署自定义大模型门槛极高，需要专门配置数据库和复杂的云服务架构，运维成本让中小团队望而却步。\n\n### 使用 tabby 后\n- 团队利用消费级显卡即可在本地一键部署 tabby，在完全离线环境下实现了媲美云端助手的代码自动补全功能，样板代码生成效率提升 50%。\n- 通过 tabby 的索引功能，将内部 GitLab 仓库和技术文档直接转化为上下文，开发者在聊天侧边栏即可精准查询私有 API 细节，无需切换窗口。\n- 支持 VSCode 等主流 IDE 插件无缝集成，新人可以直接通过\"@提及”文件让 tabby 理解当前项目结构，快速上手复杂业务逻辑，减少了对老员工的依赖。\n- 无需依赖外部数据库或云服务，tabby 自包含的特性极大降低了运维复杂度，让安全合规与智能化开发得以兼得。\n\ntabby 让企业在确保数据绝对安全的前提下，低成本拥有了专属的智能化编程伙伴，彻底打破了私有化部署与高效开发之间的壁垒。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTabbyML_tabby_5b505653.png","TabbyML","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTabbyML_68814291.png",null,"https:\u002F\u002Fgithub.com\u002FTabbyML",[77,81,85,89,93,97,101,105,108,112],{"name":78,"color":79,"percentage":80},"Rust","#dea584",92.9,{"name":82,"color":83,"percentage":84},"Python","#3572A5",4.5,{"name":86,"color":87,"percentage":88},"HTML","#e34c26",1.2,{"name":90,"color":91,"percentage":92},"Tree-sitter Query","#8ea64c",0.5,{"name":94,"color":95,"percentage":96},"TypeScript","#3178c6",0.4,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0.3,{"name":102,"color":103,"percentage":104},"Makefile","#427819",0.1,{"name":106,"color":107,"percentage":104},"JavaScript","#f1e05a",{"name":109,"color":110,"percentage":111},"PowerShell","#012456",0,{"name":113,"color":74,"percentage":111},"RenderScript",33308,1722,"2026-04-07T20:23:18","NOASSERTION","Linux, macOS","可选。支持消费级 GPU（NVIDIA CUDA 或 Apple Metal）。若使用 CUDA，需支持 `--gpus all` 的 Docker 环境；Apple M1\u002FM2 芯片支持 Metal 推理。未明确具体显存要求，但模型示例为 1B-1.5B 参数量，建议至少 4GB+ 显存。","未说明",{"notes":122,"python":120,"dependencies":123},"该工具主要基于 Rust 构建，非 Python 项目。推荐使用 Docker 部署（最简单方式），命令中需指定模型（如 StarCoder-1B）和计算设备（cuda 或 metal）。MacOS 用户需安装 protobuf，Linux 用户需安装 protobuf-compiler 和 libopenblas-dev 等开发库。支持自托管，无需数据库或云服务。",[78,124,125,126,127,128],"protobuf","libopenblas-dev","sqlite3","make","graphviz",[14,35,13,15,130],"视频",[132,133,134,135,136,137,138,139,140],"ai","codegen","coding-assistant","coding-language","developer-experience","developer-tools","gen-ai","llms","ide","2026-03-27T02:49:30.150509","2026-04-08T10:01:13.061667",[144,149,154,159,164,169],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},24015,"如何在使用 Docker 部署时挂载本地模型目录？","您需要将本地模型目录挂载到容器中才能访问。例如，如果您将模型克隆到了 `\u002Fhome\u002Fthinker\u002FDownloads\u002FStarCoder-1B`，可以使用以下命令启动容器：\n\n```shell\ndocker run -it \\\n  --gpus all -p 8080:8080 -v $HOME\u002F.tabby:\u002Fdata -v \u002Fhome\u002Fthinker\u002FDownloads\u002FStarCoder-1B:\u002Fmodels\u002FStarCoder-1B \\\n  tabbyml\u002Ftabby \\\n  serve --model \u002Fmodels\u002FStarCoder-1B --device cuda\n```\n\n请确保 `-v` 参数正确映射了宿主机路径到容器内的 `\u002Fmodels` 目录。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F515",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},24016,"PyCharm 插件提示需要授权令牌（Authorization required），但找不到设置位置怎么办？","如果突然遇到需要令牌但无法在界面找到的情况，可以尝试以下步骤解决：\n1. 检查并注释掉服务器配置文件中的令牌设置。\n2. 在 IDE（PyCharm）的设置中删除已保存的旧令牌配置。\n3. 重新连接插件。\n\n有用户反馈通过“注释掉配置中的 tokens 并在 IDE 中删除它们”成功解决了该问题。此外，确保您的 Tabby Server Docker 镜像是最新的，可以运行 `docker pull tabbyml\u002Ftabby` 进行更新。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F1313",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},24017,"Tabby 是否支持 AMD GPU (ROCm)？遇到问题如何解决？","Tabby 支持 AMD GPU，但在构建或运行时可能遇到架构不匹配的问题。\n\n1. **编译优化**：设置 `AMDGPU_TARGETS` 环境变量（如 `gfx1030`）可以显著加快构建速度，因为它只编译特定 GPU 的代码，而不是所有目标。\n2. **运行时错误**：如果看到类似 `rocBLAS error: Cannot read ... TensileLibrary.dat` 的错误，通常是因为 ROCm 版本与 GPU 架构不兼容。例如，ROCm 6 可能过于新而不稳定，建议尝试使用 **ROCm 5**。\n3. **架构支持**：列出非官方支持的架构目标不会使其正常工作，仍可能在运行时崩溃。请确保使用 LLVM 和 ROCm 官方支持的同一系列 GPU 架构。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F636",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},24018,"是否支持 Intel Arc (XPU) 显卡？","目前对于 Intel Arc 等独立显卡，官方更倾向于通过 **Vulkan** 后端来支持此类用例，而非直接使用 OpenCL 或 SYCL。\n\n虽然 llama.cpp 上游正在开发 SYCL 支持以用于 Intel GPU，但在 Tabby 集成的 llama.cpp 分支更新以利用上游 SYCL 支持之前，建议关注 Vulkan 相关的解决方案。对于 Intel CPU，可以使用 oneAPI (oneMKL) 进行加速。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F631",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},24019,"Tabby 能否连接外部的 vLLM 或其他兼容 OpenAI API 的服务？","Tabby 的核心设计是集成特定的推理后端（如 llama.cpp）。虽然用户希望连接到任何使用 OpenAI API 格式的服务器（如 vLLM），但目前主要讨论集中在 Ollama 兼容性上。\n\n关于动态停止词（stop words）等功能，Ollama API 允许动态修改，但这底层依赖于 llama.cpp 的实现，其时间复杂度为 O(N)（N 为停止词数量），在处理大量动态停止词时可能会变慢。如果您的需求是简单的 OpenAI 接口代理，可能需要等待官方对通用 OpenAI API 后端的进一步支持或通过中间件转换。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F795",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},24020,"是否支持 StarCoder2 模型？如何在 Mac 上运行？","Tabby 已经增加了对 StarCoder2 模型的支持（包括 7B 和 15B 版本）。\n\n- **模型获取**：量化后的 StarCoder2 模型（如 GGUF 格式）可在 HuggingFace 上找到（例如 `nold\u002Fstarcoder2-15b-GGUF`）。\n- **Mac 运行注意**：在 Mac (Metal) 上运行时，较大模型（如 15B）可能会遇到内存不足导致崩溃的情况（`thread ... exited with non-zero exit code 137` 通常表示 OOM）。建议优先尝试 7B 版本，或者确保您的 Mac 拥有足够的统一内存来运行 15B 模型。","https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fissues\u002F1587",[175,179,184,189,193,197,202,206,211,215,220,224,228,232,237,241,246,250,254,259],{"id":176,"version":177,"summary_zh":74,"released_at":178},145576,"nightly","2023-09-08T01:39:25",{"id":180,"version":181,"summary_zh":182,"released_at":183},145577,"next-alpha","这是 Tabby 开发团队的 Alpha 版本，仅供内部使用。","2026-02-09T10:49:36",{"id":185,"version":186,"summary_zh":187,"released_at":188},145578,"v0.32.0","## 🚀 功能特性\n\n* 添加对 Mistral\u002F嵌入 API 类型的支持。[#4380](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4380)\n* 添加通用 OAuth 支持。[#4325](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4325)\n* 添加对多分支索引的支持。[#4419](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4419)\n\n## 🧰 修复与改进\n\n* 在邀请链接中包含电子邮件，并在打开链接时禁用电子邮件编辑功能。[#4417](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4417)","2026-01-25T17:07:44",{"id":190,"version":191,"summary_zh":74,"released_at":192},145579,"v0.32.0-rc.1","2026-01-22T04:58:28",{"id":194,"version":195,"summary_zh":74,"released_at":196},145580,"v0.32.0-rc.0","2026-01-12T11:38:05",{"id":198,"version":199,"summary_zh":200,"released_at":201},145581,"v0.31.2","## ⚠️ 通知\n\n* 这是一个补丁版本，请同时查看 0.31 版本的[完整发布说明](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.31.0)。\n\n## 🧰 修复与改进\n\n* 添加了环境变量 `TABBY_INDEX_REPO_IN_SHARD`，当仓库数量超过 20 个时，可启用每小时分片索引。[#4366](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4366)","2025-09-25T16:26:54",{"id":203,"version":204,"summary_zh":74,"released_at":205},145582,"v0.31.2-rc.0","2025-09-25T05:41:35",{"id":207,"version":208,"summary_zh":209,"released_at":210},145583,"v0.31.1","## ⚠️ 通知\n\n* 这是一个补丁版本，请同时查看 0.31 版本的[完整发布说明](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.31.0)。\n\n## 🧰 修复与改进\n\n* 优化 SQLite 连接参数，以提高稳定性。[#4350](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4350)","2025-08-26T17:58:14",{"id":212,"version":213,"summary_zh":74,"released_at":214},145584,"v0.31.1-rc.0","2025-08-26T17:36:22",{"id":216,"version":217,"summary_zh":218,"released_at":219},145585,"v0.31.0","## 🚀 功能特性\r\n\r\n* 添加对自定义品牌标识的支持，包括名称和 logo（仅企业许可证用户可用）。[#4334](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4334)","2025-08-19T19:04:10",{"id":221,"version":222,"summary_zh":74,"released_at":223},145586,"v0.31.0-rc.2","2025-08-19T06:37:46",{"id":225,"version":226,"summary_zh":74,"released_at":227},145587,"v0.31.0-rc.1","2025-08-18T07:36:50",{"id":229,"version":230,"summary_zh":74,"released_at":231},145588,"v0.31.0-rc.0","2025-08-08T11:42:05",{"id":233,"version":234,"summary_zh":235,"released_at":236},145589,"v0.30.2","## ⚠️ 通知\n\n* 这是一个补丁版本，请同时查看 0.30 版本的[完整发布说明](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.30.0)。\n\n## 🧰 修复与改进\n\n* 使用 sqlx 0.7.3 以避免数据库连接池超时。[#4328](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4328)\n* 将 llama.cpp 升级至 b6047 版本。[#4330](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4330)\n* 将 Flash Attention LLAMA 标志暴露为环境变量。[#4323](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4323)\n","2025-08-07T09:13:33",{"id":238,"version":239,"summary_zh":74,"released_at":240},145590,"v0.30.2-rc.2","2025-08-01T15:45:34",{"id":242,"version":243,"summary_zh":244,"released_at":245},145591,"v0.30.1","## ⚠️ 通知\n\n* 这是一个补丁版本，请同时查看 0.30 版本的[完整发布说明](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Freleases\u002Ftag\u002Fv0.30.0)。\n\n## 🧰 修复与改进\n\n* 将 CUDA 基础镜像降级至 12.4.1 版本，以增强兼容性。[#4314](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4314)","2025-07-12T18:36:10",{"id":247,"version":248,"summary_zh":74,"released_at":249},145592,"v0.30.1-rc.1","2025-07-12T15:20:57",{"id":251,"version":252,"summary_zh":74,"released_at":253},145593,"v0.30.1-rc.0","2025-07-11T04:30:26",{"id":255,"version":256,"summary_zh":257,"released_at":258},145594,"v0.30.0","## ⚠️ 通知\n\n* Tabby 的 Docker 镜像现在需要 NVIDIA GPU。对于仅使用 CPU 的环境，请使用 Linux 二进制文件。\n\n## 🚀 新特性\n\n* 支持将 GitLab 合并请求索引为上下文。[#4227](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4227)\n\n## 🧰 修复与改进\n\n* 默认使用 CUDA 12 镜像作为基础镜像。[#4235](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4235)\n* 利用 Answer Engine 逻辑在生成新页面时丰富上下文，从而提升页面质量。[#4237](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4237)\n* 改善系统页面上的模型配置详情。[#4236](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4236)\n* 解决聊天回复中代码片段内的按钮在答案生成过程中闪烁的问题。[#4233](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4233)\n* 将报表页面的成员筛选栏始终固定在顶部。[#4232](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4232)\n* 修复从本地加载多部分模型时出现的问题。[#4302](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4302)\n\n## 💫 新贡献者\n\n* @petarjuki7 在 [#4265](https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fpull\u002F4265) 中做出了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FTabbyML\u002Ftabby\u002Fcompare\u002Fv0.29.0...v0.30.0","2025-07-02T07:58:24",{"id":260,"version":261,"summary_zh":74,"released_at":262},145595,"v0.30.0-rc.2","2025-07-02T03:40:50"]