[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-addyosmani--chatty":3,"tool-addyosmani--chatty":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":72,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":114,"github_topics":115,"view_count":32,"oss_zip_url":120,"oss_zip_packed_at":120,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":124},6545,"addyosmani\u002Fchatty","chatty","ChattyUI - your private AI chat for running LLMs in the browser","Chatty 是一款专为浏览器打造的私人 AI 聊天工具，让你无需依赖云端服务器，即可在本地直接运行大型语言模型（LLM）。它利用 WebGPU 技术，将复杂的模型推理过程完全放在你的设备上进行，从而彻底解决了数据隐私泄露和联网依赖的痛点。无论是断网环境还是对敏感数据有严格要求的场景，Chatty 都能确保你的对话记录和上传文件（如 PDF、代码等）永不离开本地设备。\n\n这款工具非常适合注重隐私的普通用户、希望离线体验大模型的学生与研究人员，以及想要快速部署本地 AI 应用的开发者。Chatty 不仅支持 Gemma、Llama 系列、Mistral 等主流开源模型，还提供了类似 ChatGPT 的流畅交互体验，包括语音输入、文件问答、自定义记忆、代码高亮及深色模式等功能。其独特的技术亮点在于结合了 XenovaTransformerEmbeddings 与本地向量存储，实现了完全本地的文档理解能力，同时具备响应式设计，在手机和电脑上均可流畅使用。只需简单的安装步骤或通过 Docker 部署，你就能立刻拥有一个安全、智能且完全属于你的浏览器 AI 助手。","\u003Cdiv align=\"center\">\n  \n  [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faddyosmani_chatty_readme_c2cbfc4780b3.jpg\">](https:\u002F\u002Fchattyui.com\u002F)\n  \n\u003C\u002Fdiv>\n\n\u003Ch1 align=\"center\">\n  Chatty\n\u003C\u002Fh1>\n\n\u003Cdiv align=\"center\">\n  \n![Website](https:\u002F\u002Fimg.shields.io\u002Fwebsite?url=https%3A%2F%2Fchattyui.com%2F) ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Faddyosmani\u002Fchatty) ![GitHub forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Faddyosmani\u002Fchatty) ![GitHub watchers](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fwatchers\u002Faddyosmani\u002Fchatty)\n\n\u003C\u002Fdiv>\n\n**Chatty** is your private AI that leverages WebGPU to run large language models (LLMs) natively & privately in your browser, bringing you the most feature rich in-browser AI experience.\n\n# Features ✨\n\n- **In-browser privacy:** All AI models run locally (client side) on your hardware, ensuring that your data is processed only on your pc. No server-side processing!\n- **Offline:** Once the initial download of a model is processed, you'll be able to use it without an active internet connection.\n- **Chat history:** Access and manage your conversation history.\n- **Supports new open-source models:** Chat with popular open-source models such as Gemma, Llama2 & 3 and Mistral!\n- **Responsive design:** If your phone supports WebGl, you'll be able to use Chatty just as you would on desktop.\n- **Intuitive UI:** Inspired by popular AI interfaces such as Gemini and ChatGPT to enhance similarity in the user experience.\n- **Markdown & code highlight:** Messages returned as markdown will be displayed as such & messages that include code, will be highlighted for easy access.\n- **Chat with files:** Load files (pdf & all non-binary files supported - even code files) and ask the models questions about them - fully local! Your documents never gets processed outside of your local environment, thanks to [XenovaTransformerEmbeddings](https:\u002F\u002Fhuggingface.co\u002FXenova\u002Fall-MiniLM-L6-v2) & [MemoryVectorStore](https:\u002F\u002Fjs.langchain.com\u002Fv0.1\u002Fdocs\u002Fintegrations\u002Fvectorstores\u002Fmemory\u002F)\n- **Custom memory support:** Add custom instructions\u002Fmemory to allow the AI to provide better and more personalized responses.\n- **Export chat messages:** Seamlessly generate and save your chat messages in either json or markdown format.\n- **Voice input support:** Use voice interactions to interact with the models.\n- **Regenerate responses:** Not quite the response you were hoping for? Quickly regenerate it without having to write out your prompt again.\n- **Light & Dark mode:** Switch between light & dark mode.\n\n# Preview\n\nhttps:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fassets\u002F114422072\u002Fa994cc5c-a99d-4fd2-9eab-c2d4267fcfd3\n\n# Why?\n\nThis project is meant to be the closest attempt at bringing the familarity & functionality from popular AI interfaces such as ChatGPT and Gemini into a in-browser experience.\n\n# Browser support\n\nBy default, WebGPU is enabled and supported in both Chrome and Edge. However, it is possible to enable it in Firefox and Firefox Nightly.\nCheck the [browser compatibility](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebGPU_API#browser_compatibility) for more information.\n\n# How to Install\n\n> If you just want to try out the app, it's live on [this](https:\u002F\u002Fchattyui.com) website.\n>\n> This is a Next.js application and requires Node.js (18+) and npm installed to run the project locally.\n\n## Install from source\n\nIf you want to setup and run the project locally, follow the steps below:\n\n**1. Clone the repository to a directory on your pc via command prompt:**\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\n```\n\n**2. Open the folder:**\n\n```\ncd chatty\n```\n\n**3. Install dependencies:**\n\n```\nnpm install\n```\n\n**4. Start the development server:**\n\n```\nnpm run dev\n```\n\n**5. Go to [localhost:3000](http:\u002F\u002Flocalhost:3000) and start chatting!**\n\n## Docker\n\n> [!NOTE]  \n> The Dockerfile has not yet been optimized for a production environment. If you wish to do so yourself, checkout the [Nextjs example](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fnext.js\u002Fblob\u002Fcanary\u002Fexamples\u002Fwith-docker\u002FDockerfile)\n\n```\ndocker build -t chattyui .\ndocker run -d -p 3000:3000 chattyui\n```\n\nOr use `docker-compose`:\n\n```\ndocker compose up\n```\n\n> If you've made changes and want to rebuild, you can simply run `docker-compose up --build`\n\n# Roadmap\n\n- [ ] **Multiple file embeddings:** The ability to embed multiple files instead of one at a time for each session.\n- [ ] **Prompt management system:** Select from and add different system prompts to quickly use in a session.\n\n# Contributing\n\nContributions are more than welcome! However, please make sure to read the [contributing guidelines](https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) first :)\n\n# Hardware requirements\n\n> [!NOTE]  \n> To run the models efficiently, you'll need a GPU with enough memory. 7B models require a GPU with about 6GB memory whilst 3B models require around 3GB.\n>\n> Smaller models might not be able to process file embeddings as efficient as larger ones.\n\n# Acknowledgements & credits\n\nChatty is built using the [WebLLM](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fweb-llm) project, utilizing [HuggingFace](https:\u002F\u002Fhuggingface.co\u002F), open source LLMs and [LangChain](https:\u002F\u002Fwww.langchain.com\u002F). We want to acknowledge their great work and thank the open source community.\n\n# Authors\n\nChatty is created and maintained by [Addy Osmani](https:\u002F\u002Fgithub.com\u002Faddyosmani\u002F) & [Jakob Hoeg Mørk](https:\u002F\u002Fgithub.com\u002Fjakobhoeg).\n","\u003Cdiv align=\"center\">\n  \n  [\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faddyosmani_chatty_readme_c2cbfc4780b3.jpg\">](https:\u002F\u002Fchattyui.com\u002F)\n  \n\u003C\u002Fdiv>\n\n\u003Ch1 align=\"center\">\n  Chatty\n\u003C\u002Fh1>\n\n\u003Cdiv align=\"center\">\n  \n![网站](https:\u002F\u002Fimg.shields.io\u002Fwebsite?url=https%3A%2F%2Fchattyui.com%2F) ![GitHub 仓库星级](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Faddyosmani\u002Fchatty) ![GitHub 分支数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Faddyosmani\u002Fchatty) ![GitHub 监控人数](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fwatchers\u002Faddyosmani\u002Fchatty)\n\n\u003C\u002Fdiv>\n\n**Chatty** 是一款私密的 AI 工具，它利用 WebGPU 在您的浏览器中本地、私密地运行大型语言模型（LLMs），为您带来功能最丰富的浏览器内 AI 体验。\n\n# 功能 ✨\n\n- **浏览器内隐私：** 所有 AI 模型都在您的设备上本地运行（客户端），确保您的数据仅在您的电脑上处理。无需服务器端处理！\n- **离线使用：** 一旦完成模型的初始下载，您便可在没有网络连接的情况下继续使用。\n- **聊天历史：** 访问并管理您的对话历史。\n- **支持新的开源模型：** 可与 Gemma、Llama2 和 Llama3 以及 Mistral 等热门开源模型进行对话！\n- **响应式设计：** 如果您的手机支持 WebGL，您就可以像在桌面端一样使用 Chatty。\n- **直观的用户界面：** 灵感来源于 Gemini 和 ChatGPT 等流行的 AI 界面，以提升用户体验的一致性。\n- **Markdown 和代码高亮：** 返回的 Markdown 格式消息会原样显示，而包含代码的消息则会高亮显示，方便查看。\n- **文件对话：** 加载文件（PDF 及所有非二进制文件——甚至代码文件）并就这些文件向模型提问——全程本地处理！得益于 [XenovaTransformerEmbeddings](https:\u002F\u002Fhuggingface.co\u002FXenova\u002Fall-MiniLM-L6-v2) 和 [MemoryVectorStore](https:\u002F\u002Fjs.langchain.com\u002Fv0.1\u002Fdocs\u002Fintegrations\u002Fvectorstores\u002Fmemory\u002F) 的支持，您的文档永远不会被传输到本地环境之外进行处理。\n- **自定义记忆支持：** 添加自定义指令或记忆，使 AI 能够提供更优质、更个性化的回复。\n- **导出聊天记录：** 轻松将聊天记录以 JSON 或 Markdown 格式生成并保存。\n- **语音输入支持：** 使用语音交互与模型进行交流。\n- **重新生成回复：** 对回复不太满意？无需重新输入提示，即可快速重新生成。\n- **浅色与深色模式：** 随意切换浅色或深色模式。\n\n# 预览\n\nhttps:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fassets\u002F114422072\u002Fa994cc5c-a99d-4fd2-9eab-c2d4267fcfd3\n\n# 为什么？\n\n该项目旨在尽可能地将 ChatGPT 和 Gemini 等流行 AI 界面的熟悉度和功能性带入浏览器体验中。\n\n# 浏览器支持\n\n默认情况下，WebGPU 在 Chrome 和 Edge 中均已启用并支持。不过，在 Firefox 和 Firefox Nightly 中也可以启用它。\n有关更多信息，请参阅 [浏览器兼容性](https:\u002F\u002Fdeveloper.mozilla.org\u002Fen-US\u002Fdocs\u002FWeb\u002FAPI\u002FWebGPU_API#browser_compatibility)。\n\n# 如何安装\n\n> 如果您只是想试用这款应用，它已上线于 [此](https:\u002F\u002Fchattyui.com) 网站。\n>\n> 这是一个 Next.js 应用程序，需要安装 Node.js（18+）和 npm 才能在本地运行该项目。\n\n## 从源码安装\n\n如果您希望在本地设置并运行该项目，请按照以下步骤操作：\n\n**1. 通过命令行将仓库克隆到您电脑上的某个目录：**\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\n```\n\n**2. 进入该文件夹：**\n\n```\ncd chatty\n```\n\n**3. 安装依赖项：**\n\n```\nnpm install\n```\n\n**4. 启动开发服务器：**\n\n```\nnpm run dev\n```\n\n**5. 打开 [localhost:3000](http:\u002F\u002Flocalhost:3000) 即可开始聊天！**\n\n## Docker\n\n> [!注意]  \n> 目前 Dockerfile 尚未针对生产环境进行优化。如果您希望自行优化，可以参考 [Next.js 示例](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fnext.js\u002Fblob\u002Fcanary\u002Fexamples\u002Fwith-docker\u002FDockerfile)。\n\n```\ndocker build -t chattyui .\ndocker run -d -p 3000:3000 chattyui\n```\n\n或者使用 `docker-compose`：\n\n```\ndocker compose up\n```\n\n> 如果您进行了更改并希望重新构建，只需运行 `docker-compose up --build` 即可。\n\n# 路线图\n\n- [ ] **多文件嵌入：** 实现每次会话同时嵌入多个文件的功能。\n- [ ] **提示管理系统：** 提供多种系统提示供选择，并可在会话中快速添加使用。\n\n# 贡献\n\n我们非常欢迎各位的贡献！不过，请务必先阅读 [贡献指南](https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fblob\u002Fmain\u002FCONTRIBUTING.md) :)\n\n# 硬件要求\n\n> [!注意]  \n> 为了高效运行模型，您需要一块具有足够显存的 GPU。7B 规模的模型大约需要 6GB 显存，而 3B 规模的模型则需要约 3GB。\n>\n> 更小规模的模型可能无法像大模型那样高效地处理文件嵌入。\n\n# 致谢与鸣谢\n\nChatty 基于 [WebLLM](https:\u002F\u002Fgithub.com\u002Fmlc-ai\u002Fweb-llm) 项目构建，使用了 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002F) 的开源 LLMs 以及 [LangChain](https:\u002F\u002Fwww.langchain.com\u002F) 的技术。我们在此向他们的杰出工作表示感谢，并对开源社区致以敬意。\n\n# 作者\n\nChatty 由 [Addy Osmani](https:\u002F\u002Fgithub.com\u002Faddyosmani\u002F) 和 [Jakob Hoeg Mørk](https:\u002F\u002Fgithub.com\u002Fjakobhoeg) 创建并维护。","# Chatty 快速上手指南\n\nChatty 是一款基于 WebGPU 技术的私有化 AI 聊天工具，支持在浏览器本地运行大语言模型（如 Llama 3、Gemma、Mistral 等），无需服务器端处理，确保数据完全隐私且支持离线使用。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Windows、macOS 或 Linux\n- **浏览器**：\n  - 推荐：最新版 **Chrome** 或 **Edge**（默认启用 WebGPU）\n  - 可选：Firefox \u002F Firefox Nightly（需手动开启 WebGPU 支持）\n- **硬件要求**：\n  - 运行 7B 参数模型：建议显卡显存 ≥ 6GB\n  - 运行 3B 参数模型：建议显卡显存 ≥ 3GB\n  - *注：显存不足可能导致文件嵌入功能效率降低*\n\n### 前置依赖\n若需在本地开发或部署，请确保安装以下工具：\n- **Node.js**：版本 18 或更高\n- **npm**：随 Node.js 自动安装\n- **Git**：用于克隆代码仓库\n- **Docker**（可选）：用于容器化部署\n\n## 安装步骤\n\n### 方式一：从源码安装（推荐开发者）\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\n   ```\n\n2. **进入项目目录**\n   ```bash\n   cd chatty\n   ```\n\n3. **安装依赖**\n   > 国内用户如遇下载缓慢，可配置淘宝镜像源：\n   > `npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n   ```bash\n   npm install\n   ```\n\n4. **启动开发服务器**\n   ```bash\n   npm run dev\n   ```\n\n5. **访问应用**\n   打开浏览器访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) 即可开始使用。\n\n### 方式二：Docker 部署\n\n1. **构建并运行镜像**\n   ```bash\n   docker build -t chattyui .\n   docker run -d -p 3000:3000 chattyui\n   ```\n\n2. **或使用 Docker Compose**\n   ```bash\n   docker compose up\n   ```\n   *若修改了代码需重新构建，请执行：*\n   ```bash\n   docker-compose up --build\n   ```\n\n3. **访问应用**\n   打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n\n> **提示**：若仅需体验功能，可直接访问官方在线演示站点：[https:\u002F\u002Fchattyui.com](https:\u002F\u002Fchattyui.com)\n\n## 基本使用\n\n1. **加载模型**\n   - 首次访问时，界面会提示下载开源模型（如 Llama-3-8B、Gemma-2B 等）。\n   - 根据硬件条件选择合适的模型，等待下载完成（后续可离线使用）。\n\n2. **开始对话**\n   - 在输入框中输入问题，点击发送或与模型进行自然语言交互。\n   - 支持 Markdown 渲染及代码高亮显示。\n\n3. **高级功能**\n   - **文件问答**：点击上传按钮加载 PDF 或代码文件，直接针对文件内容提问（全程本地处理）。\n   - **语音输入**：点击麦克风图标通过语音与模型交互。\n   - **自定义记忆**：在设置中添加自定义指令或背景信息，让回答更个性化。\n   - **导出记录**：支持将聊天记录导出为 JSON 或 Markdown 格式。\n   - **主题切换**：一键切换浅色\u002F深色模式。\n\n4. **管理历史**\n   - 侧边栏可查看和管理过往的对话历史记录。","一位金融分析师需要在出差途中，利用笔记本电脑离线分析一份包含敏感数据的内部财报 PDF，并提取关键风险点生成摘要。\n\n### 没有 chatty 时\n- **数据泄露风险高**：必须将机密文档上传至第三方云端 AI 服务，违反公司“数据不出域”的安全合规要求。\n- **依赖网络连接**：在飞机或信号差的酒店中，因无法联网导致所有基于云端的 AI 辅助工具完全瘫痪。\n- **响应延迟严重**：上传大文件及等待云端排队处理耗时较长，打断分析思路，降低工作效率。\n- **额外成本支出**：处理大量文档可能需要购买昂贵的企业级 API 配额或订阅服务。\n\n### 使用 chatty 后\n- **极致本地隐私**：chatty 利用 WebGPU 技术在浏览器本地运行模型，财报数据从未离开过分析师的电脑，彻底杜绝泄露隐患。\n- **全场景离线可用**：模型下载完成后，即便在无网络的万米高空，也能流畅地对 PDF 进行问答和摘要生成。\n- **即时交互体验**：直接在浏览器加载文件并提问，无需上传等待，实现毫秒级的本地推理响应。\n- **零边际成本**：完全开源免费，无需支付任何 Token 费用或订阅费，充分利用本地硬件算力。\n\nchatty 通过将大模型能力完全私有化并植入浏览器，让敏感数据处理实现了真正的安全、离线与零成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faddyosmani_chatty_c2cbfc47.jpg","addyosmani","Addy Osmani","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Faddyosmani_7bdfb016.png","Engineering Lead at Google working on Chrome & Web Platform","Google","Mountain View, California","addyosmani@gmail.com","https:\u002F\u002Fwww.addyosmani.com","https:\u002F\u002Fgithub.com\u002Faddyosmani",[82,86,90,94],{"name":83,"color":84,"percentage":85},"TypeScript","#3178c6",97.8,{"name":87,"color":88,"percentage":89},"CSS","#663399",1.2,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",0.7,{"name":95,"color":96,"percentage":97},"Dockerfile","#384d54",0.3,812,98,"2026-04-09T16:00:50","MIT","未说明 (基于浏览器的应用，依赖支持 WebGPU 的操作系统)","必需支持 WebGPU 的 GPU。7B 模型需约 6GB 显存，3B 模型需约 3GB 显存。","未说明",{"notes":106,"python":107,"dependencies":108},"这是一个在浏览器中运行的私有 AI 工具，利用 WebGPU 技术在本地运行大语言模型。无需服务器端处理，支持离线使用。主要依赖支持 WebGPU 的浏览器（如 Chrome、Edge，Firefox 需手动开启）。首次使用需下载模型文件，之后可离线运行。不支持传统 Python 环境部署，而是通过 Node.js 构建并在浏览器中执行。","不需要 (项目为 Next.js 应用，运行环境为 Node.js 18+)",[109,110,111,112,113],"Node.js >= 18","npm","WebLLM","LangChain","HuggingFace Transformers (via Xenova)",[35,15,14,13],[116,117,118,119],"ai","chatbot","huggingface","local",null,"2026-03-27T02:49:30.150509","2026-04-11T15:13:26.411474",[],[125,130,135],{"id":126,"version":127,"summary_zh":128,"released_at":129},206085,"0.3.0","## 变更内容\n* 功能新增：@jakobhoeg 在 https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fpull\u002F70 中添加了对视觉模型（phi-3.5-vision-instruct）的支持。\n* 功能新增：@jakobhoeg 在 https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fpull\u002F77 中引入了带有思考过程的 DeepSeek R1 模型。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Faddyosmani\u002Fchatty\u002Fcompare\u002F0.2.0...0.3.0","2025-01-22T09:48:22",{"id":131,"version":132,"summary_zh":133,"released_at":134},206086,"0.2.0","本次新版本新增对最新发布的 [Llama3.1](https:\u002F\u002Fai.meta.com\u002Fblog\u002Fmeta-llama-3-1\u002F) 模型（80亿和700亿参数版本）以及通义千问2系列模型的支持。","2024-07-25T06:31:43",{"id":136,"version":137,"summary_zh":138,"released_at":139},206087,"0.1.0","这是我们首次部署的版本。","2024-06-20T21:35:19"]