natively-cluely-ai-assistant

GitHub
874 195 中等 2 次阅读 今天AGPL-3.0Agent开发框架图像语言模型
AI 解读 由 AI 自动生成,仅供参考

Natively 是一款免费开源的 AI 面试搭档与会议助手,专为技术面试和线上会议场景设计。它提供实时语音转文字、本地运行的检索增强生成(RAG)功能,并支持用户自带密钥(BYOK),所有数据处理均在本地完成,无需联网上传,有效避免隐私泄露风险。相比 Cluely、Final Round AI、Interview Coder 等同类商业工具,Natively 不收取订阅费用,也从未发生过数据泄露事件。

这款工具特别适合准备技术面试的开发者使用,无论是 LeetCode 刷题、系统设计讨论,还是实时编码环节,都能提供隐形辅助——例如屏幕叠加提示、实时解题建议等,且具备“隐身模式”,不易被监考系统察觉。由于完全开源并支持本地模型运行,研究人员也可基于其架构进行二次开发或定制。

Natively 的核心亮点在于将高级 AI 功能与隐私保护结合:无需依赖云端服务,用户完全掌控自己的数据和模型,同时保持与主流商业产品相似的操作体验。目前支持 macOS 和 Windows 平台。

使用场景

一位正在准备Meta后端工程师岗位终面的应届生,需要在45分钟内完成一道系统设计题和一道LeetCode Hard编码题,同时还要应对面试官的实时追问。

没有 natively-cluely-ai-assistant 时

  • 面试中遇到不熟悉的分布式缓存设计问题,只能凭记忆硬答,逻辑混乱且遗漏关键点。
  • 编码环节卡在边界条件处理上,没有即时辅助,浪费大量时间调试却无法通过全部测试用例。
  • 使用在线AI工具担心被录屏或网络请求暴露,不敢启用任何外部帮助,全程高度紧张。
  • 依赖付费工具如Final Round AI,每月支出近百元,且需上传面试内容到第三方服务器,存在隐私泄露风险。
  • 面试结束后无法回溯具体问答细节,复盘效率低,难以针对性提升。

使用 natively-cluely-ai-assistant 后

  • 开启“隐身模式”后,AI在本地实时分析面试问题,通过屏幕角落轻量提示系统设计的关键组件(如一致性哈希、LRU淘汰策略),回答更有条理。
  • 编码时自动调用本地RAG检索相似LeetCode题解,在不切换窗口的情况下提供精准代码片段建议,快速修复逻辑漏洞。
  • 所有数据仅在本机处理,自带BYOK(自带密钥)支持,彻底规避监考软件检测和数据外泄风险,心理负担大幅减轻。
  • 完全免费开源,无需订阅,本地运行不依赖云端服务,即使网络不稳定也能稳定辅助。
  • 面试结束后自动生成带时间戳的转录与AI交互日志,便于逐帧复盘技术盲点和表达问题。

natively-cluely-ai-assistant 让开发者在真实面试压力下获得安全、私密且零成本的智能协同,真正把注意力聚焦在解决问题本身。

运行环境要求

操作系统
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes支持 macOS 12+(Apple Silicon 和 Intel)以及 Windows 10/11;可选集成 Ollama 实现本地离线 AI 推理;需用户自行提供大模型 API 密钥(如 GPT、Claude、Gemini 等);默认不收集用户数据,所有处理均在本地完成。
python未说明
natively-cluely-ai-assistant hero image

快速开始

Natively AI Assistant Logo

Natively — 免费、开源的 AI 面试副驾驶(Copilot)与会议助手

Cluely、Final Round AI、LockedIn AI 和 Interview Coder 的最佳免费替代方案。

与 Cluely 相同的 UI,更多功能,价格 $0,开源,无数据泄露风险。


License Platform Downloads Repo Views Stars Status X Community

竞品每月收费 $20–$149,将你的数据存储在他们的服务器上,其中一家已导致 83,000 名用户数据泄露。 Natively 完全免费,在本地运行,从未发生过数据泄露。你的密钥、你的模型、你的机器。

需要 macOS 12+(Apple Silicon 与 Intel)或 Windows 10/11


🔥 49.4k 次浏览  ·  💸 $0 vs 竞品 $149/月  ·  ⚡ 延迟 <500ms  ·  🛡️ 0 次数据泄露


免费、开源的 Cluely 克隆版

Natively 最初是对 Cluely 界面的像素级复刻,随后不断进化。如果你用过 Cluely,你已经知道如何使用 Natively。相同的屏幕叠加层(overlay)、相同的工作流、相同的快捷键。不同的是:它免费、开源、本地运行、支持任意大语言模型(LLM),且从未泄露过任何用户数据。

正在寻找 免费的 Cluely 替代品?一个 开源的 Cluely 克隆版?你找对了。


免费 AI 编程面试助手 — 在 LeetCode、HackerRank 与 CoderPad 上不可被检测

Natively 可作为标准在线测评中的 免费、不可检测的 AI 编程面试助手。它会捕获你的屏幕,分析题目,并通过一个隐形的叠加层实时提供提示、解答和解释 —— 完全不会干扰你的编码环境。

已在以下平台验证不可被检测:

  • LeetCode(包括 LeetCode 竞赛)
  • HackerRank
  • CoderPad
  • Codility
  • HackerEarth
  • Karat
  • 任何基于浏览器的编码环境

工作原理:

  1. 使用快捷键一键截图题目
  2. Natively 通过 OCR 识别题目内容,并将其发送至你选择的 AI(GPT、Claude、Gemini 或本地 Ollama)
  3. 回复显示在隐形叠加层中 —— 绝不会出现在屏幕共享画面中

⚠️ 重要提示: Natively 并非用于绕过 Pearson VUEProctorURespondus Lockdown Browser 等专用监考软件 —— 这些软件在操作系统层面运行,属于完全不同的类别。对于没有专用监考软件的标准在线编程测评,Natively 的隐身模式无法被检测到。

选择面试 AI 前你应该知道的 3 件事

  1. Cluely 在 2025 年年中发生数据泄露事件,导致 83,000 名用户的个人信息、访谈文字记录和截图被曝光 —— Natively 将所有数据本地存储,仅包含有限的基础遥测(telemetry),且从未发生过任何数据泄露。
  2. Final Round AI 每月收费 149 美元,其任务栏图标会被监考软件识别 —— Natively 免费、开源,并拥有经过实战检验的不可检测隐身模式(stealth mode)。
  3. LockedIn AI 每月收费 55–70 美元,并强制用户使用其云端大语言模型(LLM),不提供本地运行选项 —— Natively 允许你使用任意模型(GPT、Claude、Gemini、Llama),或通过 Ollama 完全离线运行。

⭐ 给本项目点个 Star —— 这很重要

每一个 Star 都能让 Natively 在 GitHub 搜索结果中排名更高,帮助开发者和求职者发现这个免费、注重隐私的替代方案,而不是每月花 149 美元购买那些将你的数据存储在他人服务器上的工具。

Star Natively


演示

Natively AI Assistant Demo - Real-time Interview Helper and Transcription

此演示展示了 一个完整的实时会议场景

  • 会议进行时的实时转录
  • 跨多个发言者的滚动上下文感知(rolling context awareness)
  • 对共享幻灯片的截图分析
  • 即时生成下一步该说的话
  • 后续问题与简洁回答
  • 所有功能均实时运行,无需录制或后期处理

完整对比:Natively vs Cluely vs Final Round AI vs LockedIn AI vs Interview Coder

功能 Natively Cluely Pluely LockedIn AI Final Round AI
价格 ✅ 免费(BYOK) ⚠️ 20 美元/月 ✅ 免费 ❌ 55–70 美元/月 ❌ 149 美元/月
开源 ✅ AGPL-3.0
本地数据 / 隐私保护 ✅ 是 ❌ 云端服务器 ✅ 是 ❌ 云端服务器 ❌ 云端服务器
支持任意 LLM(BYOK) ✅ 是 ❌ 厂商锁定 ⚠️ 有限 ❌ 厂商锁定 ❌ 厂商锁定
本地 AI(Ollama) ✅ 是
实时性(<500ms) ✅ 是 ⚠️ 延迟 5–90 秒 ✅ 是 ✅ ~116ms ⚠️ 最慢
双音频通道 ✅ 系统 + 麦克风 ❌ 单一流
本地 RAG 记忆 ✅ SQLite + sqlite-vec
会议历史 ✅ 完整仪表盘 ⚠️ 有限 ⚠️ 有限
截图 OCR ✅ 是 ⚠️ 有限 ✅ 是 ⚠️ 有限
隐身模式 ✅ 不可检测 ❌ 监考软件可见
进程伪装 ✅ 终端、设置等
简历与上下文支持 ✅ 专业级 ✅ 是 ✅ 是
数据泄露历史 ✅ 无 ❌ 83,000 用户泄露 ✅ 无 ✅ 无 ✅ 无

图例说明:✅ 完全支持 · ⚠️ 部分或有限支持 · ❌ 不支持


为什么 Natively 更胜一筹

对比 Cluely —— 泄露了 83,000 名用户数据

Natively 的界面设计有意保持熟悉感 —— 如果你用过 Cluely,几乎无需学习成本。

Cluely 在 2025 年年中的数据泄露事件中,暴露了 83,000 名用户的个人信息、完整面试文字记录和截图。你在面试中说的每一句话都被存储在其服务器上,随后遭到泄露。而他们竟为此每月收取 20 美元。

Natively 没有后端、没有服务器,仅包含基础遥测(仅用于 GA4 安装追踪,不收集任何用户数据)。你的文字记录、API 密钥和截图永远不会离开你的设备。整个代码库以 AGPL-3.0 开源协议发布,可公开审计。零泄露、零数据收集 —— 对于一款监听你面试内容的工具来说,这是唯一可接受的标准。

对比 LockedIn AI —— 每月 70 美元的云端锁定

LockedIn AI 是同类工具中最贵的,每月收费 55–70 美元。它强制你使用单一云端大语言模型(LLM),不提供本地推理选项。每一条文字记录和回复都会经过其服务器。

Natively 支持所有主流模型(Gemini、GPT、Claude、Groq),只需自带密钥(BYOK),并通过 Ollama 提供 100% 离线模式。你只需为你实际使用的 API Token 付费,或者完全免费地在本地运行 Llama 3。无需订阅,也无厂商锁定。

对比 Final Round AI —— 每月 149 美元且会被监考软件识别

Final Round AI 是最昂贵的选择,每月 149 美元,主要针对面试前准备和模拟面试,但在实时延迟方面却是同类中最慢的。关键问题是,其任务栏图标会被监考软件识别,在受监控的面试中极易被发现。

Natively 利用基于 Rust 的原生音频捕获技术和零拷贝 ABI 传输(Zero-Copy ABI Transfers),实现端到端延迟低于 500ms。其不可检测的隐身模式可从 Dock 中隐藏、伪装进程名称,并在所有窗口间同步状态 —— 经过五个主要版本的实战检验和强化。

对比 Pluely —— 轻量但功能有限

Pluely 是一个不错的轻量级替代品(约 10MB,基于 Tauri),并支持 Linux,而 Natively 目前尚未提供 Linux 支持。这一点值得肯定。

但 Pluely 仅是一个基础覆盖层(overlay)。它没有本地 RAG、没有会议历史、不支持双音频通道,也没有仪表盘。Natively 是一套完整的智能系统:通过本地向量搜索记住你过去的会议,分离系统音频与麦克风输入,并提供完整的管理仪表盘,支持导出为 Markdown、JSON 和纯文本格式。

vs Interview Coder — 更强大,完全免费

Interview Coder 是一款专注于编程面试辅助的付费工具。而 Natively 不仅原生支持 Interview Coder 的所有功能,还提供更多能力,并且完全免费:

Natively Interview Coder
价格 ✅ 免费(BYOK) ❌ 付费
开源
支持 LeetCode / HackerRank
截图 + OCR 分析
实时叠加层(overlay)
本地 AI / 离线模式 ✅ Ollama
行为面试支持
系统设计支持
会议历史 & RAG(检索增强生成)
任意大语言模型(BYOK) ❌ 锁定
数据本地存储 ❌ 云端

Natively 覆盖完整的面试流程——不仅限于编程环节。

vs Parakeet AI — 带记忆与历史 vs 无状态叠加层

Parakeet AI 提供基础的实时会议辅助,但没有持久化记忆、会议历史记录,也不支持本地向量搜索。Natively 通过本地 RAG 记住你过去的会议内容,允许你跨所有历史记录提问,并提供完整的仪表盘来管理、导出和搜索所有内容。


我们尚未完善之处

  • 暂不支持 Linux —— 我们正在积极寻找维护者,帮助将 Natively 移植到 Linux 平台
  • API 密钥设置开销 —— 你需要自行提供 API 密钥(或安装 Ollama),相比一体化的云端工具,初始设置略显繁琐
  • 无内置模拟面试模式 —— Final Round AI 提供专门的模拟面试练习;Natively 则专注于实时辅助

为什么选择 Natively?

当其他工具只是简单的 API 封装时,Natively 是一个完整的、原生构建的智能系统,专为高风险会议和面试场景设计。

  • 原生音频捕获(<500ms):基于 Rust 构建,采用零拷贝 ABI 传输,绕过通用 Web 音频限制,实现超低延迟。
  • 双通道智能处理:分别为系统音频(对方所说内容)和麦克风输入(你口述内容)建立独立处理管道,确保精准转录,不受环境噪音干扰。
  • 久经考验的隐身模式:完全无法被检测。隐藏于 Dock 栏、禁用弹窗,并在屏幕共享时伪装进程。
  • 滚动上下文(Rolling Context):我们不仅做转录,还会维护对话的“记忆窗口”,以提供更智能的回答。
  • 本地 RAG 记忆:使用 SQLite 向量搜索在本地嵌入你的会议记录,让你可以提问:“上周 John 对 API 说了什么?”
  • 丰富仪表盘:提供完整 UI 界面,用于管理、搜索和导出历史记录——不只是一个浮动窗口。
  • 完全离线可用:不信任云端?你可以使用本地 Ollama 模型 100% 离线运行 Natively,并仅启用有限的基础遥测功能。

Portfolio LinkedIn X Hire Me Buy Me A Coffee


Natively Pro

虽然 Natively 永远免费且开源,我们也同时提供专为高级用户和求职者设计的 Pro 版本。购买 Pro 许可证不仅能让你在求职市场中占据优势,还能直接支持 Natively 开源核心的持续开发!

免费版 vs Pro 版功能对比

功能 Natively 免费版 Natively Pro 版
自带密钥模型(BYOK Models)
本地 AI 支持(Ollama)
实时语音转文字(<500ms)
实时上下文助手
截图与幻灯片 OCR 分析
不可检测 & 隐身模式
会议仪表盘 & 离线 RAG 历史
职位描述(JD)与简历上下文感知
自动公司调研与资料包生成
实时薪资与 Offer 谈判副驾驶
优先功能访问与技术支持

v2.0.8 新增功能

v2.0.8 版本在隐形路由(stealth routing)鼠标穿透模式(Mouse Passthrough Mode)多模态 Groq 支持等方面实现了重大改进,并修复了关键性 Bug,确保工作流无缝顺畅。

  • 多模态 Groq 支持:将 meta-llama/llama-4-scout-17b-16e-instruct 集成到生态系统中,实现高速截图分析能力,并将最大生成 token 数提升至 8192。
  • 鼠标穿透模式:将后端 Electron 的鼠标事件管理与全局快捷键管理器和 React 渲染界面之间的状态完全同步。
  • 即时隐形启动 & 窗口不透明度保护罩:重构应用逻辑,使其在启动时立即应用缓存的 isUndetectable 状态,并引入不透明度保护罩,彻底消除显示受保护 UI 元素时出现的单帧屏幕闪烁问题。
  • 模型阵容与轮换引擎:默认架构模型已更新为最新一代的 gpt-5.4-chatgemini-3.1claude-sonnet-4-6,同时强化了三层故障转移机制。
  • 永久隐藏与可见性缺陷:修复了一个关键的 IPC 路由 Bug:动态隐藏会话 UI 时,Cmd+B 取消隐藏命令被错误地路由到后台 Launcher,导致用户陷入“界面不可见”的陷阱。
  • SQLite-Vec 数据损坏问题:修复了一个因严格维度约束(float[1536])导致的静默数据损坏 Bug,确保 100% 生成的嵌入(embeddings)都能被保留并可检索。
  • Groq 多媒体丢弃问题:解决了“前门(Front Door)”路由 Bug:图像附件完全绕过了 Groq 引擎,触发了虚假的 LLM 连接错误。
  • 关键竞态条件与线程安全:消除了 LLM 故障转移循环期间危险的全局状态突变,并修复了 SettingsManager 早期初始化导致的致命崩溃。
  • 内存与资源泄漏:强化了原生音频监听器的销毁逻辑,防止僵尸回调;同时清理了不透明度保护罩和伪装计时器中悬空的浮动超时 ID。
  • 原生模块加载器管道(跨平台稳定性):集成了自定义 NAPI-RS 绝对二进制加载器(nativeModuleLoader.ts),完全绕过 Windows Git Bash 上因 POSIX 符号链接导致的 require 失败问题,并进行了多项增强,例如修正硬编码的 natively.icns 依赖。

目录


Natively 是什么?

Natively 是一款面向实时场景桌面 AI 助手

  • 会议
  • 面试
  • 演示
  • 课堂
  • 专业对话

它提供:

  • 实时回答
  • 持续对话上下文
  • 截图与文档理解
  • 实时语音转文字(speech-to-text)
  • 即时建议下一句话该说什么

全程保持隐形、快速、以隐私为先


隐私与安全(核心设计原则)

  • 100% 开源(AGPL-3.0 许可证)
  • 自带密钥(Bring Your Own Keys, BYOK)
  • 本地 AI 选项(Ollama)
  • 所有数据本地存储
  • 极简遥测(仅基础 GA4 计数)
  • 不追踪用户数据
  • 无隐藏上传

您明确控制:

  • 哪些功能在本地运行
  • 哪些功能使用云端 AI
  • 启用哪些提供商

安装指南(开发者与贡献者)

[!NOTE] macOS 用户(支持 Apple Silicon 与 Intel Mac):

  1. “来自未识别开发者”:若出现此提示,请右键点击应用 > 选择 打开 > 点击 打开

  2. “应用程序已损坏”:若出现此提示,请根据您的下载方式在终端中运行以下命令:

    对于 .zip 下载:

    xattr -cr /Applications/Natively.app
    

    对于 .dmg 下载:

    1. 打开终端并运行:
      xattr -cr ~/Downloads/Natively-2.0.2-arm64.dmg # 或您具体的文件名
      
    2. 安装 natively.dmg
    3. 打开终端并运行:xattr -cr /Applications/Natively.app

先决条件

  • Node.js(推荐 v20+)
  • Git
  • Rust(用于原生音频捕获)

AI 凭据与语音提供商

Natively 完全免费,只需您自己的密钥即可使用。
可连接任意语音提供商和任意大语言模型(LLM)。无订阅、无加价、无隐藏费用。所有密钥均本地存储。

无限免费转录(Whisper、Google、Deepgram)

  • Soniox(API Key) - 超快、高精度的流式语音转文字(STT)
  • Google Cloud Speech-to-Text(服务账号)
  • Groq(API Key)
  • OpenAI Whisper(API Key)
  • Deepgram(API Key)
  • ElevenLabs(API Key)
  • Azure 语音服务(API Key + 区域)
  • IBM Watson(API Key + 区域)

AI 引擎支持(自带密钥,Bring Your Own Key)

原生连接 任意 主流大模型或本地推理引擎。

提供商(Provider) 最佳适用场景
Gemini 3.1 系列 推荐:超大上下文窗口(200 万 tokens)且成本低廉。
OpenAI (GPT-5.4 & o3) 高阶推理能力。
Anthropic (Claude 4.6) 编程与复杂精细任务。
Groq (Llama 3.3/Scout 4) 极致速度(近乎即时响应)与截图分析。
Ollama / LocalAI 100% 离线 & 隐私(无需 API 密钥)。
OpenAI 兼容接口 连接 任意 自定义端点(如 vLLM、LM Studio 等)。

注意:你只需配置 一个 语音识别(Speech-to-Text)提供商即可开始使用。我们推荐 Google STTGroqDeepgram 以获得最快的实时性能。


使用 Google Speech-to-Text(可选)

你的凭证:

  • 永远不会离开你的设备
  • 不会被记录、代理或远程存储
  • 仅由本地应用程序使用

你需要准备:

  • Google Cloud 账号
  • 已启用计费功能
  • 已启用 Speech-to-Text API
  • 服务账号(Service Account)的 JSON 密钥文件

设置步骤概要:

  1. 创建或选择一个 Google Cloud 项目
  2. 启用 Speech-to-Text API
  3. 创建一个服务账号
  4. 分配角色:roles/speech.client
  5. 生成并下载 JSON 密钥文件
  6. 在应用设置中指定该 JSON 文件路径

开发环境搭建

克隆仓库

git clone https://github.com/evinjohnn/natively-cluely-ai-assistant.git
cd natively-cluely-ai-assistant

安装依赖

npm install

构建原生音频模块(Rust)

npm run build:native

环境变量

创建 .env 文件:

# 云 AI
GEMINI_API_KEY=your_key
GROQ_API_KEY=your_key
OPENAI_API_KEY=your_key
CLAUDE_API_KEY=your_key
GOOGLE_APPLICATION_CREDENTIALS=/absolute/path/to/service-account.json

# 语音提供商(可选 - 仅需一个)
DEEPGRAM_API_KEY=your_key
ELEVENLABS_API_KEY=your_key
AZURE_SPEECH_KEY=your_key
AZURE_SPEECH_REGION=eastus
IBM_WATSON_API_KEY=your_key
IBM_WATSON_REGION=us-south

# 本地 AI(Ollama)
USE_OLLAMA=true
OLLAMA_MODEL=llama3.2
OLLAMA_URL=http://localhost:11434

# 默认模型配置
DEFAULT_MODEL=gemini-3.1-flash-lite-preview

运行(开发模式)

npm start

构建(生产模式)

npm run dist

此命令依次执行:Vite 构建 → TypeScript 编译 → 原生模块构建 → electron-builder 打包


AI 提供商支持

  • 自定义端点(BYO Endpoint):粘贴任意 cURL 命令即可使用 OpenRouter、DeepSeek 或私有端点。
  • Ollama(本地):零配置自动检测本地模型(如 Llama 3、Mistral、Gemma)。
  • 动态模型选择:首选模型(OpenAI、Anthropic、Google)现在会在整个应用中自动显示。
  • Google Gemini:对 Gemini 3.1 系列提供一流支持。
  • OpenAI:支持 GPT-5.4 和 o3 系列,并优化了系统提示(system prompts)。
  • Anthropic:支持 Claude 4.6 系列,并修正了 max_tokens 参数。
  • Groq:使用 Llama 3.3 实现超快文本推理,并通过 Llama 4 Scout 实现截图分析。

核心功能

隐形桌面助手

  • 始终置顶的半透明覆盖层
  • 快捷键即时隐藏/显示
  • 支持所有应用程序

实时面试副驾 & 编程辅助

  • 实时语音转文字(延迟 <500ms
  • 快速响应模式:使用 Groq Llama 3.3 实现超快文本回复
  • 多语言支持:可选择多种回复语言,并为语音识别匹配特定口音和方言
  • 反聊天机器人 / 拟人化系统:通过精炼的系统提示和负面约束,确保回复简洁、自然,与真实候选人无异(无机械式开场白或说教)
  • 基于上下文的记忆(RAG)用于过往会议
  • 在问题提出时即时回答
  • 临时/最终转录桥接:在录音过程中手动完成转录并桥接临时结果,提高准确性
  • 智能回顾与摘要

即时屏幕 & 幻灯片分析(OCR)—— AI 编程面试助手

  • 支持 LeetCode、HackerRank、CoderPad、Codility、HackerEarth 及任何基于浏览器的编程环境
  • 一键快捷键捕获编程题目 —— 立即获得完整解答、解释及复杂度分析
  • 隐形覆盖层不会出现在屏幕共享或录制画面中
  • 支持多张截图处理多部分题目
  • 若主视觉模型失败,智能回退至 Groq Llama 4 Scout

高级个人资料智能

  • 职位描述 & 简历上下文:原生理解你的背景和应聘职位,提供高度定制化、上下文感知的回答
  • 公司调研:即时获取你面试公司的深度情报与档案
  • 谈判辅助:在薪资与录用谈判中提供实时策略指导

上下文操作

  • 我该怎么回答?
  • 缩短回复
  • 回顾对话
  • 建议后续问题
  • 手动或语音触发提示

双通道音频智能

原生理解“听会议”和“与 AI 对话”是两项不同任务,并分别处理:

  • 系统音频(会议声音):直接从操作系统捕获高保真音频(macOS 和 Windows 均完全支持),能清晰“听到”同事发言,不受房间环境噪音干扰。
  • 采样率自动检测:动态检测并同步真实硬件采样率(例如自动处理 48kHz 音频接口或外接麦克风,避免失真或降采样伪影)。
  • 两级静音处理:结合自适应 RMS 阈值与 WebRTC 机器学习语音活动检测(VAD),有效过滤打字声和风扇噪音。
  • 麦克风输入(你的声音):专用于你的语音指令和口述输入。可即时切换,向 Natively 提出私密问题而无需关闭会议软件的麦克风。

Spotlight 搜索与自定义

  • 全局激活快捷键(Cmd+K / Ctrl+K
  • 自定义按键绑定:可自定义全局快捷键,便于控制
  • 即时答案覆盖层
  • 即将开始的会议准备状态

本地 RAG(检索增强生成)与长期记忆

  • 完全离线 RAG:所有向量嵌入(vector embeddings)和检索均在本地完成(SQLite + sqlite-vec)。
  • 语义搜索:创新的“智能范围(Smart Scope)”可自动判断你是在询问当前会议还是过去的某次会议。
  • 滑动窗口 RAG:50 个 token 的语义重叠,防止在分块边界处丢失上下文。
  • 纪元摘要(Epoch Summarization):采用更智能的转录文本内存管理机制,替代硬性截断——不再丢失会议早期的上下文。
  • 全局知识:可跨所有过往会议提问(例如:“上个月我们对 API 做了什么决定?”)。
  • 自动索引:会议内容会在后台自动分块、嵌入并建立索引。

高级隐私与隐蔽性

  • 不可检测模式(Undetectable Mode):一键从 Dock/任务栏隐藏,并通过视觉锁定的选择器防止状态不一致。
  • 跨窗口状态同步:在设置、启动器和叠加窗口之间实现实时状态同步。
  • 进程伪装(Masquerading):可立即将应用伪装成终端、系统设置、活动监视器或其他无害工具,在屏幕共享时彻底规避被发现。
  • 安全加固:退出应用时会从内存中清除 API 密钥,且凭据管理器会在释放密钥前覆盖关键数据。
  • API 速率限制:采用令牌桶算法(突发/补充机制),避免在免费套餐提供商处触发 429 错误。
  • 纯本地处理:所有数据均保留在你的设备上。

会议智能仪表盘

原生集成强大且以本地优先的会议管理系统,用于回顾、搜索和管理你的全部对话历史。

Dashboard Preview

  • 会议存档:访问每场过往会议的完整转录文本,支持按关键词或日期搜索。
  • 智能导出:一键将转录文本和 AI 摘要导出为 Markdown、JSON 或纯文本——非常适合粘贴到 Notion、Obsidian 或 Slack 中。
  • 使用统计:实时追踪你的 token 使用量和 API 成本,清晰掌握在 Gemini、OpenAI 或 Claude 上的具体花费。
  • 音频分离:分别控制 系统音频(对方所说内容)和 麦克风(你口述的内容)。
  • 会话管理:重命名、整理或删除过往会话,保持工作区整洁。

路线图

timeline
    title Natively 产品路线图
    section 短期(1-3 个月)
        系统设计 : 可视化 MVP
        用户角色 : 基础系统(3-5 个角色)
        Token : 集成概念验证
    section 中期(3-6 个月)
        用户角色 : 完整库
        系统设计 : 高级图表类型
        Token : 社区功能
        平台 : 移动应用开发
    section 长期(6+ 个月)
        协作 : 协同功能
        生态系统 : 插件生态
        平台 : 多语言支持
如需详细功能说明,请参阅完整的 ROADMAP.md

使用场景

学术与学习

  • 实时辅助:在课堂上即时获取复杂知识点的解释。
  • 翻译:在国际课程中实现即时语言翻译。
  • 问题求解:立即获得编程或数学问题的帮助。

专业会议

  • 面试支持:提供上下文感知的提示,助你应对技术问题。
  • 销售与客户通话:实时澄清技术规格或之前讨论的要点。
  • 会议摘要:自动提取行动项和核心决策。

开发与技术工作

  • 代码洞察:解释屏幕上你不熟悉的代码块或逻辑。
  • 调试:针对日志或终端错误提供上下文感知的协助。
  • 架构设计:提供系统设计和集成模式的指导。

架构概览

Natively 在本地处理音频、屏幕上下文和用户输入,维护一个滚动上下文窗口,并仅将所需的提示数据发送至所选的 AI 提供商(本地或云端)。

除非用户明确启用,否则不会存储或传输原始音频、截图或转录文本。


技术细节

技术栈

  • React, Vite, TypeScript, TailwindCSS
  • Electron
  • Rust(通过 napi::Buffer 实现零拷贝 ABI 传输的原生音频处理——支持持续音频捕获,避免 V8 垃圾回收压力,相比典型 Electron 应用显著降低延迟和 CPU 占用)
  • SQLite(使用 sqlite-vec 的本地存储)

支持的模型

  • Gemini 3.1 系列
  • OpenAI(GPT-5.4, o3 系列)
  • Claude(4.6 系列)
  • Ollama(Llama, Mistral, CodeLlama)
  • Groq(Llama 3.3 用于文本,Llama 4 Scout 用于 OCR)

系统要求

  • 最低配置:4GB RAM
  • 推荐配置:8GB+ RAM
  • 最佳体验:16GB+ RAM(用于本地 AI)

负责任的使用

Natively 旨在用于:

  • 学习
  • 提升生产力
  • 辅助无障碍使用
  • 专业协助

用户需自行遵守:

  • 工作场所政策
  • 学术规范
  • 当地法律法规

本项目不鼓励任何滥用或欺骗行为。


已知限制

  • Linux 支持有限,正在积极招募维护者
  • 初始设置需用户自行提供 API 密钥或安装 Ollama
  • 无内置模拟面试模式(聚焦于实时、现场辅助)

贡献指南

欢迎贡献!请参阅我们的 CONTRIBUTING.md 获取完整的入门指南。

  • Bug 修复
  • 功能改进
  • 文档撰写
  • UI/UX 优化
  • 新的 AI 集成

高质量的 Pull Request 将被审核并合并。

维护者

维护者 职责 支持
@evinjohnn macOS 构建 Buy Me a Coffee
@razllivan Windows 构建 Buy Me a Coffee

许可证

本项目依据 GNU Affero 通用公共许可证 v3.0(AGPL-3.0)授权。

如果您通过网络运行或修改此软件,则必须在相同许可证下提供完整的源代码。

本仓库包含该项目的开源核心部分。

官方版本中提供的某些功能属于商业版 Premium Edition,不包含在此仓库中。

注意: 本项目接受赞助、广告或合作——非常适合 AI、生产力工具或开发者工具领域的公司。


如果 Natively 帮助您在会议、面试或演讲中取得成功,请为本仓库点个 Star!


常见问题(FAQ)

Natively 真的是免费的吗?

是的。Natively 是一个开源项目。您只需自带 API 密钥(如 Gemini、OpenAI、Anthropic 等)按实际使用付费,或者通过连接本地 Ollama 实例实现 100% 免费 使用。

Natively 是否支持 Zoom、Teams 和 Google Meet?

是的。Natively 使用基于 Rust 的系统音频捕获技术,可在任何桌面应用程序中通用工作,包括 Zoom、Microsoft Teams、Google Meet、Slack 和 Discord。

我的数据安全吗?

Natively 遵循 隐私优先设计(Privacy-by-Design) 原则。所有转录文本、向量嵌入(本地 RAG)和密钥均存储在您的本地设备上。我们没有后端服务器,仅收集有限的基本遥测数据(不含用户数据)。

我能用它参加技术面试吗?

Natively 是适用于任何专业场景的强大助手。但用户需自行遵守所在公司的政策及面试准则。

如何使用本地模型?

只需安装 Ollama,运行一个模型(例如 ollama run llama3),Natively 将自动检测到它。在 AI 提供商设置中启用 “Ollama” 即可切换至离线模式。

Natively 与 Cluely 相比如何?

Cluely 是一款每月 20 美元的云端工具,所有数据都存储在其服务器上。2025 年年中,Cluely 发生了一起数据泄露事件,导致 83,000 名用户的个人信息、对话记录和截图被曝光。而 Natively 是免费且开源的,所有数据均本地存储。它支持任意大语言模型(LLM,Large Language Model),不仅限于单一供应商,并通过 Ollama 提供本地 AI 能力,还具备经过实战检验的隐身模式。由于 Natively 没有服务器,因此从未发生过数据泄露。

隐身模式真的无法被检测到吗?

是的。Natively 会从程序坞(Dock)中隐藏自身,将进程名称伪装成无害的系统工具(如 Terminal、Activity Monitor、System Settings),并在所有窗口间同步状态。该功能已在五个主要版本中不断强化,并在 Zoom、Teams 和 Google Meet 中测试过屏幕共享检测。

Natively 能在 LeetCode 和 HackerRank 上使用吗?

可以。Natively 的截图 + OCR 功能可捕获任何可见的编程题目,并通过不可见的叠加层返回完整解答。它适用于 LeetCode、HackerRank、CoderPad、Codility、HackerEarth、Karat 以及任何基于浏览器的编程环境。

在编程面试中会被检测到吗?

对于标准在线测评(如 LeetCode、HackerRank、CoderPad 等),Natively 不会被检测到——它以伪装的系统进程运行,且叠加层不会出现在屏幕录制或屏幕共享中。但它 并非 用于绕过 Pearson VUE、ProctorU 或 Respondus Lockdown Browser 等操作系统级的专业监考软件。

Natively 是 Interview Coder 的免费替代品吗?

是的。Natively 能完成 Interview Coder 所做的所有事情——截图 OCR、实时编程辅助、不可见叠加层——并额外提供行为面试支持、系统设计帮助、本地 RAG 记忆以及支持任意 LLM 的自带密钥(BYOK, Bring Your Own Key)功能。而且全部免费。


Natively 可替代的工具

Natively 是以下工具的免费开源替代方案:

工具 Natively 替代的功能
Cluely 实时 AI 会议副驾 —— 无需每月 20 美元费用或数据泄露风险
Final Round AI 实时 AI 面试副驾 —— 无需每月 149 美元费用或监考可见的任务栏图标
LockedIn AI 实时面试助手 —— 无需云绑定或每月 70 美元
Interview Coder AI 编程面试助手 —— 不仅限于编程环节,还包含完整的会议上下文
Parakeet AI 实时会议助手 —— 支持本地 RAG 记忆和完整历史记录仪表盘
Metaview 自动会议纪要 —— 开源且本地存储
Otter.ai 转录与会议摘要 —— 无需云存储
Fireflies.ai 会议录音与 AI 记录员 —— 完全本地存储
Teal 求职与面试助手 —— 完全本地化且免费

ai-assistant · meeting-notes · interview-helper · cluely-alternative · cluely · lockhead-ai · lockheed-ai · parakeet-ai · interview-coder · final-round-ai · metaview-alternative · otter-ai-alternative · fireflies-alternative · local-ai · ollama · electron · privacy-first · open-source · real-time-transcription · interview-copilot · ai-meeting-assistant · moltbot


支持 Natively

围绕 Natively 的社区在 Pump.fun 上创建了一个代币以支持该项目。

创作者奖励有助于覆盖 AI/API 费用 和持续开发成本。

Support Natively on Pump.fun

Star History(Star 历史)

Star History Chart free-ai-interview-copilot · open-source-cluely · cluely-alternative · cluely-clone · interview-coder-alternative · final-round-ai-alternative · lockedin-ai-alternative · ai-interview-assistant · real-time-interview-ai · undetectable-interview-ai · stealth-mode · local-ai · ollama · byok(自带密钥) · rag(检索增强生成) · electron · rust · privacy-first · meeting-assistant · interview-helper · open-source-interview-ai

版本历史

v2.2.02026/04/04
2.1.02026/03/31
v2.1.0-beta.22026/04/01
v2.1.0-beta.12026/03/31
v2.0.92026/03/28
v2.0.82026/03/24
v2.0.72026/03/23
v2.0.62026/03/17
v2.0.52026/03/15
v2.0.42026/03/14
v2.0.32026/03/13
v2.0.22026/03/11
v2.0.12026/03/06
v2.02026/03/02
v1.1.82026/02/23
v1.1.72026/02/20
v1.1.62026/02/14
v1.1.52026/02/13
v1.1.32026/02/09
v1.1.22026/02/08

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架