gen.nvim

GitHub
1.5k 127 中等 1 次阅读 2天前Unlicense语言模型插件
AI 解读 由 AI 自动生成,仅供参考

gen.nvim 是一款专为 Neovim 编辑器设计的插件,旨在让用户直接在代码编辑环境中调用大语言模型(LLM)生成文本。它解决了开发者在编写代码、撰写文档或重构逻辑时,无需切换窗口即可快速获取 AI 辅助的需求,极大地提升了工作流的连贯性与效率。

这款工具特别适合习惯使用命令行和键盘操作的开发者及技术写作者。其核心亮点在于高度的可定制性与对本地部署的支持:gen.nvim 默认对接 Ollama 服务,允许用户运行如 Llama 3.2、Mistral 等本地模型,既保护了数据隐私,又降低了使用成本。用户可以通过预设或自定义提示词(Prompt)灵活控制生成内容,支持语法修正、代码解释、功能增强等多种场景。

此外,gen.nvim 提供了丰富的交互选项,包括浮动窗口、分屏显示等多种结果展示模式,并支持多轮对话上下文记忆,让用户能像聊天一样连续追问。配合简洁的快捷键配置,无论是快速润色一段注释,还是基于现有代码生成新功能,都能轻松完成。对于追求高效、私密且可完全掌控 AI 工具的极客用户而言,gen.nvim 是一个轻量而强大的得力助手。

使用场景

一位后端开发者正在 Neovim 中紧急重构一段遗留的 Python 数据处理脚本,需要在不离开编辑器的情况下快速优化代码逻辑并补充文档。

没有 gen.nvim 时

  • 上下文频繁切换:必须复制代码片段,切换到浏览器打开 LLM 网页版,粘贴后再将结果复制回编辑器,打断心流。
  • 重复劳动繁琐:每次请求都要手动输入“请优化这段代码并添加类型提示”等固定指令,效率低下。
  • 多轮对话困难:若需针对生成结果进行追问(如“改成异步版本”),需在网页端重新组织上下文,难以保持连贯的修改历史。
  • 隐私与配置顾虑:担心敏感业务逻辑上传至公共云服务,且无法灵活切换本地部署的不同参数模型进行测试。

使用 gen.nvim 后

  • 编辑器内闭环操作:选中代码后直接通过快捷键调用 Gen Enhance_Code 预设指令,利用本地 Ollama 运行的 Mistral 模型秒级返回结果并原地替换。
  • 自定义指令复用:预先配置好针对团队规范的 Prompt(如“遵循 PEP8 并增加 Docstring"),一键触发,无需重复输入。
  • 无缝多轮迭代:在浮动窗口中直接使用 :Gen Chat 延续当前上下文,连续发出“增加异常处理”、“优化内存占用”等指令,像与结对编程伙伴一样自然交流。
  • 灵活模型调度:随时通过 select_model 命令在本地轻量模型与高精度模型间切换,既保证响应速度又兼顾复杂逻辑的准确性,且数据完全留存本地。

gen.nvim 将大语言模型深度融入 Neovim 工作流,让开发者在不中断编码思路的前提下,享受本地化、可定制的智能辅助体验。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明 (依赖外部 Ollama 服务,GPU 需求取决于所选模型及 Ollama 配置)

内存

未说明 (依赖外部 Ollama 服务及所选模型大小)

依赖
notes该工具是 Neovim 插件,本身不直接运行 AI 模型,而是通过 HTTP 请求调用本地运行的 Ollama 服务。用户需自行安装并配置 Ollama 及相应的 LLM 模型(如 llama3.2, mistral 等)。默认端口为 11434。若使用隐藏窗口功能需 Neovim 版本 >= 0.10。
python未说明
Neovim >= 0.10 (部分功能需要)
Ollama
Curl
gen.nvim hero image

快速开始

gen.nvim

使用可自定义提示的 LLM 生成文本

gen_nvim

视频

Neovim 中的本地 LLM:gen.nvim

需求

安装

使用你喜欢的插件管理器安装,例如 lazy.nvim

Lazy 示例配置:

-- 最简配置
{ "David-Kunz/gen.nvim" },

-- 自定义参数(含默认值)
{
    "David-Kunz/gen.nvim",
    opts = {
        model = "mistral", -- 默认使用的模型。
        quit_map = "q", -- 设置关闭响应窗口的键映射
        retry_map = "<c-r>", -- 设置重新发送当前提示的键映射
        accept_map = "<c-cr>", -- 设置用最新结果替换之前选中文本的键映射
        host = "localhost", -- 运行 Ollama 服务的主机。
        port = "11434", -- Ollama 服务监听的端口。
        display_mode = "float", -- 显示模式。可为 "float"、"split"、"horizontal-split" 或 "vertical-split"。
        show_prompt = false, -- 显示提交给 Ollama 的提示。可为 true(3 行)或 "full"。
        show_model = false, -- 在聊天会话开始时显示正在使用的模型。
        no_auto_close = false, -- 不自动关闭窗口。
        file = false, -- 将请求负载写入临时文件,以缩短命令长度。
        hidden = false, -- 隐藏生成窗口(若为 true,则会隐式设置 `prompt.replace = true`),需 Neovim >= 0.10。
        init = function(options) pcall(io.popen, "ollama serve > /dev/null 2>&1 &") end,
        -- 初始化 Ollama 的函数。
        command = function(options)
            local body = {model = options.model, stream = true}
            return "curl --silent --no-buffer -X POST http://" .. options.host .. ":" .. options.port .. "/api/chat -d $body"
        end,
        -- 调用 Ollama 服务的命令。可使用占位符 $prompt、$model 和 $body(经过 shell 转义)。
        -- 也可以直接指定命令字符串。
        -- 执行的命令必须返回一个包含 { response, context } 的 JSON 对象
        -- (context 属性为可选)。
        -- list_models = '<omitted lua function>', -- 获取模型名称列表。
        result_filetype = "markdown", -- 配置结果缓冲区的文件类型。
        debug = false -- 打印错误及执行的命令。
    }
},

所有可用模型请参见 这里

或者,你也可以调用 setup 函数:

require('gen').setup({
  -- 同上
})

使用方法

使用 Gen 命令根据预定义和可自定义的提示生成文本。

示例键映射:

vim.keymap.set({ 'n', 'v' }, '<leader>]', ':Gen<CR>')

你还可以直接通过 预定义提示 或自定义提示来调用:

vim.keymap.set('v', '<leader>]', ':Gen Enhance_Grammar_Spelling<CR>')

对话开始后,整个上下文都会被发送到 LLM。这样你就可以继续提问:

:Gen Chat

窗口关闭后,将开启一个新的会话。

对于不会自动替换先前选中文本的提示(replace = false),你可以使用 <c-cr> 将选中文本替换为生成的内容。

你还可以从已安装的所有模型中选择一个模型:

require('gen').select_model()

自定义提示

所有提示都定义在 require('gen').prompts 中,你可以对其进行扩展或修改。

示例:

require('gen').prompts['Elaborate_Text'] = {
  prompt = "详细阐述以下文本:\n$text",
  replace = true
}
require('gen').prompts['Fix_Code'] = {
  prompt = "修复以下代码。仅以 ```$filetype\n...\n``` 格式输出结果:\n```$filetype\n$text\n```",
  replace = true,
  extract = "```$filetype\n(.-)```"
}

每个提示可以使用以下属性:

  • prompt: (字符串 | 函数)提示可以是字符串,也可以是一个返回字符串的函数。结果中可以使用以下占位符:
    • $text: 可视化选中的文本或当前缓冲区的内容。
    • $filetype: 缓冲区的文件类型(如 javascript)。
    • $input: 用户额外输入。
    • $register: 未命名寄存器的值(即复制的内容)。
  • replace: 如果希望用生成的内容替换选中文本,则设置为 true
  • extract: 用于提取生成结果的正则表达式。
  • model: 要使用的模型,默认为 mistral

小贴士

用户选择可以通过 Telescope 结合 telescope-ui-select 来实现。

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架