cursor-deepseek
cursor-deepseek 是一款高性能代理服务器,专为让 Cursor IDE 的 Composer 功能无缝接入 DeepSeek、OpenRouter 及 Ollama 等大语言模型而设计。它核心解决了模型接口不兼容的痛点:通过将标准的 OpenAI 格式请求自动转换为目标模型所需的 API 格式,用户无需修改代码或等待官方原生支持,即可在熟悉的开发环境中直接调用这些高性价比或本地化的 AI 模型。
这款工具特别适合希望降低 AI 使用成本、追求数据隐私或需要特定模型能力的开发者与技术研究人员。无论是进行智能代码生成、复杂逻辑推理,还是搭建私有化部署环境,cursor-deepseek 都能提供流畅的支持。其技术亮点包括原生支持 HTTP/2 以提升响应速度、完整兼容流式输出与函数调用(Function Calling)、自动处理消息格式转换,并提供便捷的 Docker 容器化部署方案。配合 ngrok 等工具,用户还能轻松将本地服务暴露至公网,实现灵活的远程访问。对于想要突破模型限制、自由组合最佳 AI 助力的编程人员而言,这是一个实用且高效的桥梁工具。
使用场景
某全栈开发者正在使用 Cursor IDE 的 Composer 功能重构一个复杂的微服务架构,希望利用 DeepSeek-V3 模型卓越的代码逻辑能力来生成高并发处理模块。
没有 cursor-deepseek 时
- 模型选择受限:Cursor Composer 原生仅支持 OpenAI 系列模型,无法直接调用性价比更高或在特定代码任务上表现更优的 DeepSeek 模型。
- 工作流断裂:若想使用 DeepSeek,开发者不得不频繁切换窗口,将代码复制到网页版对话框中生成,再手动粘贴回 IDE,严重打断心流。
- 高级功能缺失:直接在外部调用 API 难以享受 Composer 特有的多文件上下文关联和自动应用代码变更(Apply Changes)的便捷体验。
- 成本与延迟焦虑:依赖单一的 OpenAI 接口不仅费用高昂,且在网络波动时缺乏备选方案,导致开发效率不稳定。
使用 cursor-deepseek 后
- 无缝集成新模型:通过本地部署该代理,开发者只需在 Cursor 设置中修改 Base URL,即可让 Composer 原生支持 DeepSeek 模型,无需改动任何操作习惯。
- 沉浸式开发体验:所有代码生成、解释和重构请求直接在 IDE 内完成,代理自动处理 API 格式转换,实现了从“复制粘贴”到“一键应用”的飞跃。
- 完整特性支持:完美保留了流式响应(Streaming)和函数调用能力,Composer 能像使用官方模型一样流畅地进行多轮对话和复杂任务规划。
- 灵活可控的成本:开发者可以自由切换 DeepSeek 或 OpenRouter 后端,在保证代码质量的同时大幅降低 Token 消耗,并利用 HTTP/2 特性提升响应速度。
cursor-deepseek 通过简单的协议转换,打破了 IDE 与优质开源模型之间的壁垒,让开发者能以最低成本享受顶级的 AI 编程辅助体验。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
DeepSeek API 代理
一款高性能、支持 HTTP/2 的代理服务器,专为使 Cursor IDE 的 Composer 能够使用 DeepSeek、OpenRouter 和 Ollama 的语言模型而设计。该代理会将与 OpenAI 兼容的 API 请求转换为 DeepSeek/OpenRouter/Ollama 的 API 格式,从而使 Cursor 的 Composer 以及其他兼容 OpenAI API 的工具能够无缝地使用这些模型。
主要使用场景
此代理旨在让 Cursor IDE 用户通过 Cursor 的 Composer 界面,利用 DeepSeek、OpenRouter 和 Ollama 强大的语言模型,作为 OpenAI 模型的替代方案。通过在本地运行此代理,您可以配置 Cursor 的 Composer 使用这些模型来进行 AI 辅助、代码生成和其他 AI 功能。它会处理所有必要的请求/响应转换和格式转换,以实现无缝集成。
特性
- 支持 HTTP/2,提升性能
- 完全支持 CORS
- 流式响应
- 支持函数调用/工具
- 自动消息格式转换
- 压缩支持(Brotli、Gzip、Deflate)
- 兼容 OpenAI API 客户端库
- API 密钥验证,确保安全访问
- 支持 Docker 容器,并提供多变体构建
前置条件
- Cursor Pro 订阅
- Go 1.19 或更高版本
- DeepSeek 或 OpenRouter API 密钥
- 本地运行的 Ollama 服务器(可选,用于 Ollama 支持)
- 公网端点
安装
- 克隆仓库
- 安装依赖:
go mod download
Docker 安装
该代理同时支持 DeepSeek 和 OpenRouter 变体。请根据需求选择合适的构建命令:
构建 Docker 镜像:
- 对于 DeepSeek(默认):
docker build -t cursor-deepseek .- 对于 OpenRouter:
docker build -t cursor-openrouter --build-arg PROXY_VARIANT=openrouter .- 对于 Ollama:
docker build -t cursor-ollama --build-arg PROXY_VARIANT=ollama .配置环境变量:
- 复制示例配置文件:
cp .env.example .env- 编辑
.env文件,添加您的 API 密钥(DeepSeek 或 OpenRouter)。
运行容器:
docker run -p 9000:9000 --env-file .env cursor-deepseek
# 或者对于 OpenRouter
docker run -p 9000:9000 --env-file .env cursor-openrouter
# 或者对于 Ollama
docker run -p 9000:9000 --env-file .env cursor-ollama
配置
仓库中包含一个 .env.example 文件,展示了所需的环境变量。配置步骤如下:
- 复制示例配置文件:
cp .env.example .env
- 编辑
.env文件并添加您的 API 密钥:
# 对于 DeepSeek
DEEPSEEK_API_KEY=your_deepseek_api_key_here
# 或者对于 OpenRouter
OPENROUTER_API_KEY=your_openrouter_api_key_here
# 或者对于 Ollama
OLLAMA_API_KEY=your_ollama_api_key_here
注意:请根据您使用的变体,仅配置其中一个 API 密钥。
使用
- 启动代理服务器:
go run proxy.go
# 或者指定模型:
go run proxy.go -model coder
# 或
go run proxy.go -model chat
# 或者对于 OpenRouter
go run proxy-openrouter.go
# 或者对于 Ollama
go run proxy-ollama.go
服务器默认会在端口 9000 上启动。
- 在您的 OpenAI API 客户端中使用该代理,将基础 URL 设置为
http://your-public-endpoint:9000/v1
将端点公开
您可以使用 ngrok 或类似服务将本地代理服务器暴露到互联网上。这在需要从外部应用程序或不同网络访问代理时非常有用。
使用 ngrok
从 https://ngrok.com/download 下载并安装 ngrok。
在本地启动您的代理服务器(默认运行在端口 9000)。
在一个新的终端中运行 ngrok:
ngrok http 9000
ngrok 会为您提供一个公网 URL(例如:https://your-unique-id.ngrok.io)。
将此 URL 作为 Cursor 设置中的 OpenAI API 基础 URL:
https://your-unique-id.ngrok.io/v1
其他方法
您也可以使用其他服务来暴露您的端点:
Cloudflare Tunnel:
- 安装 cloudflared
- 运行:
cloudflared tunnel --url http://localhost:9000
LocalTunnel:
- 安装:
npm install -g localtunnel - 运行:
lt --port 9000
- 安装:
请务必在将端点暴露到互联网时,采取适当的安全措施。
支持的端点
/v1/chat/completions- 聊天完成端点/v1/models- 模型列表端点
模型映射
gpt-4o映射到 DeepSeek 的 GPT-4o 等效模型deepseek-chat对应 DeepSeek 的原生聊天模型deepseek/deepseek-chat对应 OpenRouter 上的 DeepSeek 模型
依赖项
github.com/andybalholm/brotli- Brotli 压缩支持github.com/joho/godotenv- 环境变量管理golang.org/x/net- HTTP/2 支持
安全性
- 代理包含用于跨域请求的 CORS 头部
- 需要 API 密钥,并根据环境变量进行验证
- 安全处理请求/响应数据
- 对所有请求进行严格的 API 密钥验证
- 通过 HTTP/2 支持 HTTPS
- 环境变量绝不会提交到代码仓库中
许可证
本项目采用 GNU 通用公共许可证 v2.0(GPLv2)授权。详细信息请参阅 LICENSE.md 文件。
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。