Mysti

GitHub
1k 45 简单 1 次阅读 今天Apache-2.0图像开发框架插件Agent
AI 解读 由 AI 自动生成,仅供参考

Mysti 是一款专为 VS Code 打造的智能编程助手插件,它创新性地将多个顶尖 AI 模型(如 Claude Code、OpenAI Codex、Qwen Code 等)整合为一个协同工作的“虚拟开发团队”。与传统单一 AI 助手不同,Mysti 支持让多个 AI 代理以“头脑风暴”模式共同讨论、辩论并综合出最优代码方案,利用群体智慧弥补单个模型的局限,从而提供更精准、更具创造性的解决方案。

这款工具主要解决了开发者在面对复杂逻辑或架构设计时,单一 AI 建议可能不够全面或缺乏深度的问题。通过多模型协作机制,Mysti 能帮助用户在编码初期获得更广阔的思路,并在实施阶段验证方案的可行性。

Mysti 非常适合专业软件开发者、技术负责人以及希望提升代码质量的研究人员使用。无论是需要快速原型开发的初创团队,还是追求极致稳定性的企业级项目,都能从中受益。

其独特亮点在于支持高达 12 种 AI 提供商,包括本地部署的 Ollama 和 LocalAI,让用户既能享受云端大模型的强大能力,又能确保数据隐私与零延迟响应。此外,内置的自动化测试与稳定性优化机制,确保了多代理协作过程中的流畅与可靠。

使用场景

某后端工程师正在为电商系统重构一个高并发的订单结算模块,需要在保证数据一致性的同时优化响应速度。

没有 Mysti 时

  • 思维局限:独自依赖单一 AI 助手(如仅用 Copilot),生成的方案往往陷入局部最优,缺乏对边缘情况的深度推演。
  • 决策犹豫:在“使用分布式锁”还是“乐观锁”的技术选型上反复纠结,需手动查阅大量文档对比优劣,耗时数小时。
  • 代码返工:直接采纳首个建议的代码片段,结果在测试阶段发现并发冲突漏洞,导致逻辑重写和调试周期拉长。
  • 隐私顾虑:涉及核心交易逻辑时,不敢将完整代码上下文上传至云端模型,只能割裂地询问碎片化问题。

使用 Mysti 后

  • 群智辩论:启动“头脑风暴模式”,让 Claude Code 与 Qwen Code 分别扮演激进派与保守派,自动辩论并合成兼顾性能与安全的最佳架构。
  • 快速收敛:多个 Agent 在 VS Code 内实时协作,几分钟内即可输出包含优缺点分析的对比报告,直接锁定最优技术路线。
  • 一次做对:Agent 团队共同审查代码逻辑,提前识别出潜在的竞态条件,生成的代码片段通过率高,大幅减少后期返工。
  • 灵活部署:针对敏感结算逻辑,一键切换至本地 Ollama 模型运行,既享受多模型协作红利,又确保核心数据不出内网。

Mysti 将单打独斗的编码过程升级为多专家协同的决策闭环,用集体智能显著提升了复杂场景下的代码质量与开发效率。

运行环境要求

操作系统
  • Windows
  • macOS
  • Linux
GPU
  • 非必需(取决于所选 AI 提供商)
  • 若使用本地模型(Ollama/LocalAI),需根据具体模型配置 GPU
  • 云端提供商无需本地 GPU
内存

未说明(取决于所选 AI 提供商及是否运行本地模型)

依赖
notesMysti 是一个 VS Code 扩展插件,本身不直接依赖特定的 Python 环境或 GPU,而是作为集成层连接现有的 12 种 AI 编码工具(包括云端和本地)。若要使用本地推理功能(Ollama/LocalAI),需单独安装并配置相应的本地模型运行环境。部分高级功能(如智能计划检测)要求系统中至少安装两个 CLI 工具。
python未说明
Visual Studio Code
至少安装 2 个 CLI 工具(如 Claude Code, Codex, Ollama 等)以启用完整功能
Mysti hero image

快速开始

英文 | 简体中文 | 日本語 | 한국어 | Español | Português | العربية | Deutsch | Français | Türkçe | Русский

Mysti - 您的 AI 编码团队协同工作

Mysti Logo

版本 安装量 评分 GitHub 星标 GitHub 分支 许可证

适用于 VSCode 的 AI 编码团队
12 家 AI 提供商——Claude Code、Codex、Gemini、Copilot、Cline、Cursor、OpenClaw、Manus、OpenCode、Qwen Code、Ollama 和 LocalAI——可单独使用或组成团队协作
群体智慧让多个智能体的集体智慧超越单个智能体。

从 VS Code 市场安装

提供商头脑风暴模式核心功能快速入门配置文档


v0.4.0 新增内容

4 家新提供商(总计 12 家)

Mysti 现在支持 12 家 AI 提供商——新增了 OpenCodeQwen CodeOllamaLocalAI,与 Claude Code、Codex、Gemini、GitHub Copilot、Cline、Cursor、OpenClaw、Manus 一同提供服务。您可以通过 Ollama/LocalAI 运行本地模型,也可以使用 OpenCode 和 Qwen Code 等云端提供商。每个提供商在 UI 中都有其专属的官方标识。

Qwen Code

阿里巴巴旗下的 AI 编码 CLI,具备深度推理能力。采用与 Claude Code 相同的流式传输协议,实现无缝集成。支持 Qwen3 Coder 模型,提供计划、自动编辑和 YOLO 批准三种模式。

OpenCode

多后端编码助手,通过单一 CLI 支持 Anthropic、OpenAI、Google 和 Groq。使用您配置的默认模型,无需绑定特定提供商。

本地 AI 支持

借助 OllamaLocalAI,您可以在本地运行 AI 模型,无需订阅云服务。完全隐私、零延迟,您可以完全掌控自己的模型。

稳定性与测试

针对头脑风暴模式和 @-mention 标记进行了 18 处稳定性修复——包括基于静默的超时处理、身份验证预检查、收敛保护、提及次数限制以及重试清理等。此外,还通过 vitest 进行了 360 项自动化测试,确保所有功能的可靠性。

错误修复

  • Windows: 修复了自动 Shell 模式下的 spawn EINVAL 错误 (#14)
  • Codex: 头脑风暴现在会尊重 mysti.codexPath 设置 (#26)

秒级安装

从 VS Code 安装: 按下 Ctrl+P(Mac 上为 Cmd+P),然后粘贴:

ext install DeepMyst.mysti

或者 从 VS Code 市场安装


选择您的 AI

Mysti 可以与您现有的 AI 编码工具协同工作。无需额外订阅。

代理切换

提供商 最适合
Claude Code 深度推理、复杂重构、全面分析
Codex 快速迭代、熟悉的 OpenAI 风格
Gemini 响应迅速、与 Google 生态系统无缝集成
GitHub Copilot 通过 GitHub 订阅访问多种模型(Claude、GPT-5、Gemini)
Cline 计划/执行模式、结构化任务完成
Cursor 自动模型选择、支持 Claude、GPT-5 和 Gemini 等多种模型
OpenClaw 实时 WebSocket 流式传输、可配置思考层级
OpenCode 多后端助手(Anthropic、OpenAI、Google、Groq)
Qwen Code 阿里巴巴的 AI 编码助手,具备深度推理能力
Ollama 本地 LLM 推理、注重隐私、无需订阅
LocalAI 自托管 AI 模型、完全可控

只需点击一下即可切换提供商。无锁定风险。

为什么选择 Mysti?

对比 Copilot/Cursor Mysti 的优势
单一 AI 多智能体头脑风暴——两个 AI 智能体以 5 种策略协同工作
锁定于单一提供商 12 家提供商——Claude、Codex、Gemini、Copilot、Cline、Cursor、OpenClaw、Manus、OpenCode、Qwen、Ollama、LocalAI
黑盒操作 完全权限控制——从只读到完全访问
普通回复 16 种角色——架构师、调试器、安全专家……
手动流程 自主模式——AI 在安全控制下独立工作
无跨智能体路由 @-mentions——可直接将任务路由至特定智能体

实际演示

Mysti 聊天界面

美观现代的聊天界面,支持语法高亮、Markdown 和 Mermaid 图表

任务列表渲染与进度跟踪

实时任务列表渲染与进度跟踪


头脑风暴模式

想要第二意见吗? 启用头脑风暴模式,让两个 AI 智能体共同解决您的问题。您可以在设置面板中从 12 个智能体中任意选择 2 个

头脑风暴模式

5种协作策略

策略 角色 最适合
快速 直接合成 简单任务、快速解答
辩论 批评者 vs 辩护者 架构决策、权衡取舍
红队 提案者 vs 挑战者 安全审查、边缘场景发现
多视角 风险分析师 vs 创新者 新项目设计、技术选型
德尔菲法 协调者 vs 精炼者 复杂问题、达成共识

为什么两台AI比一台更好

Claude Code(Anthropic)、Codex(OpenAI)、Gemini(Google)、GitHub CopilotClineCursorOpenClawOpenCodeQwen Code(Alibaba)、OllamaLocalAI 的训练方式、优势和盲点各不相同。当任意两台协同工作时:

  • 每台AI都能捕捉到另一台可能遗漏的边缘情况
  • 不同视角带来更稳健的解决方案
  • 共同协作时,它们会相互辩论、挑战,并综合出最佳方案

这就像是让一位资深开发者和一位技术负责人一起评审代码——只不过他们还会先进行讨论。

收敛检测

在讨论过程中,Mysti 会跟踪各智能体的一致性和立场稳定性。当启用 自动收敛 时,一旦智能体达成共识,讨论将提前结束,从而节省时间而不影响质量。

选择你的团队

设置面板 中配置哪两个智能体协作:

头脑风暴模型选择

组合 最适合
Claude + Codex 深度分析与快速迭代结合
Claude + Gemini 严谨推理与快速验证结合
Claude + Copilot 对比 Claude 原生与 Copilot 多模型方法
Cursor + Gemini 多模型灵活性与 Google 集成
OpenClaw + Claude WebSocket 流式传输与深度推理
Qwen + Claude 对比 Alibaba 和 Anthropic 的推理能力
OpenCode + Gemini 多后端灵活性与 Google 速度
Ollama + Claude 本地隐私与云端智能结合

完整头脑风暴文档

智能计划检测

当 AI 提出多种实现方案时,Mysti 会自动检测并让你选择偏好的路径。

计划建议

至少需要安装 2 个 CLI 工具。请参阅 要求


核心功能

自主模式

让 AI 在可配置的安全控制下独立工作:

  • 安全分类器:三种级别——安全(自动批准)、谨慎(按模式决定)、阻止(始终拒绝)
  • 三种安全模式:保守、平衡、激进
  • 学习记忆:记住你的权限偏好并逐步优化
  • 延续模式:基于目标或任务队列,支持长时间自主运行
  • 审计追踪:每项自主决策都会被记录以便审查

选择自主模式

完整自主模式文档

@提及系统

将任务路由到特定智能体,并在文中引用文件:

@提及标记

@claude 审查这段代码是否存在安全问题
@src/auth.ts @gemini 建议对该文件进行性能优化
@claude 编写测试,然后由 @codex 进行优化
  • 文件提及@filename 添加临时上下文
  • 智能体提及@agent 将任务路由到该提供商
  • 链式处理:后续智能体会将前序智能体的响应作为上下文接收

完整 @提及文档

上下文压缩

智能对话管理,防止上下文溢出:

  • 自动触发:当令牌使用量接近阈值(默认 75%)时启动
  • 原生支持:Claude Code 使用内置 /compact 命令
  • 客户端侧:其他提供商采用智能消息摘要
  • 分面板跟踪:每个聊天面板独立跟踪使用情况

完整压缩文档

16 种开发者角色

塑造你的 AI 思考方式。从专门的角色中选择,改变 AI 解决问题的方式。

角色与技能面板

角色 重点
架构师 系统设计、可扩展性、清晰结构
调试员 根因分析、修复 bug
安全意识者 漏洞、威胁建模
性能调优师 优化、性能分析、延迟
原型设计师 快速迭代、PoC
重构专家 代码质量、可维护性
+ 10 种更多... 全栈工程师、DevOps、导师、设计师...

完整角色与技能文档


快速角色选择

无需打开面板,即可直接从工具栏选择角色。

工具栏角色选择


智能自动建议

Mysti 会根据你的消息自动推荐相关角色和操作。

自动建议


对话历史

再也不用担心丢失工作内容。所有对话都会保存并轻松访问。

对话历史


欢迎页快捷操作

通过一键操作快速开始常见任务。

快捷操作


丰富设置

微调 Mysti 的各个方面,包括令牌预算、访问权限和头脑风暴模式。

设置面板


需求

您已经在使用 Claude、ChatGPT、Gemini 或 GitHub Copilot 服务了吗?那您就可以直接开始使用了。

Mysti 可以与您现有的订阅无缝集成,无需额外付费!

CLI 工具 订阅服务 安装命令
Claude Code(推荐) Anthropic API 或 Claude Pro/Max npm install -g @anthropic-ai/claude-code
GitHub Copilot CLI GitHub Copilot Pro/Pro+/Business npm install -g @github/copilot-cli
Gemini CLI Google AI API 或 Gemini Advanced npm install -g @google/gemini-cli
Codex CLI OpenAI API 请参考 OpenAI 的安装指南
Cline 取决于模型提供商 npm install -g cline
Cursor Cursor 订阅 curl https://cursor.com/install -fsS | bash
OpenClaw OpenClaw 账户 npm install -g openclaw@latest && openclaw onboard --install-daemon
OpenCode 提供商 API 密钥(Anthropic、OpenAI 等) npm i -g opencode-ai@latest
Qwen Code Qwen OAuth 或 API 密钥 npm install -g @qwen-code/qwen-code@latest
Ollama 本地运行(无需订阅) 从 ollama.com 安装
LocalAI 本地运行(无需订阅) 从 localai.io 安装

您只需安装 一个 CLI 即可开始使用。安装 任意两个 则可解锁头脑风暴模式。


快速入门

1. 安装 Mysti

选项 A: 按下 Ctrl+P(Mac 上为 Cmd+P),粘贴并运行:

ext install DeepMyst.mysti

选项 B: 从 VS Code 市场安装

2. 安装一个 CLI 工具

# Claude Code(推荐)
npm install -g @anthropic-ai/claude-code
claude auth login

# 或 GitHub Copilot CLI(通过 GitHub 访问 Claude、GPT-5、Gemini)
npm install -g @github/copilot-cli
copilot  # 然后使用 /login 命令

# 或 Gemini CLI
npm install -g @google/gemini-cli
gemini auth login

# 或 Cursor
curl https://cursor.com/install -fsS | bash
agent login

# 或 OpenClaw
npm install -g openclaw@latest && openclaw onboard --install-daemon
openclaw login

# 或 OpenCode
npm i -g opencode-ai@latest
opencode auth login

# 或 Qwen Code
npm install -g @qwen-code/qwen-code@latest
qwen  # 然后输入 /auth

若要启用头脑风暴模式,请安装任意两个 CLI 工具。

3. 打开 Mysti

  • 点击活动栏中的 Mysti 图标,或
  • 按下 Ctrl+Shift+M(Mac 上为 Cmd+Shift+M

4. 开始编码

输入您的需求,让 AI 来协助您完成工作!


斜杠命令

通过内置的斜杠命令菜单,您可以快速访问各种技能和操作。

斜杠命令菜单


12 种可切换的技能

您可以自由组合不同的行为修饰符:

  • 简洁 - 清晰简明的沟通
  • 测试驱动 - 边写代码边编写测试
  • 自动提交 - 分步提交更改
  • 第一性原理 - 基于根本原理进行推理
  • 专注任务 - 始终围绕当前任务展开工作
  • 还有另外 7 种……

完整的人物角色与技能文档


权限控制

您可以完全掌控 AI 的操作权限:

  • 只读 - AI 只能读取文件,不能修改
  • 需审批 - 每次文件更改都需要您批准
  • 完全访问 - 允许 AI 自主工作

权限控制演示


配置

基本设置

{
  "mysti.defaultProvider": "claude-code",
  "mysti.brainstorm.agents": ["claude-code", "google-gemini"],
  "mysti.brainstorm.strategy": "quick",
  "mysti.accessLevel": "ask-permission"
}

提供商设置

设置 默认值 描述
mysti.defaultProvider claude-code 主要的 AI 提供商
mysti.claudePath claude Claude CLI 的路径
mysti.codexPath codex Codex CLI 的路径
mysti.geminiPath gemini Gemini CLI 的路径
mysti.copilotPath copilot Copilot CLI 的路径
mysti.clinePath cline Cline CLI 的路径
mysti.cursorPath agent Cursor CLI 的路径
mysti.openclawPath openclaw OpenClaw CLI 的路径
mysti.opencodePath opencode OpenCode CLI 的路径
mysti.qwenCodePath qwen Qwen Code CLI 的路径
mysti.ollamaPath ollama Ollama CLI 的路径
mysti.localaiPath localai LocalAI CLI 的路径

头脑风暴设置

设置 默认值 描述
mysti.brainstorm.agents ["claude-code", "openai-codex"] 使用哪两个代理
mysti.brainstorm.strategy quick 策略:quickdebatered-teamperspectivesdelphi
mysti.brainstorm.autoConverge true 当代理意见一致时自动退出
mysti.brainstorm.maxDiscussionRounds 3 最大讨论轮数

自主设置

设置 默认值 描述
mysti.autonomous.safetyMode balanced conservativebalancedaggressive
mysti.autonomous.blockPatterns [] 自定义始终禁止的模式

内容压缩设置

设置 默认值 描述
mysti.compaction.enabled true 启用上下文压缩
mysti.compaction.threshold 75 压缩阈值(占上下文窗口的百分比)

通用设置

设置 默认值 描述
mysti.accessLevel ask-permission 文件访问级别
mysti.agents.autoSuggest true 自动建议人物角色
mysti.agents.maxTokenBudget 0 代理上下文的最大令牌数(0 表示无限制)

完整的提供商文档


键盘快捷键

操作 Windows/Linux Mac
打开 Mysti Ctrl+Shift+M Cmd+Shift+M
在新标签页中打开 Ctrl+Shift+N Cmd+Shift+N

命令

命令 描述
Mysti: 打开聊天 打开聊天侧边栏
Mysti: 新对话 开始全新对话
Mysti: 添加到上下文 将文件或选区添加到上下文
Mysti: 清空上下文 清除所有上下文
Mysti: 在新标签页中打开 将聊天作为编辑器标签页打开

文档

指南 描述
提供者 所有12个提供者——设置、模型、功能
头脑风暴模式 5种策略、收敛机制、团队选择
角色与技能 16种角色、12种技能、自定义智能体
自主模式 安全系统、记忆、续写模式
@提及 智能体路由与文件上下文
压缩 上下文管理和摘要生成
架构 技术内部结构与扩展点
功能 完整的功能参考

遥测

Mysti会收集匿名的使用数据,以改进此扩展:

  • 功能使用模式
  • 错误率
  • 提供者偏好

绝不会收集代码、文件路径或个人数据。

尊重VSCode的遥测设置。可通过以下方式禁用: 设置 > 遥测:遥测级别 > 关闭


贡献者

感谢所有帮助Mysti变得更好的人!

BahaAbuNojaim MostlyKIGuess a-programmers-programmer patrick-fu

想加入他们吗?请查看下方的贡献部分。


星标历史

如果Mysti对您有所帮助,请考虑给它一个星标——这有助于其他人发现该项目,并激励我们继续努力!

GitHub 星标数

星标历史图表


贡献

我们欢迎各种形式的贡献!无论是报告Bug、提出功能需求,还是提交代码。

  • 适合初学者的问题:查找带有good first issue标签的问题
  • 开发模式:在VS Code中按F5键启动扩展开发主机
  • 拉取请求:先fork仓库,创建特性分支,再提交PR

详细指南请参阅CONTRIBUTING.md


许可证

Apache许可证2.0——可自由使用、修改和分发,包括用于商业用途。 完整许可文本请参阅LICENSE文件。


安装报告问题GitHub

Mysti — 由DeepMyst Inc打造
用Mysti制作

版本历史

v0.4.02026/03/11
v0.3.12026/02/18

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

152.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|3天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|3天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|6天前
插件开发框架