MineContext

GitHub
5.3k 387 非常简单 1 次阅读 今天Apache-2.0数据工具Agent开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

MineContext 是一款主动式、具备上下文感知能力的 AI 伙伴,旨在从杂乱的信息中为用户提炼清晰与高效。它不仅能像人类一样“看见”并理解你当前的屏幕内容(通过截图分析),还能结合文档、代码及多模态信息,主动提供贴合当下场景的智能辅助,从而解决传统 AI 助手缺乏环境感知、需要用户反复描述背景的痛点。

无论是需要快速梳理思路的研究人员、追求效率的开发者与设计师,还是希望优化日常 workflows 的普通用户,都能借助 MineContext 实现更自然的交互体验。其核心技术亮点在于“本地优先(Local-First)”架构:所有敏感数据默认在本地处理,支持部署本地 AI 模型,在保障隐私安全的同时,实现了低延迟的实时响应。此外,项目背后依托 OpenViking 开源上下文数据库,采用类似文件系统的范式统一管理记忆、资源与技能,为复杂的上下文管理提供了坚实的基础设施。作为一款开源工具,MineContext 致力于成为你工作与创作中懂你所想、 proactive(主动出击)的得力助手。

使用场景

资深全栈工程师李明正在紧急排查一个跨微服务的复杂 Bug,他需要在本地代码库、浏览器控制台日志、API 文档和即时通讯软件的讨论记录之间频繁切换以定位问题根源。

没有 MineContext 时

  • 上下文割裂严重:李明必须手动复制粘贴代码片段、错误日志和聊天记录到 AI 对话框中,每次提问都要重新构建背景信息,效率极低。
  • 关键细节遗漏:在匆忙中,他往往忘记提供相关的数据库 schema 或最新的接口变更说明,导致 AI 给出的建议基于过时信息,甚至产生误导。
  • 思维流被打断:频繁的“截图 - 打字 - 描述”操作强行打断了他的调试思路,原本连贯的逻辑推导被琐碎的准备工作切割得支离破碎。
  • 多模态信息处理困难:面对屏幕上的架构图或复杂的堆栈跟踪截图,他需要花费大量时间用文字向 AI 解释图片内容,沟通成本高昂。

使用 MineContext 后

  • 主动感知上下文:MineContext 自动捕获李明当前的屏幕内容(包括代码编辑器、浏览器标签和聊天窗口),无需手动投喂,AI 即刻理解完整的故障现场。
  • 精准关联多维信息:它能同时分析代码逻辑、实时日志报错以及团队刚才在通讯软件中确认的“热修复”方案,确保生成的诊断建议准确且符合最新现状。
  • 无感交互保持心流:李明只需专注于代码逻辑,遇到卡点时直接唤醒 MineContext 提问,工具自动调取后台已记录的上下文,让调试过程如行云流水般顺畅。
  • 原生多模态理解:对于屏幕上的架构图或报错截图,MineContext 直接进行视觉解析并结合文本内容综合推理,瞬间指出潜在的内存泄漏点或配置冲突。

MineContext 通过将碎片化的工作流转化为连续的上下文感知体验,让开发者从繁琐的信息搬运中解放出来,真正实现与 AI 的无缝协同创作。

运行环境要求

操作系统
  • macOS
  • Windows
GPU

未说明(支持本地模型,具体需求取决于用户自行部署的模型,如通过 LMStudio 运行)

内存

未说明

依赖
notes1. 首次运行应用时需安装后端环境,耗时约两分钟。2. 支持接入兼容 OpenAI API 格式的本地模型(推荐使用 LMStudio 部署)或第三方模型(如豆包 Doubao)。3. macOS 用户从 v0.1.5 起无需手动关闭隔离属性(已支持苹果公证)。4. 使用前需在系统设置中授予屏幕录制权限并重启应用。5. 数据默认本地存储,路径为 ~/Library/Application Support/MineContext/Data (Mac) 或对应 Windows 路径。
python未说明(后端使用 Python,通过 uv 管理环境)
Electron
React
TypeScript
Vite
Tailwind CSS
uv (Python 包管理器)
MineContext hero image

快速开始

MineContext

MineContext:在情境中创作,从混沌中提炼清晰

一款开源、主动的情境感知型AI伙伴,致力于为您的工作、学习和创作带来清晰与高效。

中文 / 英文

社区最佳实践 · 报告问题 · 意见反馈

[![][release-shield]][release-link] [![][github-stars-shield]][github-stars-link] [![][github-issues-shield]][github-issues-shield-link] [![][github-contributors-shield]][github-contributors-link] [![][license-shield]][license-shield-link]
[![][last-commit-shield]][last-commit-shield-link] [![][wechat-shield]][wechat-shield-link]

volcengine%2FMineContext | Trendshift

👋 加入我们的微信/飞书/红笔记群

🌍 加入我们的Discord群

🖥️ 下载适用于Mac的版本 · 💻 下载适用于Windows的版本

目录


🔗 相关项目: 请查看**OpenViking** - 一个专为AI智能体设计的开源情境数据库。OpenViking通过“文件系统范式”统一了记忆、资源和技能,为复杂的情境管理提供了基础设施层。


👋🏻 什么是MineContext

MineContext是一款主动的情境感知型AI伙伴。它利用屏幕截图和内容理解能力(未来还将支持多源多模态信息,包括文档、图片、视频、代码以及外部应用数据),能够洞察并理解用户的数字世界情境。基于底层的情境工程框架,它会主动提供高质量的信息,如洞察、每日/每周摘要、待办事项清单和活动记录等。

feature.gif

🚀 核心功能

MineContext专注于四大核心功能:轻松收集、智能浮现、主动推送以及情境工程架构。

  1. 📥 轻松收集 能够收集并处理海量情境数据。其精心设计的存储管理方式,使您可以在不增加心理负担的情况下进行广泛的数据采集。
  2. 🚀 主动推送 在日常使用中主动推送关键信息和洞察。它会从您的情境中提取摘要内容——例如每日/每周总结、小贴士和待办事项——并直接推送到您的主页。
  3. 💡 智能浮现 在创作过程中智能地呈现相关且有用的情境信息。确保在辅助创作的同时不会让您感到信息过载。
  4. 🎯 情境工程架构 支持多模态、多源数据的完整生命周期——从捕获、处理、存储到管理、检索和消费——从而生成六种类型的情境智能信息。

🔏 隐私保护

本地优先

MineContext高度重视用户隐私。默认情况下,所有数据都存储在本地以下路径,以确保您的隐私和安全。

~/Library/Application Support/MineContext/Data

本地AI模型

此外,我们还支持基于OpenAI API协议的自定义模型服务。您可以在MineContext中使用完全本地化的模型,确保任何数据都不会离开您的本地环境。

🏁 快速入门

1. 安装

点击GitHub最新发布进行下载

下载APP

注意: 自v0.1.5版本起,MineContext已支持Apple公证,因此您无需再禁用隔离属性。如果您使用的是旧版本,请参考之前的文档获取说明。

2. 输入您的 API 密钥

应用启动后,请按照提示输入您的 API 密钥。(注意:首次运行时,应用需要安装后台环境,这可能需要大约两分钟)。

我们目前支持豆包、OpenAI 以及自定义模型的服务。这包括任何与 OpenAI API 格式兼容的 本地模型第三方模型 服务。

我们推荐使用 LMStudio 来运行本地模型。它提供了一个简洁的界面和强大的功能,可以帮助您快速部署和管理这些模型。

综合考虑成本和性能,我们建议使用豆包模型。 豆包 API 密钥可以在 API 管理界面 中生成。

获取豆包 API 密钥后,您还需要在 模型激活管理界面 中激活两种模型:视觉语言模型和嵌入模型。

  • 视觉语言模型:Doubao-Seed-1.6-flash doubao-vlm-model

  • 嵌入模型:Doubao-embedding-vision doubao-emb-model

以下是获取 API 密钥后的填写流程:

输入 API 密钥

3. 开始录制

进入 [屏幕监控] 以启用系统对屏幕共享的权限。完成设置后,您需要重启应用才能使更改生效。 启用权限

重启应用后,请先在 [设置] 中设定您的屏幕共享区域,然后点击 [开始录制] 以开始截取屏幕截图。 屏幕设置

4. 放下心来

开始录制后,您的上下文信息将逐渐被收集。生成有价值的内容需要一些时间。因此,请放下心来,安心处理其他任务。MineContext 会在后台为您生成待办事项、提示、摘要和活动。当然,您也可以通过 [与 AI 聊天] 进行主动问答。

5. 后台调试

MineContext 支持后台调试,可通过 http://localhost:1733 访问。

  1. 查看 Token 消耗与使用情况 后台调试1

  2. 配置自动化任务的间隔时间 后台调试2

  3. 调整自动化任务的系统提示词 后台调试3

🎃 贡献指南

🎨 前端架构

MineContext 的前端是一个基于 Electron、React 和 TypeScript 构建的跨平台桌面应用,为桌面开发提供了模块化、可维护且高性能的基础。

核心技术栈

技术 描述
Electron 允许使用 Web 技术开发跨平台桌面应用程序。
React 一个用于构建动态用户界面的组件化 UI 库。
TypeScript 提供静态类型检查,以增强代码的可维护性。
Vite 一个针对 Electron 优化的现代前端构建工具。
Tailwind CSS 一种实用优先的 CSS 框架,用于快速且一致地进行 UI 样式设计。
pnpm 一个适用于 monorepo 项目的快速高效包管理器。

核心架构

该项目遵循标准的 Electron 架构设计,清晰地分离了主进程、预加载脚本和渲染进程的代码,以确保安全性和可维护性。

frontend/
├── src/
│ ├── main/     # Electron 主进程(窗口管理、生命周期、IPC)
│ ├── preload/  # 预加载脚本,安全地桥接 Node.js API 和渲染进程
│ └── renderer/ # React 前端界面(渲染进程)
│
├── packages/
│ └── shared/   # 公共工具、IPC 通道、日志记录和常量定义
│
├── build/      # 构建资源(图标、平台配置)
├── dist/       # electron-builder 生成的构建产物
├── externals/  # 外部依赖(Python 脚本、二进制文件等)
├── resources/  # 静态资源(图标、模板、图片)
└── scripts/    # 开发和构建辅助脚本
  1. 主进程 (src/main/) 负责:

    • 管理应用程序窗口
    • 处理生命周期事件(启动、退出、激活)
    • 建立安全的 IPC 通信
    • 与后台服务(Python 和系统 API)集成
  2. 预加载脚本 (src/preload/) 负责:

    • 安全地向渲染进程暴露 Node.js API
    • 处理与主进程之间的 IPC 通信
    • 实现跨进程的资源访问
  3. 渲染进程 (src/renderer/) 负责:

    • 使用 React 实现用户界面
    • 使用 Jotai 和 Redux 管理全局状态
    • 利用基于 Tailwind CSS 的高效样式系统
    • 实现动态加载和性能优化机制
  4. 构建与打包负责:

    • electron-vite.config.ts — 配置主进程和渲染进程的构建逻辑(别名、插件等)。
    • electron-builder.yml — 定义 Windows、macOS 和 Linux 平台的打包与分发配置。

💻 前端使用

构建后台

在开始前端开发之前,您需要先构建后台:

uv sync
source .venv/bin/activate
./build.sh

安装依赖

由于包版本问题,目前不支持使用国内 PyPI 镜像。请运行以下命令以确保使用原始的 PyPI 源:

pip config unset global.index-url
cd frontend
pnpm install

开发与调试

在本地开发过程中,屏幕捕获区域的选择可能会比较慢,这是正常现象。请耐心等待,因为打包后的应用中不会出现此问题。

pnpm dev

应用打包

要构建 macOS 版本的应用程序:

pnpm build:mac
# 数据路径
# ~/Library/Application\ Support/MineContext

打包过程生成的可执行文件将存储在 MineContext/frontend/dist 目录中。

🏗️ 后台架构

MineContext 采用了模块化、分层的架构设计,各组件职责分明,界限清晰。

核心架构组件

opencontext/
├── server/             # Web 服务器和 API 层
├── managers/           # 业务逻辑管理器
├── context_capture/    # 上下文采集模块
├── context_processing/ # 上下文处理流水线
├── context_consumption/# 上下文消费与生成
├── storage/            # 多后端存储层
├── llm/               # LLM 集成层
├── tools/             # 工具系统
└── monitoring/        # 系统监控

各层职责

  1. 服务器层 (server/)

    • 基于 FastAPI 的 RESTful API
    • 支持 WebSocket 实时通信
    • 静态文件服务与模板渲染
  2. 管理器层 (managers/)

    • CaptureManager: 管理所有上下文采集源
    • ProcessorManager: 协调上下文处理流水线
    • ConsumptionManager: 处理上下文的消费与生成
    • EventManager: 事件驱动的系统协调
  3. 上下文采集层 (context_capture/)

    • 截图监控
    • 文档监控
    • 可扩展的采集接口,便于未来新增数据源
  4. 处理层 (context_processing/)

    • 文档分块策略
    • 实体提取与归一化
    • 上下文合并与去重
    • 多模态内容处理(文本、图像)
  5. 存储层 (storage/)

    • 多后端支持(SQLite、ChromaDB)
    • 向量存储用于相似性搜索
    • 统一的存储接口
  6. LLM 集成层 (llm/)

    • 支持多家 LLM 提供商(OpenAI、Doubao)
    • VLM(视觉-语言模型)集成
    • 嵌入向量生成服务

🚀 后端使用

安装

我们推荐使用 uv 进行快速可靠的包管理:

# 克隆仓库
git clone https://github.com/volcengine/MineContext.git
cd MineContext

# 安装 uv(如果尚未安装)
curl -LsSf https://astral.sh/uv/install.sh | sh

# 同步依赖项(自动创建虚拟环境)
uv sync

配置

  1. 基础配置 (config/config.yaml):
server:
  host: 127.0.0.1
  port: 8765
  debug: false

embedding_model:
  provider: doubao # 选项:openai, doubao
  api_key: your-api-key
  model: doubao-embedding-vision-250615

vlm_model:
  provider: doubao # 选项:openai, doubao
  api_key: your-api-key
  model: doubao-seed-1-6-flash-250828

capture:
  enabled: true
  screenshot:
    enabled: true # 启用截图采集
    capture_interval: 5 # 采集间隔,单位为秒
  1. 提示模板 (config/prompts_*.yaml):
    • prompts_en.yaml: 英文提示模板
    • prompts_zh.yaml: 中文提示模板

启动服务器

# 使用默认配置启动
uv run opencontext start

# 使用自定义配置启动
uv run opencontext start --config /path/to/config.yaml

# 使用自定义端口启动(避免端口冲突)
uv run opencontext start --port 1733

可用选项:

  • --config: 配置文件路径
  • --host: 主机地址(默认从配置文件或 localhost 获取)
  • --port: 端口号(默认从配置文件或 1733 获取)

优先级顺序:命令行参数 > 配置文件 > 默认值

或者,您也可以手动激活虚拟环境:

source .venv/bin/activate  # Windows 系统:.venv\Scripts\activate
pip install -e .
opencontext start --port 1733

💎 名称背后的哲学

MineContext 这个名字也体现了团队的巧思。它既代表“我的上下文”,又寓意“挖掘上下文”。这一命名灵感源自《我的世界》的核心理念——开放、创造与探索。

如果将海量上下文比作散落的“方块”,那么 MineContext 就提供了一个可以自由搭建、组合与创造的“世界”。用户可以根据收集到的大量上下文重新构想并创作新内容,从而生成高质量的信息。

🎯 目标用户

目标用户类别 具体角色/身份 核心需求/痛点
知识工作者 研究人员、分析师 需要应对海量信息,提升信息处理与分析效率
内容创作者 作家、博主 渴望源源不断的灵感,优化内容创作流程
终身学习者 学生、研究人员 构建系统化的知识体系,高效管理和连接学习资料
项目管理者 产品经理、项目经理 整合多源信息与数据,确保项目对齐及决策效率

🔌 上下文来源

我们将按照以下计划优先推进上下文来源的扩展,并热烈欢迎各位积极参与代码贡献。

  • P0:数字生活与公共信息闭环(PC屏幕截图及链接上传)
  • P1:个人文本上下文闭环(文件上传、文件跟踪)
  • P2:AI与常用办公场景上下文闭环(MCP、会议记录)
  • P3:高质量信息获取闭环(DeepResearch与RSS)
  • P4:个人深度上下文闭环(微信、QQ聊天数据采集,手机截图)
  • P5:物理世界上下文闭环(智能穿戴设备同步、智能眼镜同步)
上下文捕获能力 上下文来源 优先级 完成状态
屏幕截图 用户PC端信息 P0
笔记编辑 应用内创建信息 P0
链接上传 网络信息 P0
文件上传 结构化文档 P1
文件上传 非结构化文档 P1
文件上传 图片 P1
文件上传 音频 P4
文件上传 视频 P4
文件上传 代码 P4
浏览器扩展 AI对话记录 P2
浏览器扩展 精炼网络信息 P5
会议记录 会议信息 P2
RSS 咨询信息 P3
Deep Research 高质量研究分析 P3
应用MCP/API 支付记录 P4
应用MCP/API 研究论文 P3
应用MCP/API 新闻 P4
应用MCP/API 邮件 P4
应用MCP/API Notion P2
应用MCP/API Obsidian P2
应用MCP/API Slack P4
应用MCP/API Jira P4
应用MCP/API Figma P2
应用MCP/API Linear P4
应用MCP/API Todoist P4
记忆库迁移导入 用户记忆库 P4
微信数据采集 微信聊天记录 P4
QQ数据采集 QQ聊天记录 P4
手机截图监控 用户移动端信息 P4
智能眼镜数据同步 物理世界交互记录 P5
智能手环数据同步 生理数据 P5

🆚 与熟悉应用的对比

MineContext vs ChatGPT Pulse

  • 🖥️ 全面的数字上下文: MineContext通过读取屏幕截图捕捉您的整个数字工作流,提供丰富、可视化的日常活动和应用上下文。而ChatGPT Pulse则仅限于单个基于文本的对话上下文。
  • 🔒 本地优先的数据与隐私: 您的数据完全在本地设备上处理和存储,确保完全的隐私和安全性,无需依赖云端服务器。而ChatGPT Pulse需要将数据发送到并存储在OpenAI的服务器上。
  • 🚀 主动且多样的洞察: MineContext能够生成更广泛类型的智能自动生成内容——包括每日摘要、可执行待办事项和活动报告——而不仅仅是简单的提示。ChatGPT Pulse主要在聊天界面中提供被动式的辅助。
  • 🔧 开源与可定制性: 作为开源项目,MineContext允许开发者自由查看、修改和基于代码库进行构建,实现完全的定制化。而ChatGPT Pulse是一个封闭的专有产品,无法进行修改。
  • 💰 成本效益高的API使用: MineContext无需订阅每月200美元的Pro版,您可以使用自己的API密钥,从而完全掌控支出。而ChatGPT Pulse的高级功能则被锁定在其昂贵的高级订阅层级中。

MineContext vs Dayflow

  • 💡 更丰富、主动的洞察: MineContext能够提供更加多样化的自动化智能内容——包括简洁的摘要、可执行的待办事项和情境提示——超越了基础的活动追踪。DayFlow则主要专注于用户活动的记录。
  • 🧠 上下文感知的问答与创作: MineContext使您能够基于捕获的上下文提问并生成新内容,解锁更广泛的应用场景,如内容起草和项目规划。而DayFlow仅限于被动的活动记录与回顾。
  • ✨ 更优的活动生成与体验: MineContext生成的活动记录更加清晰、详细,配备更直观、交互式的仪表盘,带来流畅的用户体验。DayFlow的活动日志则较为基础,交互性有限。

👥 社区

社区与支持

  • GitHub Issues:使用MineContext时遇到的错误与问题。
  • 邮件支持:关于使用MineContext的反馈与疑问。
  • 微信群:讨论SwanLab的使用并分享最新的AI技术。

星级历史

星级历史图表

📃 许可证

本仓库采用 Apache 2.0 许可证授权。

版本历史

v0.1.82026/01/28
v0.1.72025/12/25
0.1.62025/11/18
0.1.52025/11/14
0.1.42025/11/01
0.1.32025/10/24
0.1.22025/10/15
0.1.12025/10/11
0.1.02025/09/30

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

159.3k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|昨天
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|1周前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像