maestro
Maestro 是一款可私有化部署的 AI 研究助手,旨在帮助用户高效完成从规划到报告生成的复杂研究任务。它解决了传统研究中资料分散、整理耗时以及协作困难的痛点,让用户能在一个统一的环境中管理文档、自动检索网络信息,并指挥 AI 智能体协同工作,最终产出详尽的研究分析报告。
这款工具特别适合科研人员、学术工作者、分析师以及需要深度处理大量文献的专业团队使用。对于注重数据隐私的机构,Maestro 支持本地部署的特性尤为关键,确保所有研究数据完全掌握在自己手中。
在技术亮点方面,Maestro 不仅兼容多种主流 AI 模型(包括最新的 Azure OpenAI 及 GPT-5),还具备灵活的配置能力,允许用户手动指定模型以适配特殊环境。其独特的“任务(Mission)”管理系统能持久化保存研究进度与设置,即使服务重启也不丢失上下文。此外,工具提供了透明的研究过程追踪、自动化笔记生成以及基于文档的深度对话功能,让 AI 的每一次推理都有据可查,真正实现了人机协作的可控与高效。
使用场景
某高校研究团队正在撰写一份关于“全球固态电池技术演进”的综述报告,需要处理上百篇 PDF 文献并整合最新网络资讯。
没有 maestro 时
- 资料整理耗时巨大:研究人员需手动下载、重命名并分类存储数百篇论文,极易出现版本混乱或文件丢失。
- 信息检索效率低下:在海量文档中查找特定数据(如“能量密度提升曲线”)如同大海捞针,往往需要逐篇打开阅读。
- 多源信息割裂:本地文档与网页最新资讯无法联动,导致报告内容滞后,且人工交叉验证来源真实性耗费大量精力。
- 协作流程繁琐:团队成员间通过邮件或即时通讯工具传递草稿和笔记,缺乏统一的上下文环境,难以追踪修改历史。
- 隐私安全顾虑:使用公共在线 AI 工具分析未发表的实验数据或敏感文献,存在核心知识产权泄露的风险。
使用 maestro 后
- 自动化文档库管理:利用 maestro 的文档库功能一键上传并自动分组所有文献,系统自动提取元数据,构建井然有序的知识底座。
- 智能对话式检索:直接在聊天界面询问“过去三年能量密度的变化趋势”,maestro 瞬间从本地文档中提取数据并生成对比图表。
- 全流程任务编排:设定“研究任务(Mission)”后,maestro 自主规划步骤,同时检索内部文档和外部网络,生成包含确切引用的综合报告。
- 透明化协作环境:团队成员在同一自托管平台上查看 AI 生成的笔记和推理过程,实时追踪每个结论的来源,确保协作无缝衔接。
- 数据私有化部署:依托 maestro 的自托管特性,所有敏感文献和分析过程均运行在团队内部服务器,彻底杜绝数据外泄风险。
maestro 将原本数周的碎片化研究工作压缩为小时级的自动化流程,让研究人员从繁琐的信息搬运工转型为真正的知识决策者。
运行环境要求
- Linux
- macOS
- Windows
- 非必需(支持 CPU 模式)
- 若使用 GPU,需 NVIDIA 显卡,具体型号和显存未说明,支持 Linux/Windows 自动检测
最低 16GB,推荐 32GB

快速开始
MAESTRO:您的自托管 AI 研究助手
版本 0.1.10-alpha(2025年10月12日)——Azure OpenAI 与配置改进
- Azure OpenAI 支持:支持 Azure OpenAI,包括 GPT-5 模型,并实现参数的自动处理
- 手动输入模型:新增切换功能,可绕过自动获取模型,适用于不支持
/models端点的提供商,如 Azure- 错误处理优化:修复了来自外部提供商的 401 错误不再导致用户登出的问题
- 设置修复:任务设置现在可在服务器重启后正确保留,并具备适当的优先级处理
- 用户体验改进:禁用 API 密钥字段的自动填充功能,以避免浏览器自动填充带来的问题
MAESTRO 是一个由 AI 驱动的研究平台,您可以将其托管在自己的硬件上。它旨在在一个协作式研究环境中从头到尾管理复杂的研究任务。规划您的研究,让 AI 代理执行任务,并观看它们根据您的文档和网络资源生成详细报告。
文档
- 快速入门 —— 几分钟内即可启动并运行
- 安装 —— 平台特定的设置
- 配置 —— AI 提供商及设置
- 用户指南 —— 完整的功能指南
- 示例报告 —— 各种模型的输出示例
- 故障排除 —— 常见问题及解决方案
截图
文档库
文档组
任务设置
聊天界面
写作助手
研究透明度
AI 生成的笔记
任务跟踪
代理反思
开始使用
先决条件
- Docker 和 Docker Compose(v2.0+)
- 至少 16GB 内存(建议 32GB)
- 30GB 可用磁盘空间
- 至少一个 AI 提供商的 API 密钥
快速入门
# 克隆并设置
git clone https://github.com/murtaza-nasir/maestro.git
cd maestro
./setup-env.sh # Linux/macOS
# 或
.\setup-env.ps1 # Windows PowerShell
# 启动服务
docker compose up -d
# 监控启动过程(首次需要 5-10 分钟)
docker compose logs -f maestro-backend
访问地址为 http://localhost • 默认用户名:admin / 密码:.env 文件中找到的密码
有关详细的安装说明,请参阅 安装指南。
配置
- CPU 模式:使用
docker compose -f docker-compose.cpu.yml up -d - GPU 支持:在配备 NVIDIA 显卡的 Linux/Windows 系统上可自动检测
- 网络访问:可通过设置脚本选项进行配置
如需故障排除或高级配置,请参阅 文档。
最新版本
版本 0.1.10-alpha(2025年10月12日)
Azure OpenAI 与配置改进
- 支持 Azure OpenAI,包括 GPT-5 模型,并实现参数的自动处理
- 新增手动输入模型的切换功能,适用于不支持
/models端点的提供商 - 修复了来自外部提供商的 401 错误不再导致用户登出的问题
- 任务设置现在可在服务器重启后正确保留
- 禁用 API 密钥字段的自动填充功能,以避免浏览器自动填充带来的问题
版本 0.1.9-alpha(2025年10月3日)
稳定性与安全更新
- 修复了任务暂停/恢复时的检查点处理问题
- 将 passlib 替换为维护良好的 libpass 分支
- 解决了回合/通行证计数器及活动日志持久化的问题
- 修复了 bcrypt 的兼容性问题,以确保身份验证正常工作
版本 0.1.8-alpha(2025年9月26日)
任务韧性与文档智能更新
- 实现智能任务恢复,完整保留检查点
- 添加 arXiv 论文抓取工具,可直接处理学术论文
- 支持写作阶段的恢复
- 实现文档重新处理和重新嵌入功能
- 修复了进度指示器,以确保准确的研究跟踪
核心功能
- 多代理研究系统:规划、研究、反思和写作代理协同工作
- 先进的 RAG 流程:双 BGE-M3 嵌入结合 PostgreSQL + pgvector
- 文档管理:支持 PDF、Word 和 Markdown 格式,并提供语义搜索功能
- 网络集成:集成多个搜索引擎提供商(Tavily、LinkUp、Jina、SearXNG)
- 自托管:完全掌控您的数据和基础设施
- 本地 LLM 支持:兼容 OpenAI 的 API,可用于运行您自己的模型
许可证
本项目采用双重许可:
- GNU Affero 通用公共许可证 v3.0 (AGPLv3):MAESTRO 以 AGPLv3 作为其开源许可证。
- 商业许可证:对于无法遵守 AGPLv3 的用户或组织,可另行购买商业许可证。详情请联系项目维护者。
贡献
您的反馈、错误报告和功能建议对我们非常重要。欢迎随时在 GitHub 仓库中提交 Issue。
版本历史
v0.1.10-alpha2025/10/12v0.1.9-alpha2025/10/04v0.1.8-alpha2025/09/27v0.1.7-alpha2025/09/25v0.1.6-alpha2025/09/23v0.1.5-alpha2025/09/02v0.1.3-alpha2025/08/18v0.1.2-alpha2025/08/09v0.1.1-alpha2025/08/01常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。