MiroThinker
MiroThinker 是一款专为复杂研究与预测任务打造的深度研究智能体。面对海量信息检索难、逻辑推理链条长以及金融趋势预测不准等痛点,它能够自主执行大规模网络搜索、多轮工具调用及深度文档分析,最终生成结构严谨的专业研究报告。
这款工具特别适合需要处理高难度课题的研究人员、追求精准数据的金融分析师,以及希望构建高级自主代理系统的开发者。普通用户也能通过其在线平台轻松获取深度的行业洞察。
MiroThinker 的技术亮点在于其卓越的“交互式扩展”能力与超长上下文处理机制。它支持高达 256K 的上下文窗口,单次任务可执行超过 600 次工具调用,确保在极复杂的任务中不丢失关键细节。其最新模型 MiroThinker-1.7 系列在 BrowseComp 等权威基准测试中表现优异,其中专有模型 H1 更是取得了 88.2 分的高分。值得一提的是,其开源版本在仅使用 300 亿参数的情况下,依然在中文复杂推理任务上刷新了开源模型的最佳纪录,实现了高性能与低成本的完美平衡。无论是本地部署还是在线体验,MiroThinker 都能成为您得力的科研与决策助手。
使用场景
某金融科技公司的量化分析师需要在 24 小时内完成一份关于“全球半导体供应链断裂风险”的深度预测报告,以辅助下周的投资决策。
没有 MiroThinker 时
- 信息搜集碎片化:分析师需手动在数十个新闻源、财报 PDF 和行业数据库中切换,耗时数小时仅能覆盖表面信息,极易遗漏关键隐性数据。
- 逻辑推演深度不足:面对海量杂乱数据,人工难以构建复杂的多步因果链,导致预测结论往往基于直觉而非严密的证据链支撑。
- 报告产出效率低:从数据清洗、交叉验证到撰写初稿,团队需通宵协作,且因疲劳容易出现数据引用错误或逻辑断层。
- 多格式数据处理难:大量的非结构化数据(如扫描版财报图片、手写会议纪要)无法被传统工具直接解析,需额外安排专人录入。
使用 MiroThinker 后
- 全自动深度调研:MiroThinker 自主发起数百次工具调用,瞬间遍历全球新闻、学术库及财报,精准锁定供应链断点的关键信号。
- 严密推理与预测:依托其优化的深度研究能力,MiroThinker 自动构建多层级推理路径,输出带有高置信度评分的趋势预测,逻辑链条清晰可追溯。
- 一键生成专业报告:MiroThinker 直接整合分析结果,生成包含图表、引用来源完整的深度研究报告,将原本需要一天的工作压缩至分钟级。
- 全格式文档兼容:MiroThinker 直接读取并解析上传的 PDF、Excel 甚至图片格式的原始单据,无缝提取关键财务指标纳入分析模型。
MiroThinker 将原本依赖资深专家数天完成的复杂研判任务,转化为分钟级的高精度自动化决策支持,彻底重塑了深度研究的效率边界。
运行环境要求
未说明(模型参数量高达 30B-235B,隐含需要高性能 GPU 集群或多卡环境)
未说明

快速开始
MiroThinker:一款专为研究与预测优化的深度研究代理。它在极具挑战性的 BrowseComp 基准测试中取得了 88.2 的成绩。请参阅 快速入门。
📋 目录
📰 新闻与更新
- [2026-03-11] 🎉🎉🎉 推出 MiroThinker-1.7,包括 MiroThinker-1.7-mini 和 MiroThinker-1.7。MiroThinker-1.7-mini 在 BrowseComp-ZH 上取得了 72.3 的成绩,仅使用 300 亿参数便刷新了开源模型的 SOTA 记录。而我们的专有代理 MiroThinker-H1 则在 BrowseComp 和 BrowseComp-ZH 上均位居开源及商用模型之首。
- [2026-01-23] 🎉 我们为 MiroThinker online 带来了两项重要更新:(a) 核心研究报告生成:在线深度研究报告现支持生成、预览与分享。(b) 扩展文档上传类型:现已支持上传多种文件格式,如
.pdf、.doc、.ppt、.xls、.jpg等。欢迎试用!MiroThinker 将持续维护并迭代升级,致力于成为您用过的最佳研究代理! - [2026-01-05] 🎉🎉 我们发布了 MiroThinker-v1.5,这是一系列专为金融预测优化的开源深度研究代理。其中,MiroThinker-v1.5-30B 以远低于 Kimi-K2-Thinking 的成本,在 BrowseComp-ZH 上超越了后者,且仅使用其 1/30 的参数量。而 MiroThinker-v1.5-235B 则在 HLE-Text 上获得了 39.2% 的成绩,在 BrowseComp 上为 69.8%,在 BrowseComp-ZH 上为 71.5%,在 GAIA-Val-165 上更是达到了 80.8%,一举刷新了搜索类代理的最新技术水平。
📜 点击展开历史更新
- [2025-11-13] 🎉 MiroThinker-v1.0 现已发布!我们引入了“交互式扩展”这一性能提升的第三维度,MiroThinker v1.0 支持 256K 的上下文窗口,并可在单个任务中执行多达 600 次工具调用。该版本提供 80 亿、300 亿和 720 亿参数三种规模,分别在 HLE-Text、BrowseComp、BrowseComp-ZH 和 GAIA-Text-103 上取得了 37.7%、47.1%、55.6% 和 81.9% 的成绩。更多详情请参阅 技术报告。
- [2025-09-11] MiroThinker-72B-Preview 在本周的 FutureX 基准测试中位列第 4。详情请见 FutureX。
- [2025-09-08] MiroThinker-v0.2 已正式发布,其在多个基准测试中均取得了开源领域的 SOTA 成绩,包括 HLE(17.8%)、HLE-Text-Only(19.1%)、BrowseComp-EN(17.2%)、BrowseComp-ZH(29.4%)、XBench-DeepSearch(56.0%)以及 Frames(74.8%)。
- [2025-09-07] 我们新增了多项基准测试,包括 BrowseComp-ZH、XBench-DeepSearch 以及 FutureX。未来我们还将继续增加更多基准测试项目。
- [2025-08-22] 我们推出了针对 MiroThinker 的精简部署方案,优化了资源使用并缩短了启动时间。立即体验互动演示:🚀 试用 Gradio 演示
- [2025-08-08] MiroThinker-v0.1 正式发布。
📝 简介
MiroThinker-1.7
我们全新的 MiroThinker 系列标志着构建可靠长链任务代理方面的一次重大飞跃。凭借强化的后训练流程,MiroThinker-1.7 系列在开源模型中实现了深度研究任务的 SOTA 表现。
关键特性
- 🚀 MiroThinker-1.7 支持 256K 的上下文窗口、长时序推理以及深入的多步分析。
- 🔧 每个任务最多可进行 300 次工具交互,同时具备更精准的逐步推理与决策能力。
- 📦 提供 300 亿和 2350 亿参数两种规模,并配备全面的工具集和工作流,灵活适应不同的研究场景与计算预算。
- 我们的专有代理 MiroThinker-H1 为长链可验证推理提供了有力证据——即每一步均可验证、全局也可验证的推理过程,从而显著提升了复杂代理工作流的性能。
| 模型名称 | 参数 | 最大上下文 | 最大工具调用次数 | HF 链接 |
|---|---|---|---|---|
| MiroThinker-1.7-mini | 300 亿 | 256K | 300 | 🤗 链接 |
| MiroThinker-1.7 | 2350 亿 | 256K | 300 | 🤗 链接 |
MiroThinker-1.7 在广泛的基准测试中展现了强大的通用研究能力,分别在 BrowseComp、BrowseComp-ZH、GAIA-Val-165 和 HLE-Text 上取得了 74.0%、75.3%、82.7% 和 42.9% 的成绩。尤其值得一提的是,MiroThinker-1.7 在 BrowseComp-ZH 上达到了 SOTA 水平。

MiroThinker-v1.5
📦 点击展开 MiroThinker-v1.5 的详细信息
MiroThinker v1.5 是全球领先的开源搜索代理,通过 交互式扩展 推动工具增强型推理——训练代理以处理更深入、更频繁的代理与环境交互,将其作为性能提升的第三个维度,超越模型规模和上下文长度。

核心特性
- 🚀 MiroThinker v1.5 支持 256K 上下文窗口,实现长时序推理和深度多步分析。
- 🔧 每个任务最多可调用 400 次工具——相比之前的开源研究代理有显著提升。
- 📦 分别以 30B 和 235B 参数规模发布,并配备一套全面的工具和工作流,灵活支持多样化的研究场景和算力预算。
| 代理名称 | 基础模型 | 最大上下文 | 最大工具调用次数 | Hugging Face 链接 |
|---|---|---|---|---|
| MiroThinker-v1.5-30B | Qwen3-30B-A3B-Thinking-2507 | 256K | 400 | 🤗 链接 |
| MiroThinker-v1.5-235B | Qwen3-235B-A22B-Thinking-2507 | 256K | 400 | 🤗 链接 |
MiroThinker v1.5 在广泛的基准测试中展现出强大的通用研究性能,在 HLE-Text、BrowseComp、BrowseComp-ZH 和 GAIA-Val-165 上分别达到 39.2%、69.8%、71.5% 和 80.8%。这些结果超越了此前的开源代理,并刷新了 BrowseComp 的世界纪录。

MiroThinker-v1.0
📦 点击展开 MiroThinker-v1.0 的详细信息
与仅通过扩大模型规模或上下文长度进行扩展的早期代理不同,MiroThinker v1.0 在代理层面引入了 交互式扩展,系统性地训练代理以应对更深、更频繁的代理与环境交互,从而形成性能提升的第三维度。交互式扩展利用环境反馈和外部信息获取来纠正错误并优化路径。

✨ 核心特性
- 🚀 256K 上下文窗口:支持长时序推理和深度多步分析
- 🔧 600 次工具调用:每个任务最多可调用 600 次工具——相比之前的开源研究代理有显著提升
- 📦 多种规模:分别以 8B、30B 和 72B 参数规模发布,并配备全面的工具和工作流,灵活支持不同的研究场景和算力预算
| 代理名称 | 基础模型 | 最大上下文 | 最大工具调用次数 | Hugging Face 链接 |
|---|---|---|---|---|
| MiroThinker-v1.0-8B | Qwen3-8B | 256K | 600 | 🤗 链接 |
| MiroThinker-v1.0-30B | Qwen3-30B-A3B-Thinking-2507 | 256K | 600 | 🤗 链接 |
| MiroThinker-v1.0-72B | Qwen2.5-72B-Instruct | 256K | 600 | 🤗 链接 |
MiroThinker v1.0 在一系列基准测试中表现出色,在 HLE-Text、BrowseComp、BrowseComp-ZH 和 GAIA-Text-103 上分别达到 37.7%、47.1%、55.6% 和 81.9%。这些成绩不仅超越了以往的开源代理,还进一步缩小了与商业级模型如 GPT-5-high 的差距。
MiroThinker-v0.2
📦 点击展开 MiroThinker-v0.2 的详细信息
在这个新版本中,我们引入了三项关键改进:
- 📚 来自英语和中文的 更丰富的训练数据,显著提升了基准测试表现和泛化能力
- 🎯 所有代理统一使用 单一偏好数据集进行 DPO 训练
- 📏 将 上下文长度从 40K 扩展到 64K,以更好地应对更具挑战性的多轮工具使用任务
与 v0.1 相比,MiroThinker v0.2 在各项基准测试中均取得了稳定提升。例如,在 GAIA-Text-103 上,得分从 57.3 → 64.1;在 BrowseComp-ZH 上,则从 17.0 → 29.4,充分体现了模型作为通用研究代理能力的显著进步。
| 代理名称 | 基础模型 | 最大上下文 | Hugging Face 链接 |
|---|---|---|---|
| MiroThinker-4B-SFT-v0.2 | Qwen3-4B | 64K | 🤗 链接 |
| MiroThinker-4B-DPO-v0.2 | Qwen3-4B | 64K | 🤗 链接 |
| MiroThinker-8B-SFT-v0.2 | Qwen3-8B | 64K | 🤗 链接 |
| MiroThinker-8B-DPO-v0.2 | Qwen3-8B | 64K | 🤗 链接 |
| MiroThinker-14B-SFT-v0.2 | Qwen3-14B | 64K | 🤗 链接 |
| MiroThinker-14B-DPO-v0.2 | Qwen3-14B | 64K | 🤗 链接 |
| MiroThinker-32B-SFT-v0.2 | Qwen3-32B | 64K | 🤗 链接 |
| MiroThinker-32B-DPO-v0.2 | Qwen3-32B | 64K | 🤗 链接 |
MiroThinker-v0.1
📦 点击展开 MiroThinker-v0.1 的详细信息
开源智能体在 GAIA-Validation 基准测试上的性能。
我们发布了 MiroThinker v0.1 系列模型,包括 SFT 和 DPO 两种版本,参数规模分别为 8B、14B 和 32B。值得注意的是,MiroThinker v0.1 在 GAIA 基准 上取得了开源模型中的 最先进性能。GAIA 是一个针对高级智能体能力的严格评估基准,能够充分展示模型在长上下文、决策密集型以及真实世界任务场景中的强大能力。
✨ 核心特性
🤖 MiroThinker 优化框架
- 🔓 完全开源的智能体框架:框架与智能体全部开源,实现完全透明
- 🔗 工具集成:可无缝集成外部工具和 API
- 📝 轨迹记录:全面记录并分析智能体的交互过程,显示耗时及预计完成时间(以分钟为单位)。支持 SFT 和 DPO 训练
- 📊 基准评测:在多个基准数据集上进行广泛测试
📊 全面的基准测试套件
📋 点击展开基准列表
- GAIA Validation:通用人工智能助手的基准测试。(论文)
- GAIA-Text-103:GAIA Validation 中仅针对文本任务的子集。(论文)
- HLE:人类终极考试。(论文)
- HLE-Text-2158:HLE 中仅针对文本任务的子集。(论文)
- HLE-Text-500:HLE 中仅针对文本任务的子集,由 WebThinker 创建。(论文)
- BrowseComp-EN:网页浏览与理解任务。(论文)
- BrowseComp-ZH:BrowseComp 的中文版。(论文)
- WebWalkerQA:网页导航与问答任务。(论文)
- Frames:事实性、检索与推理综合测评集。(论文)
- XBench-DeepSearch:深度研究型智能体的基准测试。(官网)
- FutureX:用于预测未知未来的实时基准测试。(官网)
- SEAL-0:评估 LLM 在具有冲突证据的网络问题上的表现的基准测试。(论文)
- AIME2025:2025 年美国邀请数学竞赛。(官网)
- DeepSearchQA:谷歌的深度搜索问答基准测试。(论文)
📈 基准测试性能
MiroThinker-1.7
为防止潜在的信息泄露(例如从 HuggingFace 获取基准答案),我们在评估过程中屏蔽了对某些网站的访问。
MiroThinker-v1.5
📦 点击展开 MiroThinker-v1.5 的详细信息
为防止潜在的信息泄露(例如从 HuggingFace 搜索基准答案),这些工具已明确禁用了对 HuggingFace 的访问权限。
我们进一步对所有轨迹的工具输出进行了金丝雀字符串测试,并将任何被污染的轨迹视为错误答案而予以排除。
MiroThinker-v1.0
📦 点击展开 MiroThinker-v1.0 的详细信息
MiroThinker-v0.2
📦 点击展开 MiroThinker-v0.2 的详细信息
与 SOTA 研究型智能体的对比
GAIA 基准测试
MiroThinker-v0.1
📦 点击展开 MiroThinker-v0.1 的详细信息
GAIA 基准测试
| 方法 | Text-103 最佳通过率@1 |
Text-103 通过率@1(平均@8) |
Val-165 最佳通过率@1 |
Val-165 通过率@1(平均@8) |
|---|---|---|---|---|
| 🔹—— 7B/8B 代理 —— | ||||
| Search-o1-7B | 17.5 | - | - | - |
| R1-Searcher-7B | 20.4 | - | - | - |
| WebDancer-7B | 31.0 | - | - | - |
| WebSailor-7B | 37.9 | - | - | - |
| CK-Pro-8B | 40.3 | - | 32.7 | - |
| MiroThinker-8B-SFT-v0.1 | 44.7 | 40.1 | 34.6 | 31.8 |
| + 商业工具 | 46.6 | 42.1 | 37.6 | 33.9 |
| MiroThinker-8B-DPO-v0.1 | 46.6 | 44.8 | 37.0 | 35.4 |
| + 商业工具 | 50.5 | 46.7 | 38.2 | 35.9 |
| 🔹—— 14B 代理 —— | ||||
| MiroThinker-14B-SFT-v0.1 | 47.6 | 44.4 | 37.0 | 34.4 |
| + 商业工具 | 49.5 | 47.5 | 41.8 | 39.8 |
| MiroThinker-14B-DPO-v0.1 | 48.5 | 46.6 | 42.4 | 39.2 |
| + 商业工具 | 52.4 | 48.5 | 45.5 | 42.0 |
| 🔹—— 32B 代理 —— | ||||
| Qwen3-32B | 31.1 | 26.7 | 29.7 | 26.4 |
| Search-o1-32B | 28.2 | - | - | - |
| WebThinker-32B-RL | 48.5 | - | - | - |
| WebDancer-QwQ-32B | 51.5 | - | - | - |
| WebSailor-32B | 53.2 | - | - | - |
| WebShaper-QwQ-32B | 53.3 | - | - | - |
| MiroThinker-32B-SFT-v0.1 | 55.3 | 51.3 | 44.9 | 42.7 |
| + 商业工具 | 58.3 | 54.2 | 48.5 | 45.8 |
| MiroThinker-32B-DPO-v0.1 | 57.3 | 54.1 | 48.5 | 45.9 |
| + 商业工具 | 60.2 | 57.9 | 50.9 | 48.9 |
借鉴 WebThinker、WebAgents 和 CognitiveKernel 的做法,我们报告了 Best Pass@1,即三次运行中的最高分,这通常反映了更强的性能,尽管可能会有一定的波动。为了提供更稳定的指标,我们还报告了 Pass@1(Avg@8),它在牺牲一点分数的情况下提供了更高的稳定性。
为与先前的开源工作保持一致,我们使用 WebAgents 的 LLM-as-a-Judge 模板来评估 GAIA-Text-103,并使用官方的 GAIA 评分脚本来报告 GAIA-Val-165 的结果。
默认情况下,我们尽可能使用开源工具,除了代码工具 E2B 和 Google 搜索工具 Serper。我们在实现中使用了 Whisper、Qwen2.5-VL-72B-Instruct 和 Qwen3-235B-A22B-Thinking-2507。该框架可以轻松扩展到您选择的其他开源工具。
将这些开源工具替换为商业替代品可以带来性能提升。商业工具主要用于多模态能力和某些复杂的推理子任务。而大多数任务,包括规划、浏览、细化、导航等,都由我们的代理来处理。
更多基准测试
| 方法 | HLE 通过率@1 |
帧 通过率@1 |
浏览器比较 通过率@1 |
浏览器比较-中文 通过率@1 |
WebWalkerQA 通过率@1 |
|---|---|---|---|---|---|
| OpenAI 深度研究 | 26.6 | - | 51.5 | 42.9 | - |
| Gemini 深度研究 | 26.9 | - | - | - | - |
| Kimi-Researcher | 26.9 | 78.8 | - | - | - |
| WebDancer-7B | - | - | - | - | 36.0 |
| WebSailor-7B | - | - | 6.7 | 14.2 | - |
| MiroThinker-8B-SFT-v0.1 | - | 58.0 | 5.5 | 9.3 | 41.3 |
| MiroThinker-8B-DPO-v0.1 | - | 64.4 | 8.7 | 13.6 | 45.7 |
| WebThinker-32B-RL | - | - | - | - | 46.5 |
| WebDancer-QwQ-32B | - | - | 3.8 | 18.0 | 47.9 |
| WebSailor-32B | - | - | 10.5 | 25.5 | - |
| WebShaper-32B | - | - | - | - | 51.4 |
| MiroThinker-32B-SFT-v0.1 | 10.2 | 70.4 | 10.6 | 13.8 | 45.7 |
| MiroThinker-32B-DPO-v0.1 | 11.8 | 71.7 | 13.0 | 17.0 | 49.3 |
MiroThinker 的性能测试使用了本仓库和开源工具;其他智能体的结果则来自其论文和官方网站。
由于 MiroVerse-v0.1 主要包含英文数据,因此该智能体的中文能力较为有限。我们计划在下一版本中加入更多中文数据以提升其表现。
🚀 快速入门
为获得最佳使用效果,我们建议将 MiroThinker 与本工具支持的智能体框架结合使用,并启用思考模式。
先决条件
- 🐍 Python 3.10+
- 📦 uv 包管理器(安装指南)
- 🔑 所需 API 密钥(详见下方配置部分)
安装步骤
# 克隆仓库
git clone https://github.com/MiroMindAI/MiroThinker
cd MiroThinker
# 设置环境
cd apps/miroflow-agent
uv sync
# 配置 API 密钥
cp .env.example .env
# 编辑 .env 文件,填入您的 API 密钥(SERPER_API_KEY、JINA_API_KEY、E2B_API_KEY 等)
📝 环境变量:所需 API 密钥请参阅【工具配置】章节。
工具配置
MiroThinker-1.7 的最小配置
| 服务 | 描述 | 提供的工具 | 所需环境变量 |
|---|---|---|---|
tool-python |
执行环境与文件管理(E2B 沙盒) | create_sandbox、run_command、run_python_code、upload_file_from_local_to_sandbox、download_file_from_sandbox_to_local、download_file_from_internet_to_sandbox |
E2B_API_KEY |
search_and_scrape_webpage |
使用 Serper API 进行谷歌搜索 | google_search |
SERPER_API_KEY、SERPER_BASE_URL |
jina_scrape_llm_summary |
基于 LLM 的网页抓取与信息提取 | scrape_and_extract_info |
JINA_API_KEY、JINA_BASE_URL、SUMMARY_LLM_BASE_URL、SUMMARY_LLM_MODEL_NAME、SUMMARY_LLM_API_KEY |
最小 .env 配置示例:
# 适用于 MiroThinker v1.5 和 v1.0(最小化设置)
SERPER_API_KEY=your_serper_key
SERPER_BASE_URL="https://google.serper.dev"
JINA_API_KEY=your_jina_key
JINA_BASE_URL="https://r.jina.ai"
E2B_API_KEY=your_e2b_key
# 用于 jina_scrape_llm_summary
# 注意:摘要 LLM 可以是小型模型(如 Qwen3-14B 或 GPT-5-Nano)
# 选择对性能影响较小,可根据实际情况选用
SUMMARY_LLM_BASE_URL="https://your_summary_llm_base_url/v1/chat/completions"
SUMMARY_LLM_MODEL_NAME=your_llm_model_name # 例如 "Qwen/Qwen3-14B" 或 "gpt-5-nano"
SUMMARY_LLM_API_KEY=your_llm_api_key # 可选,取决于 LLM 提供商
# 运行基准评测所需(LLM-as-a-Judge)
OPENAI_API_KEY=your_openai_key # 运行基准评测时必需
OPENAI_BASE_URL="https://api.openai.com/v1" # 可选,默认为 OpenAI 的 API
💡 为什么这是最小配置:这 3 个 MCP 服务器涵盖了研究任务所需的核心能力:网页搜索、内容提取和代码执行。其他服务器均为可选的增强功能。
🤖 总结 LLM:
SUMMARY_LLM可以是 Qwen3-14B 或 GPT-5-Nano 等小型模型。选择对整体性能影响很小,可根据你的设置方便性来决定使用哪一种。📊 基准评测用:如果你计划运行基准评测,则还需要
OPENAI_API_KEY(以及可选的OPENAI_BASE_URL),用于评测脚本中使用的 LLM-as-a-Judge 功能。🖼️ GAIA 多模态任务用:GAIA-Val-165 包含图像/音频/视频文件的任务。由于 MiroThinker 是纯文本 LLM,因此使用 GPT-4o 将这些文件预处理成文本描述。同样的
OPENAI_API_KEY同时用于此预处理和 LLM-as-a-Judge。📖 更多详情:请参阅 MiroFlow 工具 README,了解所有可用工具的完整文档。
🔧 点击展开更多可用工具
以下是一些可选工具,但在 MiroThinker v1.0-1.7 的评估中并未使用:
| 服务器名称 | 类型 | 描述 |
|---|---|---|
tool-vqa |
商业 | 使用 Claude 进行视觉处理 |
tool-vqa-os |
开源 | 视觉处理(开源替代方案) |
tool-transcribe |
商业 | 使用 OpenAI 进行音频转录 |
tool-transcribe-os |
开源 | 使用 Whisper 进行音频转录 |
tool-reasoning |
商业 | 使用 Claude 的推理引擎 |
tool-reasoning-os |
开源 | 推理引擎(开源替代方案) |
tool-reading |
开源 | 使用 MarkItDown 阅读文档 |
tool-google-search |
商业 | 使用 Google 搜索并抓取网页 |
tool-sogou-search |
商业 | 使用搜狗进行网页搜索(中文) |
📖 本地部署:有关如何在本地部署开源工具(
tool-vqa-os、tool-transcribe-os、tool-reasoning-os)的说明,请参阅 本地工具部署指南。
所有可用工具的完整文档请参阅 MiroFlow 工具 README。
预配置的智能体设置
apps/miroflow-agent/conf/agent/ 目录包含若干预配置的智能体设置。每种配置使用不同的工具,并要求在 .env 文件中设置相应的环境变量。
💡 推荐:对于 MiroThinker-1.7,建议使用
mirothinker_1.7_keep5_max200(带上下文管理,推荐用于大多数任务)或mirothinker_v1.7_keep5_max300(仅用于 BrowseComp 和 BrowseComp-ZH)。
| 配置 | 描述 | 最大回合数 | 上下文保留 | 必需的环境变量 | 推荐用途 |
|---|---|---|---|---|---|
mirothinker_1.7_keep5_max200 ⭐ |
单智能体,带上下文管理 | 200 | 保留最近 5 条 | SERPER_API_KEY, SERPER_BASE_URL, JINA_API_KEY, JINA_BASE_URL, E2B_API_KEY, SUMMARY_LLM_BASE_URL, SUMMARY_LLM_MODEL_NAME, SUMMARY_LLM_API_KEY |
1.7(推荐用于大多数任务) |
mirothinker_1.7_keep5_max300 ⭐ |
单智能体,带上下文管理 | 300 | 保留最近 5 条 | 与上相同 | 1.7(用于 BrowseComp 和 BrowseComp-ZH) |
📦 点击展开旧版配置(v0.1/v0.2)
| 配置 | 描述 | 最大回合数 | 上下文保留 | 必需的环境变量 | 推荐用途 |
|---|---|---|---|---|---|
mirothinker_v1.5_keep5_max200 |
单智能体,带上下文管理 | 200 | 保留最近 5 条 | SERPER_API_KEY, SERPER_BASE_URL, JINA_API_KEY, JINA_BASE_URL, E2B_API_KEY, SUMMARY_LLM_BASE_URL, SUMMARY_LLM_MODEL_NAME, SUMMARY_LLM_API_KEY |
v1.5(推荐用于大多数任务) |
mirothinker_v1.5_keep5_max400 |
单智能体,带上下文管理 | 400 | 保留最近 5 条 | 与上相同 | v1.5(用于 BrowseComp 和 BrowseComp-ZH) |
mirothinker_v1.5 |
适用于 MiroThinker v1.5 的单智能体 | 600 | 保留所有结果 | 与上相同 | v1.5 |
mirothinker_v1.0_keep5 |
单智能体,带上下文管理 | 600 | 保留最近 5 条 | 与上相同 | v1.0 |
mirothinker_v1.0 |
适用于 MiroThinker v1.0 的单智能体 | 600 | 保留所有结果 | 与上相同 | v1.0 |
multi_agent |
多智能体,使用商业工具(v0.1/v0.2) | 50 | 保留所有结果 | E2B_API_KEY, ANTHROPIC_API_KEY, ANTHROPIC_BASE_URL, OPENAI_API_KEY, OPENAI_BASE_URL, SERPER_API_KEY, SERPER_BASE_URL, JINA_API_KEY, JINA_BASE_URL |
v0.1/v0.2 |
multi_agent_os |
多智能体,使用开源工具(v0.1/v0.2) | 50 | 保留所有结果 | E2B_API_KEY, VISION_API_KEY, VISION_BASE_URL, VISION_MODEL_NAME, WHISPER_API_KEY, WHISPER_BASE_URL, WHISPER_MODEL_NAME, REASONING_API_KEY, REASONING_BASE_URL, REASONING_MODEL_NAME, SERPER_API_KEY, SERPER_BASEURL, JINA API KEY, JINA BASE URL |
v0.1/v0.2 |
💡 注意:所有环境变量均列于
apps/miroflow-agent/.env.example中。请将其复制到.env文件,并根据你计划使用的工具填写相应值。
创建自定义工具配置
🔧 点击展开自定义工具配置指南
你可以创建自己的 YAML 配置文件,自由组合 MCP 服务器。具体步骤如下:
- 在
apps/miroflow-agent/conf/agent/目录下创建一个新的 YAML 文件:
# conf/agent/my_custom_config.yaml
defaults:
- default
- _self_
main_agent:
tools:
- tool-python # 执行环境
- search_and_scrape_webpage # Google 搜索
- jina_scrape_llm_summary # 使用 LLM 进行网页抓取与摘要
- tool-vqa # 视觉处理(可选)
- tool-transcribe # 音频处理(可选)
- tool-reasoning # 推理引擎(可选)
- tool-reading # 文档阅读(可选)
max_turns: 300 # 最大轮次
sub_agents:
agent-browsing: # 可选子代理
tools:
- tool-google-search
- tool-vqa
- tool-reading
- tool-python
max_turns: 50
keep_tool_result: -1 # 上下文保留预算:-1 表示保留所有工具结果,或指定 K 值以仅保留最近的 K 条工具响应
💡 上下文保留策略:
keep_tool_result参数实现了一种基于时效性的上下文保留策略。在标准的 ReAct 框架中,所有工具输出都会保留在消息历史中,这可能导致上下文利用效率低下。根据经验观察,智能体的后续行为主要依赖于近期的观测结果,而非较早的信息。此策略仅保留最近的 K 条工具响应(K 即keep_tool_result的值),同时完整保留思维与行动序列。优点:
- ✅ 保留推理与行动轨迹
- ✅ 使智能体专注于最相关的上下文信息
- ✅ 腾出更多上下文空间,支持更长时间的推理和更深入的工具使用路径
- ✅ 不会导致性能下降,同时为交互扩展提供更多上下文空间
使用方法:设置
keep_tool_result: -1以保留所有工具结果,或指定一个正整数 K(例如keep_tool_result: 5)以仅保留最近的 K 条工具响应。
- 运行评估时使用自定义配置:
cd apps/miroflow-agent
uv run main.py llm=qwen-3 agent=my_custom_config llm.base_url=https://your_base_url/v1
根据所使用的工具配置
.env环境变量。所有可用的环境变量均列于
apps/miroflow-agent/.env.example中。将其复制到.env文件,并根据所选配置进行相应设置:cd apps/miroflow-agent cp .env.example .env # 编辑 .env 文件,填入实际的 API 密钥对于 MiroThinker v1.5(
mirothinker_v1.5_keep5_max200.yaml、mirothinker_v1.5_keep5_max400.yaml或mirothinker_v1.5.yaml)以及 v1.0(mirothinker_v1.0_keep5.yaml或mirothinker_v1.0.yaml),请参阅上文的[适用于 MiroThinker v1.5 和 v1.0 的最小配置]部分,获取完整的配置示例。对于其他配置,请参考上文的[预配置智能体设置]表格,以了解所需的环境变量。
🔑 点击展开可选 API 密钥
# 用于 LLM-as-a-Judge 的 API(用于基准测试,基准评估时必需)
OPENAI_API_KEY=your_openai_key
OPENAI_BASE_URL="https://api.openai.com/v1" # 可选,默认为 OpenAI 的 API
# 用于开源音频转录工具的 API(用于基准测试,可选)
WHISPER_MODEL_NAME="openai/whisper-large-v3-turbo"
WHISPER_API_KEY=your_whisper_key
WHISPER_BASE_URL="https://your_whisper_base_url/v1"
# 用于开源 VQA 工具的 API(用于基准测试,可选)
VISION_MODEL_NAME="Qwen/Qwen2.5-VL-72B-Instruct"
VISION_API_KEY=your_vision_key
VISION_BASE_URL="https://your_vision_base_url/v1/chat/completions"
# 用于开源推理工具的 API(用于基准测试,可选)
REASONING_MODEL_NAME="Qwen/Qwen3-235B-A22B-Thinking-2507"
REASONING_API_KEY=your_reasoning_key
REASONING_BASE_URL="https://your_reasoning_base_url/v1/chat/completions"
# 用于 Claude Sonnet 3.7 作为商用工具的 API(可选)
ANTHROPIC_API_KEY=your_anthropic_key
# 用于搜狗搜索的 API(可选)
TENCENTCLOUD_SECRET_ID=your_tencent_cloud_secret_id
TENCENTCLOUD_SECRET_KEY=your_tencent_cloud_secret_key
# 用于摘要 LLM 的 API(可使用小型模型,如 Qwen3-14B 或 GPT-5-Nano)
SUMMARY_LLM_BASE_URL="https://your_summary_llm_base_url/v1/chat/completions"
SUMMARY_LLM_MODEL_NAME=your_summary_llm_model_name # 例如 "Qwen/Qwen3-14B" 或 "gpt-5-nano"
SUMMARY_LLM_API_KEY=your_summary_llm_api_key
部署 MiroThinker 智能体
选项 1(推荐):使用 SGLang 或 vLLM 部署
使用 SGLang 在端口 61002 上部署 MiroThinker 模型:
NUM_GPUS=4
PORT=61002
# 从 HF 下载智能体
AGENT_PATH=miromind-ai/MiroThinker-1.7-mini
python3 -m sglang.launch_server \
--model-path $AGENT_PATH \
--tp $NUM_GPUS \
--dp 1 \
--host 0.0.0.0 \
--port $PORT \
--trust-remote-code
📍 服务器地址:这将启动一个位于
http://0.0.0.0:$PORT的服务器。请将其用作您的服务器基础 URL(例如http://0.0.0.0:61002/v1)。
选项 2:量化轻量级方案
我们还提供了使用 CPU 优化和 GPU 加速量化技术部署 MiroThinker 智能体的全面指南,并附有详细的分析及针对 llama.cpp、Ollama、SGLang 等推理框架的部署指导。
📖 完整指南:请参阅 部署文档 获取详细的部署说明。
运行您的第一个任务
完成环境搭建并启动服务器后,运行 main.py 以使用默认问题进行测试:“今天计算机科学领域的 arXiv 论文标题是什么?”
cd apps/miroflow-agent
# 使用 MiroThinker 智能体(需自行搭建服务器)
uv run python main.py llm=qwen-3 agent=mirothinker_1.7_keep5_max200 llm.base_url=http://localhost:61002/v1
# 或使用 Claude(需在 .env 中配置 ANTHROPIC_API_KEY)
uv run python main.py llm=claude-3-7 agent=single_agent_keep5
# 或使用 GPT-5(需在 .env 中配置 OPENAI_API_KEY)
uv run python main.py llm=gpt-5 agent=single_agent_keep5
若要自定义问题,请编辑 main.py 第 32 行:
task_description = "您自定义的问题在此"
智能体会在网络上搜索,必要时执行代码,并给出带有来源的答案。
📖 更多详情:请参阅 apps/miroflow-agent/README.md 以了解可用配置及故障排除方法。
📊 基准评估
适用于希望复现我们的基准测试结果或在标准基准上进行评估的研究人员。
下载基准数据
cd MiroThinker # 返回项目根目录
wget https://huggingface.co/datasets/miromind-ai/MiroFlow-Benchmarks/resolve/main/data_20251115_password_protected.zip
unzip data_20251115_password_protected.zip
# 密码:pf4*
rm data_20251115_password_protected.zip
运行基准评估
注意:对于 MiroThinker-1.7,请使用
mirothinker_1.7_keep5_max200(带上下文管理)和mirothinker_1.7_keep5_max300(带上下文管理)。
可用参数:
您可以在运行脚本之前通过设置以下环境变量来自定义评估:
| 参数 | 默认值 | 描述 |
|---|---|---|
LLM_MODEL |
"MiroThinker-Agents" |
代理名称标识符 |
BASE_URL |
"https://your-api.com/v1" |
您服务器的基 URL |
NUM_RUNS |
根据基准不同而异 | 评估运行次数(大多数基准为3次,GAIA/XBench/FutureX/SEAL-0为8次,AIME2025为32次) |
LLM_PROVIDER |
"qwen" |
大模型提供商(如 qwen、openai、anthropic) |
AGENT_SET |
"mirothinker_1.7_keep5_max200" |
代理配置(如 mirothinker_1.7_keep5_max200、mirothinker_1.7_keep5_max300等) |
MAX_CONTEXT_LENGTH |
262144 |
最大上下文长度(256K) |
MAX_CONCURRENT |
10 |
最大并发任务数 |
PASS_AT_K |
1 |
Pass@K 评估指标 |
TEMPERATURE |
1.0 |
采样温度 |
API_KEY |
"xxx" |
服务器的 API 密钥 |
示例用法:
# 首先导航到 miroflow-agent 目录
cd apps/miroflow-agent
# 使用 v1.5 的基本用法(推荐)
NUM_RUNS=8 LLM_MODEL="MiroThinker-1.7-mini" BASE_URL="https://your-api.com/v1" bash scripts/run_evaluate_multiple_runs_gaia-validation-text-103.sh
# 或者使用 v1.0
# NUM_RUNS=8 LLM_MODEL="MiroThinker-v1.0-30B" BASE_URL="https://your-api.com/v1" bash scripts/run_evaluate_multiple_runs_gaia-validation-text-103.sh
# 自定义运行次数和代理配置(v1.5 带上下文管理)
LLM_MODEL="MiroThinker-1.7-mini" \
BASE_URL="https://your-api.com/v1" \
NUM_RUNS=8 \
AGENT_SET="mirothinker_1.7_keep5_max200" \
bash scripts/run_evaluate_multiple_runs_gaia-validation-text-103.sh
📋 点击展开所有基准测试命令
⚠️ 对于 MiroThinker-1.7 的重要提示:要复现我们报告的结果,必须设置正确的
AGENT_SET:
- BrowseComp 和 BrowseComp-ZH:使用
AGENT_SET="mirothinker_1.7_keep5_max300"- 其他所有基准测试:使用
AGENT_SET="mirothinker_1.7_keep5_max200"
# 首先导航到 miroflow-agent 目录
cd apps/miroflow-agent
# HLE
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_hle.sh
# HLE-Text-2158
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_hle-text-2158.sh
# HLE-Text-500
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_hle-text-500.sh
# GAIA-Text-103
NUM_RUNS=8 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_gaia-validation-text-103.sh
# GAIA-Validation (GAIA-Val-165)
NUM_RUNS=8 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_gaia-validation.sh
# BrowseComp-EN(⚠️ 使用 max300)
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max300" bash scripts/run_evaluate_multiple_runs_browsecomp.sh
# BrowseComp-ZH(⚠️ 使用 max300)
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max300" bash scripts/run_evaluate_multiple_runs_browsecomp_zh.sh
# WebWalkerQA
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_webwalkerqa.sh
# XBench-DeepSearch
NUM_RUNS=8 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_xbench_deepsearch.sh
# FRAMES
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_frames.sh
# SEAL-0
NUM_RUNS=8 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_seal-0.sh
# FutureX
NUM_RUNS=8 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_futurex.sh
# AIME2025
NUM_RUNS=32 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_aime2025.sh
# DeepSearchQA
NUM_RUNS=3 LLM_MODEL="xxx" BASE_URL="xxx" AGENT_SET="mirothinker_1.7_keep5_max200" bash scripts/run_evaluate_multiple_runs_deepsearchqa.sh
3. 监控评估进度
📊 点击展开进度监控命令
# 首先导航到 miroflow-agent 目录
cd apps/miroflow-agent
# 对于 HLE
python benchmarks/check_progress/check_progress_hle.py /path/to/evaluation/logs
# 对于 HLE-Text-2158
python benchmarks/check_progress/check_progress_hle-text-2158.py /path/to/evaluation/logs
# 对于 HLE-Text-500
python benchmarks/check_progress/check_progress_hle-text-500.py /path/to/evaluation/logs
# 对于 BrowseComp-EN
python benchmarks/check_progress/check_progress_browsecomp.py /path/to/evaluation/logs
# 对于 BrowseComp-ZH
python benchmarks/check_progress/check_progress_browsecomp_zh.py /path/to/evaluation/logs
# 对于 GAIA-Validation
python benchmarks/check_progress/check_progress_gaia-validation.py /path/to/evaluation/logs
# 对于 GAIA-Text-103
python benchmarks/check_progress/check_progress_gaia-validation-text-103.py /path/to/evaluation/logs
# 对于 WebWalkerQA
python benchmarks/check_progress/check_progress_webwalkerqa.py /path/to/evaluation/logs
# 对于 Frames
python benchmarks/check_progress/check_progress_frames.py /path/to/evaluation/logs
# 对于 XBench-DeepSearch
python benchmarks/check_progress/check_progress_xbench_deepsearch.py /path/to/evaluation/logs
# 对于 SEAL-0
python benchmarks/check_progress/check_progress_seal-0.py /path/to/evaluation/logs
# 对于 AIME2025
python benchmarks/check_progress/check_progress_aime2025.py /path/to/evaluation/logs
# 对于 DeepSearchQA
python benchmarks/check_progress/check_progress_deepsearchqa.py /path/to/evaluation/logs
🔬 跟踪日志收集
📋 点击展开跟踪日志收集命令
cd apps/collect-trace
# 收集 SFT 的跟踪日志
bash scripts/collect_trace_claude37.sh
bash scripts/collect_trace_gpt5.sh
# 收集 DPO 的跟踪日志
bash scripts/collect_trace_qwen3.sh
❓ 常见问题与故障排除
常见问题
🔧 点击展开故障排除指南
问:我应该使用哪个版本?
答: 我们推荐使用 MiroThinker-1.7 ⭐,并采用最小配置:
- v1.7 ⭐:最新版本,拥有256K上下文长度,性能处于世界领先水平。请使用带上下文管理的配置:
mirothinker_1.7_keep5_max200(最多200轮对话,推荐用于大多数任务)mirothinker_1.7_keep5_max300(最多300轮对话,仅用于BrowseComp和BrowseComp-ZH)
问:如何获取API密钥?
答: 最小化设置需要以下密钥:
- SERPER_API_KEY:从 Serper.dev 获取(Google搜索API)
- JINA_API_KEY:从 Jina.ai 获取(网页抓取)
- E2B_API_KEY:从 E2B.dev 获取(代码执行沙箱)
- SUMMARY_LLM_API_KEY:您的LLM API凭证(用于内容摘要)。可以使用小型模型,如Qwen3-14B或GPT-5-Nano——选择对性能影响较小。
- OPENAI_API_KEY:从 OpenAI 获取(用于基准评估,作为LLM评判者)
- OPENAI_BASE_URL:可选,默认为
https://api.openai.com/v1。可更改为使用兼容OpenAI的API。
问:代理服务器连接错误
答: 常见问题:
- 检查基础URL格式:应以
/v1结尾(例如https://your-api.com/v1) - 验证API密钥:确保在环境变量或脚本中正确设置了
API_KEY - 检查服务器状态:确保您的服务器正在运行且可访问
- 网络问题:确认防火墙/网络设置允许连接
问:评估脚本无法运行
答: 故障排除步骤:
- 检查工作目录:确保您位于
apps/miroflow-agent目录下 - 验证环境:运行
uv sync以确保依赖项已安装 - 检查 .env 文件:确保所有必需的环境变量均已设置
- 查看日志:检查
logs/目录中的详细错误信息 - 验证数据路径:确保基准测试数据已下载并位于正确位置
问:内存不足错误
答: 解决方案:
- 减少上下文长度:将
MAX_CONTEXT_LENGTH设置为较小值(例如,128K时设为131072) - 使用较少轮次的上下文管理:
- 对于v1.5:使用
mirothinker_1.7_keep5_max200或mirothinker_1.7_keep5_max300(带上下文管理)
- 对于v1.5:使用
- 减少并发任务数:将
MAX_CONCURRENT设置为较小数值(例如5) - 使用较小规模的代理:
- 对于v1.5:尝试30B而非235B
- 对于v1.0:尝试8B或30B而非72B
问:工具执行错误
答: 常见修复方法:
- E2B错误:验证
E2B_API_KEY是否有效,且账户是否有余额 - Serper错误:检查
SERPER_API_KEY和速率限制 - Jina错误:验证
JINA_API_KEY和JINA_BASE_URL是否正确 - LLM摘要错误:检查
SUMMARY_LLM_*变量及代理可用性
问:如何监控长时间运行的评估?
答: 使用进度监控脚本:
cd apps/miroflow-agent
python benchmarks/check_progress/check_progress_<benchmark_name>.py /path/to/logs
这些脚本会显示完成状态、已用时间以及预计剩余时间。
获取帮助
- 📖 文档:查看 MiroFlow Tools README,了解工具详情
- 💬 Discord:加入我们的 Discord社区
- 🐛 问题:在 GitHub Issues 上报告错误
- 📧 联系:访问 我们的网站 获取更多信息
📄 许可证
本项目采用Apache 2.0许可证授权——详情请参阅 LICENSE 文件。
🙏 致谢
我们向以下各方致以诚挚的感谢:
- 🏆 基准测试贡献者 提供了全面的评估数据集
- 🌍 开源社区 提供了使这一切成为可能的工具和库
- 👥 所有贡献者 帮助我们不断改进MiroThinker
加入我们的社区,共同构建AI代理的未来!
参考文献
如果您在研究中使用了本项目,请考虑引用以下内容:
MiroThinker(模型与方法)
@article{miromind2026mirothinker,
title={MiroThinker-1.7 & H1: 通过验证迈向重型科研代理},
author={MiroMind团队及白S.、冰L.、雷L.、李R.、李X.、林X.、敏E.、苏L.、王B.、王L.、王L.、王S.、王X.、张Y.、张Z.等},
journal={arXiv预印本 arXiv:2603.15726},
year={2026}
}
@article{miromind2025mirothinker,
title={MiroThinker:通过模型、上下文和交互式扩展,突破开源科研代理的性能边界},
author={MiroMind团队及白松、冰立东、陈卡森、陈冠正、陈云涛、陈哲、陈子怡、董轩等},
journal={arXiv预印本 arXiv:2511.11793},
year={2025}
}
MiroFlow(框架)
@article{miromind2026miroflow,
title={MiroFlow:面向通用深度研究任务的高性能、稳健开源代理框架},
author={苏世谦、邢森、董轩、钟牧言、王斌、朱熙周、陈云涛、王文海、邓悦、朱鹏翔等},
journal={arXiv预印本 arXiv:2602.22808},
year={2026}
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
