[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-murtaza-nasir--maestro":3,"tool-murtaza-nasir--maestro":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":117,"forks":118,"last_commit_at":119,"license":120,"difficulty_score":10,"env_os":121,"env_gpu":122,"env_ram":123,"env_deps":124,"category_tags":132,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":165},4578,"murtaza-nasir\u002Fmaestro","maestro","MAESTRO is an AI-powered research application designed to streamline complex research tasks.","Maestro 是一款可私有化部署的 AI 研究助手，旨在帮助用户高效完成从规划到报告生成的复杂研究任务。它解决了传统研究中资料分散、整理耗时以及协作困难的痛点，让用户能在一个统一的环境中管理文档、自动检索网络信息，并指挥 AI 智能体协同工作，最终产出详尽的研究分析报告。\n\n这款工具特别适合科研人员、学术工作者、分析师以及需要深度处理大量文献的专业团队使用。对于注重数据隐私的机构，Maestro 支持本地部署的特性尤为关键，确保所有研究数据完全掌握在自己手中。\n\n在技术亮点方面，Maestro 不仅兼容多种主流 AI 模型（包括最新的 Azure OpenAI 及 GPT-5），还具备灵活的配置能力，允许用户手动指定模型以适配特殊环境。其独特的“任务（Mission）”管理系统能持久化保存研究进度与设置，即使服务重启也不丢失上下文。此外，工具提供了透明的研究过程追踪、自动化笔记生成以及基于文档的深度对话功能，让 AI 的每一次推理都有据可查，真正实现了人机协作的可控与高效。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_f36f3736da9d.png\" alt=\"MAESTRO Logo\" width=\"200\"\u002F>\n\u003C\u002Fp>\n\n# MAESTRO: Your Self-Hosted AI Research Assistant\n\n[![License: AGPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-AGPL_v3-blue.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0)\n[![Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.1.10--alpha-green.svg)](https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro.git)\n[![Docker](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocker-Ready-blue.svg)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fmurtaza-nasir\u002Fmaestro)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-Available-brightgreen.svg)](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F)\n\n> **Version 0.1.10-alpha (Oct 12, 2025) - Azure OpenAI & Configuration Improvements**\n>\n> - **Azure OpenAI Support**: Support for Azure OpenAI including GPT-5 models with automatic parameter handling\n> - **Manual Model Entry**: New toggle to bypass automatic model fetching for providers like Azure that don't support `\u002Fmodels` endpoint\n> - **Improved Error Handling**: Fixed 401 errors from external providers no longer logging users out\n> - **Settings Fixes**: Mission settings now persist correctly across server restarts with proper priority handling\n> - **UX Improvements**: Disabled autocomplete on API key fields to prevent browser autofill issues \n\nMAESTRO is an AI-powered research platform you can host on your own hardware. It's designed to manage complex research tasks from start to finish in a collaborative research environment. Plan your research, let AI agents carry it out, and watch as they generate detailed reports based on your documents and sources from the web.\n\n## Documentation\n\n**[View Full Documentation](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F)**\n\n- **[Quick Start](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Fquickstart\u002F)** - Get up and running in minutes\n- **[Installation](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Finstallation\u002F)** - Platform-specific setup\n- **[Configuration](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Fconfiguration\u002Foverview\u002F)** - AI providers and settings\n- **[User Guide](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fuser-guide\u002F)** - Complete feature guide\n- **[Example Reports](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fexample-reports\u002F)** - Sample outputs from various models\n- **[Troubleshooting](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Ftroubleshooting\u002F)** - Common issues and solutions\n\n## Screenshots\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_e969d2a2e31a.png\" alt=\"Research Report\" width=\"700\"\u002F>\n\u003C\u002Fp>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Document Library\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_6854365db141.png\" alt=\"Document Library\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Document Groups\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_757ca4cd74a1.png\" alt=\"Document Groups\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Mission Settings\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_d1b3c6256973.png\" alt=\"Mission Settings\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Chat Interface\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_924f416291ce.png\" alt=\"Chat with Documents\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Writing Assistant\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_2844cd9337b5.png\" alt=\"Writing Assistant\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Research Transparency\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_d1d9ca31ebe7.png\" alt=\"Research Transparency\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>AI-Generated Notes\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_4a054ca25515.png\" alt=\"Automated Notes\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Mission Tracking\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_961b2078a6a3.png\" alt=\"Mission Tracking\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>Agent Reflection\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_01472c426862.png\" alt=\"Agent Reflection\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n## Getting Started\n\n### Prerequisites\n- Docker and Docker Compose (v2.0+)\n- 16GB RAM minimum (32GB recommended)\n- 30GB free disk space\n- API keys for at least one AI provider\n\n### Quick Start\n\n```bash\n# Clone and setup\ngit clone https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro.git\ncd maestro\n.\u002Fsetup-env.sh    # Linux\u002FmacOS\n# or\n.\\setup-env.ps1   # Windows PowerShell\n\n# Start services\ndocker compose up -d\n\n# Monitor startup (takes 5-10 minutes first time)\ndocker compose logs -f maestro-backend\n```\n\nAccess at **http:\u002F\u002Flocalhost** • Default: `admin` \u002F `pass found in .env`\n\nFor detailed installation instructions, see the [Installation Guide](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Finstallation\u002F).\n\n## Configuration\n\n- **CPU Mode**: Use `docker compose -f docker-compose.cpu.yml up -d`\n- **GPU Support**: Automatic detection on Linux\u002FWindows with NVIDIA GPUs\n- **Network Access**: Configure via setup script options\n\nFor troubleshooting and advanced configuration, see the [documentation](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F).\n\n## Recent Releases\n\n### Version 0.1.10-alpha (October 12, 2025)\n**Azure OpenAI & Configuration Improvements**\n- Azure OpenAI support including GPT-5 models with automatic parameter handling\n- Manual model entry toggle for providers without `\u002Fmodels` endpoint support\n- Fixed 401 errors from external providers no longer logging users out\n- Mission settings now persist correctly across server restarts\n- Disabled autocomplete on API key fields to prevent browser autofill issues\n\n### Version 0.1.9-alpha (October 3, 2025)\n**Stability & Security Update**\n- Fixed mission pause\u002Fresume with proper checkpoint handling\n- Replaced passlib with maintained libpass fork\n- Resolved Round\u002FPass counter and activity log persistence issues\n- Fixed bcrypt compatibility for authentication\n\n### Version 0.1.8-alpha (September 26, 2025)\n**Mission Resilience & Document Intelligence Update**\n- Intelligent mission resume with complete checkpoint preservation\n- arXiv paper fetcher for direct academic paper processing\n- Writing phase resume support\n- Document reprocessing and re-embedding capabilities\n- Fixed progress indicators for accurate research tracking\n\n## Core Features\n\n- **Multi-Agent Research System**: Planning, Research, Reflection, and Writing agents working in concert\n- **Advanced RAG Pipeline**: Dual BGE-M3 embeddings with PostgreSQL + pgvector\n- **Document Management**: PDF, Word, and Markdown support with semantic search\n- **Web Integration**: Multiple search providers (Tavily, LinkUp, Jina, SearXNG)\n- **Self-Hosted**: Complete control over your data and infrastructure\n- **Local LLM Support**: OpenAI-compatible API for running your own models\n\n## License\n\nThis project is **dual-licensed**:\n\n1.  **GNU Affero General Public License v3.0 (AGPLv3)**: MAESTRO is offered under the AGPLv3 as its open-source license.\n2.  **Commercial License**: For users or organizations who cannot comply with the AGPLv3, a separate commercial license is available. Please contact the maintainers for more details.\n\n## Contributing\n\nFeedback, bug reports, and feature suggestions are highly valuable. Please feel free to open an Issue on the GitHub repository.\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_f36f3736da9d.png\" alt=\"MAESTRO Logo\" width=\"200\"\u002F>\n\u003C\u002Fp>\n\n# MAESTRO：您的自托管 AI 研究助手\n\n[![许可证：AGPL v3](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-AGPL_v3-blue.svg)](https:\u002F\u002Fwww.gnu.org\u002Flicenses\u002Fagpl-3.0)\n[![版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.1.10--alpha-green.svg)](https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro.git)\n[![Docker](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocker-Ready-blue.svg)](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fmurtaza-nasir\u002Fmaestro)\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-Available-brightgreen.svg)](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F)\n\n> **版本 0.1.10-alpha（2025年10月12日）——Azure OpenAI 与配置改进**\n>\n> - **Azure OpenAI 支持**：支持 Azure OpenAI，包括 GPT-5 模型，并实现参数的自动处理\n> - **手动输入模型**：新增切换功能，可绕过自动获取模型，适用于不支持 `\u002Fmodels` 端点的提供商，如 Azure\n> - **错误处理优化**：修复了来自外部提供商的 401 错误不再导致用户登出的问题\n> - **设置修复**：任务设置现在可在服务器重启后正确保留，并具备适当的优先级处理\n> - **用户体验改进**：禁用 API 密钥字段的自动填充功能，以避免浏览器自动填充带来的问题\n\nMAESTRO 是一个由 AI 驱动的研究平台，您可以将其托管在自己的硬件上。它旨在在一个协作式研究环境中从头到尾管理复杂的研究任务。规划您的研究，让 AI 代理执行任务，并观看它们根据您的文档和网络资源生成详细报告。\n\n## 文档\n\n**[查看完整文档](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F)**\n\n- **[快速入门](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Fquickstart\u002F)** —— 几分钟内即可启动并运行\n- **[安装](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Finstallation\u002F)** —— 平台特定的设置\n- **[配置](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Fconfiguration\u002Foverview\u002F)** —— AI 提供商及设置\n- **[用户指南](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fuser-guide\u002F)** —— 完整的功能指南\n- **[示例报告](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fexample-reports\u002F)** —— 各种模型的输出示例\n- **[故障排除](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Ftroubleshooting\u002F)** —— 常见问题及解决方案\n\n## 截图\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_e969d2a2e31a.png\" alt=\"研究报告\" width=\"700\"\u002F>\n\u003C\u002Fp>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>文档库\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_6854365db141.png\" alt=\"文档库\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>文档组\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_757ca4cd74a1.png\" alt=\"文档组\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>任务设置\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_d1b3c6256973.png\" alt=\"任务设置\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>聊天界面\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_924f416291ce.png\" alt=\"与文档聊天\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>写作助手\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_2844cd9337b5.png\" alt=\"写作助手\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>研究透明度\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_d1d9ca31ebe7.png\" alt=\"研究透明度\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>AI 生成的笔记\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_4a054ca25515.png\" alt=\"自动化笔记\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>任务跟踪\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_961b2078a6a3.png\" alt=\"任务跟踪\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>\u003Cstrong>代理反思\u003C\u002Fstrong>\u003C\u002Fsummary>\n  \u003Cbr>\n  \u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_readme_01472c426862.png\" alt=\"代理反思\" width=\"700\"\u002F>\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n## 开始使用\n\n### 先决条件\n- Docker 和 Docker Compose（v2.0+）\n- 至少 16GB 内存（建议 32GB）\n- 30GB 可用磁盘空间\n- 至少一个 AI 提供商的 API 密钥\n\n### 快速入门\n\n```bash\n# 克隆并设置\ngit clone https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro.git\ncd maestro\n.\u002Fsetup-env.sh    # Linux\u002FmacOS\n# 或\n.\\setup-env.ps1   # Windows PowerShell\n\n# 启动服务\ndocker compose up -d\n\n# 监控启动过程（首次需要 5-10 分钟）\ndocker compose logs -f maestro-backend\n```\n\n访问地址为 **http:\u002F\u002Flocalhost** • 默认用户名：`admin` \u002F 密码：`.env` 文件中找到的密码\n\n有关详细的安装说明，请参阅 [安装指南](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fgetting-started\u002Finstallation\u002F)。\n\n## 配置\n\n- **CPU 模式**：使用 `docker compose -f docker-compose.cpu.yml up -d`\n- **GPU 支持**：在配备 NVIDIA 显卡的 Linux\u002FWindows 系统上可自动检测\n- **网络访问**：可通过设置脚本选项进行配置\n\n如需故障排除或高级配置，请参阅 [文档](https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002F)。\n\n## 最新版本\n\n### 版本 0.1.10-alpha（2025年10月12日）\n**Azure OpenAI 与配置改进**\n- 支持 Azure OpenAI，包括 GPT-5 模型，并实现参数的自动处理\n- 新增手动输入模型的切换功能，适用于不支持 `\u002Fmodels` 端点的提供商\n- 修复了来自外部提供商的 401 错误不再导致用户登出的问题\n- 任务设置现在可在服务器重启后正确保留\n- 禁用 API 密钥字段的自动填充功能，以避免浏览器自动填充带来的问题\n\n### 版本 0.1.9-alpha（2025年10月3日）\n**稳定性与安全更新**\n- 修复了任务暂停\u002F恢复时的检查点处理问题\n- 将 passlib 替换为维护良好的 libpass 分支\n- 解决了回合\u002F通行证计数器及活动日志持久化的问题\n- 修复了 bcrypt 的兼容性问题，以确保身份验证正常工作\n\n### 版本 0.1.8-alpha（2025年9月26日）\n**任务韧性与文档智能更新**\n- 实现智能任务恢复，完整保留检查点\n- 添加 arXiv 论文抓取工具，可直接处理学术论文\n- 支持写作阶段的恢复\n- 实现文档重新处理和重新嵌入功能\n- 修复了进度指示器，以确保准确的研究跟踪\n\n## 核心功能\n\n- **多代理研究系统**：规划、研究、反思和写作代理协同工作\n- **先进的 RAG 流程**：双 BGE-M3 嵌入结合 PostgreSQL + pgvector\n- **文档管理**：支持 PDF、Word 和 Markdown 格式，并提供语义搜索功能\n- **网络集成**：集成多个搜索引擎提供商（Tavily、LinkUp、Jina、SearXNG）\n- **自托管**：完全掌控您的数据和基础设施\n- **本地 LLM 支持**：兼容 OpenAI 的 API，可用于运行您自己的模型\n\n## 许可证\n\n本项目采用**双重许可**：\n\n1.  **GNU Affero 通用公共许可证 v3.0 (AGPLv3)**：MAESTRO 以 AGPLv3 作为其开源许可证。\n2.  **商业许可证**：对于无法遵守 AGPLv3 的用户或组织，可另行购买商业许可证。详情请联系项目维护者。\n\n## 贡献\n\n您的反馈、错误报告和功能建议对我们非常重要。欢迎随时在 GitHub 仓库中提交 Issue。","# MAESTRO 快速上手指南\n\nMAESTRO 是一款可自托管的 AI 研究助手，旨在帮助用户在本地环境中管理复杂的科研任务。它支持多智能体协作，能够自动规划研究、检索网络资源、分析文档并生成详细报告。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (需安装 Docker Desktop)\n*   **容器引擎**：Docker 和 Docker Compose (v2.0+)\n*   **硬件配置**：\n    *   内存：最低 16GB (推荐 32GB)\n    *   磁盘空间：至少 30GB 可用空间\n*   **API 密钥**：至少需要一个 AI 提供商的 API Key（如 OpenAI, Azure OpenAI 等）\n\n> **注意**：国内用户若拉取 Docker 镜像较慢，建议配置 Docker 镜像加速器。\n\n## 安装步骤\n\n### 1. 克隆项目\n打开终端，克隆仓库并进入目录：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro.git\ncd maestro\n```\n\n### 2. 配置环境变量\n运行初始化脚本来生成 `.env` 配置文件：\n\n**Linux \u002F macOS:**\n```bash\n.\u002Fsetup-env.sh\n```\n\n**Windows (PowerShell):**\n```powershell\n.\\setup-env.ps1\n```\n*执行后请编辑生成的 `.env` 文件，填入您的 AI 提供商 API Key。*\n\n### 3. 启动服务\n使用 Docker Compose 启动所有服务（首次启动可能需要 5-10 分钟以拉取镜像和初始化数据库）：\n\n```bash\ndocker compose up -d\n```\n\n### 4. 监控启动日志\n观察后端服务启动状态，确保无报错：\n\n```bash\ndocker compose logs -f maestro-backend\n```\n看到服务就绪提示后，按 `Ctrl+C` 退出日志监控。\n\n## 基本使用\n\n### 访问界面\n在浏览器中打开：\n**http:\u002F\u002Flocalhost**\n\n### 默认登录\n*   **用户名**：`admin`\n*   **密码**：查看项目根目录下的 `.env` 文件中生成的随机密码。\n\n### 快速创建研究任务\n1.  **上传文档**：在 \"Document Library\" 中上传 PDF、Word 或 Markdown 格式的参考资料。\n2.  **创建任务 (Mission)**：点击新建任务，输入研究主题（例如：“总结量子计算的最新进展”）。\n3.  **配置模型**：在设置中选择已配置的 AI 模型（支持 Azure OpenAI GPT-5 等）。\n4.  **执行研究**：启动任务，MAESTRO 的多智能体系统将自动执行规划、搜索、阅读和写作流程。\n5.  **查看报告**：任务完成后，可在 \"Research Report\" 中查看生成的详细研究报告及引用来源。\n\n### 高级选项\n*   **CPU 模式运行**（若无 NVIDIA GPU）：\n    ```bash\n    docker compose -f docker-compose.cpu.yml up -d\n    ```\n*   **GPU 支持**：在 Linux 或 Windows 上拥有 NVIDIA 显卡时，默认会自动检测并启用 GPU 加速。","某高校研究团队正在撰写一份关于“全球固态电池技术演进”的综述报告，需要处理上百篇 PDF 文献并整合最新网络资讯。\n\n### 没有 maestro 时\n- **资料整理耗时巨大**：研究人员需手动下载、重命名并分类存储数百篇论文，极易出现版本混乱或文件丢失。\n- **信息检索效率低下**：在海量文档中查找特定数据（如“能量密度提升曲线”）如同大海捞针，往往需要逐篇打开阅读。\n- **多源信息割裂**：本地文档与网页最新资讯无法联动，导致报告内容滞后，且人工交叉验证来源真实性耗费大量精力。\n- **协作流程繁琐**：团队成员间通过邮件或即时通讯工具传递草稿和笔记，缺乏统一的上下文环境，难以追踪修改历史。\n- **隐私安全顾虑**：使用公共在线 AI 工具分析未发表的实验数据或敏感文献，存在核心知识产权泄露的风险。\n\n### 使用 maestro 后\n- **自动化文档库管理**：利用 maestro 的文档库功能一键上传并自动分组所有文献，系统自动提取元数据，构建井然有序的知识底座。\n- **智能对话式检索**：直接在聊天界面询问“过去三年能量密度的变化趋势”，maestro 瞬间从本地文档中提取数据并生成对比图表。\n- **全流程任务编排**：设定“研究任务（Mission）”后，maestro 自主规划步骤，同时检索内部文档和外部网络，生成包含确切引用的综合报告。\n- **透明化协作环境**：团队成员在同一自托管平台上查看 AI 生成的笔记和推理过程，实时追踪每个结论的来源，确保协作无缝衔接。\n- **数据私有化部署**：依托 maestro 的自托管特性，所有敏感文献和分析过程均运行在团队内部服务器，彻底杜绝数据外泄风险。\n\nmaestro 将原本数周的碎片化研究工作压缩为小时级的自动化流程，让研究人员从繁琐的信息搬运工转型为真正的知识决策者。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmurtaza-nasir_maestro_e969d2a2.png","murtaza-nasir","Murtaza Nasir","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmurtaza-nasir_cfccdd0e.jpg",null,"murtaza.cc","https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir",[79,83,87,91,95,99,103,107,110,114],{"name":80,"color":81,"percentage":82},"Python","#3572A5",70.8,{"name":84,"color":85,"percentage":86},"TypeScript","#3178c6",26.2,{"name":88,"color":89,"percentage":90},"CSS","#663399",1,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.8,{"name":96,"color":97,"percentage":98},"PowerShell","#012456",0.6,{"name":100,"color":101,"percentage":102},"PLpgSQL","#336790",0.4,{"name":104,"color":105,"percentage":106},"JavaScript","#f1e05a",0.1,{"name":108,"color":109,"percentage":106},"Dockerfile","#384d54",{"name":111,"color":112,"percentage":113},"HTML","#e34c26",0,{"name":115,"color":116,"percentage":113},"Batchfile","#C1F12E",1451,141,"2026-04-04T14:18:59","AGPL-3.0","Linux, macOS, Windows","非必需（支持 CPU 模式）；若使用 GPU，需 NVIDIA 显卡，具体型号和显存未说明，支持 Linux\u002FWindows 自动检测","最低 16GB，推荐 32GB",{"notes":125,"python":126,"dependencies":127},"该工具主要通过 Docker 部署，无需手动配置 Python 环境。首次启动可能需要 5-10 分钟。必须拥有至少一个 AI 服务提供商的 API 密钥。支持 Azure OpenAI 及本地大模型。","未说明",[128,129,130,131],"Docker","Docker Compose (v2.0+)","PostgreSQL","pgvector",[35,13,133],"其他","2026-03-27T02:49:30.150509","2026-04-07T04:11:31.864702",[137,142,147,152,157,161],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},20831,"登录时提示\"Login failed. Please try again\"怎么办？","如果运行初始化脚本后仍然无法登录，可以尝试直接使用 curl 命令调用登录接口来获取访问令牌。执行以下命令（注意替换用户名和密码）：\n\ncurl -i -X POST http:\u002F\u002Flocalhost:9933\u002Fapi\u002Fauth\u002Flogin -H 'Content-Type: application\u002Fx-www-form-urlencoded' --data 'username=admin&password=1Ab50rtbPFL5twCf'\n\n成功响应会返回 access_token 和 csrf_token，浏览器通常会自动处理这些 Cookie 从而完成登录。","https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro\u002Fissues\u002F9",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},20832,"生成报告时后端报错：AttributeError: 'OutlineModification' object has no attribute 'target_section_id'，如何解决？","该错误通常是因为使用的模型未能正确遵循指令生成所需的 JSON 结构。解决方案如下：\n1. 尝试更换对指令遵循能力更强的模型。\n2. 确保本地部署的模型支持“结构化生成”（Structured Generation），参考官方文档配置：https:\u002F\u002Fmurtaza-nasir.github.io\u002Fmaestro\u002Fdeployment\u002Flocal-llms\u002F#structured-generation\n3. 如果是旧版本会话，任务结构可能已变更，建议尝试使用新版界面中 Outline 标签页下的“修订\u002F重启”（revise\u002Frestart）功能，或者新建任务。","https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro\u002Fissues\u002F11",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},20833,"登录失败并显示数据库错误\"maestro_user does not exists\"或 500 内部服务器错误","这通常是因为数据库容器尚未完全初始化或用户表未创建成功。请检查 postgres 容器的日志（docker compose logs -f postgres）。在某些情况下，系统启动较慢（特别是首次下载嵌入模型时），需要等待较长时间（甚至超过 1 小时）直到数据库初始化完成。请耐心等待日志不再滚动且服务就绪后再尝试登录，无需额外操作。","https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro\u002Fissues\u002F19",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},20834,"上传 PDF 文件时提示\"Network error\"网络错误","此问题通常与 Docker 容器间的网络连接或文档处理服务（maestro-doc-processor）未正常启动有关。请执行以下步骤排查：\n1. 运行 `docker ps` 确认 `maestro-doc-processor` 容器处于 Up 状态。\n2. 检查后端和文档处理器的日志：`docker compose logs maestro-backend` 和 `docker compose logs maestro-doc-processor`，查看是否有报错。\n3. 确保前端配置的后端地址和端口正确，且 Nginx 反向代理配置无误。如果是本地部署，检查防火墙是否阻止了容器间通信。","https:\u002F\u002Fgithub.com\u002Fmurtaza-nasir\u002Fmaestro\u002Fissues\u002F22",{"id":158,"question_zh":159,"answer_zh":160,"source_url":151},20835,"系统启动非常慢，一直在下载文件或初始化，是否正常？","是正常的。首次启动时，系统需要下载基础 AI 模型（用于嵌入和重排序，大小约 5GB）并初始化数据库。根据网络状况，这可能耗时较长（有时需数十分钟甚至更久）。只要容器日志中没有致命错误，请耐心等待。一旦下载完成，后续启动速度会显著加快。维护者建议在 Linux 上通常在 1 分钟内完成，但在网络受限环境下会更久。",{"id":162,"question_zh":163,"answer_zh":164,"source_url":146},20836,"哪些模型推荐用于 Maestro 以获得最佳效果？","推荐使用指令遵循能力强的模型。根据社区测试：\n1. 云端：Qwen3-30B-A3B 表现良好；GLM-4.5-Air 也是不错的选择（仅次于 Sonnet）。\n2. 本地：建议使用支持结构化生成（Structured Generation）的模型部署方式，例如 unsloth 版本的 Qwen3-30B-A3B-Instruct。\n避免使用那些不擅长遵循复杂指令的模型，否则容易导致任务执行失败或格式错误。",[166,171,176,181,186,191,196,201,206],{"id":167,"version":168,"summary_zh":169,"released_at":170},126837,"v0.1.10-alpha","## [0.1.10-alpha] - 2025年10月12日\n\n### 修复\n\n#### 任务设置与配置\n- **任务源配置持久化**：修复了任务源配置在服务器重启后无法正确保存的问题\n- **设置优先级系统**：为所有研究参数实现了正确的设置优先级层级（任务 > 聊天 > 全局）\n- **设置捕获时机**：现在任务设置会在任务开始时而非创建时被捕获并显示，确保UI设置被正确使用\n- **自动保存持久化**：自动保存文档设置现在能够在不同会话间正确保存并显示\n- **防止设置覆盖**：避免了自动保存设置被任务元数据覆盖的情况\n\n#### 任务生命周期管理\n- **任务暂停处理**：改进了任务暂停操作的处理逻辑，加入了适当的 CancelledError 异常处理，以防止程序崩溃\n- **计划状态任务**：修复了在删除聊天记录时对“计划中”状态任务的处理问题\n- **设置更新**：允许在任务开始前更新设置，以提高灵活性\n\n#### 聊天与UI改进\n- **聊天删除处理**：优化了聊天删除流程，并移除了不必要的UI元素，使界面更加简洁\n- **文档组命名**：自动生成的文档组现在使用“R:”前缀，以便更好地组织和识别\n- **文档组删除**：改进了文档组删除的处理逻辑及同步机制","2025-10-12T05:17:19",{"id":172,"version":173,"summary_zh":174,"released_at":175},126838,"v0.1.9-alpha","## [0.1.9-alpha] - 2025-10-03\n\n### 修复\n- 任务暂停\u002F恢复功能，已正确处理阶段检查点\n- 任务活动日志在暂停\u002F恢复周期间保持持久化\n- 恢复任务时，回合\u002F通关计数器会正确初始化\n- 通过将密码哈希库从 passlib 切换至 libpass（一个持续维护的分支），提升了密码哈希的兼容性\n- 为确保兼容性，将 Bcrypt 版本固定为 4.1.3\n\n### 变更\n- 统一使用 save_phase_checkpoint 的检查点系统\n- 确保任务恢复后，每一轮的所有章节都会被研究\n\n### 安全性\n- 替代已弃用的 passlib，采用持续维护的 libpass 分支\n- 修复了密码验证中与 Bcrypt 的兼容性问题","2025-10-04T01:06:47",{"id":177,"version":178,"summary_zh":179,"released_at":180},126839,"v0.1.8-alpha","# 发布说明 - v0.1.8-alpha\n\n## 新增功能\n\n### 文档处理增强\n- **arXiv 论文抓取器**：直接从 arXiv 抓取并处理学术论文\n- **文档重新处理**：对现有文档进行重新处理和重新嵌入\n\n### 任务恢复与进度跟踪\n- **智能任务恢复**：任务现在可以从精确的检查点恢复，所有数据均被保留\n- **写作阶段恢复**：新增支持在写作阶段恢复任务\n- **准确的进度指示**：修复了进度计算逻辑，使研究轮次的进展显示更加平滑\n\n### 用户界面改进\n- **更优的文档分组**：改进了文档的排序、分页以及重复文档的处理方式\n- **信息丰富的反馈**：针对重复文档和处理状态提供了清晰的提示信息\n\n## 错误修复\n- 通过适当的文本净化，修复了 PostgreSQL 中的空字符错误\n- 解决了任务暂停\u002F恢复时丢失阶段和检查点数据的问题\n- 修复了笔记排序问题，确保始终按最新优先显示\n- 通过复用单个 DocumentProcessor 实例，解决了 CUDA 错误\n- 修正了使用正确 API 参数后 GPT-5 元数据提取的问题\n\n## 性能优化\n- 优化了文档一致性系统，提升了可靠性\n- 改进了活动日志的加载效率，实现了高效的分页功能\n- 增强了检查点数据在不同任务阶段之间的持久性\n\n## 技术细节\n- 构建了全面的阶段检查点系统，用于结构化的研究与写作流程\n- 改进了文档处理边缘情况下的错误处理机制\n\n## 破坏性变更\n本版本无破坏性变更\n\n## 升级说明\n数据库迁移将自动执行，无需手动干预。\n\n---\n*发布日期：2025年9月26日*","2025-09-27T02:19:44",{"id":182,"version":183,"summary_zh":184,"released_at":185},126840,"v0.1.7-alpha","## 新功能\n\n### 智能文档管理\n- **自动创建文档组**：研究任务现在可以从发现的网络来源中自动创建文档组，以便将宝贵的研究资料保存下来供日后参考。\n- **增强的文档分块显示**：通过分块数量查看所有文档的处理状态。\n- **可点击的文档来源**：在写作模式下，文档引用现在只需单击即可在文档查看器中打开。\n\n### 研究任务增强\n- **报告版本控制**：轻松切换版本，跟踪研究报告的多个版本。\n- **重新开始与修订**：新增修订和重新开始任务的功能，并改进了大纲的处理方式。\n- **无缝切换写作模式**：已完成的研究可以直接切换到写作模式，并附带相关的文档组。\n\n### 用户体验优化\n- **智能界面更新**：任务完成后自动切换到草稿选项卡。\n- **更简洁的界面**：移除了冗余按钮，优化了文档组的选择流程。\n- **更清晰的来源标识**：网络来源现在显示地球图标，而文档来源则显示文件图标。\n\n### 稳定性提升\n- **设置持久化**：修复了一个关键 bug，该 bug 导致任务会忽略用户的研究设置。\n- **统计数据准确性**：解决了任务统计中的重复日志记录和计算错误。\n- **路由修复**：修正了文档组操作的 API 端点路由。\n\n## Bug 修复\n- 修复了在高分辨率视口上聊天侧边栏自动加载的行为。\n- 修正了大纲选择使用唯一 ID 的问题。\n\n## 重大变更\n本版本无重大变更。\n\n## 升级说明\n无需特殊迁移步骤。系统将自动处理新功能。","2025-09-25T09:12:07",{"id":187,"version":188,"summary_zh":189,"released_at":190},126841,"v0.1.6-alpha","### 增强的模型支持\n- **GPT-5 支持**：新增对 GPT-5 模型的支持，可配置思考层级以实现高级推理\n- **提升模型兼容性**：增强 DeepSeek、Kimi 等模型的兼容性，并提供 json_schema 回退机制以支持结构化输出\n\n### 成本跟踪优化\n- **全面成本跟踪**：实现了基于 OpenAI 定价数据库的强大成本跟踪系统\n- **实时成本监控**：新增对所有 API 调用的详细成本跟踪功能，定价计算精准可靠\n- **成本分析工具**：内置 OpenRouter 定价测试工具，用于验证 token 数量及定价准确性\n\n### 性能与稳定性\n- **异步事件循环修复**：解决了异步操作中的事件循环问题及 UnboundLocalError 异常\n- **错误处理**：改进了针对各类模型响应和 API 故障的错误处理机制\n- **查询优化**：为搜索功能添加了智能查询优化，以应对长度限制","2025-09-23T06:50:15",{"id":192,"version":193,"summary_zh":194,"released_at":195},126842,"v0.1.5-alpha","发布日期：2025年9月2日\n\n本次 Alpha 版本发布标志着 MAESTRO 开发进程中的一个重要里程碑，我们在后端、前端和文档方面都进行了全面的改进。此次更新的重点在于性能优化、稳定性提升以及使平台更加易用。\n\n## 性能改进\n\n### 完全异步化迁移\n- 整个后端已迁移到 async\u002Fawait 架构，以提升并发能力\n- 使用 asyncpg 实现了异步数据库操作\n- 修复了曾导致界面卡顿的事件循环阻塞问题\n- 添加了基于智能限流的按任务并发控制机制\n\n### 并行处理\n- 实现了并行网页搜索，以加快信息收集速度\n- 引入了带有信号量控制的并发文档检索功能\n- 将 MAX_WORKER_THREADS 增加至 20，进一步提升性能\n- 通过队列管理优化了 LLM 请求的处理流程\n\n## 后端增强\n\n### 任务管理\n- 修复了任务恢复功能，实现了上下文的正确还原\n- 新增从特定研究轮次继续执行的恢复能力\n- 实现了提纲修订与验证机制\n- 修复了引用处理及报告生成环节的问题\n- 增加了针对文档搜索的智能分块充足性评估功能\n\n### 代理改进\n- 简化了规划代理和消息代理，以获得更优结果\n- 增强了提纲生成能力，加入了验证与重试逻辑\n- 改进了研究代理，提升了错误处理能力\n- 修复了代理活动日志记录及统计信息展示问题\n- 新增 DEBUG_REFLECTION 环境变量，便于故障排查\n\n### 参考文献与引用系统\n- 改进了参考文献引用系统，支持使用 Unicode 方括号的 LLM 模型\n- 在写作模式下支持单个方括号内包含多个引用（如 [1,2,3]）\n- 修复了根据实际使用情况对参考文献进行筛选和重新编号的问题\n- 在写作模式中添加了内联参考文献引用\n- 增强了报告生成过程中的引用处理能力\n\n## UI\u002FUX 改进\n\n### 聊天界面\n- 修复了聊天历史的搜索与过滤功能\n- 改进了聊天侧边栏的排序方式（现采用 created_at 时间戳）\n- 增强了消息处理与角色切换功能\n- 修复了草稿编辑与保存功能\n- 提升了 WebSocket 的稳定性和重连处理能力\n\n### 任务界面\n- 新增了综合设置页，用于展示任务配置\n- 修复了任务状态更新及 WebSocket 通知问题\n- 实现了 UI 恢复按钮和提纲修订模态框\n- 修正了提纲历史，使其显示每一轮的所有版本\n- 改进了开始按钮，使其优先使用已批准的问题\n\n### 写作模式\n- 全面支持 LaTeX 公式渲染\n- 修复了受作用域限制的 KaTeX CSS 导致的 LaTeX 滚动问题\n- 实现了完善的草稿保存与编辑功能\n- 修复了参考文献的显示与格式问题\n- 增强了写作上下文管理能力\n\n### 通用 UI\n- 将 Toast 通知移至页面右下角","2025-09-02T08:09:02",{"id":197,"version":198,"summary_zh":199,"released_at":200},126843,"v0.1.3-alpha","# 发布说明 - 版本 0.1.3-alpha\n\n## 重大破坏性变更\n\n**此版本包含从 SQLite\u002FChromaDB 到 PostgreSQL（使用 pgvector 扩展）的完整数据库迁移。**\n\n### 升级所需操作：\n1. **备份所有重要文档** - 迁移过程中所有数据将丢失\n2. 使用 `docker compose down -v` 删除旧的数据卷\n3. 重新运行安装脚本，生成包含安全密码的新 `.env` 文件\n4. 使用 `docker compose up -d` 从头开始启动服务\n\n## 主要特性\n\n### PostgreSQL 数据库迁移\n- 完成从 SQLite 到 PostgreSQL（带 pgvector 扩展）的迁移\n- 并发处理能力与性能得到提升\n\n### 文档处理增强\n- 修复了并发文档导入问题\n- 改进了 CLI 文档管理功能，新增了完善的清理命令\n- 使用 SHA256 哈希实现文档去重\n\n### 用户设置集成\n- 所有研究参数现在均会正确遵循用户设置\n- 动态配置项包括：\n  - 计划上下文限制（对本地 LLM 尤其重要）\n  - 笔记内容窗口大小\n  - 写作预览尺寸\n  - 搜索结果数量\n  - 并发操作限制\n- 支持按权限进行配置\n\n## 新特性\n\n### CLI 改进\n- 新增清理失败文档的命令：`maestro-cli.sh cleanup`\n- 增强了并行文档处理能力，支持可配置的批处理大小\n- 改进了错误处理与恢复机制\n- 提供批量操作进度跟踪功能\n\n### CPU 模式增强\n- 新增专门用于仅 CPU 部署的 `docker-compose.cpu.yml`\n- 自动检测硬件并进行优化\n- 根据可用硬件资源优化批处理大小\n\n### 写作模式增强\n- 引入深度搜索功能，实现全面研究\n- 改进了参考文献管理\n- 提升草稿同步稳定性\n- 增强 WebSocket 连接稳定性\n\n### 研究模式改进\n- 修复了计划代理上下文溢出问题\n\n## 错误修复\n\n### 重大修复\n- 修复了未正确应用用户设置的问题（曾使用硬编码值而非动态配置）\n- 解决了并发聊天阻塞问题\n- 修复了 CLI 文档创建时序问题\n- 纠正了 WebSocket 连接稳定性问题\n- 修复了写作模式状态管理问题\n\n### UI\u002FUX 修复\n- 改进了文档上传进度跟踪\n- 优化了错误提示与用户反馈\n- 修复了设置模态框保存问题\n- 纠正了文档筛选条件持久化问题\n\n## 性能优化\n\n- 通过 NullPool 配置降低数据库连接开销\n- 采用混合稠密\u002F稀疏检索优化向量搜索\n- 提高了文档分块与嵌入效率\n- 改善了大文档的内存管理\n- 减少了 WebSocket 消息传输开销\n\n## 配置变更\n\n## 安全改进\n\n- 在安装脚本中生成安全密码\n- 支持 JWT 密钥配置\n- 改进了管理员密码重置功能\n- 通过环境变量更好地管理凭证信息\n\n## 平台相关说明\n\n### Windows\n- 自动化","2025-08-18T06:22:46",{"id":202,"version":203,"summary_zh":204,"released_at":205},126844,"v0.1.2-alpha","# v0.1.2-alpha - 功能增强与跨平台支持\n\n  ## 新特性\n\n  * **高级写作代理:** 写作系统已完全重写，以实现更复杂的查询处理和更高品质的报告生成。\n  * **扩展文档支持:** 除了 PDF 文件外，新增对 Microsoft Word (.docx) 和 Markdown (.md) 文件的原生支持。\n  * **全面跨平台兼容性:** 在社区的大力贡献下，Maestro 现已在 Windows 和 macOS 上运行。包含专用的安装脚本，并针对所有平台改进了 Docker 支持。\n  * **文档系统大 overhaul:** 实施了全新的文档一致性管理系统，以确保数据库的完整性和可靠性。\n  * **UI\u002FUX 优化:** 增加了完整的文档元数据编辑功能，并修复了多项 UI 问题，包括深色模式对比度和文本渲染问题。\n\n  ## Bug 修复\n\n  * **Docker Compose 兼容性:** 修复所有脚本，使其使用现代的 `docker compose` 命令，而非已弃用的 `docker-compose`。\n  * **向量存储刷新:** 修复了一个关键问题：新上传的文档在容器重启之前无法访问。\n  * **模型配置:** 解决了模型默认配置问题，并改进了设置管理。\n  * **Pydantic 模式验证:** 修复了 OpenAI 结构化输出的模式验证问题，并提升了与 GPT-5 的兼容性。\n  * **UI 渲染:** 修复了 Markdown 渲染、深色模式问题以及内容溢出等问题。\n\n  ## 社区贡献者\n\n  特别感谢以下社区贡献者，他们使跨平台支持成为可能：\n\n  * **@nrynss** - Windows 兼容性和 LM Studio 集成\n  * **@matthias-laug** - macOS 兼容性和高级安装脚本\n\n  ## 技术改进\n\n  * 文档一致性管理系统\n  * 后台文档处理，支持实时进度显示\n  * 线程安全的向量存储操作，具备自动刷新功能\n  * 强化的 CLI 工具和安装脚本\n  * 全面的跨平台 Docker 支持","2025-08-09T08:11:46",{"id":207,"version":208,"summary_zh":209,"released_at":210},126845,"v0.1.1-alpha","项目重构：\n\n- 将代码库重新组织为 maestro_backend 和 maestro_frontend\n- 更新了 Docker 配置和部署脚本\n- 新增了安装指南和文档\n- 整合了代理架构和工具","2025-08-01T09:25:05"]