[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Gen-Verse--LatentMAS":3,"tool-Gen-Verse--LatentMAS":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":23,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":142},2164,"Gen-Verse\u002FLatentMAS","LatentMAS","Latent Collaboration in Multi-Agent Systems","LatentMAS 是一个创新的多智能体推理框架，它彻底改变了智能体之间的协作方式。传统多智能体系统通常依赖生成冗长的文本对话来进行沟通，这不仅消耗大量计算资源，还导致响应速度缓慢。LatentMAS 巧妙地将这一过程从“文本空间”转移到了模型的“潜在空间（latent space）”，让智能体直接通过内部工作记忆传递隐含的思维向量，而非输出具体的文字轨迹。\n\n这一架构主要解决了多智能体协作中令牌（token）消耗过大、推理延迟高以及上下文窗口受限的痛点。通过跳过繁琐的文本生成步骤，LatentMAS 在显著降低算力成本的同时，实现了更快的推理速度和更稳定的多步逻辑推导。其独特的技术亮点在于无需额外训练即可实现潜在空间的对齐，并且天然兼容 Hugging Face 上的各类模型及 vLLM 后端，具备极强的通用性。\n\n该工具非常适合 AI 研究人员、大模型应用开发者以及对高效能多智能体系统有需求的技术团队使用。无论是希望优化现有 Agent 协作效率的工程师，还是探索科学发现自动化（如 Science-LatentMAS 分支所示）的科研人员，都能利用 LatentMAS 以更低的资源","LatentMAS 是一个创新的多智能体推理框架，它彻底改变了智能体之间的协作方式。传统多智能体系统通常依赖生成冗长的文本对话来进行沟通，这不仅消耗大量计算资源，还导致响应速度缓慢。LatentMAS 巧妙地将这一过程从“文本空间”转移到了模型的“潜在空间（latent space）”，让智能体直接通过内部工作记忆传递隐含的思维向量，而非输出具体的文字轨迹。\n\n这一架构主要解决了多智能体协作中令牌（token）消耗过大、推理延迟高以及上下文窗口受限的痛点。通过跳过繁琐的文本生成步骤，LatentMAS 在显著降低算力成本的同时，实现了更快的推理速度和更稳定的多步逻辑推导。其独特的技术亮点在于无需额外训练即可实现潜在空间的对齐，并且天然兼容 Hugging Face 上的各类模型及 vLLM 后端，具备极强的通用性。\n\n该工具非常适合 AI 研究人员、大模型应用开发者以及对高效能多智能体系统有需求的技术团队使用。无论是希望优化现有 Agent 协作效率的工程师，还是探索科学发现自动化（如 Science-LatentMAS 分支所示）的科研人员，都能利用 LatentMAS 以更低的资源开销构建出性能更优越的智能体系统。","\u003Ca name=\"readme-top\">\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_3f4abcec2057.png\">\n    \u003Cimg alt=\"LatentMAS\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_3f4abcec2057.png\" width=500>\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">\nLatent Collaboration in Multi-Agent Systems\n\u003C\u002Fh3>\n\n\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2511.20639\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2511.20639-B31B1B.svg?logo=arxiv\" alt=\"Arxiv\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2511.20639\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingface-DailyPaper-FFD21E.svg?logo=huggingface\" alt=\"Huggingface Paper\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fx.com\u002FJiaru_Zou\u002Fstatus\u002F1994724438135169196\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCoverage-LatentMAS-2176BC.svg?logo=x\" alt=\"X\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FScience--LatentMAS-Branch-2D8CFF.svg?logo=github\" alt=\"Science-LatentMAS Branch\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_d6eada112097.png\" width=\"1000\">\n\u003C\u002Fp>\n\n## 💡 Introduction\n\n\n**LatentMAS** is a multi-agent reasoning framework that **moves agent collaboration from token space into the model’s latent space**.  \nInstead of producing long textual reasoning traces, agents communicate by **passing latent thoughts** through their own **working memory**. LatentMAS has the following key features:\n\n- **Efficient** multi-step reasoning with drastically fewer tokens  \n- **Training-free** latent-space alignment for stable generation  \n- **A general technique** compatible with **any HF model** and optionally **vLLM** backends.\n\nOverall, LatentMAS achieves **superior performance**, **lower token usage**, and **major wall-clock speedups** of the multi-agent system.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_e0cde2080b88.png\" width=\"1000\">\n\u003C\u002Fp>\n\n\n## 🔔 News\n\n- **[2026-02-26]** 🦞 Check out [**OpenClaw-RL**](https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FOpenClaw-RL) from our Gen-Verse group! OpenClaw-RL is a fully asynchronous RL framework that trains personalized AI agents directly from natural conversation feedback — no manual labels, no API keys. It introduces two learning paradigms (Binary RL via GRPO and On-Policy Distillation) and runs the entire stack on your own infrastructure. A great complement to LatentMAS's efficient multi-agent reasoning! \n- **[2025-12-20]** Check [**Science-LatentMAS**](https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS), an excellent extension of LatentMAS developed by Prof. Markus J. Buehler and the [LAMM Lab](https:\u002F\u002Fgithub.com\u002Flamm-mit) at MIT. Science-LatentMAS is specifically designed for the scientific discovery downstream applications! For more details and instructions, please check our README section \"Science-LatentMAS\" below and the new `Science-LatentMAS` branch.\n- **[2025-12-15]** Check out these amazing community-driven extensions of LatentMAS!\n  - **[KNN-LatentMAS](https:\u002F\u002Fgithub.com\u002FBookmaster9\u002FkNN-latentMAS)** — Enables more efficient KV utilization for latent memory.\n  - **[Hybrid-LatentMAS](https:\u002F\u002Fgithub.com\u002Fnhminle\u002FLatentMAS-Hybrid)** — Extends LatentMAS to support hybrid, heterogeneous multi-agent systems.\n\n- **[2025-11-25]** We have released our paper and code implementations for LatentMAS! Stay tuned for more model-backbone supports and advanced features!\n- **[2025-11-25]** We are featured as 🤗 [**HuggingFace 1st Paper of the Day**](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2511.20639)!\n\n\n## 🌐 Awesome Works Built on Top of LatentMAS\n\nExplore community-driven extensions that expand LatentMAS into new domains, architectures, and collaboration patterns:\n\n\n### 🔬 1. **Science-LatentMAS**\n**By Prof. Markus J. Buehler & MIT LAMM Group**  \n- **New Branch:** https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS  \n- **Original Code:** https:\u002F\u002Fgithub.com\u002Flamm-mit\u002FLatentMAS\u002Ftree\u002Fflexible_agents  \n**New Features:** Extends LatentMAS for scientific modeling and material-system collaboration, enabling flexible agent types and specialized latent communication for science domains.\n\n\n### 🧠 2. **KNN-LatentMAS**\n**By Bookmaster9**\n- **Blog (Overview):** https:\u002F\u002Fbookmaster9.github.io\u002FkNN-latentMAS\u002F  \n- **Code:** https:\u002F\u002Fgithub.com\u002FBookmaster9\u002FkNN-latentMAS  \n- **New Features:** Introduce kNN-based latent retrieval to improve KV-cache usage, boosting memory efficiency and multi-step reasoning stability across agents.\n\n### 🤖 3. **Hybrid-LatentMAS**\n**By nhminle**\n- **Code:** https:\u002F\u002Fgithub.com\u002Fnhminle\u002FLatentMAS-Hybrid  \n- **New Features:** Support heterogeneous\u002Fhybrid agent collaboration (LLM + non-LLM agents), enabling modular multi-agent pipelines that mix models, tools, and reasoning strategies.\n\n\n### 🌍 4. **Awareness Network**\n**By Everest-AN**\n- **Website:** https:\u002F\u002Fawareness.market\u002F\n- **Code:** https:\u002F\u002Fgithub.com\u002Feverest-an\u002FAwareness-Market\n- **New Features:** A decentralized AI awareness market product built on LatentMAS research, enabling autonomous agent collaboration and memory sharing.\n\n### 🧩 5. LatentMAS-SLoRA\n**By Arifuzzaman Joy**\n- **Demo:** https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=g7sxYjwgRRk\n- **Code:** https:\u002F\u002Fgithub.com\u002FArifuzzamanjoy\u002Flatent_mas_slora\n- **New Features:** Augment LatentMAS with role-specialized, dynamically switchable LoRA adapters for better specialization and adaptability.\n\n### 🛰️ 6. AVP (Agent Vector Protocol)\n**By VectorArc**\n- **Blog:** https:\u002F\u002Fblog.avprotocol.ai\u002Favp-binary-protocol-latent-agent-communication\u002F\n- **Code:** https:\u002F\u002Fgithub.com\u002FVectorArc\u002Favp-python\n- **New Features:** Enables agents to share KV-cache and hidden states instead of text, supporting zero-training latent handoff, cross-model transfer, and faster multi-agent collaboration.\n\n**If your work extends LatentMAS, feel free to open a PR and we’ll feature it here! 🚀**\n\n\n## 📊 Experiments Overview\n\n### ⭐ Main Results  \nThree main tables from our paper spanning 9 tasks across math & science reasoning, commensonse reasoning, and code generation:\n\n- **Table 1 — LatentMAS under the Sequantial MAS setting**  \n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_71212e382fcc.png\" width=\"1000\">\u003C\u002Fp>\n\n- **Table 2 — LatentMAS under the Hierarchical MAS setting**  \n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_f0e94340ad5f.png\" width=\"1000\">\u003C\u002Fp>\n\n- **Table 3 — Main Results on Reasoning Intensive Tasks**\n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_d9f11cf58221.png\" width=\"1000\">\u003C\u002Fp>\n\n\n### ⚡ Superior Efficiency on **Time and Tokens**\n\nOverall, LatentMAS reduces:\n- **~50–80% tokens**\n- **~3×–7× wall-clock time**\ncompared to standard Text-MAS or chain-of-thought baselines.\n\n\n## 🛠️ Getting Started\n\nThis repository provides all code for reproducing LatentMAS, TextMAS, and baseline single-agent experiments across GSM8K, AIME24\u002F25, GPQA, ARC-Easy\u002FChallenge, MBPP+, HumanEval+, and MedQA.\n\n### ⚙️ Setup Environment Variables\n\nWe recommend setting your HF cache directory to avoid repeated downloads:\n\n```bash\nexport HF_HOME=\u002Fpath\u002Fto\u002Fhuggingface\nexport TRANSFORMERS_CACHE=$HF_HOME\nexport HF_DATASETS_CACHE=$HF_HOME\n````\n\nModels and datasets will automatically be downloaded into `$HF_HOME`.\n\n\n### 📦 Install Packages\n\n```bash\nconda create -n latentmas python=3.10 -y\nconda activate latentmas\n\npip install -r requirements.txt\n```\n\nIf you want **vLLM support**, also install:\n\n```bash\npip install vllm\n```\n\n## 🚀 Quick Start\n\n### 1. Clone the repo\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS.git\ncd LatentMAS\n```\n\n### 2. Repository Structure\n\n```\nLatentMAS\u002F\n│── run.py                 # Main entry for experiments\n│── models.py              # Wrapper for HF + vLLM + latent realignment\n│── methods\u002F\n│   ├── baseline.py        # Single-agent baseline\n│   ├── text_mas.py        # Token-space multi-agent method\n│   └── latent_mas.py      # Latent-space multi-agent (our method)\n│── prompts.py             # Prompt constructors\n│── data.py                # Dataset loaders\n│── data\u002F                  # Provided data + figures (We give medqa.json as an example here)\n│── utils.py               # Answer parsing \u002F timeout \u002F helpers\n│── example_logs\u002F          # Example logs from LatentMAS\n│── requirements.txt\n```\n\n\n## 🧪 Running Experiments (standard HF backend)\n\n### 🔹 **Baseline (single model)**\n\n```bash\npython run.py --method baseline --model_name Qwen\u002FQwen3-14B --task gsm8k --max_samples -1 --max_new_tokens 2048\n```\n\n\n### 🔹 **TextMAS (text based multi-agent system)**\n\n```bash\npython run.py --method text_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n```\n\n\n### 🔹 **LatentMAS (our latent mas method)**\n\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n```\n\n#### Notes:\n\n* **`--latent_steps`** ∈ [0, 80]\n  Tune for best performance.\n* **`--latent_space_realign`**\n  Enables latent→embedding alignment\n  We treat this as a **hyperparameter** — enable\u002Fdisable depending on task\u002Fmodel:\n\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --latent_space_realign --max_new_tokens 2048\n```\n\n\n## 📘 Example Logs\n\nTwo example LatentMAS logs are provided for reference purposes:\n\n* `example_logs\u002Fqwen3_14b_mbppplus_sequential.txt`\n* `example_logs\u002Fqwen3_14b_humanevalplus_hierarchical.txt`\n\n\nPlease refer to additional experiment logs [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1evGv5YAmLb4YM_D9Yu0ABa1nfqHC5N-l?usp=drive_link).\nYou can open them to view the full agent interaction traces and outputs.\n\n\n## ⚡ vLLM Integration\n\nLatentMAS supports vLLM for faster inference.\n\n### 🔹 Baseline with vLLM\n\n```bash\npython run.py --method baseline --model_name Qwen\u002FQwen3-14B --task gsm8k --max_samples -1 --use_vllm --max_new_tokens 2048\n```\n\n### 🔹 TextMAS with vLLM\n\n```bash\npython run.py --method text_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --use_vllm --max_new_tokens 2048\n```\n\n### 🔹 LatentMAS with vLLM\n\nLatentMAS supports a **hybrid HF + vLLM pipeline** for fast inference:\n- vLLM handles **final text generation** (with prefix caching, tensor parallelism, etc.)\n- A HuggingFace model handles **latent-space rollout** and hidden-state alignment\n\nFor this setup, we recommend using two GPUs:\n- One GPU for vLLM (`--device`, e.g., `cuda:0`)\n- One GPU for the auxiliary HF model (`--device2`, e.g., `cuda:1`)\n\n```bash\nCUDA_VISIBLE_DEVICES=0,1 python run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048 \\\n  --use_vllm \\\n  --use_second_HF_model \\\n  --enable_prefix_caching \\\n  --device2 cuda:1\n```\n\n**📍Important Note:**\n\n> vLLM does **not** officially support modifying KV-cache or prompting via latent embeddings.\n> We modify the partial inner package inside vLLM backend for our method implementation.\n> Note minor numeric differences may arise compared to offical HF backend due to different decoding (generation) strategies. Please Use the HF backend to reproduce the official published results.\n\n## 📚 Citation\n\n💫 If you find **LatentMAS** helpful, please kindly give us a star ⭐️ and cite below. Thanks!\n\n```\n@article{zou2025latentmas,\n  title={Latent Collaboration in Multi-Agent Systems},\n  author={Zou, Jiaru and Yang, Xiyuan and Qiu, Ruizhong and Li, Gaotang and Tieu, Katherine and Lu, Pan and Shen, Ke and Tong, Hanghang and Choi, Yejin and He, Jingrui and Zou, James and Wang, Mengdi and Yang, Ling},\n  journal={arXiv preprint arXiv:2511.20639},\n  year={2025}\n}\n```\n\n## 🤝 Ackowledgement \n\nThis code is partially based on the amazing work of [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm).\n","\u003Ca name=\"readme-top\">\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_3f4abcec2057.png\">\n    \u003Cimg alt=\"LatentMAS\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_3f4abcec2057.png\" width=500>\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">\n潜在协作多智能体系统\n\u003C\u002Fh3>\n\n\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2511.20639\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2511.20639-B31B1B.svg?logo=arxiv\" alt=\"Arxiv\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2511.20639\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingface-DailyPaper-FFD21E.svg?logo=huggingface\" alt=\"Huggingface Paper\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fx.com\u002FJiaru_Zou\u002Fstatus\u002F1994724438135169196\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCoverage-LatentMAS-2176BC.svg?logo=x\" alt=\"X\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FScience--LatentMAS-Branch-2D8CFF.svg?logo=github\" alt=\"Science-LatentMAS Branch\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n---\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_d6eada112097.png\" width=\"1000\">\n\u003C\u002Fp>\n\n## 💡 简介\n\n\n**LatentMAS** 是一种多智能体推理框架，它将智能体协作从标记空间转移到模型的潜在空间。  \n与生成冗长的文本推理轨迹不同，智能体通过在各自的 **工作记忆** 中传递 **潜在思想** 来进行通信。LatentMAS 具有以下关键特性：\n\n- 多步推理高效，所需标记数大幅减少  \n- 无需训练即可实现潜在空间对齐，从而保证生成的稳定性  \n- 这是一种通用技术，兼容 **任何 Hugging Face 模型**，并可选地支持 **vLLM** 后端。\n\n总体而言，LatentMAS 在多智能体系统中实现了 **更优性能**、**更低的标记使用量** 以及 **显著的实时加速**。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_e0cde2080b88.png\" width=\"1000\">\n\u003C\u002Fp>\n\n\n## 🔔 最新消息\n\n- **[2026-02-26]** 🦞 请查看我们 Gen-Verse 团队的 [**OpenClaw-RL**](https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FOpenClaw-RL)！OpenClaw-RL 是一个完全异步的强化学习框架，可以直接从自然对话反馈中训练个性化 AI 智能体——无需人工标注，无需 API 密钥。它引入了两种学习范式（基于 GRPO 的二元强化学习和策略蒸馏），并且整个流程都可以在您自己的基础设施上运行。它是 LatentMAS 高效多智能体推理的绝佳补充！\n- **[2025-12-20]** 请查看 [**Science-LatentMAS**](https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS)，这是由麻省理工学院的 Markus J. Buehler 教授和 [LAMM 实验室](https:\u002F\u002Fgithub.com\u002Flamm-mit) 开发的 LatentMAS 的优秀扩展版本。Science-LatentMAS 专门针对科学发现下游应用而设计！有关更多详细信息和说明，请参阅下方的“Science-LatentMAS”README 部分以及新的 `Science-LatentMAS` 分支。\n- **[2025-12-15]** 请查看这些由社区驱动的 LatentMAS 扩展！\n  - **[KNN-LatentMAS](https:\u002F\u002Fgithub.com\u002FBookmaster9\u002FkNN-latentMAS)** — 能够更高效地利用 KV 缓存，优化潜在内存管理。\n  - **[Hybrid-LatentMAS](https:\u002F\u002Fgithub.com\u002Fnhminle\u002FLatentMAS-Hybrid)** — 将 LatentMAS 扩展到混合、异构多智能体系统中。\n\n- **[2025-11-25]** 我们已经发布了 LatentMAS 的论文和代码实现！敬请期待更多模型后端支持和高级功能！\n- **[2025-11-25]** 我们被 🤗 选为 [**HuggingFace 当日首篇论文**](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2511.20639)！\n\n\n## 🌐 基于 LatentMAS 构建的优秀作品\n\n探索由社区驱动的扩展项目，它们将 LatentMAS 推广到新的领域、架构和协作模式中：\n\n\n### 🔬 1. **Science-LatentMAS**\n**由 Markus J. Buehler 教授及 MIT LAMM 小组开发**  \n- **新分支:** https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Ftree\u002FScience-LatentMAS  \n- **原始代码:** https:\u002F\u002Fgithub.com\u002Flamm-mit\u002FLatentMAS\u002Ftree\u002Fflexible_agents  \n**新增功能:** 将 LatentMAS 扩展用于科学建模和材料系统协作，支持灵活的智能体类型和面向科学领域的专用潜在通信方式。\n\n\n### 🧠 2. **KNN-LatentMAS**\n**由 Bookmaster9 开发**\n- **博客（概述）:** https:\u002F\u002Fbookmaster9.github.io\u002FkNN-latentMAS\u002F  \n- **代码:** https:\u002F\u002Fgithub.com\u002FBookmaster9\u002FkNN-latentMAS  \n- **新增功能:** 引入基于 kNN 的潜在检索技术，以改善 KV 缓存的使用效率，从而提升跨智能体的内存效率和多步推理的稳定性。\n\n### 🤖 3. **Hybrid-LatentMAS**\n**由 nhminle 开发**\n- **代码:** https:\u002F\u002Fgithub.com\u002Fnhminle\u002FLatentMAS-Hybrid  \n- **新增功能:** 支持异构\u002F混合智能体协作（LLM + 非 LLM 智能体），能够构建混合模型、工具和推理策略的模块化多智能体流水线。\n\n### 🌍 4. **Awareness Network**\n**由 Everest-AN 开发**\n- **网站:** https:\u002F\u002Fawareness.market\u002F  \n- **代码:** https:\u002F\u002Fgithub.com\u002Feverest-an\u002FAwareness-Market  \n- **新增功能:** 基于 LatentMAS 研究构建的去中心化 AI 意识市场产品，支持自主智能体协作和记忆共享。\n\n### 🧩 5. LatentMAS-SLoRA\n**由 Arifuzzaman Joy 开发**\n- **演示:** https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=g7sxYjwgRRk  \n- **代码:** https:\u002F\u002Fgithub.com\u002FArifuzzamanjoy\u002Flatent_mas_slora  \n- **新增功能:** 通过角色专业化、可动态切换的 LoRA 适配器增强 LatentMAS，使其具备更好的专业化能力和适应性。\n\n### 🛰️ 6. AVP（Agent Vector Protocol）\n**由 VectorArc 开发**\n- **博客:** https:\u002F\u002Fblog.avprotocol.ai\u002Favp-binary-protocol-latent-agent-communication\u002F  \n- **代码:** https:\u002F\u002Fgithub.com\u002FVectorArc\u002Favp-python  \n- **新增功能:** 使智能体能够共享 KV 缓存和隐藏状态，而非文本，从而支持零训练的潜在交接、跨模型迁移以及更快的多智能体协作。\n\n**如果您也有基于 LatentMAS 的扩展工作，欢迎提交 PR，我们将在此处展示您的成果！🚀**\n\n\n## 📊 实验概览\n\n### ⭐ 主要结果  \n来自我们论文的三张主要表格，涵盖了数学与科学推理、常识推理和代码生成等领域的 9 项任务：\n\n- **表 1 — LatentMAS 在顺序多智能体设置下的表现**  \n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_71212e382fcc.png\" width=\"1000\">\u003C\u002Fp>\n\n- **表 2 — LatentMAS 在层次化多智能体设置下的表现**  \n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_f0e94340ad5f.png\" width=\"1000\">\u003C\u002Fp>\n\n- **表 3 — 针对推理密集型任务的主要结果**\n  \u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_readme_d9f11cf58221.png\" width=\"1000\">\u003C\u002Fp>\n\n\n### ⚡ **时间和标记数** 方面的卓越效率\n\n总体而言，与标准的文本多智能体或思维链基线相比，LatentMAS 可以减少：\n- **约 50–80% 的标记数**\n- **约 3–7 倍的实时用时**\n\n## 🛠️ 快速入门\n\n本仓库提供了所有代码，用于复现 LatentMAS、TextMAS 以及 GSM8K、AIME24\u002F25、GPQA、ARC-Easy\u002FChallenge、MBPP+、HumanEval+ 和 MedQA 等任务中的单智能体基线实验。\n\n### ⚙️ 设置环境变量\n\n我们建议设置 Hugging Face 缓存目录，以避免重复下载：\n\n```bash\nexport HF_HOME=\u002Fpath\u002Fto\u002Fhuggingface\nexport TRANSFORMERS_CACHE=$HF_HOME\nexport HF_DATASETS_CACHE=$HF_HOME\n```\n\n模型和数据集将自动下载到 `$HF_HOME` 目录中。\n\n\n### 📦 安装依赖包\n\n```bash\nconda create -n latentmas python=3.10 -y\nconda activate latentmas\n\npip install -r requirements.txt\n```\n\n如果您需要 **vLLM 支持**，还需要安装：\n\n```bash\npip install vllm\n```\n\n## 🚀 快速入门\n\n### 1. 克隆仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS.git\ncd LatentMAS\n```\n\n### 2. 仓库结构\n\n```\nLatentMAS\u002F\n│── run.py                 # 实验主入口\n│── models.py              # 封装了 Hugging Face + vLLM + 隐空间对齐的工具\n│── methods\u002F\n│   ├── baseline.py        # 单智能体基线\n│   ├── text_mas.py        # 基于文本空间的多智能体方法\n│   └── latent_mas.py      # 隐空间多智能体（我们的方法）\n│── prompts.py             # 提示词构造器\n│── data.py                # 数据集加载器\n│── data\u002F                  # 提供的数据及图表（这里以 medqa.json 为例）\n│── utils.py               # 答案解析 \u002F 超时处理 \u002F 工具函数\n│── example_logs\u002F          # LatentMAS 的示例日志\n│── requirements.txt\n```\n\n\n## 🧪 运行实验（标准 Hugging Face 后端）\n\n### 🔹 **基线（单模型）**\n\n```bash\npython run.py --method baseline --model_name Qwen\u002FQwen3-14B --task gsm8k --max_samples -1 --max_new_tokens 2048\n```\n\n\n### 🔹 **TextMAS（基于文本的多智能体系统）**\n\n```bash\npython run.py --method text_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n```\n\n\n### 🔹 **LatentMAS（我们的隐空间多智能体方法）**\n\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n```\n\n#### 注意事项：\n\n* **`--latent_steps`** ∈ [0, 80]\n  可根据性能调整。\n* **`--latent_space_realign`**\n  启用隐空间到嵌入空间的对齐功能。\n  我们将其视为一个 **超参数** — 根据任务和模型选择是否启用：\n\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --latent_space_realign --max_new_tokens 2048\n```\n\n\n## 📘 示例日志\n\n提供了两个 LatentMAS 示例日志供参考：\n\n* `example_logs\u002Fqwen3_14b_mbppplus_sequential.txt`\n* `example_logs\u002Fqwen3_14b_humanevalplus_hierarchical.txt`\n\n\n更多实验日志请参阅 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1evGv5YAmLb4YM_D9Yu0ABa1nfqHC5N-l?usp=drive_link)。您可以打开这些文件查看完整的智能体交互轨迹和输出。\n\n\n## ⚡ vLLM 集成\n\nLatentMAS 支持 vLLM，以实现更快的推理速度。\n\n### 🔹 基线（使用 vLLM）\n\n```bash\npython run.py --method baseline --model_name Qwen\u002FQwen3-14B --task gsm8k --max_samples -1 --use_vllm --max_new_tokens 2048\n```\n\n\n### 🔹 TextMAS（使用 vLLM）\n\n```bash\npython run.py --method text_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --use_vllm --max_new_tokens 2048\n```\n\n\n### 🔹 LatentMAS（使用 vLLM）\n\nLatentMAS 支持 **混合 Hugging Face + vLLM 流程**，以实现快速推理：\n- vLLM 负责 **最终文本生成**（通过前缀缓存、张量并行等技术）\n- Hugging Face 模型负责 **隐空间展开** 和隐藏状态对齐\n\n对于这种配置，我们建议使用两块 GPU：\n- 一块 GPU 用于 vLLM（`--device`，例如 `cuda:0`）\n- 一块 GPU 用于辅助 Hugging Face 模型（`--device2`，例如 `cuda:1`）\n\n```bash\nCUDA_VISIBLE_DEVICES=0,1 python run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048 \\\n  --use_vllm \\\n  --use_second_HF_model \\\n  --enable_prefix_caching \\\n  --device2 cuda:1\n```\n\n**📍重要提示：**\n\n> vLLM 官方并不支持修改 KV 缓存或通过隐式嵌入进行提示。\n> 我们为了实现该方法，对 vLLM 后端的部分内部代码进行了修改。\n> 由于解码（生成）策略的不同，与官方 Hugging Face 后端相比可能会出现轻微的数值差异。请使用 Hugging Face 后端来复现官方已发表的结果。\n\n## 📚 引用\n\n💫 如果您觉得 **LatentMAS** 对您有帮助，请为我们点亮一颗星 ⭐️ 并引用以下内容。谢谢！\n\n```\n@article{zou2025latentmas,\n  title={多智能体系统中的隐空间协作},\n  author={Zou, Jiaru and Yang, Xiyuan and Qiu, Ruizhong and Li, Gaotang and Tieu, Katherine and Lu, Pan and Shen, Ke and Tong, Hanghang and Choi, Yejin and He, Jingrui and Zou, James and Wang, Mengdi and Yang, Ling},\n  journal={arXiv preprint arXiv:2511.20639},\n  year={2025}\n}\n```\n\n## 🤝 致谢 \n\n本代码部分基于 [vLLM](https:\u002F\u002Fgithub.com\u002Fvllm-project\u002Fvllm) 的优秀工作。","# LatentMAS 快速上手指南\n\nLatentMAS 是一个多智能体推理框架，它将智能体协作从传统的“令牌空间（Token Space）”转移到了模型的“潜在空间（Latent Space）”。通过在工作记忆中传递潜在思维而非长文本，该框架能显著减少 Token 消耗，提升推理速度，并兼容任意 HuggingFace 模型及 vLLM 后端。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐)\n*   **Python 版本**: 3.10\n*   **硬件要求**:\n    *   基础运行：至少一张支持 CUDA 的 GPU。\n    *   vLLM 加速模式（推荐）：建议配置双 GPU，分别用于 vLLM 推理和辅助 HF 模型的潜在空间对齐。\n*   **前置依赖**: Conda (用于环境管理)\n\n> **💡 国内开发者提示**：为避免模型和数据集下载缓慢或失败，建议预先设置 HuggingFace 国内镜像环境变量。\n\n```bash\nexport HF_HOME=\u002Fpath\u002Fto\u002Fhuggingface_cache\nexport TRANSFORMERS_CACHE=$HF_HOME\nexport HF_DATASETS_CACHE=$HF_HOME\n# 可选：设置国内镜像源加速下载\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n```\n\n## 安装步骤\n\n1.  **创建并激活 Conda 环境**\n\n    ```bash\n    conda create -n latentmas python=3.10 -y\n    conda activate latentmas\n    ```\n\n2.  **安装核心依赖**\n\n    ```bash\n    pip install -r requirements.txt\n    # 国内用户建议使用清华或阿里镜像加速安装\n    # pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **安装 vLLM（可选，用于加速推理）**\n\n    如果需要启用 vLLM 后端以获得更快的推理速度，请额外安装：\n\n    ```bash\n    pip install vllm\n    ```\n\n4.  **克隆项目代码**\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS.git\n    cd LatentMAS\n    ```\n\n## 基本使用\n\n以下示例展示如何使用 **Qwen\u002FQwen3-14B** 模型在 **GSM8K** 数学推理任务上运行 LatentMAS。\n\n### 1. 运行 LatentMAS（标准 HuggingFace 后端）\n\n这是最基础的运行方式，适用于单卡环境复现论文结果。\n\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n```\n\n**关键参数说明：**\n*   `--latent_steps`: 潜在空间推理步数，范围 [0, 80]，可根据任务效果调整。\n*   `--latent_space_realign`: 启用潜在空间到嵌入空间的对齐（视为超参数，视模型表现开启或关闭）。\n\n**启用对齐优化的示例：**\n```bash\npython run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --latent_space_realign --max_new_tokens 2048\n```\n\n### 2. 运行 LatentMAS（vLLM 加速模式）\n\n若拥有双 GPU 环境，可使用混合架构（vLLM 负责文本生成，HF 负责潜在空间计算）以获得极致速度。\n\n```bash\nCUDA_VISIBLE_DEVICES=0,1 python run.py --method latent_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048 \\\n  --use_vllm \\\n  --use_second_HF_model \\\n  --enable_prefix_caching \\\n  --device2 cuda:1\n```\n\n> **注意**：由于 vLLM 解码策略与原生 HF 存在细微差异，若需严格复现论文官方数据，建议使用标准 HF 后端运行。\n\n### 3. 对比实验（可选）\n\n您可以轻松切换至基线方法进行效果对比：\n\n*   **单智能体基线**:\n    ```bash\n    python run.py --method baseline --model_name Qwen\u002FQwen3-14B --task gsm8k --max_samples -1 --max_new_tokens 2048\n    ```\n*   **传统文本多智能体 (TextMAS)**:\n    ```bash\n    python run.py --method text_mas --model_name Qwen\u002FQwen3-14B --task gsm8k --prompt sequential --max_samples -1 --max_new_tokens 2048\n    ```\n\n运行完成后，可在 `example_logs\u002F` 目录或通过指定路径查看详细的智能体交互日志。","某生物材料研发团队正利用多智能体系统模拟新型蛋白质折叠路径，需要在多个专用模型间进行高频、深度的迭代推理。\n\n### 没有 LatentMAS 时\n- **通信开销巨大**：智能体间必须通过生成冗长的自然语言文本交换中间推理步骤，导致 Token 消耗量呈指数级增长。\n- **响应延迟严重**：由于需要等待每个代理完整输出长篇大论的“思维链”，整个协作流程的墙钟时间（Wall-clock time）极长，难以实时反馈。\n- **信息失真风险**：将复杂的数值化潜变量强制转换为文本再还原，容易在多次转译中丢失细微的科学特征或引入幻觉。\n- **资源成本高昂**：巨大的 Token 吞吐量直接推高了 GPU 显存占用和云端 API 调用成本，限制了大规模并行实验的可行性。\n\n### 使用 LatentMAS 后\n- **隐空间直连**：智能体直接在模型的潜空间（Latent Space）通过工作记忆传递“潜在思维”，彻底消除了冗余的文本生成过程，Token 用量减少 90% 以上。\n- **推理速度飞跃**：跳过繁琐的文本编解码环节，多步推理的端到端延迟显著降低，实现了近乎实时的科学发现迭代。\n- **精度稳定对齐**：采用无需训练的潜空间对齐技术，确保了复杂材料参数在不同代理间传递时的数值稳定性与高保真度。\n- **架构灵活通用**：无缝兼容现有的 HuggingFace 模型及 vLLM 后端，团队无需重构底层架构即可让异构科学代理高效协作。\n\nLatentMAS 通过将多智能体协作从低效的“文本对话”升级为高效的“隐空间思维共振”，在大幅降低成本的同时重塑了科学计算的推理速度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGen-Verse_LatentMAS_3f4abcec.png","Gen-Verse","Princeton-AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGen-Verse_bec71234.png","Open-source research from Princeton AI Lab, led by Ling Yang and Mengdi Wang",null,"ly1988@princeton.edu","LingYang_PU","https:\u002F\u002Fyangling0818.github.io\u002F","https:\u002F\u002Fgithub.com\u002FGen-Verse",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,857,125,"2026-04-04T22:24:44","Apache-2.0","未说明","运行 LatentMAS 标准版需 GPU（隐含需求）；若使用 vLLM 混合模式，推荐双 GPU 配置（一张用于 vLLM 推理，一张用于辅助 HF 模型进行潜空间展开），具体型号和显存未说明，但需支持 CUDA。",{"notes":97,"python":98,"dependencies":99},"1. 建议使用 conda 创建名为 'latentmas' 的 Python 3.10 环境。\n2. 支持 Hugging Face 后端及可选的 vLLM 后端加速。\n3. 若启用 vLLM 混合模式（--use_vllm --use_second_HF_model），需配置多卡环境并通过环境变量指定设备（如 cuda:0 和 cuda:1）。\n4. vLLM 模式下对内部包进行了修改以支持潜空间操作，可能导致与官方 HF 后端有细微数值差异，复现论文结果建议使用 HF 后端。\n5. 需设置 HF_HOME 等环境变量以缓存模型和数据集。","3.10",[100,101,102],"transformers","vllm (可选)","requirements.txt 中定义的其他依赖",[15,26],[105,106,107,108,109,110],"latent-reasoning","model-collaboration","multi-agent-systems","continuous-reasoning","large-language-models","latent-space-model","2026-03-27T02:49:30.150509","2026-04-06T06:52:59.586270",[114,119,124,129,133,138],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},9983,"为什么我无法复现论文中报告的 AIME24 或 MBPP+ 性能，且 LatentMAS 的结果远低于基线？","这通常是由环境版本不一致或实验随机性导致的。维护者确认他们使用的 Transformers 库版本为 4.57.1。请首先检查您的环境配置是否与该版本一致。此外，结果可能会受到运行时变异性、不同的 GPU 硬件等因素影响，建议多次运行实验取平均值。如果问题依旧，请提供详细的设置信息以便排查。","https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Fissues\u002F8",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},9984,"在使用较小的模型（如 Qwen2.5-1.5B）运行 LatentMAS 时出现乱码输出，如何解决？","这是因为 LatentMAS 是无训练（training-free）方法，其性能高度依赖骨干模型潜在状态的质量。较小模型（如 1.5B）的隐藏表示质量较低，容易导致乱码。解决方案有两种：1. 推荐使用质量更好的 Qwen3 系列较大模型（如 Qwen3-4B）；2. 如果必须使用该小模型，可以将 `latent_steps` 参数设置为 0，这将使方法退化为单智能体模式从而避免乱码。","https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Fissues\u002F14",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},9985,"如何获取或使用经过修改以支持 LatentMAS 的 vLLM 后端？","项目需要特定版本的 vLLM 才能支持嵌入输入。维护者确认实验中使用的 vLLM 版本为 0.11.0。标准安装的 vLLM 可能不支持直接传入 `prompt_embeds`（会导致 TypeError），请确保安装并使用 vLLM 0.11.0 版本，该版本应包含对 `enable_prompt_embeds` 参数的支持。","https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Fissues\u002F6",{"id":130,"question_zh":131,"answer_zh":132,"source_url":118},9986,"在复现代码时遇到 \"cache_position\" 相关的 RuntimeError 报错，该如何修复？","该错误通常与 Transformers 库的版本兼容性有关。维护者指出他们成功运行的环境使用的是 Transformers 4.57.1 版本。如果您遇到 `RuntimeError: Boolean value of Tensor with more than one value is ambiguous` 等关于 `cache_position` 的错误，请尝试将 Transformers 库升级或降级至 4.57.1 版本。",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},9987,"LatentMAS 的推理速度比 TextMAS 快，但准确率却低很多，这是正常的吗？","在某些配置下可能会出现准确率波动，但维护者强调该方法同样重视推理速度和令牌吞吐量。如果在正确配置（如使用推荐的 Qwen3 模型和正确的 Transformers 版本）下仍发现准确率显著低于论文报告值（例如 MBPP+ 上应为 86% 左右），可能是由于随机性或硬件差异。建议检查是否使用了正确的模型系列（推荐 Qwen3），并多次运行实验以消除随机误差。","https:\u002F\u002Fgithub.com\u002FGen-Verse\u002FLatentMAS\u002Fissues\u002F10",{"id":139,"question_zh":140,"answer_zh":141,"source_url":118},9988,"运行 LatentMAS 时具体的超参数配置（如 temperature, top_p, latent_steps）应该是多少？","虽然具体任务可能有所不同，但参考复现成功的案例，对于 Qwen3 系列模型，常见的生成参数包括：`temperature=0.6`, `top_p=0.95`。对于潜在空间步数 `latent_steps`，通常设置为 10 到 20 之间（例如 ARC-C 或 HumanEval+ 实验中使用了 10 步，AIME24 使用了 20 步）。如果遇到小模型乱码问题，可将 `latent_steps` 设为 0。请务必确保 `latent_space_realign` 参数根据实验需求开启。",[]]