[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-togethercomputer--MoA":3,"tool-togethercomputer--MoA":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":32,"env_os":103,"env_gpu":104,"env_ram":103,"env_deps":105,"category_tags":111,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":140},6220,"togethercomputer\u002FMoA","MoA","Together Mixture-Of-Agents (MoA) –  65.1% on AlpacaEval with OSS models","MoA（Mixture-of-Agents）是一种创新的开源架构，旨在通过协同多个大语言模型（LLM）的力量来显著提升回答质量。它采用分层设计：底层由多个模型并行生成初步回答，上层模型则汇总这些结果并提炼出最终的最佳回复。这种方法有效解决了单一模型在复杂任务中可能出现的幻觉、逻辑漏洞或知识盲区问题，实现了\"1+1>2\"的集体智慧效应。\n\n其最引人注目的技术亮点在于性能突破：仅使用开源模型组合，MoA 在权威的 AlpacaEval 2.0 评测中取得了 65.1% 的高分，超越了 GPT-4 Omni 的 57.5%，证明了开源生态的巨大潜力。MoA 特别适合 AI 开发者、研究人员以及需要构建高可靠性应用的企业团队使用。项目提供了极简的 Python 实现示例，用户只需几十行代码即可部署多层代理系统，同时也支持交互式命令行演示，方便快速验证效果。无论是希望优化现有 AI 应用输出的工程师，还是探索多模型协作机制的研究者，MoA 都提供了一个高效、灵活且完全开源的解决方案。","# Mixture-of-Agents (MoA)\n\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-green.svg)](LICENSE)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArXiv-2406.04692-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04692)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Together%20AI-blue?logo=discord&logoColor=white)](https:\u002F\u002Fdiscord.com\u002Finvite\u002F9Rk6sSeWEG)\n[![Twitter](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl\u002Fhttps\u002Ftwitter.com\u002Ftogethercompute.svg?style=social&label=Follow%20%40togethercompute)](https:\u002F\u002Ftwitter.com\u002Ftogethercompute)\n\n\u003Cimg alt=\"MoA architecture\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_edd6a8e9f534.jpg\">\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#overview\">\u003Cstrong>Overview\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#quickstart-moa-in-50-loc\">\u003Cstrong>Quickstart\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#multi-layer-moa-example\">\u003Cstrong>Advanced example\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#interactive-cli-demo\">\u003Cstrong>Interactive CLI Demo\u003C\u002Fstrong>\u003C\u002Fa>\n  ·\n  \u003Ca href=\"#evaluation\">\u003Cstrong>Evaluation\u003C\u002Fstrong>\u003C\u002Fa>\n  ·\n  \u003Ca href=\"#results\">\u003Cstrong>Results\u003C\u002Fstrong>\u003C\u002Fa>\n  .\n  \u003Ca href=\"#credits\">\u003Cstrong>Credits\u003C\u002Fstrong>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Overview\n\nMixture of Agents (MoA) is a novel approach that leverages the collective strengths of multiple LLMs to enhance performance, achieving state-of-the-art results. By employing a layered architecture where each layer comprises several LLM agents, **MoA significantly outperforms GPT-4 Omni’s 57.5% on AlpacaEval 2.0 with a score of 65.1%**, using only open-source models!\n\n## Quickstart: MoA in 50 LOC\n\nTo get to get started with using MoA in your own apps, see `moa.py`. In this simple example, we'll use 2 layers and 4 LLMs. You'll need to:\n\n1. Install the Together Python library: `pip install together`\n2. Get your [Together API Key](https:\u002F\u002Fapi.together.xyz\u002Fsettings\u002Fapi-keys) & export it: `export TOGETHER_API_KEY=`\n3. Run the python file: `python moa.py`\n\n\u003Cimg alt=\"MoA explained\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_4f2ca5b8fa62.png\">\n\n## Multi-layer MoA Example\n\nIn the previous example, we went over how to implement MoA with 2 layers (4 LLMs answering and one LLM aggregating). However, one strength of MoA is being able to go through several layers to get an even better response. In this example, we'll go through how to run MoA with 3+ layers in `advanced-moa.py`.\n\n```python\npython advanced-moa.py\n```\n\n\u003Cimg alt=\"MoA – 3 layer example\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_dff7e19b69f0.png\">\n\n## Interactive CLI Demo\n\nThis interactive CLI demo showcases a simple multi-turn chatbot where the final response is aggregated from various reference models.\n\nTo run the interactive demo, follow these 3 steps:\n\n1. Export Your API Key: `export TOGETHER_API_KEY={your_key}`\n2. Install Requirements: `pip install -r requirements.txt`\n3. Run the script: `python bot.py`\n\nThe CLI will prompt you to input instructions interactively:\n\n1. Start by entering your instruction at the \">>>\" prompt.\n2. The system will process your input using the predefined reference models.\n3. It will generate a response based on the aggregated outputs from these models.\n4. You can continue the conversation by inputting more instructions, with the system maintaining the context of the multi-turn interaction.\n\n### [Optional] Additional Configuration\n\nThe demo will ask you to specify certain options but if you want to do additional configuration, you can specify these parameters:\n\n- `--aggregator`: The primary model used for final response generation.\n- `--reference_models`: List of models used as references.\n- `--temperature`: Controls the randomness of the response generation.\n- `--max_tokens`: Maximum number of tokens in the response.\n- `--rounds`: Number of rounds to process the input for refinement. (num rounds == num of MoA layers - 1)\n- `--num_proc`: Number of processes to run in parallel for faster execution.\n- `--multi_turn`: Boolean to toggle multi-turn interaction capability.\n\n## Evaluation\n\nWe provide scripts to quickly reproduce some of the results presented in our paper\nFor convenience, we have included the code from [AlpacaEval](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Falpaca_eval),\n[MT-Bench](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat), and [FLASK](https:\u002F\u002Fgithub.com\u002FkaistAI\u002FFLASK), with necessary modifications.\nWe extend our gratitude to these projects for creating the benchmarks.\n\n### Preparation\n\n```bash\n# install requirements\npip install -r requirements.txt\ncd alpaca_eval\npip install -e .\ncd FastChat\npip install -e \".[model_worker,llm_judge]\"\ncd ..\n\n# setup api keys\nexport TOGETHER_API_KEY=\u003CTOGETHER_API_KEY>\nexport OPENAI_API_KEY=\u003COPENAI_API_KEY>\n```\n\n### Run AlpacaEval 2\n\nTo run AlpacaEval 2, execute the following scripts:\n\n```\nbash run_eval_alpaca_eval.sh\n```\n\n### Run MT-Bench\n\nFor a minimal example of MT-Bench evaluation, run:\n\n```\nbash run_eval_mt_bench.sh\n```\n\n### Run FLASK\n\nFor a minimal example of FLASK evaluation, run:\n\n```\nbash run_eval_flask.sh\n```\n\n### Results\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_60303093b3b4.png\" alt=\"alpaca_mtbench\" style=\"width: 100%; display: block; margin-left: auto; margin-right: auto;\" \u002F>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\nWe achieved top positions on both the AlpacaEval 2.0 leaderboard and MT-Bench. Notably, on AlpacaEval 2.0, using solely open-source models, we achieved a margin of 7.6% absolute improvement from 57.5% (GPT-4 Omni) to 65.1% (MoA).\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_1e5666ceaa7f.png\" alt=\"flask\" style=\"width: 50%; display: block; margin-left: auto; margin-right: auto;\" \u002F>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\nFLASK offers fine-grained evaluation of models across multiple dimensions. Our MoA method significantly outperforms the original Qwen1.5-110B-Chat on harmlessness, robustness, correctness, efficiency, factuality, commonsense, insightfulness, completeness. Additionally, MoA also outperforms GPT-4 Omni in terms of correctness, factuality, insightfulness, completeness, and metacognition.\n\nPlease feel free to contact us if you have difficulties in reproducing the results.\n\n## Credits\n\nNotably, this work was made possible by the collaborative spirit and contributions of active organizations in the AI field. We appreciate the efforts of Meta AI, Mistral AI, Microsoft, Alibaba Cloud, and DataBricks for developing the Llama 3, Mixtral, WizardLM 2, Qwen 1.5, and DBRX models. Additionally, we extend our gratitude to Tatsu Labs, LMSYS, and KAIST AI for developing the AlpacaEval, MT-Bench, and FLASK evaluation benchmarks.\n\n## License\n\nThis project is licensed under the Apache 2.0 License - see the LICENSE file for details.\n\n## Citation\n\nIf you find this work helpful, please consider citing:\n\n```bibtex\n@article{wang2024mixture,\n  title={Mixture-of-Agents Enhances Large Language Model Capabilities},\n  author={Wang, Junlin and Wang, Jue and Athiwaratkun, Ben and Zhang, Ce and Zou, James},\n  journal={arXiv preprint arXiv:2406.04692},\n  year={2024}\n}\n```\n","# 代理混合模型 (MoA)\n\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-green.svg)](LICENSE)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArXiv-2406.04692-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04692)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Together%20AI-blue?logo=discord&logoColor=white)](https:\u002F\u002Fdiscord.com\u002Finvite\u002F9Rk6sSeWEG)\n[![Twitter](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl\u002Fhttps\u002Ftwitter.com\u002Ftogethercompute.svg?style=social&label=Follow%20%40togethercompute)](https:\u002F\u002Ftwitter.com\u002Ftogethercompute)\n\n\u003Cimg alt=\"MoA架构\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_edd6a8e9f534.jpg\">\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#overview\">\u003Cstrong>概述\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#quickstart-moa-in-50-loc\">\u003Cstrong>快速入门\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#multi-layer-moa-example\">\u003Cstrong>高级示例\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#interactive-cli-demo\">\u003Cstrong>交互式CLI演示\u003C\u002Fstrong>\u003C\u002Fa>\n  ·\n  \u003Ca href=\"#evaluation\">\u003Cstrong>评估\u003C\u002Fstrong>\u003C\u002Fa>\n  ·\n  \u003Ca href=\"#results\">\u003Cstrong>结果\u003C\u002Fstrong>\u003C\u002Fa>\n  .\n  \u003Ca href=\"#credits\">\u003Cstrong>致谢\u003C\u002Fstrong>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 概述\n\n代理混合模型（MoA）是一种新颖的方法，它利用多个大语言模型的集体优势来提升性能，从而达到最先进的水平。通过采用分层架构，每一层由若干个LLM代理组成，**MoA仅使用开源模型，便在AlpacaEval 2.0上以65.1%的成绩显著超越了GPT-4 Omni的57.5%**！\n\n## 快速入门：50行代码实现MoA\n\n要开始在您自己的应用中使用MoA，请参阅`moa.py`。在这个简单的示例中，我们将使用2层和4个LLM。您需要：\n\n1. 安装Together Python库：`pip install together`\n2. 获取您的[Together API密钥](https:\u002F\u002Fapi.together.xyz\u002Fsettings\u002Fapi-keys)并导出：`export TOGETHER_API_KEY=`\n3. 运行Python文件：`python moa.py`\n\n\u003Cimg alt=\"MoA解释\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_4f2ca5b8fa62.png\">\n\n## 多层MoA示例\n\n在前面的示例中，我们介绍了如何用2层（4个LLM回答和1个LLM聚合）实现MoA。然而，MoA的一个优势在于可以通过多层处理获得更优的响应。在本示例中，我们将展示如何在`advanced-moa.py`中运行具有3层或更多层的MoA。\n\n```python\npython advanced-moa.py\n```\n\n\u003Cimg alt=\"MoA – 3层示例\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_dff7e19b69f0.png\">\n\n## 交互式CLI演示\n\n这个交互式CLI演示展示了一个简单的多轮聊天机器人，其最终响应由多个参考模型聚合而成。\n\n要运行交互式演示，请按照以下3步操作：\n\n1. 导出您的API密钥：`export TOGETHER_API_KEY={your_key}`\n2. 安装依赖：`pip install -r requirements.txt`\n3. 运行脚本：`python bot.py`\n\nCLI将提示您以交互方式输入指令：\n\n1. 首先在“>>>”提示符下输入您的指令。\n2. 系统将使用预定义的参考模型处理您的输入。\n3. 它会根据这些模型的聚合输出生成响应。\n4. 您可以继续对话，输入更多指令，系统将保持多轮交互的上下文。\n\n### [可选] 高级配置\n\n演示会要求您指定某些选项，但如果您想进行额外的配置，可以指定以下参数：\n\n- `--aggregator`：用于生成最终响应的主要模型。\n- `--reference_models`：用作参考的模型列表。\n- `--temperature`：控制响应生成的随机性。\n- `--max_tokens`：响应中的最大令牌数。\n- `--rounds`：处理输入以进行细化的轮数。（轮数 == MoA层数 - 1）\n- `--num_proc`：为加快执行速度而并行运行的进程数。\n- `--multi_turn`：切换多轮交互功能的布尔值。\n\n## 评估\n\n我们提供了脚本，以便快速复现论文中展示的部分结果。\n\n为了方便起见，我们已将[AlpacaEval](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Falpaca_eval)、[MT-Bench](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat)和[FLASK](https:\u002F\u002Fgithub.com\u002FkaistAI\u002FFLASK)的代码纳入其中，并进行了必要的修改。我们对这些项目创建基准测试表示衷心感谢。\n\n### 准备工作\n\n```bash\n# 安装依赖\npip install -r requirements.txt\ncd alpaca_eval\npip install -e .\ncd FastChat\npip install -e \".[model_worker,llm_judge]\"\ncd ..\n\n# 设置API密钥\nexport TOGETHER_API_KEY=\u003CTOGETHER_API_KEY>\nexport OPENAI_API_KEY=\u003COPENAI_API_KEY>\n```\n\n### 运行AlpacaEval 2\n\n要运行AlpacaEval 2，请执行以下脚本：\n\n```\nbash run_eval_alpaca_eval.sh\n```\n\n### 运行MT-Bench\n\n对于MT-Bench评估的最小示例，请运行：\n\n```\nbash run_eval_mt_bench.sh\n```\n\n### 运行FLASK\n\n对于FLASK评估的最小示例，请运行：\n\n```\nbash run_eval_flask.sh\n```\n\n### 结果\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_60303093b3b4.png\" alt=\"alpaca_mtbench\" style=\"width: 100%; display: block; margin-left: auto; margin-right: auto;\" \u002F>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\n我们在AlpacaEval 2.0排行榜和MT-Bench上均取得了领先地位。值得注意的是，在AlpacaEval 2.0上，我们仅使用开源模型，就实现了从57.5%（GPT-4 Omni）到65.1%（MoA）的绝对提升7.6个百分点。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_readme_1e5666ceaa7f.png\" alt=\"flask\" style=\"width: 50%; display: block; margin-left: auto; margin-right: auto;\" \u002F>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\nFLASK提供了对模型在多个维度上的细粒度评估。我们的MoA方法在无害性、鲁棒性、正确性、效率、事实性、常识性、洞察力和完整性等方面显著优于原始的Qwen1.5-110B-Chat。此外，MoA在正确性、事实性、洞察力、完整性以及元认知方面也优于GPT-4 Omni。\n\n如果您在复现结果时遇到困难，请随时与我们联系。\n\n## 致谢\n\n值得注意的是，这项工作的完成离不开人工智能领域各活跃组织的合作精神和贡献。我们感谢Meta AI、Mistral AI、Microsoft、阿里巴巴云和DataBricks等机构开发的Llama 3、Mixtral、WizardLM 2、Qwen 1.5和DBRX等模型。此外，我们还对Tatsu Labs、LMSYS和KAIST AI开发的AlpacaEval、MT-Bench和FLASK等评估基准表示感谢。\n\n## 许可证\n\n本项目采用Apache 2.0许可证授权——详情请参阅LICENSE文件。\n\n## 引用\n\n如果您觉得这项工作有所帮助，请考虑引用以下内容：\n\n```bibtex\n@article{wang2024mixture,\n  title={代理混合模型增强大语言模型能力},\n  author={王俊林、王珏、Athiwaratkun Ben、张策、邹詹姆斯},\n  journal={arXiv预印本 arXiv:2406.04692},\n  year={2024}\n}\n```","# MoA (Mixture-of-Agents) 快速上手指南\n\nMoA 是一种创新的架构，通过分层协作多个开源大语言模型（LLM），显著提升回答质量。实测显示，仅使用开源模型，MoA 在 AlpacaEval 2.0 上的得分可达 65.1%，超越 GPT-4 Omni。\n\n## 环境准备\n\n*   **系统要求**：支持 Python 3.8+ 的操作系统（Linux\u002FmacOS\u002FWindows）。\n*   **前置依赖**：\n    *   Python 包管理工具 `pip`。\n    *   **Together AI API Key**：MoA 默认依托 Together AI 平台调用多种开源模型。请访问 [Together AI 官网](https:\u002F\u002Fapi.together.xyz\u002Fsettings\u002Fapi-keys) 注册并获取密钥。\n\n## 安装步骤\n\n1.  **安装 Together Python 库**\n    在项目目录下执行以下命令安装核心依赖：\n    ```bash\n    pip install together\n    ```\n    *(注：如需运行交互式演示或评估脚本，请额外执行 `pip install -r requirements.txt`)*\n\n2.  **配置 API 密钥**\n    将获取到的密钥导出为环境变量（根据终端类型选择对应命令）：\n\n    *   **Linux \u002F macOS**:\n        ```bash\n        export TOGETHER_API_KEY=your_api_key_here\n        ```\n    *   **Windows (PowerShell)**:\n        ```powershell\n        $env:TOGETHER_API_KEY=\"your_api_key_here\"\n        ```\n    *   **Windows (CMD)**:\n        ```cmd\n        set TOGETHER_API_KEY=your_api_key_here\n        ```\n\n## 基本使用\n\nMoA 的核心逻辑非常简洁，官方提供了仅需约 50 行代码的示例 `moa.py`，展示了如何构建一个包含 2 层架构（4 个模型生成回答，1 个模型汇总）的系统。\n\n1.  **确保已下载源码**\n    确认当前目录包含 `moa.py` 文件。\n\n2.  **运行示例**\n    直接执行以下命令启动 MoA：\n    ```bash\n    python moa.py\n    ```\n\n程序将自动调用配置的参考模型生成回答，并由聚合模型输出最终结果。\n\n---\n*进阶提示：如需体验多层级（3 层及以上）架构或交互式命令行对话，可分别运行 `python advanced-moa.py` 或 `python bot.py`。*","某电商平台的智能客服团队正致力于升级自动回复系统，以处理用户关于复杂订单纠纷和退换货政策的多轮咨询。\n\n### 没有 MoA 时\n- **回答质量不稳定**：依赖单一开源模型（如 Llama 3），在面对模糊或复杂的客诉场景时，常出现逻辑混乱或遗漏关键政策条款的情况。\n- **难以超越闭源模型瓶颈**：受限于单模型能力上限，回复的专业度和人性化程度始终无法达到 GPT-4 Omni 的水平，导致用户满意度卡在瓶颈期。\n- **调优成本高昂**：为了提升准确率，团队需花费大量时间对单个模型进行微调和提示词工程，但边际效应递减，改进效果甚微。\n- **多轮对话上下文丢失**：在处理长篇幅的纠纷历史时，单一模型容易遗忘早期关键信息，导致回复前后矛盾，激化用户情绪。\n\n### 使用 MoA 后\n- **集体智慧提升准确率**：MoA 通过分层架构调用多个开源模型协同工作，相互校验与补充，使复杂客诉的回答准确率显著提升，AlpacaEval 得分高达 65.1%。\n- **开源模型媲美顶级闭源**：利用多模型聚合机制，MoA 让纯开源模型组合的表现超越了 GPT-4 Omni，无需支付昂贵的 API 费用即可享受顶级推理能力。\n- **架构替代繁琐调优**：无需针对特定场景反复微调单个模型，只需配置 MoA 的层级和参考模型列表，即可快速获得鲁棒性极强的通用回复能力。\n- **深层推理保障一致性**：多层处理机制让系统能像“专家组会诊”一样反复推敲上下文，确保在多轮长对话中精准记忆细节，输出逻辑严密的解决方案。\n\nMoA 的核心价值在于通过“众包式”的多模型协作架构，以低成本开源方案实现了超越单一顶级闭源模型的推理性能与稳定性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftogethercomputer_MoA_1e5666ce.png","togethercomputer","Together","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftogethercomputer_92d72b3a.jpg","",null,"https:\u002F\u002Fgithub.com\u002Ftogethercomputer",[79,83,87,91,95],{"name":80,"color":81,"percentage":82},"Python","#3572A5",92.1,{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",6.3,{"name":88,"color":89,"percentage":90},"HTML","#e34c26",1,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.6,{"name":96,"color":97,"percentage":98},"Dockerfile","#384d54",0,2883,377,"2026-04-10T06:32:45","Apache-2.0","未说明","非必需（基于 Together API 的云端推理，本地无 GPU 计算需求）",{"notes":106,"python":103,"dependencies":107},"该工具主要依赖 Together AI 的云端 API 进行推理，因此本地无需配置高性能 GPU 或下载大型模型文件。运行前必须设置 TOGETHER_API_KEY 环境变量。评估部分（Evaluation）额外需要 OPENAI_API_KEY。安装涉及 alpaca_eval 和 FastChat 等子模块的可编辑安装。",[108,109,110],"together","alpaca_eval","FastChat",[35,13],"2026-03-27T02:49:30.150509","2026-04-10T20:40:52.855909",[115,120,125,130,135],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},28143,"MoA 的中间层是如何工作的？输入和输出是什么？","在第二层及后续层中，模型会接收原始提示（original prompt）以及前一层所有输出的拼接内容。此外，项目还使用了一个专门的“聚合”提示模板（aggregate prompt template）来组合这些信息。每一层中的每个 LLM 都会基于这些输入生成一个经过细化和聚合的回答，该回答是直接针对初始提示的优化结果。","https:\u002F\u002Fgithub.com\u002Ftogethercomputer\u002FMoA\u002Fissues\u002F9",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},28144,"为什么叫“智能体混合”（Mixture of Agents）？这里真的有智能体行为或工具调用吗？","这里的“智能体”定义较为宽泛：每个 LLM 被视为一个对话智能体，具备记忆（维持前几轮的回答）和规划（在此基础上进行细化）能力，即使没有工具调用也符合智能体定义。目前的方法主要是对 LLM 的输出进行拼接和迭代聚合，尚未包含复杂的工具使用或决策行为，但这被视为未来有趣的扩展方向。","https:\u002F\u002Fgithub.com\u002Ftogethercomputer\u002FMoA\u002Fissues\u002F7",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},28145,"该方法在小参数量大语言模型（如 7B 或 8B 模型）上的表现如何？","早期实验表明，使用小模型作为聚合器（aggregator）时性能高度依赖于具体模型的选择。较小模型的聚合能力通常较弱，某些情况下甚至会导致整体性能下降。不过，随着 Gemma-2、Llama 3.1 8B 等更强的小模型出现，结果可能会有所不同，建议针对新型号重新测试。","https:\u002F\u002Fgithub.com\u002Ftogethercomputer\u002FMoA\u002Fissues\u002F38",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},28146,"代码中的“三层”结构在哪里实现？它与 MoE（混合专家）有什么区别？","聚合过程由聚合器（aggregator）执行。这与传统的 MoE（混合专家）不同：MoA 将每个 LLM\u002F智能体抽象地视为一个“专家”，而不是像 MoE 那样将前馈神经网络（FFN）层视为专家。这是一种架构理念上的区别，而非单纯的代码层级差异。","https:\u002F\u002Fgithub.com\u002Ftogethercomputer\u002FMoA\u002Fissues\u002F34",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},28147,"是否支持 GPT、Gemini、Claude 等非 Together 平台的模型作为提案者？","支持。该项目可以兼容任何符合 OpenAI 格式接口的端点，包括本地模型（如通过 LM Studio 运行）或 Groq 等服务。用户只需基于 `.env.template` 创建自己的 `.env` 文件，将第一个 API 配置为提案者（proposers），第二个 API 配置为聚合器（aggregator）即可使用。","https:\u002F\u002Fgithub.com\u002Ftogethercomputer\u002FMoA\u002Fissues\u002F16",[]]