[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-THUDM--AgentTuning":3,"tool-THUDM--AgentTuning":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":118,"forks":119,"last_commit_at":120,"license":76,"difficulty_score":10,"env_os":121,"env_gpu":122,"env_ram":123,"env_deps":124,"category_tags":133,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":134,"updated_at":135,"faqs":136,"releases":171},5165,"THUDM\u002FAgentTuning","AgentTuning","AgentTuning: Enabling Generalized Agent Abilities for LLMs","AgentTuning 是首个专注于通过多任务交互轨迹对大语言模型进行指令微调的项目，旨在赋予模型通用的智能体（Agent）能力。它有效解决了传统大模型在面对复杂、未见过的自动化任务时，缺乏规划与执行能力，且容易在提升代理技能时牺牲通用语言能力的难题。\n\n该项目核心发布了高质量的 AgentInstruct 数据集和基于 Llama2 训练的 AgentLM 系列模型（涵盖 7B、13B 及 70B 版本）。其独特技术亮点在于数据构建过程：不仅覆盖从日常家务到数据库操作等六大真实场景，还引入了类似 ReAct 的思维链（CoT）机制，让模型在行动前生成详细的思考步骤；同时，数据经过严格筛选与去重，确保仅保留高奖励的优质交互轨迹，从而实现了在未知任务上的鲁棒泛化能力。\n\nAgentTuning 非常适合 AI 研究人员、大模型开发者以及希望构建自主智能体应用的技术团队使用。研究人员可利用其开源数据集探索智能体训练新范式，开发者则可直接部署 AgentLM 模型，快速搭建具备复杂任务处理能力的智能助手，而无需从零开始收集昂贵的训练数据。","# AgentTuning: Enabling Generalized Agent Abilities For LLMs\n\n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-70b\" target=\"_blank\">Model (AgentLM-70B)\u003C\u002Fa> • 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002FAgentInstruct\" target=\"_blank\">Dataset (AgentInstruct)\u003C\u002Fa> • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12823\" target=\"_blank\">Paper\u003C\u002Fa> • 🌐 \u003Ca href=\"https:\u002F\u002Fthudm.github.io\u002FAgentTuning\u002F\" target=\"_blank\">Project Page\u003C\u002Fa> \u003Cbr>\n\u003C\u002Fp>\n\u003Ccenter>\u003Cimg src=\"assets\u002Fmain-figure.svg\" alt=\"main-figure\" style=\"zoom:50%;\" \u002F>\u003C\u002Fcenter>\n\n[中文版(Chinese)](.\u002FREADME-zh.md)\n\n**AgentTuning** represents the very first attempt to instruction-tune LLMs using interaction trajectories across multiple agent tasks. Evaluation results indicate that AgentTuning enables the agent capabilities of LLMs with robust generalization on unseen agent tasks while remaining strong in general language abilities. We have open-sourced the AgentInstruct dataset and AgentLM.\n\n## Main Result\n\n\u003Ccenter>\u003Cimg src=\"assets\u002Fhead-figure.svg\" alt=\"head-figure\" width=\"1500\" \u002F>\u003C\u002Fcenter>\n\n\u003Ccenter>\u003Cb>Figure 1\u003C\u002Fb>&nbsp;&nbsp;Overall score in our held-in and held-out tasks\u003C\u002Fcenter>\n\n## AgentInstruct\n\n**AgentInstruct** is a meticulously curated dataset featuring 1,866 high-quality interactions designed to enhance AI agents across 6 diverse real-world tasks.\n\n- 🔍 **CoT** - Harness the power of  [ReAct](http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03629), offering detailed thought explanations for each action, ensuring an intricate understanding of the model's decision-making journey.\n- 🌍 **Diversity** - Spanning 6 real-world scenarios, from Daily Household Routines to Database Operations, with an average turn range from 5 to 35.\n- 🎯 **Precision** - Not all trajectories of GPT-4 are effective! Ours are rigorously filtered using strict rewards to ensure top-notch quality.\n- ✅ **Assurance** - Rigorous checks to avoid data leakage, ensuring pristine dataset quality.\n\nAgentInstruct dataset is available on [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002FAgentInstruct).\n\n## AgentLM\n\n**AgentLM** models are produced by mixed training on AgentInstruct dataset and ShareGPT dataset from Llama2-chat series.\n\nThe models follow the conversation format of [Llama-2-chat](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fllama2#how-to-prompt-llama-2), with the system prompt fixed as `You are a helpful, respectful and honest assistant.`\n\nThe 7B, 13B, and 70B models are available on Huggingface model hub.\n\n|    Model    |                        Huggingface Repo                        |\n| :---------: | :------------------------------------------------------------: |\n| AgentLM-7B  | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-7b)  |\n| AgentLM-13B | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-13b) |\n| AgentLM-70B | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-70b) |\n\n## Run AgentLM\n\nWe use [Text-Generation-Inference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference) to accelerate the evaluation process.\n\nYou can start a AgentLM-70b instance with:\n\n```bash\ncd docker\ndocker compose -f agentlm-70b.yml up\n```\n\nUpon successful execution, a client will be available on port `30070`. Here is an example of launching a request:\n\n```bash\ncurl 127.0.0.1:30070\u002Fgenerate \\\n    -X POST \\\n    -H 'Content-Type: application\u002Fjson' \\\n    -d '{\"inputs\": \"[INST] \u003C\u003CSYS>>\\nYou are a helpful, respectful and honest assistant.\\n\u003C\u003C\u002FSYS>>\\n\\nHello! [\u002FINST]\", \"parameters\":{\"temperature\": 1.0}}'\n\n# {\"generated_text\":\"Hello! How can I help you today? \"}\n```\n\nYou can replicate the services in the Docker Compose file to create multiple inference instances if more GPUs are available.\n\n## Evaluation\n\nHere are details of our evaluation task, including 6 held-in tasks and 6 held-out tasks.\n\n### Held-in Tasks\n\nThe 6 held-in tasks are selected from [**AgentBench**](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentBench). However, since AgentBench is still under active development, the results from the latest branch might not fully reproduce the results reported in the paper. The evaluation code of this project is located in .\u002FAgentBench.old.\n\n### Held-out Tasks\n\nHeld-out tasks are recompiled from the following frameworks:\n\n| Task              | AgentTuning Setup                                           | Original Repo                                                |\n| ----------------- | ----------------------------------------------------------- | ------------------------------------------------------------ |\n| SciWorld          | [📂 eval_heldout\u002Fscience-world](eval_heldout\u002Fscience-world\u002F) | [💻 allenai\u002FScienceWorld](https:\u002F\u002Fgithub.com\u002Fallenai\u002FScienceWorld) |\n| MiniWoB++         | [📂 eval_heldout\u002Fminiwob++](eval_heldout\u002Fminiwob++)          | [💻 Farama-Foundation\u002Fminiwob-plusplus](https:\u002F\u002Fgithub.com\u002FFarama-Foundation\u002Fminiwob-plusplus) |\n| HotpotQA          | [📂 eval_heldout\u002FhotpotQA](eval\u002Fheld_out\u002FhotpotQA)           | [💻 salesforce\u002FBOLAA](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FBOLAA)    |\n| ReWOO             | [📂 eval_heldout\u002Frewoo](eval_heldout\u002Frewwo\u002F)                 | [💻 billxbf\u002FReWOO](https:\u002F\u002Fgithub.com\u002Fbillxbf\u002FReWOO)          |\n| WebArena          | [📂 eval_heldout\u002Fwebarena](eval_heldout\u002Fwebarena\u002F)           | [💻 web-arena-x\u002Fwebarena](https:\u002F\u002Fgithub.com\u002Fweb-arena-x\u002Fwebarena) |\n| Digital Card Game | [💻 AgentBench.old](.\u002FAgentBench.old) ( _Extend_ Split )     | [💻 THUDM\u002FAgentBench](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentBench)    |\n\n### General Tasks\n\n**MMLU Setup**:\n\n- Download the 14k multi-choice questions into `.\u002Fdata`:\n\n  ```bash\n  cd data\n  wget https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~hendrycks\u002Fdata.tar\n  tar xf data.tar\n  cd ..\n  ```\n\n- Evaluate Hf model(organization\u002Fname or ckpt path)by executing the evaluation script:\n\n  ```bash\n  python eval_general\u002Fevaluate_mmlu_hf.py -c THUDM\u002FAgentLM-70b\n  ```\n\n**GSM8k Setup**:\n\n- Start TGI worker\n- Run the evaluation\n\n  ```bash\n  python eval_general\u002Fevaluate_gsm8k_tgi.py --port 30070\n  ```\n\n  Use `--sample-input-file` to load a local dataset, or [GSM8K](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fgsm8k) will be loaded for evaluation.\n\n**MT-Bench Setup**:\n\n- Install [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) locally\n\n  ```bash\n  git clone https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat.git\n  pip install -e FastChat\n  ```\n\n- Start TGI worker\n\n- Run the evaluation script:\n\n  ```bash\n  python eval_general\u002Feval_mt_bench_tgi.py --host 127.0.0.1 --port 30070 --model-id agentlm-70b\n  ```\n\n- Evaluate the answers with GPT-4\n  ```bash\n  cd FastChat\u002Ffastchat\u002Fllm_judge\n  OPENAI_API_KEY=\u003Cyour-api-key> python gen_judgment.py --model-list agentlm-70b --parallel \u003Cnumber-of-cuncurrent-requests>\n  ```\n\n## Citation\n\nIf you find our work useful, please consider citing AgentTuning:\n\n```\n@misc{zeng2023agenttuning,\n      title={AgentTuning: Enabling Generalized Agent Abilities for LLMs},\n      author={Aohan Zeng and Mingdao Liu and Rui Lu and Bowen Wang and Xiao Liu and Yuxiao Dong and Jie Tang},\n      year={2023},\n      eprint={2310.12823},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n```\n","# AgentTuning：为大语言模型赋能通用代理能力\n\n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-70b\" target=\"_blank\">模型（AgentLM-70B）\u003C\u002Fa> • 🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002FAgentInstruct\" target=\"_blank\">数据集（AgentInstruct）\u003C\u002Fa> • 📃 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12823\" target=\"_blank\">论文\u003C\u002Fa> • 🌐 \u003Ca href=\"https:\u002F\u002Fthudm.github.io\u002FAgentTuning\u002F\" target=\"_blank\">项目主页\u003C\u002Fa> \u003Cbr>\n\u003C\u002Fp>\n\u003Ccenter>\u003Cimg src=\"assets\u002Fmain-figure.svg\" alt=\"main-figure\" style=\"zoom:50%;\" \u002F>\u003C\u002Fcenter>\n\n[中文版](.\u002FREADME-zh.md)\n\n**AgentTuning** 是首次尝试使用多任务代理交互轨迹对大语言模型进行指令微调的方法。评估结果表明，AgentTuning 能够在未见过的代理任务上实现鲁棒的泛化能力，同时保持强大的通用语言能力。我们已开源了 AgentInstruct 数据集和 AgentLM 模型。\n\n## 主要成果\n\n\u003Ccenter>\u003Cimg src=\"assets\u002Fhead-figure.svg\" alt=\"head-figure\" width=\"1500\" \u002F>\u003C\u002Fcenter>\n\n\u003Ccenter>\u003Cb>图1\u003C\u002Fb>&nbsp;&nbsp;我们在内部保留任务和外部保留任务中的综合得分\u003C\u002Fcenter>\n\n## AgentInstruct\n\n**AgentInstruct** 是一个精心构建的数据集，包含 1,866 条高质量交互记录，旨在提升 AI 代理在 6 种不同现实场景中的表现。\n\n- 🔍 **CoT** - 借助 [ReAct](http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03629) 的强大能力，为每一步动作提供详细的思维链解释，确保对模型决策过程的深入理解。\n- 🌍 **多样性** - 涵盖从日常家务到数据库操作等 6 种真实场景，平均每轮对话包含 5 到 35 步。\n- 🎯 **精确性** - 并非所有 GPT-4 的轨迹都有效！我们的数据经过严格奖励机制筛选，以确保最高质量。\n- ✅ **可靠性** - 进行了严格的检查以避免数据泄露，确保数据集的纯净度。\n\nAgentInstruct 数据集可在 [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FTHUDM\u002FAgentInstruct) 上获取。\n\n## AgentLM\n\n**AgentLM** 模型是通过混合训练 AgentInstruct 数据集和来自 Llama2-chat 系列的 ShareGPT 数据集而生成的。\n\n这些模型遵循 [Llama-2-chat](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fllama2#how-to-prompt-llama-2) 的对话格式，系统提示固定为 `You are a helpful, respectful and honest assistant.`。\n\n7B、13B 和 70B 模型已在 Huggingface 模型库中发布。\n\n|    模型    |                        Huggingface Repo                        |\n| :---------: | :------------------------------------------------------------: |\n| AgentLM-7B  | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-7b)  |\n| AgentLM-13B | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-13b) |\n| AgentLM-70B | [🤗Huggingface Repo](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fagentlm-70b) |\n\n## 运行 AgentLM\n\n我们使用 [Text-Generation-Inference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftext-generation-inference) 来加速评估过程。\n\n您可以通过以下命令启动一个 AgentLM-70b 实例：\n\n```bash\ncd docker\ndocker compose -f agentlm-70b.yml up\n```\n\n成功运行后，客户端将在端口 `30070` 上可用。以下是发起请求的示例：\n\n```bash\ncurl 127.0.0.1:30070\u002Fgenerate \\\n    -X POST \\\n    -H 'Content-Type: application\u002Fjson' \\\n    -d '{\"inputs\": \"[INST] \u003C\u003CSYS>>\\nYou are a helpful, respectful and honest assistant.\\n\u003C\u003C\u002FSYS>>\\n\\nHello! [\u002FINST]\", \"parameters\":{\"temperature\": 1.0}}'\n\n# {\"generated_text\":\"Hello! How can I help you today? \"}\n```\n\n如果有多块 GPU 可用，您可以复制 Docker Compose 文件中的服务配置来创建多个推理实例。\n\n## 评估\n\n以下是我们的评估任务详情，包括 6 个内部保留任务和 6 个外部保留任务。\n\n### 内部保留任务\n\n这 6 个内部保留任务选自 [**AgentBench**](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentBench)。然而，由于 AgentBench 仍在积极开发中，最新分支的结果可能无法完全复现论文中报告的结果。本项目的评估代码位于 .\u002FAgentBench.old。\n\n### 外部保留任务\n\n外部保留任务基于以下框架重新构建：\n\n| 任务              | AgentTuning 设置                                           | 原始仓库                                                |\n| ----------------- | ----------------------------------------------------------- | ------------------------------------------------------------ |\n| SciWorld          | [📂 eval_heldout\u002Fscience-world](eval_heldout\u002Fscience-world\u002F) | [💻 allenai\u002FScienceWorld](https:\u002F\u002Fgithub.com\u002Fallenai\u002FScienceWorld) |\n| MiniWoB++         | [📂 eval_heldout\u002Fminiwob++](eval_heldout\u002Fminiwob++)          | [💻 Farama-Foundation\u002Fminiwob-plusplus](https:\u002F\u002Fgithub.com\u002FFarama-Foundation\u002Fminiwob-plusplus) |\n| HotpotQA          | [📂 eval_heldout\u002FhotpotQA](eval_heldout\u002FhotpotQA)           | [💻 salesforce\u002FBOLAA](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FBOLAA)    |\n| ReWOO             | [📂 eval_heldout\u002Frewoo](eval_heldout\u002Frewwo\u002F)                 | [💻 billxbf\u002FReWOO](https:\u002F\u002Fgithub.com\u002Fbillxbf\u002FReWOO)          |\n| WebArena          | [📂 eval_heldout\u002Fwebarena](eval_heldout\u002Fwebarena\u002F)           | [💻 web-arena-x\u002Fwebarena](https:\u002F\u002Fgithub.com\u002Fweb-arena-x\u002Fwebarena) |\n| 数字卡牌游戏      | [💻 AgentBench.old](.\u002FAgentBench.old) ( _Extend_ Split )     | [💻 THUDM\u002FAgentBench](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentBench)    |\n\n### 通用任务\n\n**MMLU 设置**：\n\n- 将 14,000 道多项选择题下载到 `.\u002Fdata` 目录下：\n\n  ```bash\n  cd data\n  wget https:\u002F\u002Fpeople.eecs.berkeley.edu\u002F~hendrycks\u002Fdata.tar\n  tar xf data.tar\n  cd ..\n  ```\n\n- 通过执行评估脚本评估 Hf 模型（组织\u002F名称或检查点路径）：\n\n  ```bash\n  python eval_general\u002Fevaluate_mmlu_hf.py -c THUDM\u002FAgentLM-70b\n  ```\n\n**GSM8k 设置**：\n\n- 启动 TGI 工作进程\n- 运行评估\n\n  ```bash\n  python eval_general\u002Fevaluate_gsm8k_tgi.py --port 30070\n  ```\n\n  使用 `--sample-input-file` 加载本地数据集，否则将加载 [GSM8K](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fgsm8k) 进行评估。\n\n**MT-Bench 设置**：\n\n- 在本地安装 [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat)：\n\n  ```bash\n  git clone https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat.git\n  pip install -e FastChat\n  ```\n\n- 启动 TGI 工作进程\n\n- 运行评估脚本：\n\n  ```bash\n  python eval_general\u002Feval_mt_bench_tgi.py --host 127.0.0.1 --port 30070 --model-id agentlm-70b\n  ```\n\n- 使用 GPT-4 对答案进行评估：\n\n  ```bash\n  cd FastChat\u002Ffastchat\u002Fllm_judge\n  OPENAI_API_KEY=\u003Cyour-api-key> python gen_judgment.py --model-list agentlm-70b --parallel \u003Cnumber-of-cuncurrent-requests>\n  ```\n\n## 引用\n\n如果您认为我们的工作有所帮助，请考虑引用 AgentTuning：\n\n```\n@misc{zeng2023agenttuning,\n      title={AgentTuning: Enabling Generalized Agent Abilities for LLMs},\n      author={Aohan Zeng and Mingdao Liu and Rui Lu and Bowen Wang and Xiao Liu and Yuxiao Dong and Jie Tang},\n      year={2023},\n      eprint={2310.12823},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL}\n}\n```","# AgentTuning 快速上手指南\n\nAgentTuning 是首个利用多智能体任务交互轨迹对大语言模型（LLM）进行指令微调的项目。该项目开源了 **AgentInstruct** 数据集和 **AgentLM** 系列模型，旨在赋予 LLM 强大的通用智能体能力，同时保持优秀的通用语言能力。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04+)\n- **GPU**: 支持 CUDA 的 NVIDIA GPU\n  - 运行 `AgentLM-7B` 至少需要 16GB 显存\n  - 运行 `AgentLM-13B` 至少需要 24GB 显存\n  - 运行 `AgentLM-70B` 建议多卡环境或高显存 GPU (如 A100\u002FH100)\n- **软件依赖**:\n  - Docker & Docker Compose (用于快速部署推理服务)\n  - Python 3.8+ (用于评估脚本)\n\n### 前置依赖\n确保已安装 Docker 和 Docker Compose。如果未安装，请参考 [Docker 官方文档](https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F) 进行安装。\n\n> **国内加速提示**：拉取 HuggingFace 模型或 Docker 镜像较慢时，建议使用国内镜像源（如阿里云、腾讯云镜像加速器）或配置 `HF_ENDPOINT` 环境变量指向国内镜像站（如 `https:\u002F\u002Fhf-mirror.com`）。\n\n## 安装步骤\n\n本项目推荐使用 Docker Compose 快速启动推理服务，无需手动配置复杂的 Python 环境。\n\n1. **克隆项目代码**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning.git\n   cd AgentTuning\n   ```\n\n2. **启动推理服务**\n   进入 docker 目录并启动 `AgentLM-70B` 实例（如需其他版本，可修改对应的 yml 文件）：\n   ```bash\n   cd docker\n   docker compose -f agentlm-70b.yml up\n   ```\n   *注：首次运行会自动下载模型镜像和权重，请确保网络连接通畅或使用国内镜像加速。*\n\n3. **验证服务状态**\n   当看到容器成功启动后，推理服务将在本地 `30070` 端口监听。\n\n## 基本使用\n\n服务启动后，可以通过 HTTP POST 请求与模型交互。以下是最简单的调用示例。\n\n### 发送请求示例\n\n使用 `curl` 命令向本地服务发送对话请求：\n\n```bash\ncurl 127.0.0.1:30070\u002Fgenerate \\\n    -X POST \\\n    -H 'Content-Type: application\u002Fjson' \\\n    -d '{\"inputs\": \"[INST] \u003C\u003CSYS>>\\nYou are a helpful, respectful and honest assistant.\\n\u003C\u003C\u002FSYS>>\\n\\nHello! [\u002FINST]\", \"parameters\":{\"temperature\": 1.0}}'\n```\n\n### 预期输出\n\n成功响应将返回生成的文本内容：\n\n```json\n{\"generated_text\":\"Hello! How can I help you today? \"}\n```\n\n### 使用说明\n- **System Prompt**: 必须固定为 `You are a helpful, respectful and honest assistant.` 以符合模型训练格式。\n- **对话格式**: 遵循 Llama-2-chat 格式，使用 `[INST]` 和 `[\u002FINST]` 包裹用户输入。\n- **扩展部署**: 如果拥有多张 GPU，可以复制 `docker-compose` 配置文件中的服务块，创建多个推理实例以实现负载均衡。","某电商公司的数据运营团队需要构建一个智能助手，自动执行从数据库查询销售数据、分析异常波动到生成日报并发送邮件的复杂闭环任务。\n\n### 没有 AgentTuning 时\n- **任务断裂**：通用大模型虽能回答问题，但无法连贯地规划“查库 - 分析 - 写作 - 发送”的多步操作，常在第二步就迷失方向。\n- **逻辑黑盒**：模型直接输出结果而不展示思考过程（CoT），一旦查询出错，开发人员难以定位是 SQL 写错还是分析逻辑偏差。\n- **泛化能力弱**：针对特定任务微调后的模型，一旦遇到未见过的新业务场景（如从查销售转为查库存），表现急剧下降，需重新训练。\n- **指令遵循差**：在处理长上下文交互时，容易忽略系统提示中的约束条件，导致生成不符合格式的报表或调用错误的 API。\n\n### 使用 AgentTuning 后\n- **全流程自主**：AgentLM 基于 AgentInstruct 数据集训练，能精准拆解复杂目标，自主规划并执行跨工具的多轮交互，顺利完成端到端任务。\n- **思维可追溯**：模型在每一步行动前都会输出详细的推理链条（ReAct 模式），让决策过程透明化，极大降低了调试和监控成本。\n- **通用性强**：即使在未见过的全新代理任务中，模型也能凭借学到的通用代理能力快速适应，无需针对每个新场景单独微调。\n- **高鲁棒性**：在长达 35 轮的复杂对话中，依然能严格遵循系统指令，保持上下文的连贯性与操作的准确性，显著减少幻觉错误。\n\nAgentTuning 通过引入高质量的多任务交互轨迹，将大模型从单纯的“对话者”升级为具备通用规划与执行能力的“智能代理”，彻底解决了复杂自动化任务中的断层与不可控难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTHUDM_AgentTuning_8313913d.png","THUDM","THUKEG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTHUDM_698cabbc.png","ChatGLM, GLM-4, CogVLM, CodeGeeX, CogView, ImageReward, CogVideoX | CogDL, GraphMAE, AMiner | Zhipu.ai (Z.ai) & Knowledge Engineering Group (KEG)",null,"keg.cs.tsinghua@gmail.com","thukeg","https:\u002F\u002Fhuggingface.co\u002FTHUDM","https:\u002F\u002Fgithub.com\u002FTHUDM",[82,86,90,94,98,102,106,110,114],{"name":83,"color":84,"percentage":85},"Python","#3572A5",37,{"name":87,"color":88,"percentage":89},"C++","#f34b7d",28.7,{"name":91,"color":92,"percentage":93},"HTML","#e34c26",22,{"name":95,"color":96,"percentage":97},"JavaScript","#f1e05a",8.1,{"name":99,"color":100,"percentage":101},"Makefile","#427819",1.4,{"name":103,"color":104,"percentage":105},"CSS","#663399",1.2,{"name":107,"color":108,"percentage":109},"Shell","#89e051",1,{"name":111,"color":112,"percentage":113},"CMake","#DA3434",0.6,{"name":115,"color":116,"percentage":117},"TypeScript","#3178c6",0,1482,106,"2026-04-06T12:13:18","Linux","必需。需 NVIDIA GPU 以运行 Text-Generation-Inference (TGI)。显存需求取决于模型版本：AgentLM-7B\u002F13B 需相应显存，AgentLM-70B 需多卡或高显存环境（具体未说明，但 TGI 通常要求高性能 GPU）。CUDA 版本未明确说明，需与 TGI 镜像兼容。","未说明（建议根据模型大小配置充足内存，70B 模型通常需要数百 GB 系统内存）",{"notes":125,"python":126,"dependencies":127},"该项目主要基于 Docker 容器部署，推荐使用 Docker Compose 启动服务（如 agentlm-70b.yml）。推理服务默认运行在 30070 端口。评估部分涉及多个外部框架（如 AgentBench, ScienceWorld, MiniWoB++ 等），需单独配置环境。通用任务评估（MMLU, GSM8k, MT-Bench）需要额外的脚本和依赖（如 FastChat）。README 未提供本地 Python 环境安装指南，主要通过 Docker 镜像解决依赖问题。","未说明（依赖 Docker 环境）",[128,129,130,131,132],"Docker","Docker Compose","Text-Generation-Inference (TGI)","FastChat (用于 MT-Bench 评估)","curl (用于 API 测试)",[35,13],"2026-03-27T02:49:30.150509","2026-04-08T01:46:40.896888",[137,142,147,152,157,162,166],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},23426,"AgentLM-7B 模型推理最少需要多少显存？消费级显卡（如 4090）能否运行或微调？","推理一般需要约 13GB 显存。对于全量微调，通常需要 8*48GB 的资源；如果是消费级显卡（如 4090），建议使用 LoRA 进行微调。FastChat 中包含了相应的 LoRA 微调步骤，可以参考尝试。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F45",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},23427,"除了 Docker，还有哪些方式可以运行 AgentLM？模型对中文的支持情况如何？","可以通过脚本运行或集成到 Langchain-chatchat 等框架中。由于模型是在英文 Llama2 基础上微调的，其原生中文能力有限，建议优先使用英文交互。如果需要更强的中文支持，可以考虑基于 Llama2 中文版自行进行微调。运行示例可使用 FastChat：`python -m fastchat.serve.cli --model-path \u002Fpath\u002Fto\u002FagentLM-7b`。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F42",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},23428,"训练数据是如何采样和配比的？ShareGPT 和 AgentInstruct 数据的训练轮次是多少？","训练使用了 Packing 技术，未严格统计 Epoch 数。按不计 Packing 估算，各数据集的大致训练次数为：GPT-4 数据约 5.58 次，GPT-3.5 数据约 1.44 次，AgentInstruct 数据约 13.72 次（基于 2000 steps, batch size 64, eta=0.2 计算）。ShareGPT 数据量（60,000 条）是根据当时可用的 General 数据总量确定的。论文中提到的“上采样”是指调高了 GPT-4 数据相对于 GPT-3.5 数据的占比。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F52",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},23429,"轨迹过滤（Trajectory Filtering）时，不同数据集使用什么指标作为 Reward？","过滤指标与 AgentBench 评测指标一致，具体任务对应的 Reward 计算方式如下：\n1. ALFWorld: 成功率 (Success Rate)，任务完成 r=1，否则 r=0。\n2. WebShop: 购物得分 (Reward)，根据选择正确物品的分数。\n3. Mind2Web: 步骤成功率 (Step Success Rate)，评估预测动作与参考动作的一致性。\n4. KG (知识图谱): F1 值。\n5. DB (数据库) 和 OS (操作系统): 通常使用成功率 (SR) 或由 GPT-4 构造并筛选后的数据。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F44",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},23430,"AgentBench 中部分任务（如 DB）的 Reward 计算代码在哪里？训练集是否需要自己构造？","新版 AgentBench 中 DB 任务的 metric 计算代码位于 `THUDM\u002FAgentBench\u002Fsrc\u002Fserver\u002Ftasks\u002Fdbbench\u002F__init__.py` 第 173 行（旧版在第 176 行）。关于训练集：AgentBench 仅用于评测模型，不包含训练集。对于没有官方训练集的任务（如 DB, OS），作者使用了 BIRD 数据集收集的部分数据以及通过 GPT-4 构造并经筛选的数据（收录于 AgentInstruct）。目前构造训练数据的脚本暂不开源，用户需通过其他开源仓库获取或自行构造同分布数据。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F40",{"id":163,"question_zh":164,"answer_zh":165,"source_url":151},23431,"为什么论文中提到的 AlfWorld 和 WebShop 数据集数量（如 900+ 和 1400+）远少于原始数据集总量？","这是因为 AlfWorld 和 WebShop 任务相对简单，作者在收集高质量历史交互轨迹时，并未推理全部原始数据集。一旦收集到足够多的高质量轨迹（即经过过滤的有效数据），就停止了采集，因此论文中列出的数据量是过滤后的高质量轨迹数量，而非原始数据集总量。",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},23432,"混合数据集微调时 Loss 震荡或不下降怎么办？推荐的混合数据配比是多少？","作者使用的混合数据配比为：57,096 条 GPT-3.5 轨迹，3,670 条 GPT-4 轨迹，以及 1,866 条 AgentInstruct 轨迹。对于 Llama-2-chat-7b，混训微调时的初始 Loss 约为 1，终止 Loss 约为 1e-1。如果加入 ShareGPT 数据导致 Loss 震荡在 0.7 左右，建议检查数据来源标签，可考虑使用 OpenChat 提供的开源 GPT-3.5\u002F4 数据进行混合训练，并确保数据配比符合论文附录设置。Loss 降至 4e-1 并不算过拟合。","https:\u002F\u002Fgithub.com\u002FTHUDM\u002FAgentTuning\u002Fissues\u002F10",[]]