[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thunlp--ProactiveAgent":3,"tool-thunlp--ProactiveAgent":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":104,"env_os":105,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":113,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":146},2148,"thunlp\u002FProactiveAgent","ProactiveAgent","A LLM-based Agent that predict its tasks proactively.","ProactiveAgent 是一款基于大语言模型的智能代理，旨在突破传统 AI“被动响应”的限制，实现真正的“主动服务”。它能够感知用户当前的操作环境与行为轨迹，预测用户潜在需求，并在用户未发出明确指令时，主动提供协助或建议下一步行动。\n\n该工具主要解决了现有 AI 助手缺乏前瞻性的痛点。传统模型通常需等待用户提问才做出反应，而 ProactiveAgent 通过构建包含环境模拟、代理决策与奖励评估的完整闭环，让 AI 学会像人类助手一样“察言观色”，在编程、写作及日常生活场景中提前介入，提升交互效率。\n\nProactiveAgent 特别适合人工智能研究人员、开发者以及对智能体主动性感兴趣的技术探索者使用。项目不仅开源了训练好的模型，还完整提供了数据收集与生成流水线、自动评估框架以及用于微调的提示词策略。其独特的技术亮点在于引入了\"Activity Watcher\"来捕捉真实用户行为痕迹，并构建了一个由环境健身房（Environment Gym）、主动代理和奖励模型组成的动态训练体系，其中奖励模型在测试集上的 F1 分数高达 0.918，确保了主动建议的准确性与实用性。","\u003Cdiv align= \"center\">\n    \u003Ch1> Proactive Agent \u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n![Dialogues](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCurrent\\_Event\\_Size-6790-red?style=flat-square)\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#overview\">Overview\u003C\u002Fa> •\n  \u003Ca href=\"#data\">Data Release\u003C\u002Fa> •\n  \u003Ca href=\"#usage\">Usage\u003C\u002Fa> •\n  \u003Ca href=\"#citation\">Citation\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12361\">Paper\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FYancyLee\u002FProactiveAgent\u002Ftree\u002Fmain\">Model\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n## News\n\n- **[2025\u002F03\u002F21]**: The model for Proactive Agent and Reward Agent is released! Check our model at [here](https:\u002F\u002Fhuggingface.co\u002FYancyLee\u002FProactiveAgent\u002Ftree\u002Fmain)!\n- **[2025\u002F01\u002F22]**: Our paper was accepted by ICLR 2025.\n\nThis project (Proactive Agent) aims to construct a fully active agent, who may anticipate user's requirements and take the initiative, offering assistance and suggesting actions without explicit requests from user. We achieve this by developing a data collection and generation pipeline, building an automatic evaluator and training agent within data generated. For now, we provide the whole collection and generation pipeline, the datasets, and the corresponding evaluation scripts, and the prompts to finetune LLM for proactive agent.\n\n*Read this in [中文](README_zh.md).*\n*Read this in [日本語](README_ja.md).*\n\n## Overview\n\n✨Here is an overview of the whole process of Proactive Agent.\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_ProactiveAgent_readme_95b5245d5e18.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\n✨✨Features:\n- **Environment Sensing**: We provide scripts to collect environment scenes and user activities through Activity Watcher, and recommend tasks automatically based on the model.\n- **Assistance Annotation**: We provide a platform to annotate the response generated by the proactive agent, which is a good way to align the result with human annotators.\n- **Dynamic Generation**: We provide a dynamic pipeline to generate new data, the feedback from user could affect events afterwards.\n- **Construction Pipeline**: We provide a generation pipeline consist of **Environment Gym**, **Proactive Agent** and **Reward Model**, where our Reward Model reaches a `0.918` F1 score on the test set.\n\nA demo is also provided to show the performance of our agent.\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F81e56660-727f-4ba8-b26c-d28b580a8b0a\n\nIn the future, we will continually improve the data quality and increase the coverage of real-world scenarios.\n\n## Data\n\n👐Proactive Agent is intended for coding, writing and daily life scenarios only at present and should not be constructed as reflecting the opinions or views of the creators, owners, or contributors of this dataset. It is distributed under Apache License 2.0. Below is the statistics of the data:\n\n| Settings | Coding | Writing | Daily Life | Total |\n|:-------------:|:------:|:-----:|:-----:|:-----:|\n|   Inst.Num    | 46 |  46 | 44 | 136 |\n|   Events Num  | 2275 |  2354 | 2161 | 6790 |\n\nAll the training instances for the Proactive Agent were generated from our [GYM](gym\u002FREADME.md).\nWe utilize the [Activity Watcher](https:\u002F\u002Factivitywatch.net\u002F) to collect the human traces across all the scenes, and annotate a test set to validate the effectiveness of the Proactive Agent.\nMore details about the data collection and annotation can be found [here](dataset\u002FREADME.md).\n\n## 📦 Installation\n\nClone this repository and navigate to the proactive demand sensing agent folder\n```bash\ngit clone git@github.com:thunlp\u002FProactiveAgent\ncd ProactiveAgent\n```\n\nInstall Package\n```bash\nconda create -n activeagent python=3.10\nconda activate activeagent\npip install -r requirements.txt\n```\n\n### Install Activity Watcher\n\n- You can go to the [Official Website](https:\u002F\u002Factivitywatch.net\u002Fdownloads\u002F) to download the main app based on your operating system.\n- An extension for chrome is at `.\u002Fagent\u002Fresource\u002Faw-watcher-web.zip`. To download this extension, you will have to download the file and unzip it.\n  - For Edge users, go to `edge:\u002F\u002Fextensions\u002F` site, open developer mode and load the extension by clicking `load unpacked`.`\n  - For Google Chrome users, go to `chrome:\u002F\u002Fextensions\u002F` site, open developer mode and select `load unpacked` to load the unziped extension.\n  - This Extension is not tested under `Safari`.\n- There is an official extension for vscode user, you may download it from the [marketplace](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=activitywatch.aw-watcher-vscode) or search for `aw-watcher-vscode` in the extensions in your vscode and install it.\n\nTo check whether the installation is complete, please open your browser and go to `http:\u002F\u002Flocalhost:5600\u002F#\u002Ftimeline` to check if there are four traces displaying in the window(`afk`,`vscode`,`window`,`web`).\n\n\n## 🚀 Usage\n\n### Configuration\nYou should first configure the `private.toml` file. The example is given in `example_config.toml`:\n\n```bash\ncp example_config.toml private.toml\n```\n\nYou should change the `default_completions_model`, `api_key` and `base_url` to your own settings.\n\n\n### Running the Proactive Agent\nTo experience our proactive agent, you will first enter folder `.\u002Fagent` and then follow the instructions in [here](agent\u002FREADME.md).\n\n\n### Connect the Reward Model\nTo improve the experience with the Proactive Agent, you can use our built reward model to filter the message from the Proactive Agent.\nHere are steps to connect the reward model with the Proactive Agent.\n__TO BE UPDATE__\n\n\n### Interact with the Proactive Agent\nOur agent will try to make a proposal by creating a toast on the window, to interact with the proactive agent, you may choose:\n- Accept the proposal: you will click on the toast body(Windows) or click the button(MacOS) to let the agent know you accept his idea, the agent will make relavent actions in return.\n- Reject the proposal: you will click on the dismiss button(the x on the top right of the toast) to let the agent know you **reject** the proposal, the agent will try to propose in some other way for next turn.\n- Ignore the proposal: you will do nothing, the agent will remove the toast for some time depending on the time interval, doing nothing will make the agent know that you are busy and ignored the proposal, the agent will try to make less proposal in the following turns.\n\n\n## 📊 Model Results\nTo automatic evaluate the performance of the Proactive Agent, we build a reward model based on our annotated data to judge the performance of the Proactive Agent.\nOur reward model reaches a `0.918` F1 score on the test set, which is a good indicator of the performance of the Proactive Agent.\n\n### Reward Model Experiments Results\nWe test the agreement between the reward model and human annotators on the test set:\n- **Missed-Needed (MN)**: The scenario when the user needs help but the agent does not provide help.\n- **Non-Response(NR)**: The scenario when the user does not need help and the agent does not prompt any help.\n- **Correct-Detection(CD)**: The scenario when the user needs help and the agent provides help.\n- **False-Alarm(FA)**: The scenario when the user does not need help but the agent prompts help.\n\nWe compare the judgement of the reward model with the human annotators.\nWe compare the performance of different LLMs and our model on the [test set](eval\u002FREADME.md#reward-model-evaluation).\nThe results are as follows:\n\n|                         | GPT-4o  | GPT-4o-mini | LLaMa 3.1 8b | LLaMa 3.1 70b  | ours    |\n|-------------------------|---------|-------------|--------------|----------------|---------|\n| Missed-Need (MN)        | 0.0333  | 0.5667      | 0.8000       | 0.3333         | 0.8000  |\n| Non-Response (NR)       | 1.0000  | 0.5667      | 0.3000       | 0.8333         | 0.8667  |\n| Correct-Detection (CD)  | 1.0000  | 0.8667      | 0.9667       | 1.0000         | 1.0000  |\n| False-Alarm (FA)        | 0.0000  | 0.3333      | 0.1333       | 0.0667         | 1.0000  |\n| Accuracy                | 0.5083  | 0.5833      | 0.5500       | 0.5583         | **0.9167**  |\n| Precision               | 0.5042  | 0.5658      | 0.5429       | 0.5340         | **0.9032**  |\n| Recall                  | 1.0000  | 0.7167      | 0.6333       | 0.9167         | **0.9333**  |\n| F1                      | 0.6704  | 0.6324      | 0.5846       | 0.6748         | **0.9180**  |\n\n\n### Proactive Agent Experiments Results\nIn current experiments, we evaluate the performance of the Proactive Agent with our Reward Model.\nWe define the following metrics:\n- **True Positive(TP)**: Instances where the proactive agent correctly predicts a task that the reward model subsequently accepts.\n- **False Positive(FP)**: Instances where the proactive agent predicts a task that the reward model does not accept.\n- **True Negative(TN)**: Instances where the proactive agent correctly refrains from predicting a task,and the reward model also does not accept any task.\n- **False Negative(FN)**: Instances where the proactive agent fails to predict a task that the reward model would have accepted if proposed.\n\nWe report the performance of the Proactive Agent on the test set of the [ProactiveBench](eval\u002FREADME.md).\n\n| Model                  | Recall  | Precision | Accuracy | False-Alarm | F1-Score  |\n|:----------------------:|:-------:|:---------:|:--------:|:-----------:|:---------:|\n| GPT-4o-mini            | 100.00% | 35.28%    | 36.12%   | 64.73%      | 52.15%    |\n| GPT-4o                 | 98.11%  | 48.15%    | 49.78%   | 51.85%      | 64.60%    |\n| Claude-3.5-Sonnet      | 97.89%  | 45.37%    | 49.78%   | 54.63%      | 62.00%    |\n| LLaMA-3.1-8B           | 98.86%  | 38.16%    | 39.06%   | 61.84%      | 55.06%    |\n| LLaMA-3.1-8B-Proactive | 99.06%  | 49.76%    | 52.86%   | 50.24%      | 66.25%    |\n| Qwen2-7B               | 98.02%  | 44.00%    | 43.61%   | 56.00%      | 60.74%    |\n| Qwen2-7B-Proactive     | 100.00% | 49.78%    | 50.66%   | 50.22%      | 66.47%    |\n\n\n\n## Citation\nIf you find this project useful in your research, please consider citing it:\n```\n@misc{2024,\n  author = {THUNLP},\n  title = {ProactiveAgent},\n  year = {2024},\n  publisher = {GitHub},\n  journal = {GitHub Repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent}}\n}\n```\n\n## Friendly Links\n- [ChatDev](https:\u002F\u002Fgithub.com\u002Fopenbmb\u002FChatDev)\n- [Activity Watcher](https:\u002F\u002Factivitywatch.net\u002F)\n","\u003Cdiv align= \"center\">\n    \u003Ch1> 主动智能体 \u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n![对话数量](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F当前事件数量-6790-red?style=flat-square)\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#overview\">概述\u003C\u002Fa> •\n  \u003Ca href=\"#data\">数据发布\u003C\u002Fa> •\n  \u003Ca href=\"#usage\">使用方法\u003C\u002Fa> •\n  \u003Ca href=\"#citation\">引用\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12361\">论文\u003C\u002Fa> •\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FYancyLee\u002FProactiveAgent\u002Ftree\u002Fmain\">模型\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n## 新闻\n\n- **[2025\u002F03\u002F21]**：主动智能体和奖励智能体的模型已发布！请在此处查看我们的模型：[这里](https:\u002F\u002Fhuggingface.co\u002FYancyLee\u002FProactiveAgent\u002Ftree\u002Fmain)！\n- **[2025\u002F01\u002F22]**：我们的论文已被ICLR 2025接收。\n\n本项目（主动智能体）旨在构建一个完全主动的智能体，该智能体能够预测用户需求并主动提供帮助、提出行动建议，而无需用户明确请求。我们通过开发数据收集与生成流水线、构建自动评估器，并在生成的数据上训练智能体来实现这一目标。目前，我们提供了完整的数据收集与生成流水线、数据集及其对应的评估脚本，以及用于微调大型语言模型以实现主动智能体功能的提示词。\n\n*阅读中文版：[README_zh.md](README_zh.md)*\n*阅读日文版：[README_ja.md](README_ja.md)*\n\n## 概述\n\n✨以下是主动智能体整个流程的概览。\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_ProactiveAgent_readme_95b5245d5e18.png\" width=\"800px\">\n\u003C\u002Fdiv>\n\u003Cbr>\n\n\n✨✨特点：\n- **环境感知**：我们提供脚本，通过Activity Watcher收集环境场景和用户活动，并基于模型自动推荐任务。\n- **协助标注**：我们提供一个平台，用于标注主动智能体生成的响应，这是一种使结果与人工标注者保持一致的好方法。\n- **动态生成**：我们提供一条动态的数据生成流水线，用户的反馈会影响后续事件。\n- **构建流水线**：我们提供由**环境Gym**、**主动智能体**和**奖励模型**组成的生成流水线，其中我们的奖励模型在测试集上的F1分数达到`0.918`。\n\n此外，还提供了一个演示，以展示我们智能体的性能。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F81e56660-727f-4ba8-b26c-d28b580a8b0a\n\n未来，我们将不断改进数据质量，并扩大真实场景的覆盖范围。\n\n## 数据\n\n👐目前，主动智能体仅适用于编码、写作和日常生活场景，不应被视为反映本数据集创建者、所有者或贡献者的观点或立场。本数据集采用Apache License 2.0协议发布。以下是数据统计：\n\n| 场景 | 编码 | 写作 | 日常生活 | 总计 |\n|:-------------:|:------:|:-----:|:-----:|:-----:|\n| 实例数    | 46 |  46 | 44 | 136 |\n| 事件数  | 2275 |  2354 | 2161 | 6790 |\n\n主动智能体的所有训练实例均来自我们的[GYM](gym\u002FREADME.md)。我们利用[Activity Watcher](https:\u002F\u002Factivitywatch.net\u002F)收集跨场景的人类行为轨迹，并标注了一个测试集以验证主动智能体的有效性。有关数据收集和标注的更多详细信息，请参阅[dataset\u002FREADME.md](dataset\u002FREADME.md)。\n\n## 📦 安装\n\n克隆此仓库并进入主动需求感知智能体文件夹\n```bash\ngit clone git@github.com:thunlp\u002FProactiveAgent\ncd ProactiveAgent\n```\n\n安装软件包\n```bash\nconda create -n activeagent python=3.10\nconda activate activeagent\npip install -r requirements.txt\n```\n\n### 安装Activity Watcher\n\n- 您可以前往[官方网站](https:\u002F\u002Factivitywatch.net\u002Fdownloads\u002F)，根据您的操作系统下载主应用程序。\n- 针对Chrome浏览器的扩展程序位于`.\u002Fagent\u002Fresource\u002Faw-watcher-web.zip`。要下载此扩展程序，您需要先下载文件并解压缩。\n  - 对于Edge用户，请访问`edge:\u002F\u002Fextensions\u002F`页面，开启开发者模式，并点击“加载已解压的扩展程序”来加载扩展。\n  - 对于Google Chrome用户，请访问`chrome:\u002F\u002Fextensions\u002F`页面，开启开发者模式，选择“加载已解压的扩展程序”来加载解压后的扩展。\n  - 此扩展尚未在Safari浏览器上进行测试。\n- 对于VS Code用户，有一个官方扩展程序，您可以从[市场](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=activitywatch.aw-watcher-vscode)下载，或者在VS Code的扩展中搜索“aw-watcher-vscode”并安装。\n\n为检查安装是否完成，请打开浏览器并访问`http:\u002F\u002Flocalhost:5600\u002F#\u002Ftimeline`，查看窗口中是否显示四条轨迹（afk、vscode、window、web）。\n\n## 🚀 使用方法\n\n### 配置\n您首先需要配置`private.toml`文件。示例文件位于`example_config.toml`：\n\n```bash\ncp example_config.toml private.toml\n```\n\n您应将`default_completions_model`、`api_key`和`base_url`更改为您的个人设置。\n\n\n### 运行主动智能体\n要体验我们的主动智能体，您需要首先进入`.\u002Fagent`文件夹，然后按照[此处](agent\u002FREADME.md)的说明操作。\n\n\n### 连接奖励模型\n为了提升主动智能体的使用体验，您可以使用我们内置的奖励模型来过滤主动智能体的消息。\n以下是将奖励模型与主动智能体连接的步骤。\n__待更新__\n\n\n### 与主动智能体互动\n我们的智能体会尝试通过在屏幕上弹出通知的方式提出建议。与主动智能体互动时，您可以选择：\n- 接受建议：您可点击通知正文（Windows）或按钮（macOS），告知智能体您接受其建议，智能体会相应执行相关操作。\n- 拒绝建议：您可点击关闭按钮（通知右上角的“x”），告知智能体您**拒绝**该建议，智能体会尝试以其他方式提出下一次建议。\n- 忽略建议：您什么都不做，智能体会根据时间间隔移除通知。不采取任何行动会让智能体知道您正忙且忽略了该建议，智能体将在接下来的轮次中减少建议次数。\n\n\n## 📊 模型结果\n为自动评估主动智能体的性能，我们基于标注数据构建了一个奖励模型，用以判断主动智能体的表现。\n我们的奖励模型在测试集上的F1分数达到`0.918`，这是衡量主动智能体性能的一个良好指标。\n\n### 奖励模型实验结果\n我们在测试集上测试了奖励模型与人类标注者之间的一致性：\n- **遗漏需求(MN)**：用户需要帮助但智能体未提供帮助的情况。\n- **无响应(NR)**：用户不需要帮助且智能体未主动提供任何帮助的情况。\n- **正确检测(CD)**：用户需要帮助且智能体提供了帮助的情况。\n- **误报(FA)**：用户不需要帮助但智能体主动提供了帮助的情况。\n\n我们将奖励模型的判断与人类标注者的判断进行了对比。\n我们还比较了不同大语言模型以及我们的模型在[测试集](eval\u002FREADME.md#reward-model-evaluation)上的表现。结果如下：\n\n|                         | GPT-4o  | GPT-4o-mini | LLaMa 3.1 8b | LLaMa 3.1 70b  | ours    |\n|-------------------------|---------|-------------|--------------|----------------|---------|\n| 遗漏需求 (MN)        | 0.0333  | 0.5667      | 0.8000       | 0.3333         | 0.8000  |\n| 无响应 (NR)           | 1.0000  | 0.5667      | 0.3000       | 0.8333         | 0.8667  |\n| 正确检测 (CD)         | 1.0000  | 0.8667      | 0.9667       | 1.0000         | 1.0000  |\n| 误报 (FA)             | 0.0000  | 0.3333      | 0.1333       | 0.0667         | 1.0000  |\n| 准确率                | 0.5083  | 0.5833      | 0.5500       | 0.5583         | **0.9167**  |\n| 精确率                | 0.5042  | 0.5658      | 0.5429       | 0.5340         | **0.9032**  |\n| 召回率                | 1.0000  | 0.7167      | 0.6333       | 0.9167         | **0.9333**  |\n| F1分数                | 0.6704  | 0.6324      | 0.5846       | 0.6748         | **0.9180**  |\n\n\n### 主动智能体实验结果\n在当前实验中，我们使用我们的奖励模型评估了主动智能体的性能。\n我们定义了以下指标：\n- **真正例(TP)**：主动智能体正确预测了一项任务，而奖励模型随后接受了该任务的实例。\n- **假正例(FP)**：主动智能体预测了一项任务，但奖励模型并未接受。\n- **真负例(TN)**：主动智能体正确地没有预测任何任务，而奖励模型也未接受任何任务的实例。\n- **假负例(FN)**：主动智能体未能预测一项任务，而如果提出该任务，奖励模型本会接受。\n\n我们在[ProactiveBench](eval\u002FREADME.md)的测试集上报告了主动智能体的性能。\n\n| 模型                  | 召回率  | 精确率 | 准确率 | 误报率 | F1分数  |\n|:----------------------:|:-------:|:---------:|:--------:|:-----------:|:---------:|\n| GPT-4o-mini            | 100.00% | 35.28%    | 36.12%   | 64.73%      | 52.15%    |\n| GPT-4o                 | 98.11%  | 48.15%    | 49.78%   | 51.85%      | 64.60%    |\n| Claude-3.5-Sonnet      | 97.89%  | 45.37%    | 49.78%   | 54.63%      | 62.00%    |\n| LLaMA-3.1-8B           | 98.86%  | 38.16%    | 39.06%   | 61.84%      | 55.06%    |\n| LLaMA-3.1-8B-Proactive | 99.06%  | 49.76%    | 52.86%   | 50.24%      | 66.25%    |\n| Qwen2-7B               | 98.02%  | 44.00%    | 43.61%   | 56.00%      | 60.74%    |\n| Qwen2-7B-Proactive     | 100.00% | 49.78%    | 50.66%   | 50.22%      | 66.47%    |\n\n\n\n## 引用\n如果您在研究中使用了本项目，请考虑引用：\n```\n@misc{2024,\n  author = {THUNLP},\n  title = {ProactiveAgent},\n  year = {2024},\n  publisher = {GitHub},\n  journal = {GitHub Repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent}}\n}\n```\n\n## 友情链接\n- [ChatDev](https:\u002F\u002Fgithub.com\u002Fopenbmb\u002FChatDev)\n- [Activity Watcher](https:\u002F\u002Factivitywatch.net\u002F)","# ProactiveAgent 快速上手指南\n\nProactiveAgent 是一个旨在构建“主动式”智能体的开源项目。它能够感知用户环境与活动，预测用户需求，并在无需显式指令的情况下主动提供帮助或建议动作。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: 3.10 (推荐通过 Conda 管理)\n*   **依赖工具**:\n    *   **Activity Watcher**: 用于收集用户活动轨迹（窗口、网页、代码编辑器等）。\n    *   **Git**: 用于克隆代码仓库。\n    *   **LLM API Key**: 需要配置大模型接口（如 OpenAI, Qwen 等）以驱动智能体。\n\n> **注意**：本项目主要面向编程、写作及日常生活场景。数据与代码遵循 Apache License 2.0 协议。\n\n## 2. 安装步骤\n\n### 2.1 克隆项目并创建环境\n\n```bash\ngit clone git@github.com:thunlp\u002FProactiveAgent\ncd ProactiveAgent\n\n# 创建并激活 Python 3.10 虚拟环境\nconda create -n activeagent python=3.10\nconda activate activeagent\n\n# 安装项目依赖\npip install -r requirements.txt\n```\n\n### 2.2 安装 Activity Watcher (环境感知核心)\n\nProactiveAgent 依赖 Activity Watcher 来捕捉用户行为。请按以下步骤安装：\n\n1.  **下载主程序**：访问 [Activity Watcher 官网](https:\u002F\u002Factivitywatch.net\u002Fdownloads\u002F) 下载对应系统的安装包并安装。\n2.  **安装浏览器插件 (Chrome\u002FEdge)**：\n    *   解压项目目录下的 `.\u002Fagent\u002Fresource\u002Faw-watcher-web.zip`。\n    *   **Edge 用户**: 访问 `edge:\u002F\u002Fextensions\u002F`，开启“开发者模式”，点击“加载解压缩的扩展”，选择解压后的文件夹。\n    *   **Chrome 用户**: 访问 `chrome:\u002F\u002Fextensions\u002F`，开启“开发者模式”，点击“加载解压缩的扩展”，选择解压后的文件夹。\n3.  **安装 VS Code 插件**：\n    *   在 VS Code 扩展市场搜索 `aw-watcher-vscode` 并安装，或从 [Marketplace](https:\u002F\u002Fmarketplace.visualstudio.com\u002Fitems?itemName=activitywatch.aw-watcher-vscode) 下载。\n\n**验证安装**：\n启动 Activity Watcher 后，在浏览器访问 `http:\u002F\u002Flocalhost:5600\u002F#\u002Ftimeline`。若能看到 `afk`, `vscode`, `window`, `web` 四条轨迹数据，则说明安装成功。\n\n## 3. 基本使用\n\n### 3.1 配置文件设置\n\n复制示例配置文件并根据您的实际环境修改大模型参数：\n\n```bash\ncp example_config.toml private.toml\n```\n\n使用文本编辑器打开 `private.toml`，修改以下字段：\n*   `default_completions_model`: 设置您使用的大模型名称。\n*   `api_key`: 填入您的 API Key。\n*   `base_url`: 填入对应的 API 基础地址。\n\n### 3.2 运行主动式智能体\n\n进入代理目录并启动服务（详细参数请参考 `agent\u002FREADME.md`）：\n\n```bash\ncd .\u002Fagent\n# 此处执行具体的启动脚本，通常为 python main.py 或类似命令，具体依 agent\u002FREADME.md 指引\n```\n\n### 3.3 交互方式\n\n运行成功后，智能体会通过系统通知（Toast）主动提出建议。您可以进行以下操作：\n\n*   **接受建议**：\n    *   Windows: 点击通知主体。\n    *   macOS: 点击通知按钮。\n    *   *结果*：智能体将执行相应操作。\n*   **拒绝建议**：点击通知右上角的关闭按钮 (`x`)。\n    *   *结果*：智能体将在下一轮尝试其他提议方式。\n*   **忽略建议**：不做任何操作，等待通知自动消失。\n    *   *结果*：智能体将判定您当前忙碌，并在后续减少提议频率。\n\n> **提示**：项目还包含奖励模型（Reward Model）用于过滤低质量建议，相关连接步骤请关注后续更新。","资深后端工程师李明正在赶工一个紧急的微服务重构项目，同时需要撰写技术文档并处理日常会议安排。\n\n### 没有 ProactiveAgent 时\n- **被动响应导致中断**：李明必须手动切换窗口查看代码报错或日历提醒，频繁的上下文切换打断了深度编程的心流状态。\n- **需求滞后发现**：只有当测试失败或同事在群里催促时，他才发现缺少了某个依赖库的安装步骤或文档更新任务。\n- **琐事占用脑力**：需要时刻分心监控 Activity Watcher 等工具记录的行为数据，人工判断下一步该做什么，增加了认知负荷。\n- **协作不同步**：在专注于写代码时，容易忽略即时通讯软件中关于接口变更的重要通知，导致后续返工。\n\n### 使用 ProactiveAgent 后\n- **主动预判与干预**：ProactiveAgent 实时感知李明的编码行为和当前窗口环境，在他运行测试前就主动提示“检测到新分支，是否先执行数据库迁移脚本？”。\n- **前置任务推荐**：基于历史行为模式，工具在李明打开编辑器瞬间就建议“根据昨晚的提交记录，今日需优先补充 API 文档”，无需等待他人提醒。\n- **无感流程自动化**：ProactiveAgent 自动分析屏幕活动轨迹，静默整理会议纪要草稿并归类待办事项，让李明只需专注核心逻辑开发。\n- **动态情境适应**：当检测到李明连续长时间查阅错误日志时，工具主动推送相关的 StackOverflow 解决方案或内部知识库链接，而非等待搜索指令。\n\nProactiveAgent 将传统的“指令 - 执行”模式转变为“感知 - 预判 - 行动”，让 AI 从被动助手进化为能懂你未言之意的主动合作伙伴。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_ProactiveAgent_fb8a4458.png","thunlp","THUNLP","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthunlp_13da7b2e.png","Natural Language Processing Lab at Tsinghua University",null,"thunlp@gmail.com","http:\u002F\u002Fnlp.csai.tsinghua.edu.cn","https:\u002F\u002Fgithub.com\u002Fthunlp",[84,88,92,96],{"name":85,"color":86,"percentage":87},"Python","#3572A5",91.7,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",7.7,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.5,{"name":97,"color":98,"percentage":99},"CSS","#663399",0.1,559,45,"2026-04-03T21:53:41","Apache-2.0",4,"Windows, macOS","未说明",{"notes":108,"python":109,"dependencies":110},"1. 项目主要支持 Windows 和 macOS，其中 Activity Watcher 的 Chrome 扩展在 Safari 下未经过测试。2. 必须安装 Activity Watcher 主程序以及对应的浏览器扩展（Chrome\u002FEdge）或 VSCode 插件以收集用户活动轨迹。3. 运行前需配置 private.toml 文件，设置大模型的 API Key、Base URL 及模型名称。4. 建议使用 conda 创建名为 'activeagent' 的虚拟环境进行安装。","3.10",[111,112],"requirements.txt 中定义的依赖包","Activity Watcher (主程序及浏览器\u002FVSCode 插件)",[26,15],"2026-03-27T02:49:30.150509","2026-04-06T05:16:11.302456",[117,122,127,132,137,142],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},9893,"奖励模型（Reward Model）训练效果不佳或指标与论文报告差距较大怎么办？","首先请确认数据集的构成。官方提供的部分新数据（如 trainset_reward_added_gpt.json）可能仅包含负样本（negative cases），直接使用该数据会导致性能不理想。建议将原始数据（trainset_reward_llama.json）与新数据合并使用，确保正负样本平衡。此外，请检查训练超参数设置是否与论文一致，包括 Batch Size、Learning Rate 以及 Epochs 等。如果问题依旧，可能需要获取官方未公开的具体训练配置细节。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent\u002Fissues\u002F21",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},9894,"运行 build_scenes.py 构建场景时出现 'TomlDecodeError: Key name found without value' 错误如何解决？","该错误通常是由于配置文件路径错误或当前工作目录不正确导致的。请确保在项目的根目录下运行命令，而不是在子目录中。尝试执行以下命令：\npython build_scenes.py --seedfile .\u002Fdataset\u002Fseedtask.yaml --savefile .\u002Fdataset\u002Fnew_scenes.yaml\n同时检查 private.toml 文件格式是否完整，确保没有截断或语法错误。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent\u002Fissues\u002F30",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},9895,"运行 Gym 环境时报错提示 yaml 配置中缺少 'agent' 键或模型生成时间格式不匹配怎么办？","针对缺少 'agent' 键的问题：如果在测试 Gym 时不需要引入 Active Agent，可以将代码中的默认值改为 False，或者直接注释掉相关代码行。\n针对模型生成时间格式不匹配的问题：这是由于 Environment 要求模型根据任务种子描述自行生成特定格式的时间。如果模型生成的格式不符合要求，当前的解决方案是让模型重新尝试生成，或者检查 prompt 设置以约束输出格式。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent\u002Fissues\u002F29",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},9896,"Gym 环境的整体运作流程及 eventSink、env.intro 等函数的作用是什么？","Gym 环境整体采用事件驱动（event-driven）设计。其基本流程是模拟用户操作触发环境（env）的状态更新（state update），如此往复生成事件列表（event list），进而预测 Agent 的回复。\n- eventSink.add\u002Fwait：用于事件的添加与等待监听。\n- env.intro：环境的初始化步骤。\n- user.step()：模拟用户执行一步操作。\n注意：这种事件驱动机制主要适用于模拟操作场景，并不完全适合纯自然对话场景（Chat Scenario），因为对话场景交互更复杂且不一定依赖事件监听。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent\u002Fissues\u002F32",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},9897,"启动 Demo 时使用 GLM-4-flash 模型报错或不兼容怎么办？","该问题是因为 GLM-4-flash 模型在 OpenAI SDK 中不支持 Tool Calling（工具调用）格式，而项目依赖的 codelinker 组件需要此功能来限制输出格式。目前无法直接修复此兼容性问题。建议切换使用其他支持 Tool Calling 格式的模型（例如 deepseek-chat 或其他兼容 OpenAI 协议的主流模型）来运行 Demo。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FProactiveAgent\u002Fissues\u002F23",{"id":143,"question_zh":144,"answer_zh":145,"source_url":136},9898,"Gym 环境是否适用于纯自然对话数据的生成？","不推荐。Gym 的设计初衷是基于事件触发（event trigger）来模拟用户操作，而纯自然对话场景需要更复杂的环境和多用户交互逻辑，并不一定依赖事件驱动机制。对于纯对话数据生成，建议使用专门的数据集（如 Ultrachat）或通过生成对话后直接将内容发送给 Proactive Agent 的方式（这是早期的实现方式）。本项目通过监控用户操作生成事件数据的核心贡献，不适用于入参为纯自然对话形式的多轮对话数据收集。",[]]