[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mims-harvard--TxAgent":3,"tool-mims-harvard--TxAgent":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":75,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":138},5355,"mims-harvard\u002FTxAgent","TxAgent","TxAgent: An AI Agent for Therapeutic Reasoning Across a Universe of Tools","TxAgent 是一款专为精准医疗设计的 AI 智能体，旨在通过多步推理和实时生物医学知识检索，为患者生成个性化的治疗方案。面对复杂的临床决策场景，它有效解决了传统方法难以全面评估药物相互作用、禁忌症以及患者个体差异（如年龄、基因特征和疾病进程）的难题。\n\n该工具的核心优势在于其背后庞大的“工具宇宙”，内置了 211 种专业工具。TxAgent 能够像经验丰富的临床专家一样，从分子、药代动力学到临床层面多维度分析药物间的相互影响，并根据患者的共病情况和正在服用的其他药物，自动识别潜在风险。它不仅能从多个生物医学来源检索并综合证据，还能通过迭代推理不断优化治疗建议，确保方案的安全性与有效性。\n\nTxAgent 特别适合医疗领域的研究人员、临床决策支持系统的开发者以及从事数字健康创新的专业人士使用。对于希望利用前沿 AI 技术提升药物治疗合理性、探索个性化医疗可能性的团队来说，这是一个极具价值的开源项目。通过将复杂的医学逻辑转化为结构化的函数调用，TxAgent 为构建下一代智能诊疗系统提供了坚实的技术基础。","# TxAgent: An AI agent for therapeutic reasoning across a universe of tools\n\n[![ProjectPage](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProjectPage-TxAgent-red)](https:\u002F\u002Fzitniklab.hms.harvard.edu\u002FTxAgent)\n[![PaperLink](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-TxAgent-red)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2503.10970)\n[![TxAgent-PIP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPip-TxAgent-blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftxagent\u002F)\n[![ToolUniverse-PIP](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPip-ToolUniverse-blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftooluniverse\u002F)\n[![TxAgent](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode-TxAgent-purple)](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent)\n[![ToolUniverse](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode-ToolUniverse-purple)](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse)\n[![HuggingFace](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-TxAgentT1-yellow)](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmims-harvard\u002Ftxagent-67c8e54a9d03a429bb0c622c)\n\n  \u003Cbody>\n    \u003Csection class=\"hero\">\n      \u003Cdiv class=\"hero-body\">\n        \u003Cdiv class=\"container is-max-desktop\">\n          \u003Cdiv class=\"columns is-centered\">\n            \u003Cdiv class=\"column has-text-centered\">\n              \u003Cdiv class=\"is-size-5 publication-authors\">\n                \u003C!-- Paper authors -->\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fshgao.site\" target=\"_blank\">Shanghua Gao\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Frichard-zhu-4236901a7\u002F\"\n                    target=\"_blank\"\n                    >Richard Zhu\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fzlkong.github.io\u002Fhomepage\u002F\" target=\"_blank\"\n                    >Zhenglun Kong\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fwww.ayushnoori.com\u002F\" target=\"_blank\"\n                    >Ayush Noori\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=zh-CN&user=Awdn73MAAAAJ\"\n                    target=\"_blank\"\n                    >Xiaorui Su\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fcurtisginder\u002F\"\n                    target=\"_blank\"\n                    >Curtis Ginder\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Ftheo-t\" target=\"_blank\"\n                    >Theodoros Tsiligkaridis\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fzitniklab.hms.harvard.edu\u002F\" target=\"_blank\"\n                    >Marinka Zitnik\u003C\u002Fa\n                  >\n              \u003C\u002Fdiv>\n\n## Overview\n\n![TxAgent](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_a68bc38f0886.jpg)\n\nPrecision therapeutics require multimodal adaptive models that generate personalized treatment recommendations. We introduce TxAgent, an AI agent that leverages multi-step reasoning and real-time biomedical knowledge retrieval across [a toolbox of 211 tools to analyze drug interactions, contraindications, and patient-specific treatment strategies](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse). \n- TxAgent evaluates how drugs interact at molecular, pharmacokinetic, and clinical levels, identifies contraindications based on patient comorbidities and concurrent medications, and tailors treatment strategies to individual patient characteristics, including age, genetic factors, and disease progression. \n- TxAgent retrieves and synthesizes evidence from multiple biomedical sources, assesses interactions between drugs and patient conditions, and refines treatment recommendations through iterative reasoning. It selects tools based on task objectives and executes structured function calls to solve therapeutic tasks that require clinical reasoning and cross-source validation. \n- The ToolUniverse consolidates 211 tools from trusted sources, including all US FDA-approved drugs since 1939 and validated clinical insights from Open Targets. \n\nTxAgent outperforms leading LLMs, tool-use models, and reasoning agents across five new benchmarks: DrugPC, BrandPC, GenericPC, TreatmentPC, and DescriptionPC, covering 3,168 drug reasoning tasks and 456 personalized treatment scenarios. \n- It achieves 92.1% accuracy in open-ended drug reasoning tasks, surpassing GPT-4o by up to 25.8% and outperforming DeepSeek-R1 (671B) in structured multi-step reasoning.\n- TxAgent generalizes across drug name variants and descriptions, maintaining a variance of &lt; 0.01 between brand, generic, and description-based drug references, exceeding existing tool-use LLMs by over 55%. \n\nBy integrating multi-step inference, real-time knowledge grounding, and tool- assisted decision-making, TxAgent ensures that treatment recommendations align with established clinical guidelines and real-world evidence, reducing the risk of adverse events and improving therapeutic decision-making.\n\n\n## Setups\n\n**Dependency**:\n\n```\n- An H100 GPU with more than 80GB of memory is recommended when running TxAgent. \n- ToolUniverse requires a device with an internet connection.\n```\n\n**Install ToolUniverse**:\n\n```\n# Install from source code:\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse.git\ncd ToolUniverse\npython -m pip install . --no-cache-dir\nOR\n# Install from pip:\npip install tooluniverse\n\n```\n\n**Install TxAgent**:\n\n```\n# Install from source code:\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent.git\npython -m pip install . --no-cache-dir\nOR\n# Install from pip:\npip install txagent\n\n```\n\n**Run the example**:\n\n```\npython run_example.py\n```\n\n**Run the gradio demo**:\n\n```\npython run_txagent_app.py\n```\n\n### Pretrained models\n\nPretrained model weights are available in [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmims-harvard\u002Ftxagent-67c8e54a9d03a429bb0c622c).\n\n| Model         | Description    |\n|---------------|--------------|\n| [TxAgent-T1-Llama-3.1-8B](https:\u002F\u002Fhuggingface.co\u002Fmims-harvard\u002FTxAgent-T1-Llama-3.1-8B)  | TxAgent LLM       |\n| [ToolRAG-T1-GTE-Qwen2-1.5B](https:\u002F\u002Fhuggingface.co\u002Fmims-harvard\u002FToolRAG-T1-GTE-Qwen2-1.5B)   | Tool RAG embedding model  |\n\n## Demo cases\nPlease visit [project page](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent) for more details.\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_6ff2bef17589.gif)\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_64df9a284e58.gif)\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_3fdd52f33973.gif)\n\n\n## Citation\n\n```\n@misc{gao2025txagent,\n      title={TxAgent: An AI Agent for Therapeutic Reasoning Across a Universe of Tools}, \n      author={Shanghua Gao and Richard Zhu and Zhenglun Kong and Ayush Noori and Xiaorui Su and Curtis Ginder and Theodoros Tsiligkaridis and Marinka Zitnik},\n      year={2025},\n      eprint={2503.10970},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.10970}, \n}\n```\n\n## Contact\nIf you have any questions or suggestions, please email [Shanghua Gao](mailto:shanghuagao@gmail.com) and [Marinka Zitnik](mailto:marinka@hms.harvard.edu).\n","# TxAgent：跨工具宇宙的治疗推理AI代理\n\n[![项目页面](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProjectPage-TxAgent-red)](https:\u002F\u002Fzitniklab.hms.harvard.edu\u002FTxAgent)\n[![论文链接](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArxiv-TxAgent-red)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2503.10970)\n[![TxAgent-Pip](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPip-TxAgent-blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftxagent\u002F)\n[![ToolUniverse-Pip](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPip-ToolUniverse-blue)](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftooluniverse\u002F)\n[![TxAgent代码库](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode-TxAgent-purple)](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent)\n[![ToolUniverse代码库](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCode-ToolUniverse-purple)](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse)\n[![HuggingFace](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHuggingFace-TxAgentT1-yellow)](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmims-harvard\u002Ftxagent-67c8e54a9d03a429bb0c622c)\n\n  \u003Cbody>\n    \u003Csection class=\"hero\">\n      \u003Cdiv class=\"hero-body\">\n        \u003Cdiv class=\"container is-max-desktop\">\n          \u003Cdiv class=\"columns is-centered\">\n            \u003Cdiv class=\"column has-text-centered\">\n              \u003Cdiv class=\"is-size-5 publication-authors\">\n                \u003C!-- 论文作者 -->\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fshgao.site\" target=\"_blank\">Shanghua Gao\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Frichard-zhu-4236901a7\u002F\"\n                    target=\"_blank\"\n                    >Richard Zhu\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fzlkong.github.io\u002Fhomepage\u002F\" target=\"_blank\"\n                    >Zhenglun Kong\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fwww.ayushnoori.com\u002F\" target=\"_blank\"\n                    >Ayush Noori\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=zh-CN&user=Awdn73MAAAAJ\"\n                    target=\"_blank\"\n                    >Xiaorui Su\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca\n                    href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fcurtisginder\u002F\"\n                    target=\"_blank\"\n                    >Curtis Ginder\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Ftheo-t\" target=\"_blank\"\n                    >Theodoros Tsiligkaridis\u003C\u002Fa\n                  >,\u003C\u002Fspan\n                >\n                \u003Cspan class=\"author-block\">\n                  \u003Ca href=\"https:\u002F\u002Fzitniklab.hms.harvard.edu\u002F\" target=\"_blank\"\n                    >Marinka Zitnik\u003C\u002Fa\n                  >\n              \u003C\u002Fdiv>\n\n## 概述\n\n![TxAgent](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_a68bc38f0886.jpg)\n\n精准治疗需要多模态自适应模型来生成个性化的治疗建议。我们推出了TxAgent，这是一种利用多步推理和实时生物医学知识检索的AI代理，它跨越[包含211种工具的工具箱，用于分析药物相互作用、禁忌症以及患者特异性治疗策略](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse)。\n- TxAgent评估药物在分子、药代动力学和临床层面的相互作用，根据患者的合并症和同时使用的药物识别禁忌症，并根据个体患者的特征（包括年龄、遗传因素和疾病进展）量身定制治疗策略。\n- TxAgent从多个生物医学来源检索并综合证据，评估药物与患者状况之间的相互作用，并通过迭代推理不断优化治疗建议。它根据任务目标选择工具，并执行结构化函数调用，以解决需要临床推理和跨源验证的治疗任务。\n- ToolUniverse整合了来自可信来源的211种工具，其中包括自1939年以来美国FDA批准的所有药物，以及来自Open Targets的经验证的临床见解。\n\nTxAgent在五个新的基准测试中超越了领先的LLM、工具使用模型和推理代理：DrugPC、BrandPC、GenericPC、TreatmentPC和DescriptionPC，涵盖了3,168个药物推理任务和456个个性化治疗场景。\n- 它在开放式药物推理任务中达到了92.1%的准确率，比GPT-4o高出多达25.8%，并在结构化多步推理方面优于DeepSeek-R1 (671B)。\n- TxAgent能够泛化处理药物名称的不同变体和描述，在品牌、通用名和基于描述的药物引用之间保持小于0.01的方差，这一性能比现有的工具使用LLM高出55%以上。\n\n通过整合多步推理、实时知识 grounding 和工具辅助决策，TxAgent确保治疗建议符合既定的临床指南和真实世界证据，从而降低不良事件的风险并改善治疗决策。\n\n\n## 环境搭建\n\n**依赖**：\n\n```\n- 运行TxAgent时，建议使用配备超过80GB显存的H100 GPU。\n- ToolUniverse需要连接互联网的设备。\n```\n\n**安装ToolUniverse**：\n\n```\n# 从源代码安装：\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse.git\ncd ToolUniverse\npython -m pip install . --no-cache-dir\n或者\n# 从pip安装：\npip install tooluniverse\n\n```\n\n**安装TxAgent**：\n\n```\n# 从源代码安装：\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent.git\npython -m pip install . --no-cache-dir\n或者\n# 从pip安装：\npip install txagent\n\n```\n\n**运行示例**：\n\n```\npython run_example.py\n```\n\n**运行Gradio演示**：\n\n```\npython run_txagent_app.py\n```\n\n### 预训练模型\n\n预训练模型权重可在[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmims-harvard\u002Ftxagent-67c8e54a9d03a429bb0c622c)上获取。\n\n| 模型         | 描述    |\n|---------------|--------------|\n| [TxAgent-T1-Llama-3.1-8B](https:\u002F\u002Fhuggingface.co\u002Fmims-harvard\u002FTxAgent-T1-Llama-3.1-8B)  | TxAgent LLM       |\n| [ToolRAG-T1-GTE-Qwen2-1.5B](https:\u002F\u002Fhuggingface.co\u002Fmims-harvard\u002FToolRAG-T1-GTE-Qwen2-1.5B)   | 工具RAG嵌入模型  |\n\n## 演示案例\n更多详情请访问[项目页面](https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent)。\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_6ff2bef17589.gif)\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_64df9a284e58.gif)\n![Demo1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_readme_3fdd52f33973.gif)\n\n\n## 引用\n\n```\n@misc{gao2025txagent,\n      title={TxAgent: An AI Agent for Therapeutic Reasoning Across a Universe of Tools}, \n      author={Shanghua Gao and Richard Zhu and Zhenglun Kong and Ayush Noori and Xiaorui Su and Curtis Ginder and Theodoros Tsiligkaridis and Marinka Zitnik},\n      year={2025},\n      eprint={2503.10970},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.10970}, \n}\n```\n\n## 联系方式\n如果您有任何问题或建议，请发送邮件至 [Shanghua Gao](mailto:shanghuagao@gmail.com) 和 [Marinka Zitnik](mailto:marinka@hms.harvard.edu)。","# TxAgent 快速上手指南\n\nTxAgent 是一个专为治疗推理设计的 AI 智能体，能够利用多步推理和实时生物医学知识检索，在包含 211 个工具的工具库中分析药物相互作用、禁忌症及个性化治疗策略。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **硬件要求**：推荐配备 **NVIDIA H100 GPU** 且显存大于 **80GB** 的设备以获得最佳运行效果。\n*   **网络要求**：运行 `ToolUniverse` 组件需要设备具备互联网连接，以便实时检索生物医学数据。\n*   **软件依赖**：已安装 Python 环境及 `pip` 包管理工具。\n\n## 安装步骤\n\nTxAgent 依赖于 `ToolUniverse` 工具库，请按顺序安装以下组件。您可以选择从源码安装或通过 PyPI 安装。\n\n### 1. 安装 ToolUniverse\n\n**方式一：通过 pip 安装（推荐）**\n```bash\npip install tooluniverse\n```\n\n**方式二：从源码安装**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FToolUniverse.git\ncd ToolUniverse\npython -m pip install . --no-cache-dir\n```\n\n### 2. 安装 TxAgent\n\n**方式一：通过 pip 安装（推荐）**\n```bash\npip install txagent\n```\n\n**方式二：从源码安装**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent.git\ncd TxAgent\npython -m pip install . --no-cache-dir\n```\n\n> **提示**：国内用户若遇到下载速度慢的问题，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 参数使用清华镜像源加速安装。\n\n## 基本使用\n\n安装完成后，您可以通过以下方式快速体验 TxAgent 的功能。\n\n### 运行示例脚本\n执行官方提供的示例脚本，测试基本的药物推理功能：\n```bash\npython run_example.py\n```\n\n### 启动 Web 演示界面\nTxAgent 提供了基于 Gradio 的交互式演示界面，便于直观测试不同治疗场景：\n```bash\npython run_txagent_app.py\n```\n启动后，请在浏览器中访问终端显示的本地地址（通常为 `http:\u002F\u002F127.0.0.1:7860`）进行操作。\n\n### 模型说明\n系统默认会加载预训练模型权重。主要模型包括：\n*   **TxAgent-T1-Llama-3.1-8B**: 核心大语言模型。\n*   **ToolRAG-T1-GTE-Qwen2-1.5B**: 工具检索增强生成（RAG）的嵌入模型。\n这些模型托管于 HuggingFace，首次运行时会自动下载（需保持网络畅通）。","一位临床药师正在为一名患有慢性肾病且同时服用多种药物的老年患者制定抗凝治疗方案，需要快速评估复杂的药物相互作用风险。\n\n### 没有 TxAgent 时\n- 药师需手动翻阅多个分散的数据库和文献，耗时数小时才能拼凑出完整的药物代谢动力学数据。\n- 难以全面捕捉分子层面与临床层面的隐性相互作用，极易遗漏针对肾病患者特有的禁忌症。\n- 缺乏统一工具来整合患者的基因特征、年龄及疾病进展，导致治疗方案只能基于通用指南，难以实现真正的个性化。\n- 面对新出现的医学证据，人工更新知识库滞后，无法实时调整治疗策略以应对最新风险。\n\n### 使用 TxAgent 后\n- TxAgent 自动调用其包含的 211 种专业工具，秒级检索并合成多源生物医学证据，瞬间完成复杂数据分析。\n- 它能从分子、药代动力学到临床表现三个维度深度推演，精准识别出该肾病患者特有的药物禁忌与冲突。\n- TxAgent 结合患者的年龄、基因型及病程阶段进行多步推理，量身定制了动态调整的个性化给药策略。\n- 通过迭代式推理机制，TxAgent 实时纳入最新研究成果，确保持续优化治疗建议并规避潜在风险。\n\nTxAgent 将原本需要数小时的人工排查转化为分钟级的智能决策，显著提升了复杂病例下精准治疗的效率与安全性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmims-harvard_TxAgent_6ff2bef1.gif","mims-harvard","Artificial Intelligence for Medicine and Science @ Harvard Zitnik Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmims-harvard_5a3b6165.png","",null,"marinka@hms.harvard.edu","marinkazitnik","https:\u002F\u002Fzitniklab.hms.harvard.edu","https:\u002F\u002Fgithub.com\u002Fmims-harvard",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,613,95,"2026-04-04T14:04:21","MIT",4,"推荐配备 NVIDIA H100 GPU，显存需大于 80GB","未说明",{"notes":94,"python":92,"dependencies":95},"运行 ToolUniverse 需要设备连接互联网。预训练模型权重托管在 HuggingFace 上（包括 TxAgent-T1-Llama-3.1-8B 和 ToolRAG-T1-GTE-Qwen2-1.5B）。该工具主要用于治疗推理，依赖包含 211 个工具的工具库。",[96,97],"tooluniverse","txagent",[35,13],[100,101,102,103,104,105],"agents","precision-medicine","reasoning-agent","reasoning-language-models","therapeutics","tool-use","2026-03-27T02:49:30.150509","2026-04-08T13:59:06.176590",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},24490,"项目对 GPU 显存有什么具体要求？是否支持消费级显卡或多卡并行？","项目建议显存为 80GB，主要是为了运行大模型。但可以通过以下方式降低门槛：\n1. 支持多张较小显存的 GPU 并行使用（显存总和达到要求即可），不必必须是单张 H100。可以参考 vLLM 文档配置多卡模式。\n2. 未来计划基于更轻量级的 LLM（如 1-3B 参数模型）训练 TxAgent，以适配消费级显卡，但性能可能会有所下降。\n3. 对于多卡配置，可修改代码初始化部分，例如在 txagent.py 中将 `self.model = LLM(model=self.model_name)` 改为 `self.model = LLM(model=self.model_name, tensor_parallel_size=4)`（根据显卡数量调整 parallel_size）。","https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent\u002Fissues\u002F2",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},24491,"运行时报错找不到 '\u002FTxAgent\u002Fdata\u002Fnew_tool.json' 文件怎么办？","该文件之前被 .gitignore 忽略未上传，维护者已补传该文件。如果遇到此错误：\n1. 请拉取最新代码以确保获取到 new_tool.json 文件。\n2. 如果仍然缺失，临时解决方案是修改 `run_txagent_app.py` 第 93 行，删除或注释掉 `tool_files_dict=new_tool_files,` 这一参数（但这并非官方推荐的标准解法，仅作为应急手段）。","https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent\u002Fissues\u002F7",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},24492,"如何配置项目以支持多张显卡运行？","项目支持多卡运行。由于 Agent 依赖的 LLM 是通过 vLLM 启动的，你可以利用 vLLM 的多卡特性。具体操作是修改 `txagent.py` 文件的第 79 行代码，将：\n`self.model = LLM(model=self.model_name)`\n修改为：\n`self.model = LLM(model=self.model_name, tensor_parallel_size=N)`\n其中 N 为你使用的显卡数量。此外，还可以尝试其他 vLLM 支持的配置项来优化多卡性能。","https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},24493,"如果本地下载了预训练模型，运行时是否还需要联网？","是的，仍然需要网络连接。原因如下：\n1. 即使模型本地化，程序可能仍需从 Hugging Face 校验或加载部分组件。\n2. 更重要的是，TxAgent 依赖 ToolUniverse 中的在线 API 工具来执行具体任务，这些工具调用必须通过互联网进行。","https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent\u002Fissues\u002F4",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},24494,"项目的 Python 版本和硬件依赖要求是什么？","项目主要依赖 vLLM，具体环境要求如下：\n- 操作系统：Linux\n- Python 版本：3.8 – 3.12\n- GPU 要求：计算能力（compute capability）7.0 或更高（支持型号包括 V100, T4, RTX20xx 系列，A100, L4, H100 等）。\n如果在特定 CUDA 版本（如 CUDA 12.6）下安装失败，请确保上述基础依赖满足，并可参考 vLLM 的官方安装指南解决依赖冲突。","https:\u002F\u002Fgithub.com\u002Fmims-harvard\u002FTxAgent\u002Fissues\u002F3",{"id":135,"question_zh":136,"answer_zh":137,"source_url":113},24495,"是否支持通过 FHIR HL7 等标准医疗 API 自动获取数据？","这是一个非常好的建议。目前项目拥有 ToolUniverse 工具库，目标是让 AI Agent 能轻松使用更多 API。虽然当前可能尚未完全内置针对 FHIR HL7 的自动化工具，但维护者表示欢迎贡献和扩展，计划在未来包含更多此类医疗标准 API，以便模型能获取更新的上下文数据，减少医护人员重复解释细节的工作。",[]]