[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ctlllll--LLM-ToolMaker":3,"tool-ctlllll--LLM-ToolMaker":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":68,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":98,"env_deps":100,"category_tags":104,"github_topics":68,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":105,"updated_at":106,"faqs":107,"releases":128},2075,"ctlllll\u002FLLM-ToolMaker","LLM-ToolMaker",null,"LLM-ToolMaker 是一个创新的开源框架，旨在让大语言模型（LLM）具备“自我制造”解题工具的能力。传统方法依赖现成外部工具，而 LLM-ToolMaker 通过闭环流程，让模型能针对特定任务自动编写可复用的 Python 函数作为专用工具，并直接调用这些工具解决复杂问题。\n\n该项目主要解决了大模型在处理复杂推理任务时，因缺乏专用工具而导致能力受限或成本过高的问题。其核心亮点在于独特的“分工协作”机制：将流程分为“制造”与“使用”两个阶段。用户可以配置高性能模型（如 GPT-4）担任“制造者”，负责从示例中提炼逻辑、编写代码并通过单元测试验证；随后由轻量级模型（如 GPT-3.5）担任“使用者”，直接调用已验证的工具高效解题。这种策略既保证了解题质量，又显著降低了推理成本。\n\nLLM-ToolMaker 特别适合 AI 研究人员和开发者使用，尤其是那些希望探索大模型自主代理能力、优化复杂推理任务（如逻辑演绎、数学计算）解决方案的技术团队。通过自动化生成和验证工具代码，它为大模型从“通用对话者”进化为“专业问题解决者”提供了切实可行的技术路径。","# Large Language Models as Tool Makers\n*Tianle Cai, Xuezhi Wang, Tengyu Ma, Xinyun Chen, Denny Zhou*\n\n[Paper link](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17126)\n\n## Motivation\nRecent research shows the potential of enhancing the problem-solving ability of\nlarge language models (LLMs) through the use of external tools. However, prior\nwork along this line depends on the availability of existing tools. In this work, we\ntake an initial step towards removing this dependency by proposing a closed-loop\nframework, referred to as LLMs A s Tool M akers (LATM), where LLMs create\ntheir own reusable tools for problem-solving. \n\n## Overview\nOur approach consists of two key\nphases: 1) tool making: an LLM acts as the tool maker that crafts tools for given\ntasks, where a tool is implemented as a Python utility function. 2) tool using:\nan LLM acts as the tool user, which applies the tool built by the tool maker for\nproblem-solving. The tool user can be either the same or a different LLM from the\ntool maker. Tool-making enables an LLM to continually generate tools that can be\napplied to different requests so that future requests can call the corresponding APIs\nwhen beneficial for solving the tasks.\n\n\u003C!-- ![overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_cd8730122d30.png) width 80% and centered -->\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_cd8730122d30.png\" width=\"80%\">\n\u003C\u002Fp>\n\nFurthermore, the division of labor among\nLLMs for tool-making and tool-using phases introduces the opportunity to achieve\ncost effectiveness without degrading the quality of generated tools and problem\nsolutions. For example, recognizing that tool-making demands more sophisticated\ncapabilities than tool-using, we can apply a powerful yet resource-intensive model\nas the tool maker, and a lightweight while cost-effective model as the tool user. We\nvalidate the effectiveness of our approach across a variety of complex reasoning\ntasks, including Big-Bench tasks. With GPT-4 as the tool maker and GPT-3.5 as\nthe tool user, LATM can achieve performance that is on par with using GPT-4 for\nboth tool making and tool using, while the inference cost is significantly reduced.\n\n## Pipeline\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_d942644da74a.png\" width=\"80%\">\n\u003C\u002Fp>\n LATM can be divided into two stages: 1) tool making: a powerful\nyet more expensive model serves as the tool maker to generate generic and reusable tools from a\nfew demonstrations; 2) tool using: a lightweight and cheaper model serves as the tool user to use\nthe tool to solve various instances of the task. The tool-making stage can be further divided into\nthree sub-stages: (i) tool proposing: the tool maker makes an attempt to generate the tool (Python\nfunction) from a few training demonstrations, if the tool is not executable, report the error and\ngenerate a new one (fix the issues in the function); (ii) tool verification: the tool maker runs unit tests\non validation samples, if the tool does not pass the tests, report the error and generate new tests (fix\nthe issues in function calls in unit tests); and (iii) tool wrapping: wrapping up the function code and\nthe demonstrations of how to convert a question into a function call from unit tests, preparing usable\ntools for tool user.\n\n## Example\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_9e2c5d60d83e.png\" width=\"80%\">\n\u003C\u002Fp>\nAn illustration of the Tool Proposing and Tool Using stages of the LATM pipeline\nfor the Logical Deduction task [Srivastava et al., 2022]. This task requires determining the order\nof five objects based on several given conditions. In the Tool Proposing stage, the tool maker (such\nas GPT-4) formulates a generic Python function capable of solving the provided k demonstrations\nfrom the task (where k equals 3 in our experiments). The tool maker generates a search algorithm\nthat enumerates all possible orderings and verifies each against the provided conditions. During the\ntool-using stage, the tool user translates each natural language question into a series of conditions,\ngenerating function calls to utilize the tool for each task instance.\n\n## Code structure\n- schedule_meeting.ipynb -- notebook for constructing the schedule meeting dataset\n- toolmaker.ipynb -- notebook for making tools, the wrapped tools are stored in tools folder and are ready to use\n- tooluser.ipynb -- notebook for testing Tool User and Dispatcher\n- bbh folder -- the tasks from BigBench in json format\n- cot-prompts folder -- the Chain-of-Thought prompts\n\n## Citation\n```\n@article{cai2023large,\n  title   = {Large Language Models as Tool Makers},\n  author  = {Tianle Cai and Xuezhi Wang and Tengyu Ma and Xinyun Chen and Denny Zhou},\n  year    = {2023},\n  journal = {arXiv preprint arXiv: 2305.17126}\n}\n```","# 大型语言模型作为工具制造者\n*蔡天乐、王雪芝、马腾宇、陈欣韵、周登尼*\n\n[论文链接](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17126)\n\n## 动机\n近期研究表明，通过使用外部工具，可以提升大型语言模型（LLMs）的问题解决能力。然而，这一方向的现有工作依赖于已有工具的存在。在本工作中，我们迈出了消除这一依赖的第一步，提出了一种闭环框架，称为“LLMs 作为工具制造者”（LATM），其中 LLMs 可以自主创建可重用的工具用于问题解决。\n\n## 概述\n我们的方法包含两个关键阶段：1) 工具制造：由一个 LLM 充当工具制造者，为特定任务设计工具，这里的工具被实现为 Python 实用函数。2) 工具使用：另一个 LLM 充当工具使用者，利用工具制造者生成的工具来解决问题。工具使用者可以与工具制造者是同一个模型，也可以是不同的模型。通过工具制造，LLMs 能够持续生成适用于不同请求的工具，以便在未来遇到有益于任务解决的情况时，直接调用相应的 API。\n\n\u003C!-- ![overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_cd8730122d30.png) width 80% and centered -->\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_cd8730122d30.png\" width=\"80%\">\n\u003C\u002Fp>\n\n此外，LLMs 在工具制造和工具使用阶段之间的分工，为在不降低生成工具和问题解决方案质量的前提下实现成本效益提供了机会。例如，考虑到工具制造比工具使用需要更复杂的推理能力，我们可以选择一个功能强大但资源消耗较大的模型作为工具制造者，而使用一个轻量级且经济高效的模型作为工具使用者。我们在包括 Big-Bench 任务在内的多种复杂推理任务上验证了该方法的有效性。当以 GPT-4 作为工具制造者、GPT-3.5 作为工具使用者时，LATM 的性能可以与同时使用 GPT-4 进行工具制造和工具使用的效果相媲美，同时显著降低了推理成本。\n\n## 流程\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_d942644da74a.png\" width=\"80%\">\n\u003C\u002Fp>\nLATM 可分为两个阶段：1) 工具制造：由一个功能强大但成本较高的模型充当工具制造者，根据少量示例生成通用且可重用的工具；2) 工具使用：由一个轻量级且成本较低的模型充当工具使用者，利用这些工具解决各种任务实例。工具制造阶段又可细分为三个子阶段：(i) 工具提案：工具制造者尝试从少量训练示例中生成工具（Python 函数）。若工具无法执行，则报告错误并重新生成（修复函数中的问题）；(ii) 工具验证：工具制造者对验证样本运行单元测试。若工具未通过测试，则报告错误并生成新的测试用例（修正单元测试中函数调用的问题）；(iii) 工具封装：将函数代码及如何将问题转换为函数调用的示例整理打包，形成可供工具使用者使用的工具。\n\n## 示例\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_readme_9e2c5d60d83e.png\" width=\"80%\">\n\u003C\u002Fp>\n这是 LATM 流程中工具提案和工具使用阶段的一个示例，针对逻辑推理任务 [Srivastava 等，2022]。该任务要求根据若干给定条件确定五个物体的顺序。在工具提案阶段，工具制造者（如 GPT-4）会构建一个通用的 Python 函数，能够解决任务中提供的 k 个示例（我们在实验中取 k=3）。工具制造者会生成一种搜索算法，枚举所有可能的排序，并逐一验证是否符合给定条件。在工具使用阶段，工具使用者会将每个自然语言问题转化为一系列条件，进而生成函数调用，以利用工具解决每个任务实例。\n\n## 代码结构\n- schedule_meeting.ipynb -- 用于构建会议安排数据集的笔记本\n- toolmaker.ipynb -- 用于工具制造的笔记本，封装后的工具存储在 tools 文件夹中，可直接使用\n- tooluser.ipynb -- 用于测试工具使用者和调度器的笔记本\n- bbh 文件夹 -- BigBench 中的任务，以 JSON 格式存储\n- cot-prompts 文件夹 -- 思维链提示\n\n## 引用\n```\n@article{cai2023large,\n  title   = {Large Language Models as Tool Makers},\n  author  = {Tianle Cai and Xuezhi Wang and Tengyu Ma and Xinyun Chen and Denny Zhou},\n  year    = {2023},\n  journal = {arXiv preprint arXiv: 2305.17126}\n}\n```","# LLM-ToolMaker 快速上手指南\n\nLLM-ToolMaker (LATM) 是一个闭环框架，允许大语言模型（LLM）自主创建可复用的 Python 工具函数来解决复杂问题。该框架将任务分为“工具制造”（由强大模型如 GPT-4 执行）和“工具使用”（由轻量模型如 GPT-3.5 执行）两个阶段，旨在降低推理成本的同时保持高性能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows (推荐 Linux\u002FmacOS 以获得最佳兼容性)\n*   **Python 版本**: Python 3.8 或更高版本\n*   **依赖项**:\n    *   `jupyter`: 用于运行提供的 Notebook 示例\n    *   `openai`: 用于调用 LLM API\n    *   其他标准科学计算库 (如 `numpy`, `pandas` 等，通常包含在基础数据科学环境中)\n\n**建议**: 使用虚拟环境管理依赖，避免冲突。\n```bash\npython -m venv latm-env\nsource latm-env\u002Fbin\u002Factivate  # Windows 用户使用: latm-env\\Scripts\\activate\n```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    从 GitHub 获取源代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fllm-toolmaker.git\n    cd llm-toolmaker\n    ```\n\n2.  **安装 Python 依赖**\n    虽然项目主要基于 Jupyter Notebook，但需确保安装了核心库。如果根目录有 `requirements.txt`，请直接安装；若无，请安装以下基础依赖：\n    ```bash\n    pip install jupyter openai pandas numpy\n    ```\n    *(注：国内用户可使用清华源加速安装)*\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple jupyter openai pandas numpy\n    ```\n\n3.  **配置 API 密钥**\n    本项目依赖 OpenAI API。请在运行 Notebook 前，确保已设置环境变量或在代码中配置您的 API Key：\n    ```bash\n    export OPENAI_API_KEY=\"your-api-key-here\"\n    ```\n\n## 基本使用\n\n本项目通过一系列 Jupyter Notebook 演示完整流程。以下是核心操作步骤：\n\n### 1. 制造工具 (Tool Making)\n此阶段使用强大的模型（如 GPT-4）根据少量示例生成通用的 Python 工具函数，并进行自我修正和验证。\n\n启动工具制造 Notebook：\n```bash\njupyter notebook toolmaker.ipynb\n```\n**操作流程**:\n*   在 Notebook 中加载任务示例（如 `bbh` 文件夹中的 BigBench 任务）。\n*   执行单元格，模型将尝试生成 Python 函数 (`tool proposing`)。\n*   若代码执行报错，模型会自动修复 (`fix issues`)。\n*   运行单元测试验证工具有效性 (`tool verification`)。\n*   最终生成的可用工具将保存在 `tools` 文件夹中。\n\n### 2. 使用工具 (Tool Using)\n此阶段使用轻量级模型（如 GPT-3.5）调用上一步生成的工具来解决新问题。\n\n启动工具使用 Notebook：\n```bash\njupyter notebook tooluser.ipynb\n```\n**操作流程**:\n*   加载已在 `tools` 文件夹中准备好的工具。\n*   输入新的自然语言问题。\n*   模型将问题转化为具体的函数调用参数。\n*   执行函数并获取最终答案。\n\n### 3. 示例任务：逻辑推导 (Logical Deduction)\n参考 `toolmaker.ipynb` 中的逻辑推导任务示例：\n*   **输入**: 一组关于物体顺序的条件描述。\n*   **工具生成**: 模型编写一个搜索算法，枚举所有排列并验证条件。\n*   **工具调用**: 对于新的问题，模型只需提取条件并调用该搜索函数，无需重新推理逻辑。\n\n> **提示**: `schedule_meeting.ipynb` 提供了构建特定数据集的示例，可根据需要先行运行以准备数据。","某电商数据团队需要每天处理数千条包含复杂嵌套规则的用户投诉工单，并自动判定责任归属。\n\n### 没有 LLM-ToolMaker 时\n- **高昂的推理成本**：面对复杂的逻辑判断，必须全程调用昂贵的 GPT-4 模型进行逐条分析，导致每日 API 账单激增。\n- **逻辑一致性差**：大模型直接生成自然语言结论时，容易在多步推理中出现“幻觉”，导致对相似案例的判定标准前后不一。\n- **开发迭代缓慢**：每当业务规则调整（如新增退款条件），开发人员需手动重写硬编码的规则引擎或重新设计提示词，耗时费力。\n- **错误难以追溯**：当判定出错时，黑盒式的自然语言推理过程缺乏中间代码验证，难以定位是理解偏差还是逻辑漏洞。\n\n### 使用 LLM-ToolMaker 后\n- **显著降低成本**：利用强大的 GPT-4 作为“工具制造者”一次性生成通用的 Python 判定函数，后续数千条工单仅需由廉价的 GPT-3.5 作为“工具使用者”调用该函数即可解决。\n- **逻辑精准可靠**：生成的工具是经过单元测试验证的可执行代码，强制模型通过枚举和逻辑运算得出结果，彻底消除了自由文本推理的不稳定性。\n- **自适应规则更新**：只需提供几条新的业务案例演示，LLM-ToolMaker 就能自动重构并生成新的工具函数，无需人工介入修改代码逻辑。\n- **调试透明高效**：每个判定结果都对应明确的函数调用路径和单元测试反馈，一旦出错可立即通过代码报错信息定位并修复逻辑缺陷。\n\nLLM-ToolMaker 通过“一次制造、多次复用”的闭环机制，在将复杂任务推理成本降低一个数量级的同时，实现了比单一模型更稳定、可验证的决策质量。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fctlllll_LLM-ToolMaker_cd873012.png","ctlllll","Tianle Cai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fctlllll_824ad7a3.jpg","ML PhD @Princeton. Life-long learner, hacker, and builder. Tech consultant & angel investor.\r\nTake a look at my recent research @FasterDecoding !","@Princeton","Earth","tianle.cai@princeton.edu","tianle_cai","tianle.website","https:\u002F\u002Fgithub.com\u002Fctlllll",[86,90],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",99.4,{"name":91,"color":92,"percentage":93},"Python","#3572A5",0.6,1061,98,"2026-03-22T10:35:44",4,"未说明","未说明 (项目主要基于调用外部 API，如 GPT-4\u002FGPT-3.5，而非本地部署模型)",{"notes":101,"python":98,"dependencies":102},"该工具是一个闭环框架，核心逻辑是调用外部大模型 API（如 GPT-4 作为工具制造者，GPT-3.5 作为工具使用者）来生成和执行 Python 工具函数。运行环境主要需要支持 Jupyter Notebook 的基础配置以及访问相应 LLM API 的权限和网络环境，无需特定的本地 GPU 或深度学习框架依赖。",[103],"未说明 (README 仅提及代码为 .ipynb Notebook 格式，未列出具体的 Python 依赖库)",[26,13,15],"2026-03-27T02:49:30.150509","2026-04-06T06:46:10.146105",[108,113,118,123],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},9451,"如何使用 LLM-ToolMaker？有具体的应用示例吗？","该工具的核心功能由 Dispatcher（调度器）实现，它负责决定使用现有工具还是在需要时调用 ToolMaker 创建新工具。您可以参考论文中的图 4，以及官方提供的 Jupyter Notebook 示例代码来了解具体用法：https:\u002F\u002Fgithub.com\u002Fctlllll\u002FLLM-ToolMaker\u002Fblob\u002Fmain\u002Ftooluser.ipynb","https:\u002F\u002Fgithub.com\u002Fctlllll\u002FLLM-ToolMaker\u002Fissues\u002F3",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},9452,"Dispatcher（调度器）如何判断是否存在适合当前任务的工具？","对于 Dispatcher，我们通过提示词（prompt） instruct 它在没有合适工具可用时输出 \"unknown\"。系统会根据这个输出来判断是否需要创建新工具或处理为新任务。","https:\u002F\u002Fgithub.com\u002Fctlllll\u002FLLM-ToolMaker\u002Fissues\u002F5",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},9453,"论文中提到“指令微调前的模型表现往往优于微调后”，这与表格中 GPT-3.5 等模型的排名趋势似乎矛盾，该如何理解？","该观察结论特指 GPT-3 系列模型内部的对比。具体来说，我们的观察结果是基础版 ada 模型的表现优于经过指令微调的 text-ada-001 模型（即 ada > text-ada-001），而非不同模型系列之间的横向对比。作者表示将在下一版本中使该论述更加清晰。","https:\u002F\u002Fgithub.com\u002Fctlllll\u002FLLM-ToolMaker\u002Fissues\u002F4",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},9454,"项目分发的工具文件是 pickle 格式，是否存在安全风险？","出于安全考虑，维护者已将所有工具文件从 pickle 格式转换为更安全的 json 格式，用户现在可以安全地使用和分发这些文件。","https:\u002F\u002Fgithub.com\u002Fctlllll\u002FLLM-ToolMaker\u002Fissues\u002F1",[]]