[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Maximilian-Winter--llama-cpp-agent":3,"tool-Maximilian-Winter--llama-cpp-agent":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":80,"owner_website":80,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":23,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":150},3589,"Maximilian-Winter\u002Fllama-cpp-agent","llama-cpp-agent","The llama-cpp-agent framework is a tool designed for easy interaction with Large Language Models (LLMs). Allowing users to chat with LLM models, execute structured function calls and get structured output. Works also with models not fine-tuned to JSON output and function calls.","llama-cpp-agent 是一个旨在简化与大语言模型（LLM）交互的开源框架。它不仅能让用户轻松与模型进行自然对话，还能执行结构化的函数调用并生成规范的输出格式（如 JSON 对象）。\n\n该工具核心解决了中小参数模型（如 7B 级别）或非专门微调模型难以稳定输出结构化数据的问题。通过独特的“引导采样”技术，结合语法规则和 JSON 模式约束，llama-cpp-agent 能强制模型按预定格式回答，即使模型本身未针对函数调用进行过训练也能完美胜任。此外，它还支持检索增强生成（RAG）、并行函数调用以及多种智能体工作流链。\n\nllama-cpp-agent 非常适合 Python 开发者、AI 研究人员以及希望在本地的构建智能应用的技术人员使用。它具有极高的兼容性，支持 llama.cpp、TGI 和 vllm 等多种后端服务，并能无缝对接 Pydantic、llama-index 及 OpenAI 工具标准。无论是需要构建复杂的自动化代理流程，还是仅需简单的结构化数据提取，llama-cpp-agent 都能提供灵活且高效的解决方案。\n\n需要注意的是，该项目目前已停止维护，官方建","llama-cpp-agent 是一个旨在简化与大语言模型（LLM）交互的开源框架。它不仅能让用户轻松与模型进行自然对话，还能执行结构化的函数调用并生成规范的输出格式（如 JSON 对象）。\n\n该工具核心解决了中小参数模型（如 7B 级别）或非专门微调模型难以稳定输出结构化数据的问题。通过独特的“引导采样”技术，结合语法规则和 JSON 模式约束，llama-cpp-agent 能强制模型按预定格式回答，即使模型本身未针对函数调用进行过训练也能完美胜任。此外，它还支持检索增强生成（RAG）、并行函数调用以及多种智能体工作流链。\n\nllama-cpp-agent 非常适合 Python 开发者、AI 研究人员以及希望在本地的构建智能应用的技术人员使用。它具有极高的兼容性，支持 llama.cpp、TGI 和 vllm 等多种后端服务，并能无缝对接 Pydantic、llama-index 及 OpenAI 工具标准。无论是需要构建复杂的自动化代理流程，还是仅需简单的结构化数据提取，llama-cpp-agent 都能提供灵活且高效的解决方案。\n\n需要注意的是，该项目目前已停止维护，官方建议新用户转向使用 ToolAgents 或其他更新的 Python 智能体框架，但其设计思路和技术实现仍具有重要的参考价值。","# llama-cpp-agent\n\nNot Longer Maintained. Use instead ToolAgents or other Python agentic frameworks.\n[![ToolAgents - New framework for commerical APIs and models with built in tool support](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMaximilian-Winter_llama-cpp-agent_readme_4388b2889d27.png)]\n\n\n[![PyPI - Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fllama-cpp-agent?logo=pypi&color=%2341bb13)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-cpp-agent\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1237393014154985582?logo=Discord&logoColor=%23ffffff&label=Discord&link=https%3A%2F%2Fdiscord.gg%2FsRMvWKrh)](https:\u002F\u002Fdiscord.gg\u002Ffgr5RycPFP)\n\n![llama-cpp-agent logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMaximilian-Winter_llama-cpp-agent_readme_76cbf5a580bf.png)\n\n## Introduction\nThe llama-cpp-agent framework is a tool designed to simplify interactions with Large Language Models (LLMs). It provides an interface for chatting with LLMs, executing function calls, generating structured output, performing retrieval augmented generation, and processing text using agentic chains with tools. \n\nThe framework uses guided sampling to constrain the model output to the user defined structures. This way also models not fine-tuned to do function calling and JSON output will be able to do it.\n\nThe framework is compatible with the llama.cpp server, llama-cpp-python and its server, and with TGI and vllm servers.\n\n## Key Features\n- **Simple Chat Interface**: Engage in seamless conversations with LLMs.\n- **Structured Output**: Generate structured output (objects) from LLMs.\n- **Single and Parallel Function Calling**: Execute functions using LLMs.\n- **RAG - Retrieval Augmented Generation**: Perform retrieval augmented generation with colbert reranking.\n- **Agent Chains**: Process text using agent chains with tools, supporting Conversational, Sequential, and Mapping Chains.\n- **Guided Sampling**: Allows most 7B LLMs to do function calling and structured output. Thanks to grammars and JSON schema generation for guided sampling.\n- **Multiple Providers**: Works with llama-cpp-python, llama.cpp server, TGI server and vllm server as provider!\n- **Compatibility**: Works with python functions, pydantic tools, llama-index tools, and OpenAI tool schemas.\n- **Flexibility**: Suitable for various applications, from casual chatting to specific function executions.\n\n\n## Table of Contents\n- [Introduction](#introduction)\n- [Key Features](#key-features)\n- [Installation](#installation)\n- [Documentation](#documentation)\n- [Getting Started](#getting-started)\n- [Discord Community](#discord-community)\n- [Usage Examples](#usage-examples)\n    - [Simple Chat](#simple-chat-example-using-llamacpp-server-backend)\n    - [Parallel Function Calling](#parallel-function-calling-agent-example)\n    - [Structured Output](#structured-output)\n    - [RAG - Retrieval Augmented Generation](#rag---retrieval-augmented-generation)\n    - [llama-index Tools](#llama-index-tools-example)\n    - [Sequential Chain](#sequential-chain-example)\n    - [Mapping Chain](#mapping-chain-example)\n    - [Knowledge Graph Creation](#knowledge-graph-creation-example)\n- [Additional Information](#additional-information)\n    - [Predefined Messages Formatter](#predefined-messages-formatter)\n    - [Creating Custom Messages Formatter](#creating-custom-messages-formatter)\n- [Contributing](#contributing)\n- [License](#license)\n- [FAQ](#faq)\n\n\n\n## Installation\nInstall the llama-cpp-agent framework using pip:\n```shell\npip install llama-cpp-agent\n```\n## Documentation\nYou can find the latest documentation [here!](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002F)\n\n## Getting Started\nYou can find the get started guide [here!](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fget-started\u002F)\n\n## Discord Community\nJoin the Discord Community [here](https:\u002F\u002Fdiscord.gg\u002F6tGznupZGX)\n\n## Usage Examples\nThe llama-cpp-agent framework provides a wide range of examples demonstrating its capabilities. Here are some key examples:\n\n### Simple Chat Example using llama.cpp server backend\nThis example demonstrates how to initiate a chat with an LLM model using the llama.cpp server backend.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fsimple-chat-example\u002F)\n\n### Parallel Function Calling Agent Example\nThis example showcases parallel function calling using the FunctionCallingAgent class. It demonstrates how to define and execute multiple functions concurrently.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fparallel_function_calling\u002F)\n\n### Structured Output\nThis example illustrates how to generate structured output objects using the StructuredOutputAgent class. It shows how to create a dataset entry of a book from unstructured data.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fstructured-output-example\u002F)\n\n### RAG - Retrieval Augmented Generation\nThis example demonstrates Retrieval Augmented Generation (RAG) with colbert reranking. It requires installing the optional rag dependencies (ragatouille).\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Frag\u002F)\n\n### llama-index Tools Example\nThis example shows how to use llama-index tools and query engines with the FunctionCallingAgent class.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fllama_index_tool_use\u002F)\n\n### Sequential Chain Example\nThis example demonstrates how to create a complete product launch campaign using a sequential chain.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fsequential_chain\u002F)\n\n### Mapping Chain Example\nThis example illustrates how to create a mapping chain to summarize multiple articles into a single summary.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fmap_chain\u002F)\n\n### Knowledge Graph Creation Example\nThis example, based on an example from the Instructor library for OpenAI, shows how to create a knowledge graph using the llama-cpp-agent framework.\n\n[View Example](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fknowledge-graph-example\u002F)\n\n\n## Additional Information\n\n### Predefined Messages Formatter\n\nThe llama-cpp-agent framework provides predefined message formatters to format messages for the LLM model. The `MessagesFormatterType` enum defines the available formatters:\n\n- `MessagesFormatterType.MISTRAL`: Formats messages using the MISTRAL format.\n- `MessagesFormatterType.CHATML`: Formats messages using the CHATML format.\n- `MessagesFormatterType.VICUNA`: Formats messages using the VICUNA format.\n- `MessagesFormatterType.LLAMA_2`: Formats messages using the LLAMA 2 format.\n- `MessagesFormatterType.SYNTHIA`: Formats messages using the SYNTHIA format.\n- `MessagesFormatterType.NEURAL_CHAT`: Formats messages using the NEURAL CHAT format.\n- `MessagesFormatterType.SOLAR`: Formats messages using the SOLAR format.\n- `MessagesFormatterType.OPEN_CHAT`: Formats messages using the OPEN CHAT format.\n- `MessagesFormatterType.ALPACA`: Formats messages using the ALPACA format.\n- `MessagesFormatterType.CODE_DS`: Formats messages using the CODE DS format.\n- `MessagesFormatterType.B22`: Formats messages using the B22 format.\n- `MessagesFormatterType.LLAMA_3`: Formats messages using the LLAMA 3 format.\n- `MessagesFormatterType.PHI_3`: Formats messages using the PHI 3 format.\n- `MessagesFormatterType.AUTOCODER`: Formats messages using the Autocoder format.\n- `MessagesFormatterType.DEEP_SEEK_CODER_2`: Formats messages using the DeepSeek Coder v2 format.\n\n### Creating Custom Messages Formatter\n\nYou can create your own custom messages formatter by instantiating the `MessagesFormatter` class with the desired parameters:\n\n```python\nfrom llama_cpp_agent.messages_formatter import MessagesFormatter, PromptMarkers, Roles\n\ncustom_prompt_markers = {\n    Roles.system: PromptMarkers(\"\u003C|system|>\", \"\u003C|endsystem|>\"),\n    Roles.user: PromptMarkers(\"\u003C|user|>\", \"\u003C|enduser|>\"),\n    Roles.assistant: PromptMarkers(\"\u003C|assistant|>\", \"\u003C|endassistant|>\"),\n    Roles.tool: PromptMarkers(\"\u003C|tool|>\", \"\u003C|endtool|>\"),\n}\n\ncustom_formatter = MessagesFormatter(\n    pre_prompt=\"\",\n    prompt_markers=custom_prompt_markers,\n    include_sys_prompt_in_first_user_message=False,\n    default_stop_sequences=[\"\u003C|endsystem|>\", \"\u003C|enduser|>\", \"\u003C|endassistant|>\", \"\u003C|endtool|>\"]\n)\n```\n\n## Contributing\nWe welcome contributions to the llama-cpp-agent framework! If you'd like to contribute, please follow these guidelines:\n\n1. Fork the repository and create your branch from `master`.\n2. Ensure your code follows the project's coding style and conventions.\n3. Write clear, concise commit messages and pull request descriptions.\n4. Test your changes thoroughly before submitting a pull request.\n5. Open a pull request to the `master` branch.\n\nIf you encounter any issues or have suggestions for improvements, please open an issue on the [GitHub repository](https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues).\n\n## License\nThe llama-cpp-agent framework is released under the [MIT License](https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fblob\u002Fmaster\u002FLICENSE).\n\n## FAQ\n\n**Q: How do I install the optional dependencies for RAG?**  \nA: To use the RAGColbertReranker class and the RAG example, you need to install the optional rag dependencies (ragatouille). You can do this by running `pip install llama-cpp-agent[rag]`.\n\n**Q: Can I contribute to the llama-cpp-agent project?**  \nA: Absolutely! We welcome contributions from the community. Please refer to the [Contributing](#contributing) section for guidelines on how to contribute.\n\n**Q: Is llama-cpp-agent compatible with the latest version of llama-cpp-python?**  \nA: Yes, llama-cpp-agent is designed to work with the latest version of llama-cpp-python. However, if you encounter any compatibility issues, please open an issue on the GitHub repository.\n","# llama-cpp-agent\n\n已不再维护。请改用 ToolAgents 或其他 Python 代理框架。\n[![ToolAgents - 具有内置工具支持的商业 API 和模型新框架](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMaximilian-Winter_llama-cpp-agent_readme_4388b2889d27.png)]\n\n\n[![PyPI - 版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fllama-cpp-agent?logo=pypi&color=%2341bb13)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-cpp-agent\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1237393014154985582?logo=Discord&logoColor=%23ffffff&label=Discord&link=https%3A%2F%2Fdiscord.gg%2FsRMvWKrh)](https:\u002F\u002Fdiscord.gg\u002Ffgr5RycPFP)\n\n![llama-cpp-agent 标志](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMaximilian-Winter_llama-cpp-agent_readme_76cbf5a580bf.png)\n\n## 简介\nllama-cpp-agent 框架旨在简化与大型语言模型（LLMs）的交互。它提供了一个用于与 LLMs 聊天、执行函数调用、生成结构化输出、进行检索增强生成以及使用带有工具的代理链处理文本的接口。\n\n该框架使用引导采样技术，将模型输出限制在用户定义的结构内。这样一来，即使未经微调以执行函数调用和 JSON 输出的模型也能做到这一点。\n\n该框架兼容 llama.cpp 服务器、llama-cpp-python 及其服务器，以及 TGI 和 vllm 服务器。\n\n## 主要特性\n- **简单聊天界面**：与 LLMs 进行无缝对话。\n- **结构化输出**：从 LLMs 生成结构化输出（对象）。\n- **单次及并行函数调用**：使用 LLMs 执行函数。\n- **RAG - 检索增强生成**：结合 colbert 重排序进行检索增强生成。\n- **代理链**：使用带有工具的代理链处理文本，支持会话式、顺序式和映射式链。\n- **引导采样**：使大多数 7B 参数量的 LLMs 能够执行函数调用和结构化输出。这得益于语法和 JSON 模式的生成，用于引导采样。\n- **多提供商支持**：可作为提供商与 llama-cpp-python、llama.cpp 服务器、TGI 服务器和 vllm 服务器配合使用！\n- **兼容性**：兼容 Python 函数、Pydantic 工具、LlamaIndex 工具以及 OpenAI 工具模式。\n- **灵活性**：适用于各种应用场景，从日常聊天到特定功能的执行。\n\n\n## 目录\n- [简介](#introduction)\n- [主要特性](#key-features)\n- [安装](#installation)\n- [文档](#documentation)\n- [快速入门](#getting-started)\n- [Discord 社区](#discord-community)\n- [使用示例](#usage-examples)\n    - [简单聊天](#simple-chat-example-using-llamacpp-server-backend)\n    - [并行函数调用代理示例](#parallel-function-calling-agent-example)\n    - [结构化输出](#structured-output)\n    - [RAG - 检索增强生成](#rag---retrieval-augmented-generation)\n    - [LlamaIndex 工具示例](#llama-index-tools-example)\n    - [顺序链示例](#sequential-chain-example)\n    - [映射链示例](#mapping-chain-example)\n    - [知识图谱创建示例](#knowledge-graph-creation-example)\n- [附加信息](#additional-information)\n    - [预定义消息格式器](#predefined-messages-formatter)\n    - [创建自定义消息格式器](#creating-custom-messages-formatter)\n- [贡献](#contributing)\n- [许可证](#license)\n- [常见问题解答](#faq)\n\n\n\n## 安装\n使用 pip 安装 llama-cpp-agent 框架：\n```shell\npip install llama-cpp-agent\n```\n## 文档\n您可以在[这里]找到最新文档！(https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002F)\n\n## 快速入门\n您可以在[这里]找到快速入门指南！(https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fget-started\u002F)\n\n## Discord 社区\n加入 Discord 社区[这里](https:\u002F\u002Fdiscord.gg\u002F6tGznupZGX)\n\n## 使用示例\nllama-cpp-agent 框架提供了大量示例，展示了其功能。以下是一些关键示例：\n\n### 使用 llama.cpp 服务器后端的简单聊天示例\n此示例演示如何使用 llama.cpp 服务器后端与 LLM 模型开始聊天。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fsimple-chat-example\u002F)\n\n### 并行函数调用代理示例\n此示例展示了使用 FunctionCallingAgent 类进行并行函数调用。它演示了如何同时定义和执行多个函数。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fparallel_function_calling\u002F)\n\n### 结构化输出\n此示例说明如何使用 StructuredOutputAgent 类生成结构化输出对象。它展示了如何从非结构化数据中创建一本书的数据条目。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fstructured-output-example\u002F)\n\n### RAG - 检索增强生成\n此示例演示了带有 colbert 重排序的检索增强生成（RAG）。它需要安装可选的 rag 依赖项（ragatouille）。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Frag\u002F)\n\n### LlamaIndex 工具示例\n此示例展示了如何使用 LlamaIndex 工具和查询引擎与 FunctionCallingAgent 类一起使用。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fllama_index_tool_use\u002F)\n\n### 顺序链示例\n此示例演示了如何使用顺序链创建完整的产品发布活动。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fsequential_chain\u002F)\n\n### 映射链示例\n此示例说明了如何创建映射链，将多篇文章总结为一篇摘要。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fmap_chain\u002F)\n\n### 知识图谱创建示例\n此示例基于 Instructor 库中关于 OpenAI 的一个例子，展示了如何使用 llama-cpp-agent 框架创建知识图谱。\n\n[查看示例](https:\u002F\u002Fllama-cpp-agent.readthedocs.io\u002Fen\u002Flatest\u002Fknowledge-graph-example\u002F)\n\n\n## 附加信息\n\n### 预定义消息格式化器\n\nllama-cpp-agent 框架提供了预定义的消息格式化器，用于为 LLM 模型格式化消息。`MessagesFormatterType` 枚举定义了可用的格式化器：\n\n- `MessagesFormatterType.MISTRAL`：使用 MISTRAL 格式化消息。\n- `MessagesFormatterType.CHATML`：使用 CHATML 格式化消息。\n- `MessagesFormatterType.VICUNA`：使用 VICUNA 格式化消息。\n- `MessagesFormatterType.LLAMA_2`：使用 LLAMA 2 格式化消息。\n- `MessagesFormatterType.SYNTHIA`：使用 SYNTHIA 格式化消息。\n- `MessagesFormatterType.NEURAL_CHAT`：使用 NEURAL CHAT 格式化消息。\n- `MessagesFormatterType.SOLAR`：使用 SOLAR 格式化消息。\n- `MessagesFormatterType.OPEN_CHAT`：使用 OPEN CHAT 格式化消息。\n- `MessagesFormatterType.ALPACA`：使用 ALPACA 格式化消息。\n- `MessagesFormatterType.CODE_DS`：使用 CODE DS 格式化消息。\n- `MessagesFormatterType.B22`：使用 B22 格式化消息。\n- `MessagesFormatterType.LLAMA_3`：使用 LLAMA 3 格式化消息。\n- `MessagesFormatterType.PHI_3`：使用 PHI 3 格式化消息。\n- `MessagesFormatterType.AUTOCODER`：使用 Autocoder 格式化消息。\n- `MessagesFormatterType.DEEP_SEEK_CODER_2`：使用 DeepSeek Coder v2 格式化消息。\n\n### 创建自定义消息格式化器\n\n你可以通过使用所需参数实例化 `MessagesFormatter` 类来创建自己的自定义消息格式化器：\n\n```python\nfrom llama_cpp_agent.messages_formatter import MessagesFormatter, PromptMarkers, Roles\n\ncustom_prompt_markers = {\n    Roles.system: PromptMarkers(\"\u003C|system|>\", \"\u003C|endsystem|>\"),\n    Roles.user: PromptMarkers(\"\u003C|user|>\", \"\u003C|enduser|>\"),\n    Roles.assistant: PromptMarkers(\"\u003C|assistant|>\", \"\u003C|endassistant|>\"),\n    Roles.tool: PromptMarkers(\"\u003C|tool|>\", \"\u003C|endtool|>\"),\n}\n\ncustom_formatter = MessagesFormatter(\n    pre_prompt=\"\",\n    prompt_markers=custom_prompt_markers,\n    include_sys_prompt_in_first_user_message=False,\n    default_stop_sequences=[\"\u003C|endsystem|>\", \"\u003C|enduser|>\", \"\u003C|endassistant|>\", \"\u003C|endtool|>\"]\n)\n```\n\n## 贡献\n我们欢迎对 llama-cpp-agent 框架的贡献！如果您想参与贡献，请遵循以下指南：\n\n1. 克隆仓库并基于 `master` 分支创建您的分支。\n2. 确保您的代码符合项目的编码风格和规范。\n3. 编写清晰、简洁的提交信息和拉取请求描述。\n4. 在提交拉取请求之前，彻底测试您的更改。\n5. 向 `master` 分支发起拉取请求。\n\n如果您遇到任何问题或有改进建议，请在 [GitHub 仓库](https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues) 上提交问题。\n\n## 许可证\nllama-cpp-agent 框架采用 [MIT 许可证](https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fblob\u002Fmaster\u002FLICENSE) 发布。\n\n## 常见问题解答\n\n**问：如何安装 RAG 的可选依赖项？**  \n答：要使用 `RAGColbertReranker` 类和 RAG 示例，您需要安装 RAG 的可选依赖项（ragatouille）。可以通过运行 `pip install llama-cpp-agent[rag]` 来完成安装。\n\n**问：我可以为 llama-cpp-agent 项目做出贡献吗？**  \n答：当然可以！我们非常欢迎社区的贡献。请参阅“贡献”部分，了解如何参与贡献的指南。\n\n**问：llama-cpp-agent 是否与最新版本的 llama-cpp-python 兼容？**  \n答：是的，llama-cpp-agent 旨在与最新版本的 llama-cpp-python 配合使用。不过，如果您遇到任何兼容性问题，请在 GitHub 仓库中提交问题。","# llama-cpp-agent 快速上手指南\n\n> **⚠️ 重要提示**：本项目已停止维护（Not Longer Maintained）。作者建议迁移至 **ToolAgents** 或其他 Python 智能体框架。本指南仅用于参考或维护现有项目。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：Python 3.8 或更高版本\n*   **前置依赖**：\n    *   `pip` 包管理工具\n    *   （可选）后端服务：本项目支持多种后端，如 `llama.cpp` server, `TGI`, `vllm` 等。若使用本地模型，需确保已部署相应的推理服务或安装 `llama-cpp-python`。\n\n## 安装步骤\n\n使用 pip 直接安装核心库：\n\n```shell\npip install llama-cpp-agent\n```\n\n**可选依赖安装**：\n如果您需要使用检索增强生成（RAG）功能（包含 ColBERT 重排序），请安装额外依赖：\n\n```shell\npip install llama-cpp-agent[rag]\n```\n\n> 💡 **国内加速建议**：若下载速度较慢，可使用国内镜像源安装：\n> ```shell\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple llama-cpp-agent\n> ```\n\n## 基本使用\n\n`llama-cpp-agent` 的核心优势在于通过引导采样（Guided Sampling）让未微调的模型也能执行函数调用和结构化输出。以下是一个最简单的聊天示例，展示如何连接后端并发起对话。\n\n### 简单聊天示例\n\n此示例演示如何使用 `llama.cpp` 服务器后端与 LLM 进行对话。\n\n```python\nfrom llama_cpp_agent import LlamaCppAgent\nfrom llama_cpp_agent.messages_formatter import MessagesFormatterType\n\n# 初始化代理\n# 注意：请确保您的 llama.cpp server 正在运行，并替换为正确的地址\nagent = LlamaCppAgent(\n    host=\"localhost\",\n    port=8080,\n    messages_formatter_type=MessagesFormatterType.LLAMA_3, # 根据模型选择对应的格式，如 LLAMA_3, MISTRAL 等\n)\n\n# 发送消息并获取回复\nuser_message = \"你好，请介绍一下你自己。\"\nresponse = agent.chat(user_message)\n\nprint(response)\n```\n\n### 关键配置说明\n\n*   **`messages_formatter_type`**：必须根据您的模型类型选择合适的预定义格式器（如 `LLAMA_3`, `MISTRAL`, `CHATML` 等），否则模型可能无法正确理解指令。\n*   **后端兼容性**：该框架不仅支持 `llama-cpp-python`，还兼容 `TGI` 和 `vllm` 服务器，只需调整连接参数即可。\n\n更多高级用法（如并行函数调用、结构化输出、RAG 等）请参考官方文档：[https:\u002F\u002Fllama-cpp-agent.readthedocs.io](https:\u002F\u002Fllama-cpp-agent.readthedocs.io)","某初创团队希望利用本地部署的轻量级大模型（如 7B 参数），构建一个能自动查询库存并生成标准 JSON 报告的智能客服系统，但受限于硬件资源无法使用超大模型或昂贵的云端 API。\n\n### 没有 llama-cpp-agent 时\n- **功能受限严重**：选用的轻量级模型未经过专门的函数调用或 JSON 输出微调，经常输出废话而非程序可执行的代码或数据。\n- **解析成本高昂**：开发者需要编写复杂的正则表达式和错误重试逻辑，试图从模型不稳定的自由文本中“抠”出结构化数据，维护难度极大。\n- **交互流程断裂**：难以实现“先查询数据库再回答用户”的多步操作，模型无法可靠地触发外部 Python 函数，导致自动化流程频繁中断。\n- **资源与效果难平衡**：为了获得稳定的结构化输出，被迫升级硬件运行更大模型或转向付费云服务，显著增加了运营成本。\n\n### 使用 llama-cpp-agent 后\n- **解锁原生能力**：利用引导采样（Guided Sampling）技术，强制 7B 小模型严格遵循预定义的 JSON 格式或函数签名，无需模型微调即可实现精准输出。\n- **开发效率飞跃**：直接定义 Pydantic 模型或 Python 函数，llama-cpp-agent 自动处理约束生成，彻底告别繁琐的正则解析和容错代码。\n- **智能代理闭环**：轻松构建代理链，让模型自主判断何时调用库存查询工具、何时整合信息回复用户，实现流畅的单次或并行函数执行。\n- **本地低成本落地**：在原有低配服务器上即可稳定运行具备复杂逻辑处理能力的智能体，无需额外硬件投入或依赖外部 API。\n\nllama-cpp-agent 的核心价值在于通过语法约束技术，让资源受限的本地小模型也能具备企业级的结构化输出与工具调用能力，大幅降低了智能体应用的落地门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMaximilian-Winter_llama-cpp-agent_76cbf5a5.png","Maximilian-Winter","Maximilian Winter","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMaximilian-Winter_43bc9dd1.jpg","Developer with interests in 3D- and AI- Development.",null,"Königswinter","maximilian.winter.91@gmail.com","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,625,70,"2026-04-04T16:28:44","NOASSERTION","","未说明（框架兼容 llama.cpp、TGI、vllm 等后端，具体 GPU 需求取决于所选后端及运行的模型大小）","未说明（取决于运行的 LLM 模型大小）",{"notes":97,"python":98,"dependencies":99},"该项目已不再维护，作者建议改用 ToolAgents 或其他 Python 智能体框架。该工具是一个代理框架，本身不捆绑模型，需配合 llama.cpp 服务器、TGI 或 vllm 等后端使用。支持多种消息格式（如 Llama 3, Mistral, ChatML 等）。若需使用检索增强生成（RAG）功能，需额外安装 ragatouille 依赖。","未说明",[100,101,102],"llama-cpp-python","pydantic","ragatouille (可选，用于 RAG 功能)",[26,13,15],[105,106,107,108,109,110,111,112],"agents","llamacpp","llm","llms","function-calling","parallel-function-call","llm-agent","llm-framework","2026-03-27T02:49:30.150509","2026-04-06T06:45:25.018456",[116,121,126,131,136,141,146],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},16432,"如何配置 llama-cpp-python 以启用 GPU (CUDA) 加速？","如果在日志中看到模型加载在 CPU 上而没有 CUDA 信息，需要在安装时指定 CMAKE 参数。请使用以下命令重新安装：\n`CUDACXX=\u002Fusr\u002Flocal\u002Fcuda-12.4\u002Fbin\u002Fnvcc CMAKE_ARGS=\"-DLLAMA_CUDA=on\" FORCE_CMAKE=1 pip install llama-cpp-python --no-cache-dir --force-reinstall --upgrade`\n或者简化版：`CMAKE_ARGS=\"-DLLAMA_CUDA=on\" pip install llama-cpp-python`。安装完成后，代码中设置 `n_gpu_layers` 即可生效。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F57",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},16433,"为什么使用结构化输出（Grammar）时采样时间（sample time）显著增加？","这是预期行为。基于语法（Grammar）的采样本身非常耗时，会导致每个 token 的采样时间增加一个数量级。相比之下，不使用语法的普通文本生成速度会快得多（例如从 12 tokens\u002Fs 提升到 160+ tokens\u002Fs）。性能下降的程度取决于语法的复杂性，目前无法完全避免。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F36",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},16434,"如何在函数执行后立即停止代理并返回控制权，以避免额外的 LLM 迭代？","建议直接使用 `LlamaCppAgent` 类代替 `FunctionCallingAgent` 类，前者可以在函数执行后立即返回控制权。如果必须自定义逻辑，可以在生成响应的方法中检查参数是否包含 `return_control` 标志，若为真则中断循环。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F55",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},16435,"设置 top_k, top_p 或 repeat_penalty 参数时程序崩溃报错 'wrong type' 怎么办？","这通常是由于底层 `llama-cpp-python` 库的版本不兼容或类型传递错误导致的。请确保您使用的是与 `llama-cpp-agent` 兼容的最新版本 `llama-cpp-python`。如果问题依旧，尝试在不设置这些特定采样参数（仅使用 temperature）的情况下运行，或者检查是否需要更新 `llama-cpp-agent` 到修复了该内部调用类型的版本。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F59",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},16436,"LLM 在使用 Pydantic 类进行结构化输出时，为什么会生成无限的新行或空格导致错误？","这是因为默认的语法定义给模型提供了过多的灵活性。维护者已修复了由换行符后跟空白字符引起的主要问题。如果仍遇到此类错误（特别是简单的 Pydantic 类），请确保您的 `llama-cpp-agent` 和 `llama.cpp` 服务器已更新到最新版本，以获取修复后的语法约束逻辑。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F12",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},16437,"LlamaCppEndpointSettings 是否支持连接 llama-cpp-python 启动的服务器？","不支持。`LlamaCppEndpointSettings` 设计用于连接标准的 OpenAI 兼容接口或其他特定端点，并不直接支持 `llama-cpp-python` 库内置的简单服务器模式。如果需要本地运行，建议直接在代码中使用 `llama_cpp.Llama` 类实例化模型，而不是通过端点设置连接服务器。","https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fissues\u002F16",{"id":147,"question_zh":148,"answer_zh":149,"source_url":135},16438,"手动中断推理后，如何使用 add_message 将部分消息添加到历史记录中？","在较新版本中，直接使用 `add_message` 可能不会立即反映在保存的消息存储中。建议直接操作消息存储器：使用 `self.llama_cpp_agent.chat_history.get_message_store().add_assistant_message(message_content)` 来添加助手消息。这样可以确保消息被正确记录并用于后续对话。",[151,156,161,166,171,176,181,186,191,196,201,206,211,216,221,225,230,235,240,245],{"id":152,"version":153,"summary_zh":154,"released_at":155},98788,"0.2.35","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.34...0.2.35","2024-06-29T09:55:27",{"id":157,"version":158,"summary_zh":159,"released_at":160},98789,"0.2.34","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.33...0.2.34","2024-06-23T19:18:34",{"id":162,"version":163,"summary_zh":164,"released_at":165},98790,"0.2.33","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.32...0.2.33","2024-06-19T15:21:37",{"id":167,"version":168,"summary_zh":169,"released_at":170},98791,"0.2.32","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.31...0.2.32","2024-06-12T14:58:01",{"id":172,"version":173,"summary_zh":174,"released_at":175},98792,"0.2.31","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.30...0.2.31","2024-06-12T13:36:35",{"id":177,"version":178,"summary_zh":179,"released_at":180},98793,"0.2.30","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.29...0.2.30","2024-06-11T20:16:16",{"id":182,"version":183,"summary_zh":184,"released_at":185},98794,"0.2.29","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.28...0.2.29","2024-06-11T19:24:12",{"id":187,"version":188,"summary_zh":189,"released_at":190},98795,"0.2.28","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.27...0.2.28","2024-06-11T17:20:37",{"id":192,"version":193,"summary_zh":194,"released_at":195},98796,"0.2.27","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.26...0.2.27","2024-06-11T13:07:54",{"id":197,"version":198,"summary_zh":199,"released_at":200},98797,"0.2.26","## 变更内容\n* 由 @svjack 在 https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fpull\u002F70 中创建 dialogue_generation.py\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.25...0.2.26","2024-06-11T09:58:50",{"id":202,"version":203,"summary_zh":204,"released_at":205},98798,"0.2.25","## What's Changed\r\n* add autocoder template by @pabl-o-ce in https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fpull\u002F69\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.24...0.2.25","2024-06-06T20:25:41",{"id":207,"version":208,"summary_zh":209,"released_at":210},98799,"0.2.24","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.23...0.2.24","2024-06-05T03:13:50",{"id":212,"version":213,"summary_zh":214,"released_at":215},98800,"0.2.23","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.22...0.2.23","2024-05-31T07:59:58",{"id":217,"version":218,"summary_zh":219,"released_at":220},98801,"0.2.22","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.21...0.2.22","2024-05-31T04:17:56",{"id":222,"version":223,"summary_zh":80,"released_at":224},98802,"0.2.21","2024-05-30T21:50:33",{"id":226,"version":227,"summary_zh":228,"released_at":229},98803,"0.2.20","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.19...0.2.20","2024-05-27T22:28:41",{"id":231,"version":232,"summary_zh":233,"released_at":234},98804,"0.2.19","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.18...0.2.19","2024-05-27T12:27:16",{"id":236,"version":237,"summary_zh":238,"released_at":239},98805,"0.2.18","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.17...0.2.18","2024-05-26T21:31:41",{"id":241,"version":242,"summary_zh":243,"released_at":244},98806,"0.2.17","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.16...0.2.17","2024-05-26T16:35:35",{"id":246,"version":247,"summary_zh":248,"released_at":249},98807,"0.2.16","**Full Changelog**: https:\u002F\u002Fgithub.com\u002FMaximilian-Winter\u002Fllama-cpp-agent\u002Fcompare\u002F0.2.15...0.2.16","2024-05-26T13:48:40"]