[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-llamastack--llama-stack-apps":3,"tool-llamastack--llama-stack-apps":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":79,"stars":81,"forks":82,"last_commit_at":83,"license":84,"difficulty_score":10,"env_os":85,"env_gpu":86,"env_ram":87,"env_deps":88,"category_tags":100,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":132},1268,"llamastack\u002Fllama-stack-apps","llama-stack-apps","Agentic components of the Llama Stack APIs","llama-stack-apps 是基于 Llama Stack 构建的智能应用示例集合，展示了如何利用 Llama Stack 的能力开发具备自主推理和工具调用能力的智能代理（Agent）应用。它支持任务分解、多步骤推理、使用内置或零样本工具执行操作，并结合安全防护机制，确保应用运行的安全性。\n\n这个工具解决了传统 AI 应用在复杂任务处理、工具集成和安全性方面的痛点，使开发者能够更高效地构建具备自主决策能力的 AI 应用。通过 llama-stack-apps，用户可以快速上手并测试各种智能代理场景，如信息检索、代码解释等。\n\n适合有一定编程基础的开发者和研究人员使用，特别是对构建生成式 AI 应用感兴趣的人群。其独特的技术亮点包括支持多步骤推理、零样本工具调用以及与 Llama Guard 集成的安全防护机制，为构建可靠、智能的应用提供了坚实基础。","# llama-stack-apps\n\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1257833999603335178)](https:\u002F\u002Fdiscord.gg\u002Fllama-stack)\n\nThis repo shows examples of applications built on top of [Llama Stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack). Starting Llama 3.1 you can build agentic applications capable of:\n\n- breaking a task down and performing multi-step reasoning.\n- using tools to perform some actions\n  - built-in: the model has built-in knowledge of tools like search or code interpreter\n  - zero-shot: the model can learn to call tools using previously unseen, in-context tool definitions\n- providing system level safety protections using models like Llama Guard.\n\n\n\nAn agentic app requires a few components:\n- ability to run inference on the underlying Llama series of models\n- ability to run safety checks using the Llama Guard series of models\n- ability to execute tools, including a code execution environment, and loop using the model's multi-step reasoning process\n\nAll of these components are now offered by a single Llama Stack Distribution. The [Llama Stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack) defines and standardizes these components and many others that are needed to make building Generative AI applications smoother. Various implementations of these APIs are then assembled together via a **Llama Stack Distribution**.\n\n## Getting started with the Llama Stack Apps\n\nTo get started with Llama Stack Apps, you'll need to:\n\n1. Install prerequisites\n3. Start a Llama Stack server\n4. Connect your client agentic app to Llama Stack server\n\nOnce started, you can then just point your agentic app to the URL for this server (e.g. `http:\u002F\u002Flocalhost:8321`).\n\n### 1. Install Prerequisites\n\n**Python Packages**\n\nWe recommend creating an isolated conda Python environment.\n\n```bash\n# Create and activate a virtual environment\nENV=stack\nconda create -n $ENV python=3.10\ncd \u003Cpath-to-llama-stack-apps-repo>\nconda activate $ENV\n\n# Install dependencies\npip install -r requirements.txt\n```\n\nThis will install all dependencies required to (1) Build and start a Llama Stack server (2) Connect your client app to Llama Stack server.\n\n\n### 2. Starting a Llama Stack Server\n- Please see our [llama-stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack) repo's [Getting Started Guide](https:\u002F\u002Fllama-stack.readthedocs.io\u002Fen\u002Flatest\u002Fgetting_started\u002Findex.html) for setting up a Llama Stack distribution and running server to serve API endpoints. You should have a server endpoint for building your client apps.\n\nOnce your server is started, you should have seen outputs --\n```\n...\nListening on :::8321\nINFO:     Started server process [587053]\nINFO:     Waiting for application startup.\nINFO:     Application startup complete.\nINFO:     Uvicorn running on http:\u002F\u002F[::]:8321 (Press CTRL+C to quit)\n```\n\n### 3. Test agents demo script\n\nWe have built sample demo scripts for interacting with the Stack server.\n\nWith the server running, you may run to test out an simple Agent\n\nThis example will require the API key from Tavily Search. You need to set it to the environment variable `TAVILY_SEARCH_API_KEY`\n\nLinux\u002FMac\n```\nexport TAVILY_SEARCH_API_KEY=[KEY]\n```\nTo run:\n```\npython -m examples.agents.hello localhost 8321\n```\n\nYou will see outputs of the form --\n```\n> created agents with agent_id=d050201b-0ca1-4abd-8eee-3cba2b8c0fbc\nUser> Hello\nshield_call> No Violation\ninference> How can I assist you today?\nshield_call> No Violation\nUser> Which players played in the winning team of the NBA western conference semifinals of 2024, please use tools\nshield_call> No Violation\ninference> brave_search.call(query=\"NBA Western Conference Semifinals 2024 winning team players\")\ntool_execution> Tool:brave_search Args:{'query': 'NBA Western Conference Semifinals 2024 winning team players'}\ntool_execution> Tool:brave_search Response:{\"query\": \"NBA Western Conference Semifinals 2024 winning team players\", \"top_k\": [{\"title\": \"2024 NBA Western Conference Semifinals - Mavericks vs. Thunder | Basketball-Reference.com\", \"url\": \"https:\u002F\u002Fwww.basketball-reference.com\u002Fplayoffs\u002F2024-nba-western-conference-semifinals-mavericks-vs-thunder.html\", \"description\": \"Summary and statistics for the \u003Cstrong>2024\u003C\u002Fstrong> \u003Cstrong>NBA\u003C\u002Fstrong> \u003Cstrong>Western\u003C\u002Fstrong> \u003Cstrong>Conference\u003C\u002Fstrong> \u003Cstrong>Semifinals\u003C\u002Fstrong> - Mavericks vs. Thunder\", \"type\": \"search_result\"}, {\"title\": \"2024 NBA playoffs - Wikipedia\", \"url\": \"https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002F2024_NBA_playoffs\", \"description\": \"Aged 20 years and 96 days old, ... youngest \u003Cstrong>player\u003C\u002Fstrong> \u003Cstrong>in\u003C\u002Fstrong> \u003Cstrong>NBA\u003C\u002Fstrong> history to record 10+ points and 15+ rebounds in a playoff game, coming during game 6 of the Maverick&#x27;s \u003Cstrong>Western\u003C\u002Fstrong> \u003Cstrong>Conference\u003C\u002Fstrong> \u003Cstrong>Semifinal\u003C\u002Fstrong> \u003Cstrong>win\u003C\u002Fstrong> against the Thunder on May 18. The Timberwolves overcame a 20\\u2013point deficit to \u003Cstrong>win\u003C\u002Fstrong> game 7 against the Nuggets, the largest game 7 comeback in \u003Cstrong>NBA\u003C\u002Fstrong> playoffs history. With the defending champion Nuggets losing to the Minnesota Timberwolves, the \u003Cstrong>2024\u003C\u002Fstrong> playoffs marked ...\", \"type\": \"search_result\"}, {\"title\": \"2024 NBA Playoffs | Official Bracket, Schedule and Series Matchups\", \"url\": \"https:\u002F\u002Fwww.nba.com\u002Fplayoffs\u002F2024\", \"description\": \"The official site of the \u003Cstrong>2024\u003C\u002Fstrong> \u003Cstrong>NBA\u003C\u002Fstrong> Playoffs. Latest news, schedules, matchups, highlights, bracket and more.\", \"type\": \"search_result\"}]}\nshield_call> No Violation\ninference> The players who played in the winning team of the NBA Western Conference Semifinals of 2024 are not specified in the search results provided. However, the search results suggest that the Mavericks played against the Thunder in the Western Conference Semifinals, and the Mavericks won the series.\nshield_call> No Violation\n```\n\n## Start an App and Interact with the Server\n\nNow that the Stack server is setup, the next thing would be to run an agentic app using Agents APIs.\n\nWe have built sample scripts, notebooks and a UI chat interface ( using [Gradio]([url](https:\u002F\u002Fwww.gradio.app\u002F)) ! ) to help you get started.\n\nStart an app (local) and interact with it by running the following command:\n```bash\nPYTHONPATH=. python examples\u002Fagent_store\u002Fapp.py localhost 8321\n```\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fllamastack_llama-stack-apps_readme_89d4cd337c40.png\" alt=\"Chat App\" width=\"600\"\u002F>\n\nOptionally, you can setup API keys for custom tools:\n- [WolframAlpha](https:\u002F\u002Fdeveloper.wolframalpha.com\u002F): store in `WOLFRAM_ALPHA_API_KEY` environment variable\n- [Brave Search](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F): store in `BRAVE_SEARCH_API_KEY` environment variable\n\nYou may see other ways of interacting in [Agent Store README.md](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-apps\u002Ftree\u002Fmain\u002Fexamples\u002Fagent_store)\n\n## Create agentic systems and interact with the Stack server\n\nNOTE: Ensure that Stack server is still running.\n\n```bash\ncd \u003Cpath-to-llama-stack-apps-repo>\nconda activate $ENV\nllama stack run \u003Cname> # If not already started\n\npython -m examples.agents.rag_with_vector_db localhost 8321\n```\n\nYou should see outputs to stdout of the form --\n```bash\nAvailable shields found: ['meta-llama\u002FLlama-Guard-3-8B']\nUsing model: meta-llama\u002FLlama-3.1-405B-Instruct\nCreated session_id=cdb8a978-0085-4f3d-a976-939ba2b19de9 for Agent(0cfe05a8-cb97-430f-bec6-b1c7d42c712a)\nshield_call> No Violation\nmemory_retrieval> Retrieved context from vector dbs: ['test_vector_db'].\n====\nHere are the retrieved documents for relevant context:\n=== START-RETRIEVED-CONTEXT ===\n id:num-1; content:_\nthe template from Llama2 to better support multiturn conversations. The same text\nin the Lla...\n>\ninference> Based on the provided documentation, here are the top 5 topics explained:\n\n* Fine-tuning Llama3 with chat data\n* Template changes from Llama2 to Llama3\n* Tokenizing prompt templates and special tokens\n* Fine-tuning on a custom chat dataset\n* Using prompt templates for specific tasks\nshield_call> No Violation\n\n...\n```\n\n\nFeel free to reach out if you have questions.\n\n\n## The Llama Stack Client SDK\n- Check out our client SDKs for connecting to Llama Stack server, you can choose from [python](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-python), [node](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-node), [swift](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-swift), and [kotlin](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-kotlin) programming languages to quickly build your applications.\n\n\n## Using VirtualEnv instead of Conda\n\n> [!NOTE]\n> While you can run the apps using `venv`, installation of a distribution requires conda.\n\n#### In Linux\n\n```bash\n# Create and activate a virtual environment\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\n```\n\n#### For Windows\n\n```bash\n# Create and activate a virtual environment\npython -m venv venv\nvenv\\Scripts\\activate  # For Command Prompt\n# or\n.\\venv\\Scripts\\Activate.ps1  # For PowerShell\n# or\nsource venv\u002FScripts\u002Factivate  # For Git Bash\n```\n\nThe instructions thereafter (including `pip install -r requirements.txt` for installing the dependencies) remain the same.\n","# llama-stack-apps\n\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1257833999603335178)](https:\u002F\u002Fdiscord.gg\u002Fllama-stack)\n\n本仓库展示了基于 [Llama Stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack) 构建的应用程序示例。自 Llama 3.1 起，您可以构建具备以下能力的智能代理应用：\n\n- 将任务分解并执行多步推理。\n- 使用工具执行某些操作：\n  - 内置工具：模型内置了对搜索或代码解释器等工具的知识；\n  - 零样本工具调用：模型能够通过先前未见过的上下文工具定义学会调用工具。\n- 利用 Llama Guard 等模型提供系统级安全保护。\n\n一个智能代理应用需要几个关键组件：\n- 能够在底层 Llama 系列模型上运行推理；\n- 能够使用 Llama Guard 系列模型进行安全检查；\n- 能够执行工具，包括代码执行环境，并利用模型的多步推理流程进行循环。\n\n所有这些组件如今都由单一的 Llama Stack 发行版提供。[Llama Stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack) 定义并标准化了这些组件以及许多其他使生成式 AI 应用开发更加顺畅所需的组件。随后，这些 API 的各种实现会通过 **Llama Stack 发行版** 组合在一起。\n\n## 开始使用 Llama Stack 应用\n\n要开始使用 Llama Stack 应用，您需要：\n\n1. 安装先决条件\n3. 启动 Llama Stack 服务器\n4. 将您的客户端智能代理应用连接到 Llama Stack 服务器\n\n启动后，您只需将智能代理应用指向该服务器的 URL 即可（例如 `http:\u002F\u002Flocalhost:8321`）。\n\n### 1. 安装先决条件\n\n**Python 包**\n\n我们建议创建一个独立的 conda Python 环境。\n\n```bash\n# 创建并激活虚拟环境\nENV=stack\nconda create -n $ENV python=3.10\ncd \u003Cpath-to-llama-stack-apps-repo>\nconda activate $ENV\n\n# 安装依赖\npip install -r requirements.txt\n```\n\n这将安装所有必要的依赖，用于 (1) 构建并启动 Llama Stack 服务器；(2) 将您的客户端应用连接到 Llama Stack 服务器。\n\n### 2. 启动 Llama Stack 服务器\n请参阅我们的 [llama-stack](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack) 仓库中的 [入门指南](https:\u002F\u002Fllama-stack.readthedocs.io\u002Fen\u002Flatest\u002Fgetting_started\u002Findex.html)，以设置 Llama Stack 发行版并运行服务器来提供 API 端点。您应该有一个可用于构建客户端应用的服务器端点。\n\n一旦服务器启动，您应该会看到如下输出——\n```\n...\n正在监听 :::8321\nINFO:     已启动服务器进程 [587053]\nINFO:     等待应用程序启动。\nINFO:     应用程序启动完成。\nINFO:     Uvicorn 正在 http:\u002F\u002F[::]:8321 上运行（按 CTRL+C 退出）\n```\n\n### 3. 测试智能代理演示脚本\n\n我们已构建了与 Stack 服务器交互的示例演示脚本。\n\n在服务器运行时，您可以运行一个简单的智能代理进行测试。\n\n此示例需要 Tavily Search 的 API 密钥。您需要将其设置为环境变量 `TAVILY_SEARCH_API_KEY`。\n\nLinux\u002FMac\n```\nexport TAVILY_SEARCH_API_KEY=[KEY]\n```\n运行命令：\n```\npython -m examples.agents.hello localhost 8321\n```\n\n您将看到类似如下的输出——\n```\n> 创建了 agent_id=d050201b-0ca1-4abd-8eee-3cba2b8c0fbc 的智能代理\n用户> 你好\nshield_call> 无违规\ninference> 今天有什么可以帮您的吗？\nshield_call> 无违规\n用户> 请告诉我2024年NBA西部半决赛获胜球队中有哪些球员，麻烦使用工具查询一下。\nshield_call> 无违规\ninference> brave_search.call(query=\"2024年NBA西部半决赛获胜球队球员\")\ntool_execution> 工具：brave_search 参数：{'query': '2024年NBA西部半决赛获胜球队球员'}\ntool_execution> 工具：brave_search 响应：{\"query\": \"2024年NBA西部半决赛获胜球队球员\", \"top_k\": [{\"title\": \"2024年NBA西部半决赛——独行侠对阵雷霆 | Basketball-Reference.com\", \"url\": \"https:\u002F\u002Fwww.basketball-reference.com\u002Fplayoffs\u002F2024-nba-western-conference-semifinals-mavericks-vs-thunder.html\", \"description\": \"关于\u003Cstrong>2024\u003C\u002Fstrong>年\u003Cstrong>NBA\u003C\u002Fstrong>\u003Cstrong>西部\u003C\u002Fstrong>\u003Cstrong>半决赛\u003C\u002Fstrong>——独行侠对阵雷霆的总结与统计数据\", \"type\": \"search_result\"}, {\"title\": \"2024年NBA季后赛——维基百科\", \"url\": \"https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002F2024_NBA_playoffs\", \"description\": \"年仅20岁96天的……成为\u003CNBA>历史上最年轻的\u003Cstrong>球员\u003C\u002Fstrong>，在季后赛比赛中拿到10分以上、15个篮板以上的成绩，这一壮举发生在5月18日独行侠对阵雷霆的\u003Cstrong>西部\u003C\u002Fstrong>\u003Cstrong>半决赛\u003C\u002Fstrong>第6场比赛中。森林狼队则在第七场比赛中逆转掘金队，成功晋级，这是\u003CNBA>季后赛历史上最大的一次第七场大逆转。卫冕冠军掘金队不敌明尼苏达森林狼队，因此\u003Cstrong>2024\u003C\u002Fstrong>年的季后赛标志着……\", \"type\": \"search_result\"}, {\"title\": \"2024年NBA季后赛｜官方赛程、对阵表及系列赛安排\", \"url\": \"https:\u002F\u002Fwww.nba.com\u002Fplayoffs\u002F2024\", \"description\": \"官方的\u003Cstrong>2024\u003C\u002Fstrong>年\u003CNBA>季后赛网站。最新新闻、赛程、对阵、精彩集锦、赛程表等信息。\", \"type\": \"search_result\"}]}\nshield_call> 无违规\ninference> 根据提供的搜索结果，2024年NBA西部半决赛获胜球队的球员并未明确列出。不过，搜索结果表明独行侠队确实在西部半决赛中对阵雷霆队，并且最终赢得了系列赛。\nshield_call> 无违规\n```\n\n## 启动应用并与服务器交互\n\n现在 Stack 服务器已经搭建完毕，接下来就是使用 Agents API 运行一个智能代理应用。\n\n我们已构建了示例脚本、笔记本以及一个 UI 聊天界面（使用 [Gradio]([url](https:\u002F\u002Fwww.gradio.app\u002F))！），以帮助您快速上手。\n\n启动一个本地应用并与之交互，运行以下命令：\n```bash\nPYTHONPATH=. python examples\u002Fagent_store\u002Fapp.py localhost 8321\n```\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fllamastack_llama-stack-apps_readme_89d4cd337c40.png\" alt=\"聊天应用\" width=\"600\"\u002F>\n\n此外，您还可以为自定义工具设置 API 密钥：\n- [WolframAlpha](https:\u002F\u002Fdeveloper.wolframalpha.com\u002F)：存储在 `WOLFRAM_ALPHA_API_KEY` 环境变量中\n- [Brave Search](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F)：存储在 `BRAVE_SEARCH_API_KEY` 环境变量中\n\n您可以在 [Agent Store README.md](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-apps\u002Ftree\u002Fmain\u002Fexamples\u002Fagent_store) 中查看其他交互方式。\n\n## 创建代理系统并与 Stack 服务器交互\n\n注意：请确保 Stack 服务器仍在运行。\n\n```bash\ncd \u003Cllama-stack-apps-repo 的路径>\nconda activate $ENV\nllama stack run \u003C名称> # 如果尚未启动\npython -m examples.agents.rag_with_vector_db localhost 8321\n```\n\n您应该会在终端看到如下输出——\n```bash\n找到可用的防护盾：['meta-llama\u002FLlama-Guard-3-8B']\n正在使用模型：meta-llama\u002FLlama-3.1-405B-Instruct\n已为 Agent(0cfe05a8-cb97-430f-bec6-b1c7d42c712a) 创建 session_id=cdb8a978-0085-4f3d-a976-939ba2b19de9\nshield_call> 无违规\nmemory_retrieval> 从向量数据库中检索到上下文：['test_vector_db']。\n====\n以下是检索到的相关文档：\n=== 开始检索到的上下文 ===\n id:编号1；内容：_\nLlama2 的模板，以更好地支持多轮对话。同样的文本在 Lla...\n>\ninference> 根据提供的文档，以下是解释的前 5 个主题：\n\n* 使用聊天数据对 Llama3 进行微调\n* 从 Llama2 到 Llama3 的模板变更\n* 对提示模板和特殊标记进行分词\n* 在自定义聊天数据集上进行微调\n* 将提示模板用于特定任务\nshield_call> 无违规\n\n...\n```\n\n\n如有任何疑问，请随时联系我们。\n\n\n## Llama Stack 客户端 SDK\n- 请查看我们的客户端 SDK，用于连接到 Llama Stack 服务器，您可以选择 [Python](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-python)、[Node](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-node)、[Swift](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-swift) 和 [Kotlin](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-client-kotlin) 等编程语言，快速构建您的应用程序。\n\n\n## 使用 VirtualEnv 而非 Conda\n\n> [!NOTE]\n> 虽然您可以使用 `venv` 运行这些应用，但安装发行版时仍需使用 conda。\n\n#### 在 Linux 上\n\n```bash\n# 创建并激活虚拟环境\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\n```\n\n#### 在 Windows 上\n\n```bash\n# 创建并激活虚拟环境\npython -m venv venv\nvenv\\Scripts\\activate  # 对于命令提示符\n# 或\n.\\venv\\Scripts\\Activate.ps1  # 对于 PowerShell\n# 或\nsource venv\u002FScripts\u002Factivate  # 对于 Git Bash\n```\n\n此后步骤（包括运行 `pip install -r requirements.txt` 安装依赖）保持不变。","# llama-stack-apps 快速上手指南\n\n## 环境准备\n\n### 系统要求\n- 操作系统：Linux、macOS 或 Windows（推荐使用 Linux\u002FmacOS）\n- Python 版本：3.10 或更高版本\n- 依赖项：需安装 Conda 或 VirtualEnv（推荐使用 Conda）\n\n### 前置依赖\n确保已安装以下工具：\n- [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)（推荐）或 [VirtualEnv](https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html)\n- Git（用于克隆仓库）\n- Python 3.10+\n\n> 💡 提示：如需加速依赖包下载，可使用国内镜像源，例如：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple -r requirements.txt\n> ```\n\n---\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-apps.git\ncd llama-stack-apps\n```\n\n### 2. 创建并激活虚拟环境（推荐使用 Conda）\n\n```bash\nENV=stack\nconda create -n $ENV python=3.10\nconda activate $ENV\n```\n\n### 3. 安装依赖\n\n```bash\npip install -r requirements.txt\n```\n\n### 4. 启动 Llama Stack 服务\n\n请参考 [Llama Stack 官方文档](https:\u002F\u002Fllama-stack.readthedocs.io\u002Fen\u002Flatest\u002Fgetting_started\u002Findex.html) 设置并启动 Llama Stack 分发版。\n\n启动成功后，您将看到如下输出：\n\n```\n...\nListening on :::8321\nINFO:     Started server process [587053]\nINFO:     Waiting for application startup.\nINFO:     Application startup complete.\nINFO:     Uvicorn running on http:\u002F\u002F[::]:8321 (Press CTRL+C to quit)\n```\n\n---\n\n## 基本使用\n\n### 示例一：运行 Agent 测试脚本\n\n确保 Llama Stack 服务正在运行，并设置 `TAVILY_SEARCH_API_KEY` 环境变量（如需使用 Tavily Search 工具）：\n\n```bash\nexport TAVILY_SEARCH_API_KEY=[你的API密钥]\n```\n\n然后运行测试脚本：\n\n```bash\npython -m examples.agents.hello localhost 8321\n```\n\n您将看到类似如下输出：\n\n```\n> created agents with agent_id=d050201b-0ca1-4abd-8eee-3cba2b8c0fbc\nUser> Hello\nshield_call> No Violation\ninference> How can I assist you today?\n...\n```\n\n### 示例二：启动本地应用并与服务器交互\n\n运行以下命令启动一个本地应用：\n\n```bash\nPYTHONPATH=. python examples\u002Fagent_store\u002Fapp.py localhost 8321\n```\n\n您将看到一个基于 Gradio 的聊天界面，可以与模型进行交互。\n\n### 示例三：使用 RAG 与向量数据库结合的 Agent\n\n运行以下命令启动一个支持 RAG 的 Agent 示例：\n\n```bash\npython -m examples.agents.rag_with_vector_db localhost 8321\n```\n\n您将看到类似如下输出：\n\n```\nAvailable shields found: ['meta-llama\u002FLlama-Guard-3-8B']\nUsing model: meta-llama\u002FLlama-3.1-405B-Instruct\nCreated session_id=cdb8a978-0085-4f3d-a976-939ba2b19de9 for Agent(0cfe05a8-cb97-430f-bec6-b1c7d42c712a)\nshield_call> No Violation\nmemory_retrieval> Retrieved context from vector dbs: ['test_vector_db'].\n...\n```\n\n---\n\n## 可选配置\n\n您可以为自定义工具设置 API 密钥，例如：\n\n- [WolframAlpha](https:\u002F\u002Fdeveloper.wolframalpha.com\u002F)：设置环境变量 `WOLFRAM_ALPHA_API_KEY`\n- [Brave Search](https:\u002F\u002Fbrave.com\u002Fsearch\u002Fapi\u002F)：设置环境变量 `BRAVE_SEARCH_API_KEY`\n\n更多交互方式请参考 [Agent Store README.md](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-stack-apps\u002Ftree\u002Fmain\u002Fexamples\u002Fagent_store)\n\n---\n\n## 使用 VirtualEnv 替代 Conda（可选）\n\n如果您选择使用 VirtualEnv 而非 Conda，请按以下步骤操作：\n\n### Linux\n\n```bash\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\n```\n\n### Windows\n\n```bash\npython -m venv venv\nvenv\\Scripts\\activate  # 在命令提示符中\n# 或\n.\\venv\\Scripts\\Activate.ps1  # 在 PowerShell 中\n# 或\nsource venv\u002FScripts\u002Factivate  # 在 Git Bash 中\n```\n\n之后的依赖安装步骤与 Conda 相同：\n\n```bash\npip install -r requirements.txt\n```","某科技公司的数据分析师正在开发一个智能问答系统，用于快速回答客户关于体育赛事的复杂问题，例如“2024年NBA西部半决赛冠军球队的球员名单”。\n\n### 没有 llama-stack-apps 时\n\n- 开发者需要手动集成多个模型和工具，如搜索、代码解释器等，导致开发周期长且维护成本高。\n- 系统无法自动执行多步骤推理，难以处理复杂的查询任务，例如需要先搜索比赛结果再提取球员信息。\n- 缺乏内置的安全机制，容易受到恶意输入或不当内容的影响。\n- 工具调用逻辑需要开发者自行定义，灵活性差，难以应对新出现的工具类型。\n- 需要分别部署和管理多个组件（如推理模型、安全检查模型、工具执行环境），增加了系统复杂性。\n\n### 使用 llama-stack-apps 后\n\n- 通过 Llama Stack 提供的一站式服务，开发者可以快速集成推理、安全检查和工具调用等功能，大幅缩短开发时间。\n- 系统支持多步骤推理和零样本工具调用，能够自动分解任务并调用外部工具（如搜索）完成复杂查询。\n- 内置 Llama Guard 安全模型，可实时检测并拦截潜在违规内容，提升系统安全性。\n- 支持灵活的工具定义和调用方式，即使面对新工具也能快速适配，提高系统的扩展性。\n- 所有组件由 Llama Stack 分发版统一管理，简化了部署流程，降低了运维难度。\n\n核心价值：llama-stack-apps 使开发者能够高效构建具备多步骤推理、工具调用和安全防护能力的智能应用，显著提升了开发效率与系统可靠性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fllamastack_llama-stack-apps_89d4cd33.png","llamastack","Llama Stack","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fllamastack_aeead1b7.png","Building blocks for an AI Platform",null,"https:\u002F\u002Fgithub.com\u002Fllamastack",4301,642,"2026-04-02T01:33:13","MIT","Linux, macOS, Windows","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","16GB+",{"notes":89,"python":90,"dependencies":91},"建议使用 conda 管理环境，首次运行需下载约 5GB 模型文件。需要设置 Tavily Search、Brave Search 或 WolframAlpha 的 API 密钥以使用相关工具。","3.10",[92,93,94,95,96,97,98,99],"torch>=2.0","transformers>=4.30","accelerate","uvicorn","fastapi","requests","pydantic","gradio",[26,15,13],"2026-03-27T02:49:30.150509","2026-04-06T05:17:40.136299",[104,109,114,119,124,128],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},5776,"如何解决 '400: Invalid value: Could not find provider for Llama-Guard-3-8B' 错误？","此错误通常是因为缺少模型映射配置。需要在 `OLLAMA_SUPPORTED_SKUS` 中添加对应的模型名称和标识符，例如将 'Llama-Guard-3-8B' 映射到正确的模型标识符。","https:\u002F\u002Fgithub.com\u002Fllamastack\u002Fllama-stack-apps\u002Fissues\u002F87",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},5777,"Android 示例运行时无法生成 tokens 是什么原因？","这是由于 ExecuTorch 兼容性问题导致的。请确保使用 ExecuTorch v0.5 的分支进行模型导出，并按照正确的流程生成 pte 文件。","https:\u002F\u002Fgithub.com\u002Fllamastack\u002Fllama-stack-apps\u002Fissues\u002F158",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},5778,"如何解决 'CUDA out of memory' 错误？","尝试减少模型的最大序列长度（max_seq_len）或最大批处理大小（max_batch_size），或者使用较小的模型如 'Llama3.2-1B-Instruct'。此外，可以设置环境变量 PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True 来避免内存碎片。","https:\u002F\u002Fgithub.com\u002Fllamastack\u002Fllama-stack-apps\u002Fissues\u002F86",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},5779,"如何解决 'AssertionError: Loading a checkpoint for MP=1 but world size is 2' 错误？","该错误表示模型并行度（MP）与实际 GPU 数量不匹配。请检查配置文件中的 model_parallel_size 参数，确保其值与实际使用的 GPU 数量一致。","https:\u002F\u002Fgithub.com\u002Fllamastack\u002Fllama-stack-apps\u002Fissues\u002F32",{"id":125,"question_zh":126,"answer_zh":127,"source_url":118},5780,"如何在本地运行 llama-stack 应用？","建议从较小的模型开始，例如 'Llama3.2-1B-Instruct'。配置示例：\r\n```yaml\r\ninference:\r\n  - provider_id: meta-reference\r\n    provider_type: meta-reference\r\n    config:\r\n      model: Llama3.2-1B-Instruct\r\n      quantization: null\r\n      torch_seed: null\r\n      max_seq_len: 4096\r\n      max_batch_size: 1\r\n```",{"id":129,"question_zh":130,"answer_zh":131,"source_url":108},5781,"如何解决 'Routing key Llama-Guard-3-8B not found' 错误？","需要在 OLLAMA_SUPPORTED_SKUS 配置中添加缺失的模型路由键，例如将 'Llama-Guard-3-8B' 映射到正确的模型标识符。",[133],{"id":134,"version":135,"summary_zh":79,"released_at":79},105445,"android-kotlin-app-latest"]