[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-run-llama--create-llama":3,"tool-run-llama--create-llama":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":102,"env_ram":102,"env_deps":103,"category_tags":115,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":148},4912,"run-llama\u002Fcreate-llama","create-llama","The easiest way to get started with LlamaIndex","create-llama 是快速启动 LlamaIndex 应用的命令行工具，旨在让开发者无需繁琐配置即可一键生成完整的 AI 项目骨架。它解决了从零搭建检索增强生成（RAG）或智能体应用时环境复杂、代码重复的问题，将原本耗时的初始化过程简化为几次交互式问答。\n\n这款工具特别适合希望快速验证想法的 AI 开发者、全栈工程师以及需要构建数据问答系统的研究人员。运行后，用户可根据需求选择 Next.js（TypeScript）或 Python FastAPI 技术栈，自动生成包含前端聊天界面和后端逻辑的全栈应用。其独特亮点在于内置了多种预设场景（如代理式 RAG、数据分析、报告生成），并集成了现代化的 shadcn\u002Fui 组件库，确保生成的应用既美观又实用。\n\n此外，create-llama 支持灵活的数据索引功能，用户只需将 PDF、文档或多媒体文件放入指定目录，即可轻松让 AI“读懂”私有数据。虽然默认配置兼容 OpenAI 模型，但它也开放了数十种大语言模型的切换选项，允许开发者根据实际需求深度定制。无论是想快速原型开发，还是构建可部署的生产级应用，create-llama 都能提供","create-llama 是快速启动 LlamaIndex 应用的命令行工具，旨在让开发者无需繁琐配置即可一键生成完整的 AI 项目骨架。它解决了从零搭建检索增强生成（RAG）或智能体应用时环境复杂、代码重复的问题，将原本耗时的初始化过程简化为几次交互式问答。\n\n这款工具特别适合希望快速验证想法的 AI 开发者、全栈工程师以及需要构建数据问答系统的研究人员。运行后，用户可根据需求选择 Next.js（TypeScript）或 Python FastAPI 技术栈，自动生成包含前端聊天界面和后端逻辑的全栈应用。其独特亮点在于内置了多种预设场景（如代理式 RAG、数据分析、报告生成），并集成了现代化的 shadcn\u002Fui 组件库，确保生成的应用既美观又实用。\n\n此外，create-llama 支持灵活的数据索引功能，用户只需将 PDF、文档或多媒体文件放入指定目录，即可轻松让 AI“读懂”私有数据。虽然默认配置兼容 OpenAI 模型，但它也开放了数十种大语言模型的切换选项，允许开发者根据实际需求深度定制。无论是想快速原型开发，还是构建可部署的生产级应用，create-llama 都能提供高效、标准化的起步体验。","# Create Llama\n\nThe easiest way to get started with [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F) is by using `create-llama`. This CLI tool enables you to quickly start building a new LlamaIndex application, with everything set up for you.\n\n## Get started\n\nJust run\n\n```bash\nnpx create-llama@latest\n```\n\nto get started, or watch this video for a demo session:\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frun-llama_create-llama_readme_e6ea83daf95a.png\" width=\"100%\">\n\nOnce your app is generated, run\n\n```bash\nnpm run dev\n```\n\nto start the development server. You can then visit [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) to see your app.\n\n## What you'll get\n\n- A set of pre-configured use cases to get you started, e.g. Agentic RAG, Data Analysis, Report Generation, etc.\n- A front-end using components from [shadcn\u002Fui](https:\u002F\u002Fui.shadcn.com\u002F). The app is set up as a chat interface that can answer questions about your data or interact with your agent\n- Your choice of two frameworks:\n  - **Next.js**: if you select this option, you’ll have a full-stack Next.js application that you can deploy to a host like [Vercel](https:\u002F\u002Fvercel.com\u002F) in just a few clicks. This uses [LlamaIndex.TS](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fllamaindex), our TypeScript library with [LlamaIndex Server for TS](https:\u002F\u002Fnpmjs.com\u002Fpackage\u002F@llamaindex\u002Fserver).\n  - **Python FastAPI**: if you select this option, you’ll get full-stack Python application powered by the [llama-index Python package](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-index\u002F) and [LlamaIndex Server for Python](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-index-server\u002F)\n- The app uses OpenAI by default, so you'll need an OpenAI API key, or you can customize it to use any of the dozens of LLMs we support.\n\nHere's how it looks like:\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd57af1a1-d99b-4e9c-98d9-4cbd1327eff8\n\n## Using your data\n\nOptionally, you can supply your own data; the app will index it and make use of it, e.g. to answer questions. Your generated app will have a folder called `data`.\n\nThe app will ingest any supported files you put in this directory. Your Next.js apps use LlamaIndex.TS, so they will be able to ingest any PDF, text, CSV, Markdown, Word and HTML files. The Python backend can read even more types, including video and audio files.\n\nBefore you can use your data, you need to index it. If you're using the Next.js apps, run:\n\n```bash\nnpm run generate\n```\n\nThen re-start your app. Remember you'll need to re-run `generate` if you add new files to your `data` folder.\n\nIf you're using the Python backend, you can trigger indexing of your data by calling:\n\n```bash\nuv run generate\n```\n\n## Customizing the AI models\n\nThe app will default to OpenAI's `gpt-4.1` LLM and `text-embedding-3-large` embedding model.\n\nIf you want to use different models, add the `--ask-models` CLI parameter.\n\nYou can also replace one of the default models with one of our [dozens of other supported LLMs](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002Fmodule_guides\u002Fmodels\u002Fllms\u002Fmodules.html).\n\nTo do so, you have to manually change the generated code (edit the `settings.ts` file for Typescript projects or the `settings.py` file for Python projects)\n\n## Example\n\nThe simplest thing to do is run `create-llama` in interactive mode:\n\n```bash\nnpx create-llama@latest\n# or\nnpm create llama@latest\n# or\nyarn create llama\n# or\npnpm create llama@latest\n```\n\nYou will be asked for the name of your project, along with other configuration options, something like this:\n\n```bash\n>> npm create llama@latest\nNeed to install the following packages:\n  create-llama@latest\nOk to proceed? (y) y\n✔ What is your project named? … my-app\n✔ What use case do you want to build? › Agentic RAG\n✔ What language do you want to use? › Python (FastAPI)\n✔ Do you want to use LlamaCloud services? … No \u002F Yes\n✔ Please provide your LlamaCloud API key (leave blank to skip): …\n? How would you like to proceed? › - Use arrow-keys. Return to submit.\n    Just generate code (~1 sec)\n❯   Start in VSCode (~1 sec)\n    Generate code and install dependencies (~2 min)\n```\n\n### Running non-interactively\n\nYou can also pass command line arguments to set up a new project\nnon-interactively. For a list of the latest options, call `create-llama --help`.\n\n## LlamaIndex Documentation\n\n- [TS\u002FJS docs](https:\u002F\u002Fts.llamaindex.ai\u002F)\n- [Python docs](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002F)\n\n## LlamaIndex Server\n\nThe generated code is using the LlamaIndex Server, which serves LlamaIndex Workflows and Agent Workflows via an API server. See the following docs for more information:\n\n- [LlamaIndex Server For TypeScript](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fchat-ui\u002Ftree\u002Fmain\u002Fpackages\u002Fserver)\n- [LlamaIndex Server For Python](.\u002Fpython\u002Fllama-index-server\u002FREADME.md)\n\nInspired by and adapted from [create-next-app](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fnext.js\u002Ftree\u002Fcanary\u002Fpackages\u002Fcreate-next-app)\n","# 创建 Llama\n\n开始使用 [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F) 的最简单方式是使用 `create-llama`。这个 CLI 工具可以帮助你快速搭建一个新的 LlamaIndex 应用，并为你预先配置好所有内容。\n\n## 开始使用\n\n只需运行以下命令即可开始：\n\n```bash\nnpx create-llama@latest\n```\n\n或者观看此视频以获取演示：\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frun-llama_create-llama_readme_e6ea83daf95a.png\" width=\"100%\">\n\n应用生成完成后，运行以下命令启动开发服务器：\n\n```bash\nnpm run dev\n```\n\n随后访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000)，即可看到你的应用。\n\n## 你将获得的内容\n\n- 一组预配置的用例，帮助你快速上手，例如 Agentic RAG、数据分析、报告生成等。\n- 前端采用 [shadcn\u002Fui](https:\u002F\u002Fui.shadcn.com\u002F) 中的组件。应用被设置为一个聊天界面，可以回答关于你数据的问题或与你的代理进行交互。\n- 两种框架供你选择：\n  - **Next.js**：如果你选择此选项，你将获得一个全栈 Next.js 应用程序，只需点击几下即可部署到像 [Vercel](https:\u002F\u002Fvercel.com\u002F) 这样的平台上。该应用使用我们的 TypeScript 库 [LlamaIndex.TS](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fllamaindex)，并结合 [LlamaIndex Server for TS](https:\u002F\u002Fnpmjs.com\u002Fpackage\u002F@llamaindex\u002Fserver)。\n  - **Python FastAPI**：如果你选择此选项，你将得到一个由 [llama-index Python 包](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-index\u002F) 和 [LlamaIndex Server for Python](https:\u002F\u002Fpypi.org\u002Fproject\u002Fllama-index-server\u002F) 提供支持的全栈 Python 应用程序。\n- 应用默认使用 OpenAI，因此你需要一个 OpenAI API 密钥；当然，你也可以自定义配置，使用我们支持的数十种其他大模型。\n\n以下是应用的外观示例：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd57af1a1-d99b-4e9c-98d9-4cbd1327eff8\n\n## 使用你的数据\n\n你可以选择性地提供自己的数据；应用会对其进行索引并加以利用，例如用于回答问题。生成的应用中会有一个名为 `data` 的文件夹。\n\n应用会自动导入放置在该目录中的任何受支持的文件。对于 Next.js 应用，它们使用 LlamaIndex.TS，因此能够导入 PDF、文本、CSV、Markdown、Word 和 HTML 文件。而 Python 后端则能读取更多类型的文件，包括视频和音频文件。\n\n在使用数据之前，你需要先对数据进行索引。如果你使用的是 Next.js 应用，请运行以下命令：\n\n```bash\nnpm run generate\n```\n\n然后重新启动应用。请记住，如果向 `data` 文件夹中添加了新文件，你需要再次运行 `generate`。\n\n如果你使用的是 Python 后端，则可以通过调用以下命令来触发数据索引：\n\n```bash\nuv run generate\n```\n\n## 自定义 AI 模型\n\n应用默认使用 OpenAI 的 `gpt-4.1` 大模型和 `text-embedding-3-large` 嵌入模型。\n\n如果你想使用不同的模型，只需添加 `--ask-models` CLI 参数即可。\n\n你还可以将默认模型替换为我们支持的数十种其他大模型之一。为此，你需要手动修改生成的代码（对于 TypeScript 项目，编辑 `settings.ts` 文件；对于 Python 项目，编辑 `settings.py` 文件）。\n\n## 示例\n\n最简单的操作是在交互模式下运行 `create-llama`：\n\n```bash\nnpx create-llama@latest\n# 或\nnpm create llama@latest\n# 或\nyarn create llama\n# 或\npnpm create llama@latest\n```\n\n系统会提示你输入项目名称以及其他配置选项，如下所示：\n\n```bash\n>> npm create llama@latest\n需要安装以下包：\n  create-llama@latest\n是否继续？(y) y\n✔ 你的项目名称是什么？… my-app\n✔ 你想构建哪种用例？› Agentic RAG\n✔ 你想使用哪种语言？› Python (FastAPI)\n✔ 你是否希望使用 LlamaCloud 服务？… 否 \u002F 是\n✔ 请提供你的 LlamaCloud API 密钥（留空以跳过）：…\n? 你希望如何继续？› - 使用方向键。按回车键提交。\n    直接生成代码 (~1 秒)\n❯   在 VSCode 中开始 (~1 秒)\n    生成代码并安装依赖项 (~2 分钟)\n```\n\n### 非交互式运行\n\n你也可以通过命令行参数非交互式地设置新项目。要查看最新选项列表，请运行 `create-llama --help`。\n\n## LlamaIndex 文档\n\n- [TS\u002FJS 文档](https:\u002F\u002Fts.llamaindex.ai\u002F)\n- [Python 文档](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002F)\n\n## LlamaIndex 服务器\n\n生成的代码使用了 LlamaIndex 服务器，它通过 API 服务器提供 LlamaIndex 工作流和代理工作流服务。更多信息请参阅以下文档：\n\n- [LlamaIndex Server For TypeScript](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fchat-ui\u002Ftree\u002Fmain\u002Fpackages\u002Fserver)\n- [LlamaIndex Server For Python](.\u002Fpython\u002Fllama-index-server\u002FREADME.md)\n\n灵感来源于并改编自 [create-next-app](https:\u002F\u002Fgithub.com\u002Fvercel\u002Fnext.js\u002Ftree\u002Fcanary\u002Fpackages\u002Fcreate-next-app)。","# create-llama 快速上手指南\n\n`create-llama` 是启动 [LlamaIndex](https:\u002F\u002Fwww.llamaindex.ai\u002F) 项目最便捷的方式。该 CLI 工具可帮助你快速构建全新的 LlamaIndex 应用，自动完成所有基础配置。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **Node.js**：建议安装最新 LTS 版本（用于运行 CLI 及 Next.js 前端）\n*   **Python**（可选）：如果你选择 Python (FastAPI) 后端方案，需安装 Python 3.9+ 及 `uv` 或 `pip`\n*   **API Key**：默认使用 OpenAI，需准备 `OPENAI_API_KEY`。也可配置为其他支持的数十种大模型。\n\n> **提示**：国内开发者若遇到 npm 包下载缓慢，可临时切换镜像源：\n> ```bash\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n## 安装与创建项目\n\n无需全局安装，直接使用 `npx` 即可运行最新版本的创建工具。\n\n### 1. 运行创建命令\n\n在终端执行以下命令启动交互式向导：\n\n```bash\nnpx create-llama@latest\n```\n\n或者使用其他包管理器：\n\n```bash\nnpm create llama@latest\n# 或\nyarn create llama\n# 或\npnpm create llama@latest\n```\n\n### 2. 配置项目\n\n根据终端提示输入项目信息，典型流程如下：\n\n```bash\n✔ What is your project named? … my-app\n✔ What use case do you want to build? › Agentic RAG\n✔ What language do you want to use? › Python (FastAPI)\n✔ Do you want to use LlamaCloud services? … No \u002F Yes\n✔ Please provide your LlamaCloud API key (leave blank to skip): …\n? How would you like to proceed? › \n    Just generate code (~1 sec)\n❯   Start in VSCode (~1 sec)\n    Generate code and install dependencies (~2 min)\n```\n\n你将选择：\n*   **项目名称**\n*   **应用场景**：如 Agentic RAG、数据分析、报告生成等\n*   **技术栈**：\n    *   **Next.js**：全栈 TypeScript 应用，基于 `LlamaIndex.TS`，适合部署到 Vercel。\n    *   **Python FastAPI**：全栈 Python 应用，基于 `llama-index` 包。\n*   **是否使用 LlamaCloud 服务**（可选）\n\n## 基本使用\n\n项目生成后，按照以下步骤运行和预览应用。\n\n### 1. 启动开发服务器\n\n进入项目目录并启动服务：\n\n**对于 Next.js 项目：**\n```bash\nnpm run dev\n```\n\n**对于 Python 项目：**\n```bash\nuv run dev\n# 或者如果使用 pip\u002Fvenv\npython -m uvicorn main:app --reload\n```\n\n启动成功后，访问 [http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000) 即可查看基于 `shadcn\u002Fui` 构建的聊天界面。\n\n### 2. 使用自定义数据\n\n生成的项目中包含一个 `data` 文件夹。你可以将支持的文件（PDF, TXT, CSV, Markdown, Word, HTML 等）放入该目录。Python 后端还支持视频和音频文件。\n\n**重要**：在添加新文件后，必须重新索引数据才能被应用识别。\n\n**Next.js 项目索引命令：**\n```bash\nnpm run generate\n```\n*执行后请重启开发服务器。*\n\n**Python 项目索引命令：**\n```bash\nuv run generate\n```\n\n### 3. 自定义 AI 模型\n\n默认配置使用 OpenAI 的 `gpt-4.1` 和 `text-embedding-3-large` 模型。\n\n*   **交互式修改**：运行创建命令时添加 `--ask-models` 参数可在向导中选择不同模型。\n*   **手动修改**：编辑生成代码中的配置文件以切换模型：\n    *   TypeScript 项目：编辑 `settings.ts`\n    *   Python 项目：编辑 `settings.py`\n\n更多模型支持列表请参考 [LlamaIndex 官方文档](https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002Fmodule_guides\u002Fmodels\u002Fllms\u002Fmodules.html)。","某初创团队的技术负责人需要在两天内为内部知识库构建一个支持多格式文档问答的 AI 助手原型，以向投资人演示核心能力。\n\n### 没有 create-llama 时\n- **环境搭建繁琐**：需手动配置 Next.js 或 FastAPI 项目结构，逐一安装 LlamaIndex 核心库、向量数据库驱动及 UI 组件库，耗时数小时且易出现版本冲突。\n- **前端开发重复造轮子**：必须从零编写聊天界面代码，包括消息气泡、加载状态和文件上传组件，难以快速呈现专业的交互效果。\n- **数据管道实现困难**：需要自行编写脚本解析 PDF、Word 等多种格式文件，并手动实现分块（Chunking）与向量化索引逻辑，调试成本高。\n- **模型集成复杂**：配置 OpenAI API 密钥及切换不同大模型参数需要深入阅读文档修改底层代码，缺乏直观的预设模板。\n\n### 使用 create-llama 后\n- **一键生成全栈应用**：运行 `npx create-llama@latest` 并在交互式菜单中选择\"Agentic RAG\"和\"Python FastAPI\"，秒级生成包含完整依赖的可运行项目。\n- **内置专业 UI 界面**：直接获得基于 shadcn\u002Fui 构建的精美聊天前端，支持流式输出和文件上传，无需编写任何前端代码即可展示。\n- **开箱即用的数据处理**：只需将公司文档放入 `data` 文件夹，执行 `uv run generate` 即可自动完成多格式文件的解析、分块与索引构建。\n- **灵活模型配置**：默认集成 OpenAI 主流模型，若需更换其他支持的几十种 LLM，仅需修改简单的配置文件或通过命令行参数即可快速切换。\n\ncreate-llama 将原本需要数天的原型开发工作压缩至几分钟，让开发者能专注于业务逻辑验证而非基础设施搭建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frun-llama_create-llama_dec3ffe5.png","run-llama","LlamaIndex","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frun-llama_725504c7.png","",null,"llama_index","https:\u002F\u002Fllamaindex.ai","https:\u002F\u002Fgithub.com\u002Frun-llama",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",64.8,{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",31.7,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",3.3,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.2,1482,186,"2026-04-06T13:42:48","MIT","未说明",{"notes":104,"python":105,"dependencies":106},"该工具为 CLI 脚手架，支持生成 Next.js (TypeScript) 或 Python (FastAPI) 全栈应用。默认使用 OpenAI API，需准备 API Key；也可手动修改配置以支持其他大模型。若使用本地数据（PDF、文本、视频等），需在生成应用后运行索引命令（Next.js 用 `npm run generate`，Python 用 `uv run generate`）。未明确提及具体的操作系统、GPU、内存或 Python 版本限制，通常取决于所选框架及最终调用的大模型服务要求。","未说明 (若选择 Python FastAPI 框架需安装)",[107,108,109,110,111,112,113,114],"llama-index","llama-index-server","llamaindex (LlamaIndex.TS)","@llamaindex\u002Fserver","next.js (若选择 Next.js 框架)","fastapi (若选择 Python FastAPI 框架)","shadcn\u002Fui","uv (Python 后端推荐运行工具)",[35,14,13,52],"2026-03-27T02:49:30.150509","2026-04-07T14:38:21.770770",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},22292,"遇到 'Missing tiktoken_bg.wasm' 错误如何解决？","该错误通常是因为使用的 llamaindex 版本过旧。请确保将 `llamaindex` 依赖升级到至少 `0.6.2` 版本。如果在 Next.js 项目中使用，通常不需要在 `next.config.js` 中额外配置 `withLlamaIndex`，升级库版本即可解决。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama\u002Fissues\u002F164",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},22293,"上传 PDF 文件时提示 'extractText is not a function' 错误怎么办？","这是一个已知的版本兼容性问题。维护者确认该问题已在 `create-llama` 的 `0.3.9` 版本中修复。请尝试更新你的项目依赖到最新版本并重新测试。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama\u002Fissues\u002F384",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},22294,"为什么设置了 top_k 参数，但 UI 中显示的节点来源（Node Sources）数量仍然很少或不匹配？","`top_k` 定义的是从向量数据库中检索到的最大节点数，但这并不保证所有节点都会显示。检索后，系统会根据相关性分数进行过滤，只有分数高于 `NODE_SCORE_THRESHOLD`（节点分数阈值）的节点才会被保留和显示。如果显示的节点少于 `top_k`，说明其他节点因相关性得分过低被过滤掉了。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama\u002Fissues\u002F326",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},22295,"如何自定义 LlamaIndexServer 的界面（如移除 GitHub 按钮或添加全局样式）？","可以通过 `@llamaindex\u002Fserver` 提供的自定义布局功能来实现。请参考官方文档中的 'Custom Layout' 部分（https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@llamaindex\u002Fserver#custom-layout）。目前的服务器模式不支持直接生成可完全编辑的 Next.js 项目代码，如需深度定制 UI，可能需要考虑生成完整的 Next.js 项目方案。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama\u002Fissues\u002F606",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},22296,"使用 Ollama 或其他非 OpenAI 模型时，为何仍报错缺少 OPENAI_API_KEY？","这通常是因为底层工具（如 LITS）或 Agent 配置尚未完全支持绕过 OpenAI 的默认初始化，或者配置未正确指定替代模型。确保你使用的是支持非 OpenAI 模型的最新版本，并检查是否需要在配置中显式禁用 OpenAI 客户端或正确传入替代模型的 API Key。如果问题依旧，可能需要等待相关工具链（如 LITS）的更新以完全解耦对 OpenAI 的硬依赖。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama\u002Fissues\u002F401",{"id":145,"question_zh":146,"answer_zh":147,"source_url":133},22297,"create-llama 生成的项目中如何处理不同向量数据库（如 Pinecone, Qdrant）的兼容性配置？","在使用不同向量数据库（如 Pinecone 或 Qdrant）时，如果遇到检索结果数量不符合预期的问题，首先应检查 `top_k` 设置与 `NODE_SCORE_THRESHOLD` 的关系。无论使用哪种数据库，检索逻辑都包含基于分数的过滤步骤。如果必须显示更多结果，可能需要调整阈值配置或检查向量索引的构建质量，而不仅仅是更换数据库后端。",[149,154,159,164,169,174,179,184,189,194,199,204,209,214,219,224,229,234,239,244],{"id":150,"version":151,"summary_zh":152,"released_at":153},136042,"@llamaindex\u002Fserver@0.3.0","### 小改动\n\n-   fec752e: 重构：LlamaCloud 配置\n","2025-07-15T03:14:11",{"id":155,"version":156,"summary_zh":157,"released_at":158},136043,"create-llama@0.6.3","### 补丁变更\n\n-   fec752e：重构：LlamaCloud 配置\n","2025-07-15T03:14:08",{"id":160,"version":161,"summary_zh":162,"released_at":163},136044,"create-llama@0.6.2","### 补丁变更\n\n-   28b46be：构建优化：将 Python 示例替换为 llama-deploy\n-   93e2abe：修复：未使用的导入和代码格式问题\n","2025-07-11T06:02:55",{"id":165,"version":166,"summary_zh":167,"released_at":168},136045,"@llamaindex\u002Fserver@0.2.10","### 补丁变更\n\n-   91ce4e1：特性：支持 Python LlamaDeploy 的文件服务器\n","2025-07-10T09:46:41",{"id":170,"version":171,"summary_zh":172,"released_at":173},136046,"create-llama@0.6.1","### 补丁变更\n\n-   952b5b4：修复：peer dependencies 和 sourcemap 问题导致 TypeScript 服务器无法启动\n-   e8004fd：修复：因仓库被删除而导致的开发容器失效问题\n","2025-07-01T08:02:01",{"id":175,"version":176,"summary_zh":177,"released_at":178},136047,"@llamaindex\u002Fserver@0.2.9","### 补丁变更\n\n-   52cc37f: 功能：新增启用 useChatWorkflow 的标志\n-   952b5b4: 修复：解决 peer dependencies 和 sourcemap 问题导致 TypeScript 服务器启动失败的问题\n","2025-07-01T08:01:58",{"id":180,"version":181,"summary_zh":182,"released_at":183},136048,"create-llama@0.6.0","### 小改动\n\n-   8fa8c3b：移除了已弃用的模板，并简化了代码\n\n### 补丁更改\n\n-   8fa8c3b：特性：重新添加 --ask-models\n","2025-06-19T10:25:44",{"id":185,"version":186,"summary_zh":187,"released_at":188},136049,"@llamaindex\u002Fserver@0.2.8","### 补丁变更\n\n-   e2486eb：特性：支持 TypeScript 的人工介入流程\n","2025-06-12T11:12:34",{"id":190,"version":191,"summary_zh":192,"released_at":193},136050,"create-llama@0.5.22","### 补丁变更\n\n-   e2486eb: 新特性：支持 TypeScript 的人工介入流程\n","2025-06-12T11:12:37",{"id":195,"version":196,"summary_zh":197,"released_at":198},136051,"create-llama@0.5.21","### 补丁变更\n\n-   af9ad3c: 新增功能：生成报告后显示文档工件\n-   a543a27: 新增功能：使用内联工件升级聊天界面\n","2025-06-06T10:22:57",{"id":200,"version":201,"summary_zh":202,"released_at":203},136052,"@llamaindex\u002Fserver@0.2.7","### Patch Changes\n\n-   af9ad3c: feat: show document artifact after generating report\n-   a543a27: feat: bump chat-ui with inline artifact\n-   1ff6eaf: Add support for chat upload file\n","2025-06-06T10:22:54",{"id":205,"version":206,"summary_zh":207,"released_at":208},136053,"@llamaindex\u002Fserver@0.2.6","### Patch Changes\n\n-   3ff0a18: fix: default header padding\n-   df10474: fix: missing cursor pointer for button\n-   087c961: Support zod and chat-ui hooks for custom components\n","2025-06-02T11:05:14",{"id":210,"version":211,"summary_zh":212,"released_at":213},136054,"create-llama@0.5.20","### Patch Changes\n\n-   3ff0a18: fix: default header padding\n","2025-06-02T11:05:11",{"id":215,"version":216,"summary_zh":217,"released_at":218},136055,"@llamaindex\u002Fserver@0.2.5","### Patch Changes\n\n-   058b376: Fix generate script for ejected project\n","2025-05-29T06:10:22",{"id":220,"version":221,"summary_zh":222,"released_at":223},136056,"create-llama@0.5.19","### Patch Changes\n\n-   5fe9e17: support eject to fully customize next folder\n-   b8a1ff6: Support citation for agentic template (Python)\n","2025-05-29T02:19:09",{"id":225,"version":226,"summary_zh":227,"released_at":228},136057,"@llamaindex\u002Fserver@0.2.4","### Patch Changes\n\n-   5fe9e17: support eject to fully customize next folder\n-   b8a1ff6: Bump version: chat-ui@0.4.6\n","2025-05-29T02:19:06",{"id":230,"version":231,"summary_zh":232,"released_at":233},136058,"@llamaindex\u002Fserver@0.2.2","### Patch Changes\n\n-   25fba43: refactor: migrate to Nextjs Route Handler\n-   6f75d4a: fix: unsupported language in code gen workflow\n","2025-05-22T10:19:35",{"id":235,"version":236,"summary_zh":237,"released_at":238},136059,"create-llama@0.5.16","### Patch Changes\n\n-   6f75d4a: fix: unsupported language in code gen workflow\n-   d0618fa: Fix LlamaCloud generate script issue\n","2025-05-22T10:19:32",{"id":240,"version":241,"summary_zh":242,"released_at":243},136060,"create-llama@0.5.15","### Patch Changes\n\n-   527075c: Enable dev mode that allows updating code directly in the UI\n","2025-05-16T09:35:34",{"id":245,"version":246,"summary_zh":247,"released_at":248},136061,"llama-index-server-v0.1.16","Release of llama-index-server v0.1.16\n","2025-05-16T08:17:51"]