onprem
OnPrem 是一款专为处理敏感和非公开数据而设计的 Python 工具包,旨在让大型语言模型(LLM)能够在离线或受限环境中安全运行。它核心解决了企业在应用 AI 时面临的数据隐私顾虑,默认采用完全本地化执行模式,确保数据不出内网,同时也灵活支持接入 OpenAI、Anthropic 等云端模型以满足不同需求。
这款工具非常适合开发者、研究人员以及需要构建私有化文档智能系统的技术团队使用。无论是进行信息提取、文本摘要、分类还是复杂的问答任务,OnPrem 都能提供成熟的分析流水线。其独特亮点在于对低算力环境的友好支持,通过 SparseStore 等技术实现了无需预存嵌入向量的高效检索增强生成(RAG);此外,它还内置了可视化的工作流搭建器,让用户能通过点选界面轻松组装复杂的文档分析流程,并支持安全沙箱模式来运行 AI 智能体。凭借对多种后端引擎的广泛兼容性及与 Elasticsearch 等现有工具的无缝集成,OnPrem 成为了平衡数据主权与 AI 能力的理想选择。
使用场景
某金融合规团队需要在完全隔离的内网环境中,对数万份包含客户隐私的敏感合同文档进行自动化风险审查与关键条款提取。
没有 onprem 时
- 数据无法出域,团队只能放弃使用强大的云端大模型,被迫依赖准确率低的传统正则匹配或关键词搜索。
- 若强行搭建本地开源模型,需手动配置复杂的推理后端(如 llama_cpp 或 vLLM)和向量数据库,环境部署耗时数周且极易出错。
- 面对非结构化的合同文本,难以实现标准化的字段提取(如金额、日期),每次输出格式混乱,后续还需人工二次清洗。
- 缺乏可视化的流程编排能力,修改审查逻辑需要重写大量代码,业务人员无法参与调整策略。
使用 onprem 后
- 利用 onprem 默认的本地执行模式,直接在离线服务器上运行 Llama 3.2 等模型,确保敏感数据绝不离开内网,满足最高合规要求。
- 通过一行代码即可切换后端并自动处理文档摄入(ingest),内置的 SparseStore 模块让低配服务器也能流畅运行 RAG 检索,无需预存海量嵌入向量。
- 借助 Pydantic 结构化输出功能,强制模型按预定 JSON 格式返回条款细节,直接对接内部数据库,消除了人工清洗环节。
- 使用可视化工作流构建器,合规专家可通过拖拽方式调整“提取 - 分类 - 总结”的分析管道,将策略迭代周期从几天缩短至几小时。
onprem 让金融机构在严守数据隐私红线的前提下,也能享受到与大厂同级的智能文档分析能力。
运行环境要求
- Linux
- macOS
- Windows
- 非必需(支持 CPU 运行)
- 若需 GPU 加速:Linux/Windows 需 NVIDIA 显卡及 CUDA Toolkit
- Mac 需支持 Metal 的 GPU
- 8B 及以下量化模型最低需 6GB 显存,建议根据模型大小调整
未说明(取决于所选模型大小,量化小模型可在低资源环境运行)

快速开始
本地部署.LLM
一个注重隐私的文档智能工具包——默认本地运行,同时支持云端
OnPrem.LLM(简称“OnPrem”)是一个基于Python的工具包,用于在离线或受限环境中将大型语言模型(LLMs)应用于敏感的非公开数据。该工具主要受到privateGPT项目的启发,设计为完全本地执行,但也支持与多种云端LLM提供商(如OpenAI、Anthropic)集成。
主要特性:
- 完全本地执行,并可根据需要选择使用云端服务。详情请参阅速查表。
- 针对多种任务的分析流水线,包括信息抽取、摘要生成、分类、问答以及智能代理等。
- 通过诸如SparseStore等模块,支持计算资源有限的环境(例如,无需预先存储嵌入即可实现RAG)。
- 可轻松与本地环境中的现有工具集成,如Elasticsearch和SharePoint。
- 提供一个可视化工作流构建器,可通过点选式界面组装复杂的文档分析流水线。
完整文档请见这里。
快速入门
# 安装
!pip install onprem[chroma]
from onprem import LLM, utils
# 使用Ollama作为后端的本地LLM
!ollama pull llama3.2
llm = LLM('ollama/llama3.2')
# 基本提示
result = llm.prompt('给我一个关于LLM的简短一句话定义。')
# RAG
utils.download('https://www.arxiv.org/pdf/2505.07672', '/tmp/my_documents/paper.pdf')
llm.ingest('/tmp/my_documents')
result = llm.ask('OnPrem.LLM是什么?')
# 切换到以Anthropic为后端的云端LLM
llm = LLM("anthropic/claude-3-7-sonnet-latest")
# 结构化输出
from pydantic import BaseModel, Field
class MeasuredQuantity(BaseModel):
value: str = Field(description="数值")
unit: str = Field(description="计量单位")
structured_output = llm.pydantic_prompt('他当时的速度是35英里每小时。', pydantic_model=MeasuredQuantity)
print(structured_output.value) # 35
print(structured_output.unit) # 英里/小时
# 安全启动沙盒化的AI智能代理
from onprem.pipelines import AgentExecutor
executor = AgentExecutor(model='openai/gpt-5-mini', sandbox=True)
result = executor.run("""
搜索此目录下的所有.md文件,并:
1. 提取所有标题(# ## ###)
2. 统计每个文件的总字数
3. 创建一个索引文件'documentation_index.md',内容包括:
- 所有Markdown文件的列表
- 每个文件的字数统计
- 主要讨论的主题(从标题中提取)
""")
支持的LLM后端众多,例如: llama_cpp、 transformers、 Ollama、 vLLM、 OpenAI、 Anthropic 等。
最新消息 🔥
- [2026年3月] 发布v0.22.0版本,新增AgentExecutor:只需两行代码即可在沙盒环境中安全启动AI智能代理来解决问题。详情请参阅关于智能代理的示例笔记本。
- [2026年1月] 发布v0.21.0版本,新增支持基于元数据的查询路由。详情请参阅此处的查询路由示例。此外,本次发布还包括提供商原生支持的结构化输出(例如,OpenAI、Anthropic和AWS GovCloud Bedrock提供的结构化输出)。
- [2025年12月] 发布v0.20.0版本,新增支持异步提示。详情请参阅此处的示例。
- [2025年9月] 发布v0.19.0版本,新增支持工作流:用于复杂文档分析的YAML配置流水线。更多信息请参阅工作流文档。
- [2025年8月] 发布v0.18.0版本,现已可与AWS GovCloud的LLM一起使用。更多信息请参阅此处的示例。
- [2025年7月] 发布v0.17.0版本,现在可以直接连接到SharePoint进行搜索和RAG操作。更多信息请参阅关于向量存储的示例笔记本。
安装
在您已经安装 PyTorch 之后,您可以使用以下命令安装 OnPrem.LLM:
pip install onprem
Chroma:如果您使用默认的 Chroma “Dense” 向量存储(而不是 稀疏向量存储)进行 RAG 操作,请运行 pip install[chroma]。
AI 代理:如果您使用 OnPrem.LLM 来启动 AI 代理,请运行 pip install onprem[agent]。
Llama-cpp-python 是可选的:
如果您将 llama-cpp-python 用作 LLM 后端:
如果满足以下任一条件,则安装 llama-cpp-python 是 可选的:
- 您正在使用 Ollama 作为 LLM 后端。
- 您通过提供
model_id参数来实例化 LLM,从而使用 Hugging Face Transformers(而非 llama-cpp-python)作为 LLM 后端,如此处所示。 - 您正在使用 OnPrem.LLM 并通过 外部 REST API 提供的 LLM(例如 vLLM、OpenLLM)。
- 您正在使用 OnPrem.LLM 与 云端 LLM 配合使用(请参阅下方的备忘单)。
使用 llama-cpp-python 进行 GPU 加速推理
当您使用 pip install llama-cpp-python 安装 llama-cpp-python 时,LLM 将在您的 CPU 上运行。为了更快地生成答案,您可以根据您的操作系统构建 llama-cpp-python,使其在您的 GPU 上运行。
- Linux:
CMAKE_ARGS="-DGGML_CUDA=on" FORCE_CMAKE=1 pip install --upgrade --force-reinstall llama-cpp-python --no-cache-dir - Mac:
CMAKE_ARGS="-DGGML_METAL=on" pip install llama-cpp-python - Windows 11:请遵循此处的说明。
- Windows Subsystem for Linux (WSL2):请遵循此处的说明。
对于 Linux 和 Windows 系统,在运行上述安装命令之前,您需要先安装最新的 NVIDIA 驱动程序以及 CUDA 工具包。
按照上述说明操作后,在实例化 LLM 时,请提供 n_gpu_layers=-1 参数,以利用您的 GPU 进行快速推理:
llm = LLM(n_gpu_layers=-1, ...)
通常,参数量为 80 亿及以下的量化模型可以在显存仅为 6GB 的 GPU 上运行。如果模型无法完全加载到您的 GPU 中(例如出现“CUDA Error: Out-of-Memory”错误),您可以尝试调整 n_gpu_layers 参数的值(例如 n_gpu_layers=20),将部分层卸载到 CPU 上。如上所示设置 n_gpu_layers=-1 则会将所有层卸载到 GPU 上。
如果您在安装 llama-cpp-python 时遇到问题,可以参阅常见问题解答获取更多提示。
使用方法
设置
from onprem import LLM
llm = LLM(verbose=False) # 默认使用默认模型和后端
备忘单
本地模型:支持多种不同的本地 LLM 后端。
Llama-cpp:
llm = LLM(default_model="llama", n_gpu_layers=-1)通过 URL 使用选定的 GGUF 模型:
# 对于用户提供的 GGUF 模型,需要提示模板(详见 FAQ) llm = LLM(model_url='https://huggingface.co/TheBloke/zephyr-7B-beta-GGUF/resolve/main/zephyr-7b-beta.Q4_K_M.gguf', prompt_template= "<|system|>\n</s>\n<|user|>\n{prompt}</s>\n<|assistant|>", n_gpu_layers=-1)通过文件路径使用选定的 GGUF 模型:
# 对于用户提供的 GGUF 模型,需要提示模板(详见 FAQ) llm = LLM(model_url='zephyr-7b-beta.Q4_K_M.gguf', model_download_path='/path/to/folder/to/where/you/downloaded/model', prompt_template= "<|system|>\n</s>\n<|user|>\n{prompt}</s>\n<|assistant|>", n_gpu_layers=-1)Hugging Face Transformers:
llm = LLM(model_id='Qwen/Qwen2.5-0.5B-Instruct', device='cuda')Ollama:
llm = LLM(model_url="ollama://llama3.2", api_key='na')同样使用 Ollama:
llm = LLM(model_url="ollama/llama3.2", api_key='na')再使用 Ollama:
llm = LLM(model_url='http://localhost:11434/v1', api_key='na', model='llama3.2')vLLM:
llm = LLM(model_url='http://localhost:8666/v1', api_key='na', model='Qwen/Qwen2.5-0.5B-Instruct')同样使用 vLLM:
llm = LLM('hosted_vllm/served-model-name', api_base="http://localhost:8666/v1", api_key="test123")(假设已向vllm.entrypoints.openai.api_server提供了served-model-name参数)。使用 gpt-oss 的 vLLM(假设已向 vLLM 提供了
served-model-name参数):# 重要提示:由于会生成中间推理步骤,需将 max_tokens 设置为较高值 llm = LLM(model_url='http://localhost:8666/v1', api_key='your_api_key', model=served_model_name, max_tokens=32000) result = llm.prompt(prompt, reasoning_effort="high")
云模型:除了本地 LLM 外,所有由 LiteLLM 支持的云 LLM 提供商也兼容:
Anthropic Claude:
llm = LLM(model_url="anthropic/claude-3-7-sonnet-latest")OpenAI GPT-4o:
llm = LLM(model_url="openai/gpt-4o")AWS GovCloud Bedrock(假设已将 AWS_ACCESS_KEY_ID 和 AWS_SECRET_ACCESS_KEY 设置为环境变量)
from onprem import LLM inference_arn = "YOUR INFERENCE ARN" endpoint_url = "YOUR ENDPOINT URL" region_name = "us-gov-east-1" # 根据需要替换 # 设置 LLM 与 AWS GovCloud 上的 Bedrock 的连接 llm = LLM( f"govcloud-bedrock://{inference_arn}", region_name=region_name, endpoint_url=endpoint_url) response = llm.prompt("写一首关于月亮的俳句。")
以上实例将在下文中更详细地介绍。
GGUF 模型与 Llama.cpp
默认的 LLM 后端是 llama-cpp-python,而默认模型目前是一个名为 Zephyr-7B-beta 的 70 亿参数模型,该模型会自动下载并使用。Llama.cpp 运行的模型采用 GGUF 格式。另外两个默认模型是 llama 和 mistral。例如,如果提供了 default_model='llama',那么系统会自动下载并使用一个 Llama-3.1-8B-Instsruct 模型:
# Llama 3.1 在此处下载,并自动配置和使用适用于 Llama-3.1 的正确提示模板
llm = LLM(default_model='llama')
选择您自己的模型: 当然,您也可以轻松地为 LLM 提供您所选 LLM 的 URL 或路径(有关示例,请参阅 常见问题解答)。
提供额外参数: 任何传递给 LLM 的额外参数都会直接转发给默认的 LLM 后端——llama-cpp-python。
更改默认 LLM 后端
如果向 LLM 传递 default_engine="transformers",则会使用 Hugging Face 的 transformers 作为 LLM 后端。传递给 LLM 的额外参数(例如 ‘device=’cuda’) 将直接转发给 transformers.pipeline。如果提供了 model_id` 参数,则默认 LLM 后端会自动切换为 Hugging Face 的 transformers。
# 使用 AWQ 量化的 LLama-3.1 模型被下载并由 Hugging Face transformers 运行(需要 GPU)
llm = LLM(default_model='llama', default_engine='transformers')
# 使用自定义模型与 Hugging Face Transformers
llm = LLM(model_id='Qwen/Qwen2.5-0.5B-Instruct', device_map='cpu')
有关将 Hugging Face 的 transformers 用作 LLM 后端的更多信息,请参阅 此处。
您还可以连接到 Ollama、本地 LLM API(如 vLLM)以及云端 LLM。
# 连接到由 Ollama 提供服务的 LLM
lm = LLM(model_url='ollama/llama3.2')
# 连接到通过 vLLM 提供服务的 LLM(根据需要设置 API 密钥)
llm = LLM(model_url='http://localhost:8000/v1', api_key='token-abc123', model='Qwen/Qwen2.5-0.5B-Instruct')
# 连接到云端支持的 LLM(如 OpenAI、Anthropic)。
llm = LLM(model_url="openai/gpt-4o-mini") # OpenAI
llm = LLM(model_url="anthropic/claude-3-7-sonnet-20250219") # Anthropic
OnPrem.LLM 支持 LiteLLM 包所支持的任何提供商和模型。
有关 本地 LLM API 的更多信息,请参阅 此处。
关于如何在 OnPrem.LLM 中专门使用 OpenAI 模型的更多信息,请参阅 此处。
向 LLM 后端传递参数
传递给 LLM 和 LLM.prompt 的额外参数会直接传递给 LLM 后端。具体参数名称会因您选择的后端而异。
例如,在默认的 llama-cpp 后端中,上下文窗口大小(n_ctx)默认设置为 3900,输出长度(max_tokens)默认设置为 512。这两者都是可配置的参数,可以通过 LLM 进行调整。如果您有较长的提示或需要更长的输出,可以适当增加这些值。其他参数(如 api_key、device_map 等)可以直接传递给 LLM,它们会被路由到相应的 LLM 后端或 API(如 llama-cpp-python、Hugging Face transformers、vLLM、OpenAI 等)。此外,max_tokens 参数也可以通过将其传递给 LLM.prompt 来动态调整。
另一方面,对于 Ollama 模型,上下文窗口和输出长度分别由 num_ctx 和 num_predict 控制。
而在使用 Hugging Face transformers 时,无需单独设置上下文窗口大小,但输出长度则由 LLM.prompt 中的 max_new_tokens 参数控制。
使用 Hugging Face Transformers 替代 Llama.cpp
默认情况下,OnPrem.LLM 使用的 LLM 后端是 llama-cpp-python,该后端要求模型采用 GGUF 格式。从版本 0.5.0 开始,现在也可以使用 Hugging Face 的 transformers 作为 LLM 后端。实现这一点的方法是使用 model_id 参数(而不是提供 model_url 参数)。在下面的示例中,我们运行的是
Llama-3.1-8B
模型。
# 使用 `model_id` 参数时,无需安装 llama-cpp-python
llm = LLM(model_id="hugging-quants/Meta-Llama-3.1-8B-Instruct-AWQ-INT4", device_map='cuda')
这样一来,您可以更方便地使用 Hugging Face 模块上以 SafeTensors 格式 存储的任何模型,只要这些模型能够通过 Hugging Face 的 transformers.pipeline 加载即可。需要注意的是,当使用 model_id 参数时,prompt_template 会由 transformers 自动设置。
上述加载的 Llama-3.1 模型是使用 AWQ 量化的,这使得该模型能够在较小的 GPU 上运行(例如配备 6GB 显存的笔记本电脑 GPU),类似于默认的 GGUF 格式。使用 AWQ 量化的模型需要安装 autoawq 包:pip install autoawq(AWQ 仅支持 Linux 系统,包括 Windows Subsystem for Linux)。如果您需要加载未量化的模型,可以在加载时指定量化配置(称为“飞行中量化”)。在下面的示例中,我们加载了一个未量化的 Zephyr-7B-beta 模型,它将在加载过程中被量化,以便能够在显存仅为 6GB 的 GPU 上运行:
from transformers import BitsAndBytesConfig
quantization_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype="float16",
bnb_4bit_use_double_quant=True,
)
llm = LLM(model_id="HuggingFaceH4/zephyr-7b-beta", device_map='cuda',
model_kwargs={"quantization_config":quantization_config})
在提供 quantization_config 时,会使用 bitsandbytes 库——这是一个轻量级的 Python 封装库,用于 CUDA 自定义函数,特别是 8 位优化器、矩阵乘法(LLM.int8())以及 8 和 4 位量化功能。目前,bitsandbytes 团队正在努力支持除 CUDA 之外的其他后端。如果您遇到与 bitsandbytes 相关的错误,请参考 bitsandbytes 文档。
内置 Web 应用
OnPrem.LLM 包含一个内置的 Web 应用,用于访问 LLM。安装完成后,运行以下命令即可启动:
onprem --port 8000
然后,在浏览器中输入 localhost:8000(如果在远程服务器上运行,则输入 <domain_name>:8000),即可访问该应用:
更多信息,请参阅相关文档。
示例
文档中包含大量示例。
💡 入门
| 文档链接 | 示例 |
|---|---|
| 提示示例 | 使用提示解决问题 |
📚 文档处理
| 文档链接 | 示例 |
|---|---|
| 文本提取 | 文档文本提取(PDF、Word、PowerPoint) |
| 文档摘要 | 文档摘要 |
| 信息抽取 | 从文档中抽取信息 |
🧠 问答与搜索
| 文档链接 | 示例 |
|---|---|
| RAG 示例 | 基于 RAG 的问答 |
| 向量存储教程 | 使用不同的向量存储 |
| 语义相似度 | 计算文本之间的语义相似度 |
🎯 分类与分析
| 文档链接 | 示例 |
|---|---|
| 文本分类 | 少样本文本分类 |
| 问卷分析 | 定性问卷回复的自动编码 |
| 法律分析 | 法律及监管文件分析 |
🛠️ 高级功能
| 文档链接 | 示例 |
|---|---|
| 代理示例 | 基于代理的任务执行与工具 |
| 结构化输出 | 使用 Pydantic 模型实现结构化和引导式输出 |
| 工作流构建器 | 用于文档分析的工作流构建器 |
常见问题解答
如何将其他模型与 OnPrem.LLM 一起使用?
您可以使用
model_url和model_id参数为LLM提供任意自定义模型(请参阅上方的速查表)。下面我们将详细介绍如何使用 llma.cpp 后端提供自定义 GGUF 模型。
您可以在 huggingface.co 上找到文件名中带有
GGUF的 llama.cpp 支持模型。请确保指向的是实际 GGUF 模型文件的 URL,即模型页面上的“下载”链接。以下以 Mistral-7B 为例:

使用 llama.cpp 后端时,GGUF 模型需要特定的提示格式传递给
LLM。例如,根据 模型页面 的说明,Zephyr-7B 所需的提示模板为:<|system|>\n</s>\n<|user|>\n{prompt}</s>\n<|assistant|>因此,要使用 Zephyr-7B 模型,您必须在
LLM构造函数中提供prompt_template参数(或在 Web 应用的webapp.yml配置中指定)。# 如何在 OnPrem.LLM 中使用 Zephyr-7B llm = LLM(model_url='https://huggingface.co/TheBloke/zephyr-7B-beta-GGUF/resolve/main/zephyr-7b-beta.Q4_K_M.gguf', prompt_template = "<|system|>\n</s>\n<|user|>\n{prompt}</s>\n<|assistant|>", n_gpu_layers=33) llm.prompt("列出三个可爱的猫名字。")对于其他 LLM 后端(例如使用 Ollama 作为后端,或使用
model_id参数加载 transformers 模型),则无需提供提示模板。此外,使用任何默认模型时也不需要提示模板。在 Windows/Mac/Linux 上安装
onprem时,我遇到了与llama-cpp-python(或chroma-hnswlib)相关的“构建”错误,这是为什么?请参阅 LangChain 关于 LLama.cpp 的文档,了解如何为您的系统安装
llama-cpp-python包。以下是针对不同操作系统的额外提示:对于 Ubuntu 等 Linux 系统,您可以尝试运行:
sudo apt-get install build-essential g++ clang。更多技巧请参见 此处。
对于 Windows 系统,请尝试按照 这些说明 操作。 我们建议您使用 适用于 Linux 的 Windows 子系统 (WSL),而不是直接使用 Microsoft Windows。如果您确实需要直接使用 Microsoft Windows,请务必安装 Microsoft C++ 构建工具,并确保选中 使用 C++ 的桌面开发 选项。
对于 Mac 用户,请尝试按照 这些提示 操作。
在 这个 privateGPT 仓库的讨论帖 中,还提供了针对上述各操作系统的各种其他技巧。当然,您也可以在 Google Colab 上 轻松使用 OnPrem.LLM。
最后,如果您仍然无法解决
llama-cpp-python的构建问题,可以尝试为您的系统 安装预编译的 wheel 文件:
示例:
pip install llama-cpp-python==0.2.90 --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
提示: 同样存在 用于
chroma-hnswlib的预编译 wheel 文件。如果运行pip install onprem时因构建chroma-hnswlib而失败,可能是因为您使用的 Python 版本尚未有对应的预编译 wheel(此时您可以尝试降级 Python 版本)。
我位于企业防火墙之后,在尝试下载模型时收到 SSL 错误?
请尝试以下操作:
from onprem import LLM LLM.download_model(url, ssl_verify=False)您可以按如下方式下载嵌入模型(由
LLM.ingest和LLM.ask使用):wget --no-check-certificate https://public.ukp.informatik.tu-darmstadt.de/reimers/sentence-transformers/v0.2/all-MiniLM-L6-v2.zip将解压后的文件夹名称作为
embedding_model_name参数传递给LLM。如果即使运行
pip install时也出现 SSL 错误,请尝试以下操作:pip install –-trusted-host pypi.org –-trusted-host files.pythonhosted.org pip_system_certs如何在没有互联网连接的机器上使用它?
使用
LLM.download_model方法将模型文件下载到<your_home_directory>/onprem_data,然后将其传输到气隙机器上的相同位置。对于
ingest和ask方法,您还需要下载并传输嵌入模型文件:from sentence_transformers import SentenceTransformer model = SentenceTransformer('sentence-transformers/all-MiniLM-L6-v2') model.save('/some/folder')将
some/folder文件夹复制到气隙机器上,并通过embedding_model_name参数将路径提供给LLM。当我调用
llm = LLM(...)时,模型无法加载吗?这可能是由于模型文件损坏所致(此时应从
<home directory>/onprem_data中删除并重新下载)。也可能是llama-cpp-python的版本需要升级到最新版。我在实例化
langchain.llms.Llamacpp或onprem.LLM对象时遇到“非法指令(核心已转储)”错误吗?您的 CPU 可能不支持
cmake由于某种原因所使用的指令(例如,由于 VirtualBox 设置中的 Hyper-V 导致)。您可以在构建和安装llama-cpp-python时尝试禁用这些指令:# 示例 CMAKE_ARGS="-DGGML_CUDA=ON -DGGML_AVX2=OFF -DGGML_AVX=OFF -DGGML_F16C=OFF -DGGML_FMA=OFF" FORCE_CMAKE=1 pip install --force-reinstall llama-cpp-python --no-cache-dir如何加快
LLM.ingest的速度?默认情况下,如果有可用的 GPU,将会用于计算嵌入向量,因此请确保 PyTorch 已安装并支持 GPU。您可以通过
embedding_model_kwargs参数显式控制用于计算嵌入向量的设备。from onprem import LLM llm = LLM(embedding_model_kwargs={'device':'cuda'})您还可以向
LLM提供store_type="sparse"参数,以使用稀疏向量存储,这会牺牲少量推理速度(LLM.ask),但在摄入阶段(LLM.ingest)可显著提升速度。from onprem import LLM llm = LLM(store_type="sparse")请注意,与密集向量存储不同,稀疏向量存储假设答案来源至少包含与问题共有的一个词。
引用方式
在使用 OnPrem.LLM 时,请引用 以下论文:
@article{maiya2025generativeaiffrdcs,
title={FFRDCs 的生成式 AI},
author={Arun S. Maiya},
year={2025},
eprint={2509.21040},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2509.21040},
}
版本历史
v0.22.12026/03/24v0.22.02026/03/17v0.21.52026/03/03v0.21.42026/01/26v0.21.32026/01/22v0.21.22026/01/12v0.21.12026/01/07v0.21.02026/01/06v0.20.02025/12/29v0.19.62025/12/05v0.19.52025/12/05v0.19.42025/12/04v0.19.32025/11/20v0.19.22025/11/05v0.19.12025/10/20v0.19.02025/09/26v0.18.22025/08/28v0.18.12025/08/22v0.18.02025/08/20v0.17.22025/08/15常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器