oumi

GitHub
9.2k 742 简单 1 次阅读 今天Apache-2.0语言模型开发框架其他
AI 解读 由 AI 自动生成,仅供参考

Oumi 是一个专为构建最先进基础模型打造的全流程开源平台,旨在让大语言模型(LLM)和多模态模型(VLM)的微调、评估与部署变得简单高效。无论是热门的 Qwen3、DeepSeek-R1,还是其他开源模型,用户都能通过 Oumi 轻松上手。

它主要解决了开发者在模型定制过程中面临的环境配置复杂、工具链分散以及部署门槛高等痛点,提供了一条从数据处理到最终上线的端到端解决方案。通过统一的接口和自动化流程,Oumi 大幅降低了技术摩擦,让用户能更专注于模型效果本身。

这款工具非常适合 AI 研究人员、算法工程师以及希望深入定制开源模型的开发者使用。如果你需要快速验证新想法或构建专属的行业模型,Oumi 能提供强有力的支持。

在技术亮点方面,Oumi 不仅兼容最新的 Transformers、TRL 和 vLLM 等核心库,还支持 DeepSpeed 加速训练及多种高级对齐算法(如 KTO、DPO)。近期更新更引入了自动超参数调优、数据合成能力以及对 OpenEnv 强化学习环境的支持,甚至允许用户一键将模型部署到 Fireworks.ai 等云端推理服务,真正实现了“开箱即用”的现代化开发体验。

使用场景

某电商初创公司的算法团队急需构建一个专属的“智能售后客服模型”,以自动处理海量的用户退货与换货请求,但团队仅有两名工程师且算力资源有限。

没有 oumi 时

  • 环境配置繁琐:工程师需手动拼接 Hugging Face Transformers、TRL 和 vLLM 等库的特定版本,常因依赖冲突导致数天的环境调试时间浪费。
  • 微调流程割裂:数据预处理、模型训练(如 Qwen3 或 DeepSeek-R1)与后续评估分散在不同脚本中,缺乏统一标准,难以复现实验结果。
  • 部署门槛极高:将训练好的模型转化为高并发推理服务需要编写复杂的后端代码和 Docker 配置,小团队无力承担运维成本。
  • 模型选型困难:面对众多开源多模态模型(VLM),缺乏便捷工具快速验证哪个模型最适合处理“用户上传的破损商品图片”场景。

使用 oumi 后

  • 一键式全链路管理:oumi 提供端到端解决方案,统一兼容主流框架,工程师只需一条命令即可完成从环境准备到依赖安装的全过程。
  • 标准化工作流:通过配置文件即可驱动数据合成、超参数自动调优及模型微调,轻松复现针对售后场景优化的 Qwen3.5 模型效果。
  • 极速云端部署:利用 oumi deploy 命令,直接将微调后的模型发布到 Fireworks.ai 或 Parasail 等专用推理端点,分钟级上线服务。
  • 高效模型评估:内置评估工具可快速对比不同开源模型在“图文理解”任务上的表现,迅速锁定最适合处理退货图片的模型架构。

oumi 让小型团队也能像大厂一样,以极低的工程成本实现从开源模型选择、定制微调到生产级部署的闭环落地。

运行环境要求

操作系统
  • Linux
  • macOS
GPU
  • 训练和大规模推理需要 NVIDIA GPU(支持 CUDA),具体显存取决于模型大小(从 10M 到 405B 参数)
  • 支持 CPU 运行小型任务或推理
内存

未说明(取决于模型规模,大模型训练需高内存)

依赖
notes推荐使用 'uv' 或 'pip' 安装,可通过 'oumi[gpu]' 获取 GPU 支持版本。支持多种云厂商(AWS, Azure, GCP, Lambda)远程任务调度。支持多种推理后端(vLLM, SGLang)。提供 Docker 镜像以便快速部署。支持从笔记本到集群的多种运行环境。
python3.9+ (v0.6.0 起支持 Python 3.13)
torch
transformers>=5.0
trl>=0.30
vllm>=0.19
deepspeed
accelerate
peft
datasets
omegaconf
rich
oumi hero image

快速开始

Oumi Logo

文档 博客 Twitter Discord PyPI版本 许可证 测试 GPU测试 GitHub仓库星标数 代码风格:black pre-commit 关于我们

您构建最先进基础模型所需的一切,端到端完成

GitHub趋势

🔥 最新消息

更早的更新
  • [2025年9月] Oumi v0.4.0发布,支持DeepSpeed、Hugging Face Hub缓存管理工具、KTO/Vision DPO训练器
  • [2025年8月] 提供OpenAI的gpt-oss-20bgpt-oss-120b的训练与推理支持:配方在此
  • [2025年8月] 8月14日网络研讨会——OpenAI的gpt-oss:去伪存真
  • [2025年8月] Oumi v0.3.0发布,包含模型量化(AWQ)、改进的LLM-as-a-Judge API以及自适应推理功能
  • [2025年7月] Qwen3 235B的配方
  • [2025年7月] 7月24日网络研讨会:“使用Oumi + Lambda训练最先进的代理LLM”(观看视频
  • [2025年6月] Oumi v0.2.0发布,支持GRPO微调、新增大量模型支持等
  • [2025年6月] 宣布在NeurIPS2025举办视觉语言模型数据整理竞赛(DCVLR)
  • [2025年6月] 新发布的Falcon-H1Falcon-E模型的训练、推理与评估配方
  • [2025年5月] 对InternVL3 1B的支持及配方
  • [2025年4月] 新增对Llama 4系列模型的训练与推理支持:Scout(激活17B,总规模109B)和Maverick(激活17B,总规模400B)变体,涵盖完整微调、LoRA及QLoRA配置
  • [2025年4月] Qwen3模型家族的配方
  • [2025年4月] 推出HallOumi:一款最先进的事实核查模型(技术概述)
  • [2025年4月] Oumi现支持两款新的视觉语言模型:Phi4Qwen 2.5

🔎 关于

Oumi 是一个完全开源的平台,旨在简化基础模型的整个生命周期——从数据准备、训练,到评估和部署。无论您是在笔记本电脑上进行开发、在集群上启动大规模实验,还是将模型部署到生产环境中,Oumi 都能为您提供所需的工具和工作流。

借助 Oumi,您可以:

  • 🚀 使用最先进的技术(SFT、LoRA、QLoRA、GRPO 等)训练和微调参数量从 1000 万到 4050 亿的模型
  • 🤖 同时处理文本模型和多模态模型(Llama、DeepSeek、Qwen、Phi 等)
  • 🔄 利用 LLM 评判员合成并筛选训练数据
  • ⚡️ 使用流行的推理引擎(vLLM、SGLang)高效部署模型
  • 📊 在标准基准上全面评估模型
  • 🌎 可在任何地方运行——从笔记本电脑到集群再到云端(AWS、Azure、GCP、Lambda 等)
  • 🔌 可与开源模型和商业 API(OpenAI、Anthropic、Vertex AI、Together、Parasail 等)集成

所有这些功能都通过一致的 API 实现,具备生产级可靠性,并为您提供研究所需的所有灵活性。

更多信息请访问 oumi.ai,或直接阅读快速入门指南

🚀 开始使用

Notebook 在 Colab 中尝试 目标
🎯 入门:概览 在 Colab 中打开 核心功能快速概览:训练、评估、推理和作业管理
🔧 模型微调指南 在 Colab 中打开 LoRA 微调的端到端指南,包含数据准备、训练和评估
📚 模型蒸馏 在 Colab 中打开 将大型模型蒸馏为更小、更高效的模型的指南
📋 模型评估 在 Colab 中打开 使用 Oumi 的评估框架进行全面的模型评估
☁️ 远程训练 在 Colab 中打开 在云平台(AWS、Azure、GCP、Lambda 等)上启动并监控训练作业
📈 LLM 作为评判员 在 Colab 中打开 使用内置评判员过滤和筛选训练数据

🔧 使用方法

安装

选择最适合您的安装方式:

使用 pip(推荐)
# 基本安装
uv pip install oumi

# 带 GPU 支持
uv pip install 'oumi[gpu]'

# 最新开发版本
uv pip install git+https://github.com/oumi-ai/oumi.git

如果没有 uv?请安装它,或者改用 pip

使用 Docker
# 拉取最新镜像
docker pull ghcr.io/oumi-ai/oumi:latest

# 运行 Oumi 命令
docker run --gpus all -it ghcr.io/oumi-ai/oumi:latest oumi --help

# 挂载配置文件进行训练
docker run --gpus all -v $(pwd):/workspace -it ghcr.io/oumi-ai/oumi:latest \
    oumi train --config /workspace/my_config.yaml
快速安装脚本(实验性)

无需设置 Python 环境即可试用 Oumi。此脚本会将 Oumi 安装在一个隔离的环境中:

curl -LsSf https://oumi.ai/install.sh | bash

如需更多高级安装选项,请参阅安装指南

Oumi CLI

您可以使用 oumi 命令快速训练、评估和推理模型,只需选用现有的配方之一:

# 训练
oumi train -c configs/recipes/smollm/sft/135m/quickstart_train.yaml

# 评估
oumi evaluate -c configs/recipes/smollm/evaluation/135m/quickstart_eval.yaml

# 推理
oumi infer -c configs/recipes/smollm/inference/135m_infer.yaml --interactive

如需更多高级选项,请参阅训练评估推理以及LLM 作为评判员指南。

远程运行作业

您可以通过 oumi launch 命令在云平台(AWS、Azure、GCP、Lambda 等)上远程运行作业:

# GCP
oumi launch up -c configs/recipes/smollm/sft/135m/quickstart_gcp_job.yaml

# AWS
oumi launch up -c configs/recipes/smollm/sft/135m/quickstart_gcp_job.yaml --resources.cloud aws

# Azure
oumi launch up -c configs/recipes/smollm/sft/135m/quickstart_gcp_job.yaml --resources.cloud azure

# Lambda
oumi launch up -c configs/recipes/smollm/sft/135m/quickstart_gcp_job.yaml --resources.cloud lambda

注意:Oumi 目前处于测试版阶段,仍在积极开发中。核心功能已稳定,但随着平台不断完善,部分高级功能可能会发生变化。

💻 为什么选择 Oumi?

如果您需要一个用于训练、评估或部署模型的综合性平台,Oumi 是一个绝佳的选择。

以下是使 Oumi 脱颖而出的一些关键特性:

  • 🔧 零样板代码:使用适用于热门模型和工作流的即用型配方,几分钟内即可上手。无需编写训练循环或数据流水线。
  • 🏢 企业级:由大规模训练模型的团队构建并验证
  • 🎯 科研就绪:非常适合机器学习研究,实验易于复现,且提供灵活的接口以自定义每个组件。
  • 🌐 广泛的模型支持:兼容大多数主流模型架构——从小型模型到最大规模的模型,从纯文本模型到多模态模型。
  • 🚀 SOTA 性能:原生支持分布式训练技术(FSDP、DeepSpeed、DDP)和优化的推理引擎(vLLM、SGLang)。
  • 🤝 社区至上:100% 开源,拥有活跃的社区。无供应商锁定,无附加条件。

📚 示例与配方

探索不断增长的、开箱即用的配置集合,适用于最先进的一系列模型和训练工作流:

注意: 这些配置并非支持内容的完整列表,而只是帮助您入门的示例。您可以在 oumi 文档中找到更全面的支持 模型 和数据集列表(包括 监督微调预训练偏好优化 以及 视觉-语言微调)。

通义千问家族

模型 示例配置
Qwen3-Next 80B A3B LoRA推理推理(指令版)评估
Qwen3 30B A3B LoRA推理评估
Qwen3 32B LoRA推理评估
Qwen3 14B LoRA推理评估
Qwen3 8B 全量微调推理评估
Qwen3 4B 全量微调推理评估
Qwen3 1.7B 全量微调推理评估
Qwen3 0.6B 全量微调推理评估
QwQ 32B 全量微调LoRAQLoRA推理评估
Qwen2.5-VL 3B SFTLoRA推理(vLLM)推理
Qwen2-VL 2B SFTLoRA推理(vLLM)推理(SGLang)推理评估

🐋 深势R1家族

模型 示例配置
DeepSeek R1 671B 推理(Together AI)
精馏Llama 8B 全量微调LoRAQLoRA推理评估
精馏Llama 70B 全量微调LoRAQLoRA推理评估
精馏Qwen 1.5B 全量微调LoRA推理评估
精馏Qwen 32B LoRA推理评估

🦙 Llama 家族

模型 示例配置
Llama 4 Scout Instruct 17B FFTLoRAQLoRA推理 (vLLM)推理推理 (Together.ai)
Llama 4 Scout 17B FFT
Llama 3.1 8B FFTLoRAQLoRA预训练推理 (vLLM)推理评估
Llama 3.1 70B FFTLoRAQLoRA推理评估
Llama 3.1 405B FFTLoRAQLoRA
Llama 3.2 1B FFTLoRAQLoRA推理 (vLLM)推理 (SGLang)推理评估
Llama 3.2 3B FFTLoRAQLoRA推理 (vLLM)推理 (SGLang)推理评估
Llama 3.3 70B FFTLoRAQLoRA推理 (vLLM)推理评估
Llama 3.2 Vision 11B SFT推理 (vLLM)推理 (SGLang)评估

🦅 Falcon 家族

模型 示例配置
Falcon-H1 FFT推理评估
Falcon-E (BitNet) FFTDPO评估

💎 Gemma 3 家族

模型 示例配置
Gemma 3 4B Instruct FFT推理评估
Gemma 3 12B Instruct LoRA推理评估
Gemma 3 27B Instruct LoRA推理评估

🦉 OLMo 3 家族

模型 示例配置
OLMo 3 7B Instruct FFT推理评估
OLMo 3 32B Instruct LoRA推理评估

🎨 Vision Models

Model Example Configurations
Llama 3.2 Vision 11B SFTLoRAInference (vLLM)Inference (SGLang)Evaluation
LLaVA 7B SFTInference (vLLM)Inference
Phi3 Vision 4.2B SFTLoRAInference (vLLM)
Phi4 Vision 5.6B SFTLoRAInference (vLLM)Inference
Qwen2-VL 2B SFTLoRAInference (vLLM)Inference (SGLang)InferenceEvaluation
Qwen3-VL 2B Inference
Qwen3-VL 4B Inference
Qwen3-VL 8B Inference
Qwen2.5-VL 3B SFTLoRAInference (vLLM)Inference
SmolVLM-Instruct 2B SFTLoRA

🔍 Even more options

This section lists all the language models that can be used with Oumi. Thanks to the integration with the 🤗 Transformers library, you can easily use any of these models for training, evaluation, or inference.

Models prefixed with a checkmark (✅) have been thoroughly tested and validated by the Oumi community, with ready-to-use recipes available in the configs/recipes directory.

📋 Click to see more supported models

Instruct Models

Model Size Paper HF Hub License Open [^1]
✅ SmolLM-Instruct 135M/360M/1.7B Blog Hub Apache 2.0
✅ DeepSeek R1 Family 1.5B/8B/32B/70B/671B Blog Hub MIT
✅ Llama 3.1 Instruct 8B/70B/405B Paper Hub License
✅ Llama 3.2 Instruct 1B/3B Paper Hub License
✅ Llama 3.3 Instruct 70B Paper Hub License
✅ Phi-3.5-Instruct 4B/14B Paper Hub License
✅ Qwen3 0.6B-32B Paper Hub License
Qwen2.5-Instruct 0.5B-70B Paper Hub License
OLMo 2 Instruct 7B Paper Hub Apache 2.0
✅ OLMo 3 Instruct 7B/32B Paper Hub Apache 2.0
MPT-Instruct 7B Blog Hub Apache 2.0
Command R 35B/104B Blog Hub License
Granite-3.1-Instruct 2B/8B Paper Hub Apache 2.0
Gemma 2 Instruct 2B/9B Blog Hub License
✅ Gemma 3 Instruct 4B/12B/27B Blog Hub License
DBRX-Instruct 130B MoE Blog Hub Apache 2.0
Falcon-Instruct 7B/40B Paper Hub Apache 2.0
✅ Llama 4 Scout Instruct 17B (Activated) 109B (Total) Paper Hub License
✅ Llama 4 Maverick Instruct 17B (Activated) 400B (Total) Paper Hub License

Vision-Language Models

Model Size Paper HF Hub License Open
✅ Llama 3.2 Vision 11B Paper Hub License
✅ LLaVA-1.5 7B Paper Hub License
✅ Phi-3 Vision 4.2B Paper Hub License
✅ BLIP-2 3.6B Paper Hub MIT
✅ Qwen2-VL 2B Blog Hub License
✅ Qwen3-VL 2B/4B/8B Blog Hub License
✅ SmolVLM-Instruct 2B Blog Hub Apache 2.0

Base Models

Model Size Paper HF Hub License Open
✅ SmolLM2 135M/360M/1.7B Blog Hub Apache 2.0
✅ Llama 3.2 1B/3B Paper Hub License
✅ Llama 3.1 8B/70B/405B Paper Hub License
✅ GPT-2 124M-1.5B Paper Hub MIT
DeepSeek V2 7B/13B Blog Hub License
Gemma2 2B/9B Blog Hub License
GPT-J 6B Blog Hub Apache 2.0
GPT-NeoX 20B Paper Hub Apache 2.0
Mistral 7B Paper Hub Apache 2.0
Mixtral 8x7B/8x22B Blog Hub Apache 2.0
MPT 7B Blog Hub Apache 2.0
OLMo 1B/7B Paper Hub Apache 2.0
✅ Llama 4 Scout 17B (Activated) 109B (Total) Paper Hub License

Reasoning Models

Model Size Paper HF Hub License Open
✅ gpt-oss 20B/120B Paper Hub Apache 2.0
✅ Qwen3 0.6B-32B Paper Hub License
✅ Qwen3-Next 80B-A3B Blog Hub License
Qwen QwQ 32B Blog Hub License

Code Models

Model Size Paper HF Hub License Open
✅ Qwen2.5 Coder 0.5B-32B Blog Hub License
DeepSeek Coder 1.3B-33B Paper Hub License
StarCoder 2 3B/7B/15B Paper Hub License

Math Models

Model Size Paper HF Hub License Open
DeepSeek Math 7B Paper Hub License

📖 Documentation

To learn more about all the platform's capabilities, see the Oumi documentation.

🤝 Join the Community

Oumi is a community-first effort. Whether you are a developer, a researcher, or a non-technical user, all contributions are very welcome!

  • To contribute to the oumi repository, please check the CONTRIBUTING.md for guidance on how to contribute to send your first Pull Request.
  • Make sure to join our Discord community to get help, share your experiences, and contribute to the project!
  • If you are interested in joining one of the community's open-science efforts, check out our open collaboration page.

🙏 Acknowledgements

Oumi makes use of several libraries and tools from the open-source community. We would like to acknowledge and deeply thank the contributors of these projects! ✨ 🌟 💫

📝 Citation

If you find Oumi useful in your research, please consider citing it:

@software{oumi2025,
  author = {Oumi Community},
  title = {Oumi: an Open, End-to-end Platform for Building Large Foundation Models},
  month = {January},
  year = {2025},
  url = {https://github.com/oumi-ai/oumi}
}

📜 License

This project is licensed under the Apache License 2.0. See the LICENSE file for details.

[^1]: Open models are defined as models with fully open weights, training code, and data, and a permissive license. See Open Source Definitions for more information.

版本历史

v0.72026/01/29
v0.6.02025/12/17
v0.5.02025/11/18
v0.4.22025/10/20
v0.4.12025/10/14
v0.4.02025/09/02
v0.3.02025/08/05
v0.2.12025/07/11
v0.2.02025/06/23
v0.1.142025/06/10
v0.1.132025/05/29
v0.1.122025/04/16
v0.1.112025/04/06
v0.1.102025/03/25
v0.1.92025/03/24
v0.1.82025/03/10
v0.1.72025/02/25
v0.1.62025/02/22
v0.1.52025/02/20
v0.1.42025/02/03

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|昨天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

142.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|今天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|昨天
语言模型图像Agent