LaBraM
LaBraM 是一个面向脑机接口(BCI)领域的通用脑电基础模型,旨在突破传统脑电深度学习模型规模受限且泛化能力不足的瓶颈。针对脑电数据普遍存在的数据集规模小、格式差异大(如电极数量不一、样本长度不等)以及信噪比低等挑战,LaBraM 通过在约 2500 小时、来自 20 个不同数据集的脑电信号上进行无监督预训练,学习到了通用的信号感知表示。
用户加载预训练权重后,只需针对特定任务进行微调,即可在异常检测、事件分类、情绪识别及步态预测等多种下游任务中取得优于现有最先进方法的性能。LaBraM 的技术亮点在于将脑电信号分割为通道补丁,利用向量量化神经频谱预测(VQ-NSP)构建语义丰富的神经 Tokenizer,并基于 Masked Modeling 策略训练 Transformer 架构,实现了跨数据集学习。
LaBraM 适合从事脑科学、人工智能及脑机接口研究的开发人员与科研人员使用。通过提供统一的预处理流程和微调脚本,LaBraM 降低了大规模脑电模型的应用门槛,助力研究者探索通用脑电感知能力的更多可能性。
使用场景
某医疗 AI 团队正在开发基于脑电图(EEG)的癫痫发作自动检测系统,旨在辅助医生快速识别异常脑电波形,但受限于数据规模与格式差异。
没有 LaBraM 时
- 本地标注数据稀缺,深度学习模型极易过拟合,跨患者泛化能力严重不足。
- 不同采集设备的电极通道数不一致,需针对不同任务手工设计复杂的预处理流程。
- 脑电信号信噪比低,传统特征提取方法难以捕捉深层语义,导致漏检与误报频发。
- 每次面对新任务都要从头训练模型,研发周期长且难以复用已有知识。
使用 LaBraM 后
- 加载 LaBraM 预训练权重,仅需少量本地数据微调,即可在低资源下实现高精度检测。
- 支持灵活指定输入通道顺序,自动适配不同设备的电极配置,大幅降低工程适配成本。
- 神经 Tokenizer 将连续脑电编码为紧凑神经码,有效过滤噪声并捕捉通用感知特征。
- 在异常检测任务上性能超越现有 SOTA 方法,显著提升了临床辅助诊断的可靠性。
LaBraM 通过大规模无监督预训练打破了脑电数据孤岛,为脑机接口任务提供了通用的感知基座。
运行环境要求
- 未说明
需要 NVIDIA GPU,训练推荐 8 × RTX 3090 或更好,CUDA 11.8
未说明

快速开始
LaBraM
我们 ICLR 2024(国际学习表征会议)论文的官方实现: Large Brain Model for Learning Generic Representations with Tremendous EEG Data in BCI

摘要
当前的基于脑电图(EEG)的深度学习模型通常是为脑机交互(BCI)中的特定数据集和应用设计的,限制了模型的规模,从而削弱了其感知能力和泛化性。最近,大型语言模型(LLMs)在文本处理方面取得了前所未有的成功,促使我们探索大型脑电模型(LEMs)的能力。我们希望 LEMs 能够突破不同任务类型 EEG 数据集的限制,并通过无监督预训练获得 EEG 信号的通用感知能力。然后,模型可以针对不同的下游任务进行微调。然而,与文本数据相比,EEG 数据集的体积通常较小且格式差异很大。例如,可能存在电极数量不匹配、数据样本长度不等、任务设计多样以及信噪比低等问题。为了克服这些挑战,我们提出了一个统一的 EEG 基础模型,称为大型脑模型(LaBraM)。LaBraM 通过将 EEG 信号分割为 EEG 通道片段来实现跨数据集学习。矢量量化神经频谱预测(VQ-NSP)用于训练一个语义丰富的神经分词器(tokenizer),将连续的原始 EEG 通道片段编码为紧凑的神经代码。然后,我们通过预测掩码 EEG 通道片段的原始神经代码来预训练神经 Transformer。LaBraM 在来自约 20 个数据集的约 2,500 小时的各种类型的 EEG 信号上进行了预训练,并在多种不同类型的下游任务上进行了验证。在异常检测、事件类型分类、情绪识别和步态预测上的实验表明,我们的 LaBraM 在其各自领域优于所有对比的最先进(SOTA)方法。
环境设置
创建环境并安装依赖:
conda create -n labram python=3.11
conda activate labram
conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.8 -c pytorch -c nvidia
conda install tensorboardX
pip install -r requirements.txt
[重要] 在您自己的数据集上微调
您可以遵循为 TUAB 和 TUEV 提供的微调脚本,将 LaBraM 适配到您自己的数据集。只需将代码中特定于数据集的部分替换为您自己的数据。这样做时,请确保:
- 加载预训练的 LaBraM 检查点(checkpoint)。
- 提供输入通道顺序列表以指定通道配置。
以上两点对获得 LaBraM 的正常性能至关重要。
运行实验
1. 准备预训练数据
使用以下脚本将原始 EEG 文件(例如 .cnt, .edf, .bdf)转换为 HDF5 格式:
dataset_maker/make_h5dataset_for_pretrain.py
您也可以实现自己的预处理流程,但请确保它与我们论文中的设置匹配:
- 移除无关通道
- 带通滤波器:0.1–75 Hz
- 陷波滤波器:50 Hz
- 重采样至 200 Hz
- 设置单位为 µV
2. 训练神经分词器(Neural Tokenizer)
分词器(tokenizer)通过**矢量量化神经频谱预测(VQ-NSP)**进行训练。我们建议在 8 × NVIDIA RTX 3090(或更好) GPU 上进行训练。
OMP_NUM_THREADS=1 torchrun --nnodes=1 --nproc_per_node=8 run_vqnsp_training.py \
--output_dir ./checkpoints/vqnsp/ \
--log_dir ./log/vqnsp/ \
--model vqnsp_encoder_base_decoder_3x200x12 \
--codebook_n_emd 8192 \
--codebook_emd_dim 64 \
--quantize_kmeans_init \
--batch_size 128 \
--opt adamw \
--opt_betas 0.9 0.99 \
--weight_decay 1e-4 \
--warmup_epochs 10 \
--epochs 100 \
--save_ckpt_freq 20
3. 预训练 LaBraM
通过从 EEG 通道片段重建掩码神经代码来预训练 LaBraM:
OMP_NUM_THREADS=1 torchrun --nnodes=1 --nproc_per_node=8 run_labram_pretraining.py \
--output_dir ./checkpoints/labram_base \
--log_dir ./log/labram_base \
--model labram_base_patch200_1600_8k_vocab \
--tokenizer_model vqnsp_encoder_base_decoder_3x200x12 \
--tokenizer_weight ./checkpoints/vqnsp.pth \
--batch_size 64 \
--lr 5e-4 \
--warmup_epochs 5 \
--clip_grad 3.0 \
--drop_path 0. \
--layer_scale_init_value 0.1 \
--opt_betas 0.9 0.98 \
--opt_eps 1e-8 \
--epochs 50 \
--save_ckpt_freq 5 \
--codebook_dim 64 \
--gradient_accumulation_steps 1
4. 在下游任务上微调
使用以下脚本预处理数据集(例如 TUAB, TUEV):
dataset_maker/make_TUAB.py
dataset_maker/make_TUEV.py
这包括预处理并分割为训练/验证/测试集。学习率和**预热轮数(warmup epochs)**等超参数对结果影响很大——请调整它们以获得最佳性能。以下是 TUAB 示例:
OMP_NUM_THREADS=1 torchrun --nnodes=1 --nproc_per_node=8 run_class_finetuning.py \
--output_dir ./checkpoints/finetune_tuab_base/ \
--log_dir ./log/finetune_tuab_base \
--model labram_base_patch200_200 \
--finetune ./checkpoints/labram-base.pth \
--weight_decay 0.05 \
--batch_size 64 \
--lr 5e-4 \
--update_freq 1 \
--warmup_epochs 5 \
--epochs 50 \
--layer_decay 0.65 \
--drop_path 0.1 \
--save_ckpt_freq 5 \
--disable_rel_pos_bias \
--abs_pos_emb \
--dataset TUAB \
--disable_qkv_bias \
--seed 0
引用
如果您发现我们的论文/代码有用,请考虑引用我们的工作:
@inproceedings{
jiang2024large,
title={Large Brain Model for Learning Generic Representations with Tremendous {EEG} Data in {BCI}},
author={Wei-Bang Jiang and Li-Ming Zhao and Bao-Liang Lu},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=QzTpTRVtrP}
}
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。
scikit-learn
scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最
keras
Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。