ModernBERT-base:终于等到了 BERT 回归

简介: BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。

01.引言

BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。

6 年后,社区终于推出了替代品!今天,Answer.AI和LightOn发布了 ModernBERT。ModernBERT 是一个新的模型系列,在速度和准确性方面都比 BERT 系列实现了改进。该模型采用了近年来在大型语言模型 (LLM) 方面的数十项进展,并将它们应用于 BERT 风格的模型,包括对架构和训练过程的更新。

Decoder-Only 模型生成类似人类内容的能力使 GenAI 能够实现令人惊叹的全新应用领域,例如生成艺术和交互式聊天。但是许多实际应用需要一个精简的模型!而且它不需要是一个生成模型。对于大多数公司来说,大参数量的Decoder-Only模型过于复杂且成本高昂,难以复制。比如Llama的405B模型,或者闭源模型,通常需要等待几秒钟才能获得完整的 API 回复。而实际上更加精简,处理速度更快的小模型,可能更加适合传统的自然语言理解场景。

Encoder-Only模型的输出是数值列表(embedding tensor)。您可能会说,编码器模型不是用文本回答,而是将其“答案”直接编码为这种压缩的数字形式。该向量是模型输入的压缩表示,这就是为什么仅编码器模型有时被称为表征模型。

与参数量较大的Decoder-Only的模型相比,Encoder-Only的 Transformer 模型(例如 BERT)在检索和分类任务中提供了出色的性能和尺寸权衡。ModernBERT,它将现代模型优化引入Encoder-Only的模型,并且与旧编码器相比实现了重大的改进。ModernBERT 模型在 2 万亿个具有原生 8192 序列长度的 token 上进行训练,在大量评估中表现出最佳结果,这些评估涵盖了各种分类任务以及不同域(包括代码)上的单向量和多向量检索。除了强大的下游性能外,ModernBERT 还是速度和内存效率最高的编码器,专为在常见 GPU 上进行推理而设计。

02.模型概述

ModernBERT 是一种现代化的双向编码器 Transformer 模型(BERT 风格),预训练于 2 万亿个英文和代码数据标记,原生上下文长度可达 8,192 个标记。ModernBERT 利用了最近的架构改进,如:

  • Rotary Positional Embeddings 支持最多 8192 个标记的序列。
  • Unpadding 以确保不会在填充标记上浪费计算资源,从而加快混合长度序列批次的处理时间。
  • GeGLU用 GeGLU 层替换原来的 MLP 层,可提高性能。
  • Alternating Attention :大多数注意力层采用 128 个标记的滑动窗口,而全局注意力机制每 3 层才使用一次。
  • Flash Attention 注意加速处理。
  • 按照最近的“与硬件共同设计模型架构的案例”设计的模型,确保跨推理 GPU 的最高效率。
  • 现代训练数据规模(2 trillion tokens)和混合数据(包括代码和数学数据)

模型表现

添加图片注释,不超过 140 字(可选)

ModernBERT 的原生长上下文长度使其非常适合需要处理长文档的任务,例如检索、分类和大型语料库内的语义搜索。该模型在大量的文本和代码语料库上进行了训练,适用于广泛的下游任务,包括代码检索和混合(文本 + 代码)语义搜索。

模型下载

ModernBERT有以下几种大小可供选择:

03.模型推理

在魔搭社区长期免费的CPU资源上,即可流畅的运行ModernBERT模型,ModernBERT-base所需内存仅500M,处理速度ms级。

同时也可以使用GPU机器,更好的结合flash attention对ModernBERT模型加速。

添加图片注释,不超过 140 字(可选)

环境安装

!pip install git+https://github.com/huggingface/transformers.git

使用 AutoModelForMaskedLM模型推理

from transformers import AutoTokenizer, AutoModelForMaskedLM from modelscope import snapshot_download model_id = snapshot_download("answerdotai/ModernBERT-base") tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForMaskedLM.from_pretrained(model_id) text = "The capital of France is [MASK]." inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs) # To get predictions for the mask: masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id) predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1) predicted_token = tokenizer.decode(predicted_token_id) print("Predicted token:", predicted_token) # Predicted token:  Paris

使用pipeline:

import torch from transformers import pipeline from pprint import pprint pipe = pipeline(     "fill-mask",     model="answerdotai/ModernBERT-base",     torch_dtype=torch.bfloat16, ) input_text = "He walked to the [MASK]." results = pipe(input_text) pprint(results)

04.模型微调

我们使用ms-swift对ModernBERT-base进行分类任务微调。ms-swift是魔搭社区官方提供的大模型与多模态大模型微调部署框架。

ms-swift开源地址:

https://github.com/modelscope/ms-swift

微调数据集:

https://modelscope.cn/datasets/simpleai/HC3

在开始微调之前,请确保您的环境已准备妥当。

git clone https://github.com/modelscope/ms-swift.gitcd ms-swift pip install -e .[llm]

微调脚本如下:

CUDA_VISIBLE_DEVICES=0 \ swift sft \     --model answerdotai/ModernBERT-base \     --dataset simpleai/HC3:finance_cls#20000 \     --task_type seq_cls \     --num_labels 2 \     --train_type lora \     --torch_dtype bfloat16 \     --num_train_epochs 1 \     --per_device_train_batch_size 16 \     --per_device_eval_batch_size 16 \     --learning_rate 1e-4 \     --lora_rank 8 \     --lora_alpha 32 \     --target_modules all-linear \     --freeze_vit true \     --gradient_accumulation_steps 1 \     --eval_steps 100 \     --save_steps 100 \     --save_total_limit 5 \     --logging_steps 5 \     --max_length 2048 \     --output_dir output \     --warmup_ratio 0.05 \     --dataloader_num_workers 4

训练显存资源:

添加图片注释,不超过 140 字(可选)

自定义数据集格式如下,只需要指定`--dataset <dataset_path>`即可:

{"messages": [{"role": "user", "content": "今天天气真好呀"}], "label": 1} {"messages": [{"role": "user", "content": "今天真倒霉"}], "label": 0} {"messages": [{"role": "user", "content": "好开心"}], "label": 1}

训练分类acc:

添加图片注释,不超过 140 字(可选)

训练完成后,使用以下命令对训练时的验证集进行推理:

这里`--adapters`需要替换成训练生成的last checkpoint文件夹. 由于adapters文件夹中包含了训练的参数文件,因此不需要额外指定`--model`。

CUDA_VISIBLE_DEVICES=0 \ swift infer \     --adapters output/vx-xxx/checkpoint-xxx \     --max_batch_size 16 \     --load_data_args true

微调后模型部署:

CUDA_VISIBLE_DEVICES=0 \ swift deploy \     --adapters output/vx-xxx/checkpoint-xxx

部署完成后,使用以下命令进行客户端调用:

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{ "model": "ModernBERT-base", "messages": [{"role": "user", "content": "<content>"}] }'

05.结论

本文介绍了 ModernBERT 模型,这是一组新型、先进的小型高效编码器模型,最终使 BERT 得到了急需的改造。

ModernBERT 证明,Encoder-Only的模型可以通过现代方法得到改进。它们在某些任务上继续提供非常强大的性能,提供极具吸引力的尺寸/性能比。

注:本文部分内容引用自blog:https://huggingface.co/blog/modernbert

点击链接阅读原文:ModelScope 魔搭社区

目录
相关文章
|
机器学习/深度学习 人工智能 自然语言处理
ModernBERT:英伟达开源的新一代编码器模型,性能超越 SOTA,通过去除填充和序列打包减少计算浪费,提高训练和推理的效率
ModernBERT 是由英伟达和 HuggingFace 等机构联合开源的新一代编码器模型,支持长上下文处理,性能超越 SOTA,适合多种自然语言处理任务。
544 7
ModernBERT:英伟达开源的新一代编码器模型,性能超越 SOTA,通过去除填充和序列打包减少计算浪费,提高训练和推理的效率
|
7月前
|
机器学习/深度学习 数据采集 人工智能
微调之后还能做什么?大模型后训练全链路技术解析
本文探讨了后训练的重要性、方法以及最新进展。文章将包含理论分析与实际操作指南,适合希望深入了解并应用这些技术的开发者。
1788 18
微调之后还能做什么?大模型后训练全链路技术解析
|
9月前
|
人工智能 自然语言处理 搜索推荐
魔搭社区模型速递(4.27-5.10)
🙋魔搭ModelScope本期社区进展:📟2341个模型,206个数据集,🎨224个创新应用,📄 15篇内容
641 20
|
机器学习/深度学习 人工智能 自然语言处理
BERT的继任者ModernBERT:融合长序列处理、代码理解与高效计算的新一代双向编码器
ModernBERT 是一个全新的模型系列,在**速度**和**准确性**两个维度上全面超越了 BERT 及其后继模型。
892 9
|
搜索推荐 物联网 PyTorch
Qwen2.5-7B-Instruct Lora 微调
本教程介绍如何基于Transformers和PEFT框架对Qwen2.5-7B-Instruct模型进行LoRA微调。
13415 34
Qwen2.5-7B-Instruct Lora 微调
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
《深度剖析:BERT与GPT——自然语言处理架构的璀璨双星》
BERT与GPT系列模型是自然语言处理(NLP)领域的里程碑。基于Transformer架构,BERT通过双向编码实现深度语言理解,适用于情感分析、命名实体识别等任务;GPT则以单向生成见长,能够创作连贯文本,广泛应用于对话系统和内容生成。两者虽在架构与目标上各有侧重,但其融合探索正推动更通用的NLP模型发展。随着技术进步,NLP将在效率、可解释性和跨领域应用等方面持续突破,为人工智能带来无限可能。
661 6
|
JSON 人工智能 自然语言处理
小模型也能有类o1的慢思考能力?使用CAMEL生成CoT数据、Unsloth微调Qwen2.5-1.5B模型并上传至Hugging Face
本项目利用CAMEL生成高质量的CoT数据,结合Unsloth对Qwen2.5-1.5B模型进行微调,并将结果上传至Hugging Face。通过详细步骤介绍从数据生成到模型微调的完整流程,涵盖环境配置、API密钥设置、ChatAgent配置、问答数据生成与验证、数据转换保存、模型微调及推理保存等内容。最终展示了如何优化问答系统并分享实用技巧。 [CAMEL-AI](https://github.com/camel-ai/camel) 是一个开源社区,致力于智能体扩展研究。欢迎在GitHub上关注并加入我们!
1561 15
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
1017 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型

热门文章

最新文章