Loading...

ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版

GoodNav 12月29日消息,Hugging Face、NVIDIA及约翰霍普金斯大学的研究团队联合推出了热门编码器模型BERT的新版本——ModernBERT,该版本声称在保持效率的同时,新增了对长达8192个Token的上下文处理能力。

ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版

开发团队表示,自2018年发布BERT模型以来,尽管该模型仍被广泛应用,并在Hugging Face的下载排行榜中名列第二,仅次于RoBERTa,每月下载量超过6800万次,但如今这款模型已经显得有些过时。

在BERT模型首次发布六年后,Hugging Face和其他团队借鉴了近年来大规模语言模型的发展,对BERT的架构和训练过程进行了改进,最终推出了ModernBERT模型,以替代原版BERT。

ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版

ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版

▲ ModernBERT模型的基准测试结果

据悉,相关开发团队使用了20000亿个Token进行ModernBERT的训练,使得该模型在多项分类测试和向量检索测试中达到了业内领先水平。目前,开发团队已公布了两个版本的模型,分别为1.39亿参数和3.95亿参数版本,项目地址如下(点此访问)。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...