ModernBERT-base
M
Modernbert Base
簡介 :
ModernBERT-base是一個現代化的雙向編碼器Transformer模型,預訓練於2萬億英文和代碼數據,原生支持長達8192個token的上下文。該模型採用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架構改進,使其在長文本處理任務中表現出色。ModernBERT-base適用於需要處理長文檔的任務,如檢索、分類和大型語料庫中的語義搜索。模型訓練數據主要為英文和代碼,因此可能在其他語言上的表現會有所降低。
需求人群 :
目標受眾為需要處理長文本數據的開發者、數據科學家和研究人員。ModernBERT-base由於其長文本處理能力和對英文及代碼數據的優化,特別適合於自然語言處理、代碼檢索和混合(文本+代碼)語義搜索等場景。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 52.2K
使用場景
在大規模文檔中進行信息檢索
對代碼庫進行語義搜索以找到相關函數或模塊
在大型語料庫中進行文本分類和語義搜索
產品特色
支持長達8192個token的長文本處理能力
Rotary Positional Embeddings (RoPE) 支持長上下文
Local-Global Alternating Attention 提升長輸入的效率
Unpadding和Flash Attention 優化推理效率
適用於大規模文本和代碼數據的預訓練
無需token type IDs,簡化了下游任務的使用
支持使用Flash Attention 2以獲得更高的效率
使用教程
1. 安裝transformers庫:使用pip安裝git+https://github.com/huggingface/transformers.git。
2. 加載模型和分詞器:使用AutoTokenizer和AutoModelForMaskedLM從預訓練模型加載分詞器和模型。
3. 準備輸入文本:將待處理的文本輸入到分詞器中,獲取模型需要的輸入格式。
4. 模型推理:將處理好的輸入數據傳遞給模型,進行推理。
5. 獲取預測結果:對於Masked Language Model任務,獲取模型對[MASK]位置的預測結果。
6. 應用下游任務:對於分類、檢索或問答等任務,可以對ModernBERT進行微調以適應特定任務。
7. 使用Flash Attention 2優化效率:如果GPU支持,安裝flash-attn庫並使用以獲得更高的推理效率。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase