

Modernbert Base
簡介 :
ModernBERT-base是一個現代化的雙向編碼器Transformer模型,預訓練於2萬億英文和代碼數據,原生支持長達8192個token的上下文。該模型採用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架構改進,使其在長文本處理任務中表現出色。ModernBERT-base適用於需要處理長文檔的任務,如檢索、分類和大型語料庫中的語義搜索。模型訓練數據主要為英文和代碼,因此可能在其他語言上的表現會有所降低。
需求人群 :
目標受眾為需要處理長文本數據的開發者、數據科學家和研究人員。ModernBERT-base由於其長文本處理能力和對英文及代碼數據的優化,特別適合於自然語言處理、代碼檢索和混合(文本+代碼)語義搜索等場景。
使用場景
在大規模文檔中進行信息檢索
對代碼庫進行語義搜索以找到相關函數或模塊
在大型語料庫中進行文本分類和語義搜索
產品特色
支持長達8192個token的長文本處理能力
Rotary Positional Embeddings (RoPE) 支持長上下文
Local-Global Alternating Attention 提升長輸入的效率
Unpadding和Flash Attention 優化推理效率
適用於大規模文本和代碼數據的預訓練
無需token type IDs,簡化了下游任務的使用
支持使用Flash Attention 2以獲得更高的效率
使用教程
1. 安裝transformers庫:使用pip安裝git+https://github.com/huggingface/transformers.git。
2. 加載模型和分詞器:使用AutoTokenizer和AutoModelForMaskedLM從預訓練模型加載分詞器和模型。
3. 準備輸入文本:將待處理的文本輸入到分詞器中,獲取模型需要的輸入格式。
4. 模型推理:將處理好的輸入數據傳遞給模型,進行推理。
5. 獲取預測結果:對於Masked Language Model任務,獲取模型對[MASK]位置的預測結果。
6. 應用下游任務:對於分類、檢索或問答等任務,可以對ModernBERT進行微調以適應特定任務。
7. 使用Flash Attention 2優化效率:如果GPU支持,安裝flash-attn庫並使用以獲得更高的推理效率。
精選AI產品推薦

Deepmind Gemini
Gemini是谷歌DeepMind推出的新一代人工智能系統。它能夠進行多模態推理,支持文本、圖像、視頻、音頻和代碼之間的無縫交互。Gemini在語言理解、推理、數學、編程等多個領域都超越了之前的狀態,成為迄今為止最強大的AI系統之一。它有三個不同規模的版本,可滿足從邊緣計算到雲計算的各種需求。Gemini可以廣泛應用於創意設計、寫作輔助、問題解答、代碼生成等領域。
AI模型
11.4M
中文精選

Liblibai
LiblibAI是一箇中國領先的AI創作平臺,提供強大的AI創作能力,幫助創作者實現創意。平臺提供海量免費AI創作模型,用戶可以搜索使用模型進行圖像、文字、音頻等創作。平臺還支持用戶訓練自己的AI模型。平臺定位於廣大創作者用戶,致力於創造條件普惠,服務創意產業,讓每個人都享有創作的樂趣。
AI模型
8.0M