ModernBERT-large
M
Modernbert Large
簡介 :
ModernBERT-large是一個現代化的雙向編碼器Transformer模型(BERT風格),在2萬億個英文和代碼數據上預訓練,具有長達8192個token的原生上下文長度。該模型採用了最新的架構改進,如旋轉位置嵌入(RoPE)以支持長上下文,局部-全局交替注意力以提高長輸入的效率,以及無填充和Flash Attention以提高推理效率。ModernBERT-long適合處理需要處理長文檔的任務,如檢索、分類和大型語料庫中的語義搜索。模型訓練數據主要是英文和代碼,因此可能在其他語言上的表現會較低。
需求人群 :
目標受眾為自然語言處理(NLP)領域的研究人員和開發者,特別是那些需要處理長文本和代碼數據的專業人士。ModernBERT-large的長上下文處理能力和高效率使其成為大型語料庫和複雜NLP任務的理想選擇。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 49.7K
使用場景
在大規模語料庫中進行文本和代碼的語義搜索。
用於長文檔的檢索和分類任務。
在代碼搜索和StackQA等代碼檢索任務中達到新的最佳性能。
產品特色
• 旋轉位置嵌入(RoPE):支持長上下文處理。
• 局部-全局交替注意力:提高長輸入的處理效率。
• 無填充和Flash Attention:提高模型推理效率。
• 長上下文長度:原生支持長達8192個token的上下文。
• 多任務適用:適用於文本和代碼的檢索、分類和語義搜索。
• 高性能:在多個任務上超越其他相似大小的編碼器模型。
• 預訓練數據豐富:基於2萬億個英文和代碼數據預訓練。
使用教程
1. 安裝transformers庫:使用pip安裝最新的transformers庫。
2. 加載模型和分詞器:使用AutoTokenizer和AutoModelForMaskedLM從預訓練模型加載分詞器和模型。
3. 輸入文本處理:將輸入文本通過分詞器處理,得到模型需要的輸入格式。
4. 模型推理:將處理後的輸入文本傳遞給模型,進行推理。
5. 獲取預測結果:從模型輸出中獲取預測結果,例如填充[mask]的預測詞。
6. 微調模型:根據下游任務對模型進行微調,以提高特定任務的性能。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase