Nemotron-4-340B-Instruct
N
Nemotron 4 340B Instruct
簡介 :
Nemotron-4-340B-Instruct是由NVIDIA開發的大型語言模型(LLM),專為英文單輪和多輪對話場景優化。該模型支持4096個token的上下文長度,經過監督式微調(SFT)、直接偏好優化(DPO)和獎勵感知偏好優化(RPO)等額外的對齊步驟。模型在約20K人工標註數據的基礎上,通過合成數據生成管道合成了超過98%的用於監督微調和偏好微調的數據。這使得模型在人類對話偏好、數學推理、編碼和指令遵循方面表現良好,並且能夠為多種用例生成高質量的合成數據。
需求人群 :
Nemotron-4-340B-Instruct模型面向需要構建或定製大型語言模型的開發者和企業。它特別適合於那些需要在英文對話、數學推理、編程指導等領域應用AI技術的用戶。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 51.9K
使用場景
用於生成訓練數據,幫助開發者訓練定製化的對話系統。
在數學問題解答領域,提供準確的邏輯推理和解答生成。
輔助編程人員快速理解代碼邏輯,提供編程指導和代碼生成。
產品特色
支持4096個token的上下文長度,適用於長文本處理。
經過SFT、DPO和RPO等對齊步驟,優化了對話和指令遵循能力。
能夠生成高質量的合成數據,助力開發者構建自己的LLM。
使用了Grouped-Query Attention (GQA)和Rotary Position Embeddings (RoPE)技術。
支持NeMo Framework的定製工具,包括參數高效微調和模型對齊。
在多種評估基準上表現優異,如MT-Bench、IFEval、MMLU等。
使用教程
1. 使用NeMo Framework創建一個Python腳本與部署的模型進行交互。
2. 創建一個Bash腳本來啟動推理服務器。
3. 使用Slurm作業調度系統將模型分佈在多個節點上,並與推理服務器關聯。
4. 定義Python腳本中的文本生成函數,設置請求頭和數據結構。
5. 調用文本生成函數,傳入提示(prompt)和生成參數,獲取模型響應。
6. 根據需要調整生成參數,如溫度(temperature)、top_k、top_p等,以控制文本生成的風格和多樣性。
7. 通過調整系統提示(system prompt)來優化模型的輸出,以達到更好的對話效果。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase