Yuan2.0-M32-hf-int8
Y
Yuan2.0 M32 Hf Int8
簡介 :
Yuan2.0-M32-hf-int8是一個具有32個專家的混合專家(MoE)語言模型,其中2個是活躍的。該模型通過採用新的路由網絡——注意力路由器,提高了專家選擇的效率,使得準確率比使用傳統路由網絡的模型提高了3.8%。Yuan2.0-M32從頭開始訓練,使用了2000億個token,其訓練計算量僅為同等參數規模的密集模型所需計算量的9.25%。該模型在編程、數學和各種專業領域展現出競爭力,並且只使用37億個活躍參數,佔總參數40億的一小部分,每個token的前向計算僅為7.4 GFLOPS,僅為Llama3-70B需求的1/19。Yuan2.0-M32在MATH和ARC-Challenge基準測試中超越了Llama3-70B,分別達到了55.9%和95.8%的準確率。
需求人群 :
Yuan2.0-M32-hf-int8模型適合需要處理大量數據和複雜任務的開發者和研究人員,尤其是在編程、數學和專業領域。它的高效率和準確性使其成為這些領域的理想選擇。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 48.3K
使用場景
用於開發複雜的編程項目,提高代碼生成的準確性
在數學問題求解中提供精確的計算和推理
應用於專業領域的知識獲取和文本生成
產品特色
32個專家中只有2個活躍,提高效率
使用注意力路由器,提升準確率3.8%
從頭開始訓練,使用2000億個token
訓練計算量小,僅佔同等規模密集模型的9.25%
在編程、數學等領域有競爭力
在MATH和ARC-Challenge基準測試中表現優異
使用教程
1. 配置環境,使用推薦的docker鏡像啟動Yuan2.0容器
2. 根據提供的腳本進行數據預處理
3. 使用示例腳本進行模型預訓練
4. 參考vllm文檔進行詳細部署以提供推理服務
5. 訪問GitHub倉庫獲取更多信息
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase