Yuan2.0-M32
Y
Yuan2.0 M32
簡介 :
Yuan2.0-M32是一個具有32個專家的混合專家(MoE)語言模型,其中2個是活躍的。提出了一種新的路由網絡——注意力路由,用於更高效的專家選擇,提高了3.8%的準確性。該模型從零開始訓練,使用了2000B個token,其訓練計算量僅為同等參數規模的密集模型所需計算量的9.25%。在編碼、數學和各種專業領域表現出競爭力,僅使用3.7B個活躍參數,每個token的前向計算量僅為7.4 GFLOPS,僅為Llama3-70B需求的1/19。在MATH和ARC-Challenge基準測試中超越了Llama3-70B,準確率分別達到了55.9%和95.8%。
需求人群 :
Yuan2.0-M32適合需要在編碼、數學和專業領域進行高效計算和推理的開發者和研究人員。其低計算量和高準確性使其成為大規模語言模型應用的理想選擇。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 46.1K
使用場景
用於開發自然語言理解的應用程序
在數學問題解決中提供精確的計算支持
作為專業領域知識獲取和推理的輔助工具
產品特色
混合專家(MoE)模型,擁有32個專家,其中2個活躍
採用新的注意力路由網絡,提高模型選擇專家的效率
從零開始訓練,使用了2000B個token,訓練計算量低
在編碼、數學和專業領域表現出色,具有競爭力
在MATH和ARC-Challenge基準測試中超越其他模型
模型操作僅使用3.7B個活躍參數,計算效率高
使用教程
1. 配置環境,推薦使用Yuan2.0-M32的最新docker鏡像
2. 根據提供的腳本進行數據預處理
3. 使用示例腳本進行模型預訓練
4. 參考vllm的詳細部署計劃進行推理服務部署
5. 查看GitHub倉庫以獲取更多信息和文檔
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase