Yuan2.0-M32
Y
Yuan2.0 M32
简介 :
Yuan2.0-M32是一个具有32个专家的混合专家(MoE)语言模型,其中2个是活跃的。提出了一种新的路由网络——注意力路由,用于更高效的专家选择,提高了3.8%的准确性。该模型从零开始训练,使用了2000B个token,其训练计算量仅为同等参数规模的密集模型所需计算量的9.25%。在编码、数学和各种专业领域表现出竞争力,仅使用3.7B个活跃参数,每个token的前向计算量仅为7.4 GFLOPS,仅为Llama3-70B需求的1/19。在MATH和ARC-Challenge基准测试中超越了Llama3-70B,准确率分别达到了55.9%和95.8%。
需求人群 :
Yuan2.0-M32适合需要在编码、数学和专业领域进行高效计算和推理的开发者和研究人员。其低计算量和高准确性使其成为大规模语言模型应用的理想选择。
总访问量: 29.7M
占比最多地区: US(17.94%)
本站浏览量 : 50.0K
使用场景
用于开发自然语言理解的应用程序
在数学问题解决中提供精确的计算支持
作为专业领域知识获取和推理的辅助工具
产品特色
混合专家(MoE)模型,拥有32个专家,其中2个活跃
采用新的注意力路由网络,提高模型选择专家的效率
从零开始训练,使用了2000B个token,训练计算量低
在编码、数学和专业领域表现出色,具有竞争力
在MATH和ARC-Challenge基准测试中超越其他模型
模型操作仅使用3.7B个活跃参数,计算效率高
使用教程
1. 配置环境,推荐使用Yuan2.0-M32的最新docker镜像
2. 根据提供的脚本进行数据预处理
3. 使用示例脚本进行模型预训练
4. 参考vllm的详细部署计划进行推理服务部署
5. 查看GitHub仓库以获取更多信息和文档
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase