Tele-FLM
T
Tele FLM
简介 :
Tele-FLM(亦称FLM-2)是一个52亿参数的开源多语言大型语言模型,具有稳定高效的预训练范式和增强的事实判断能力。基于解码器仅变换器架构,已在大约2T的token上进行训练。Tele-FLM在同等规模上展现出优越的性能,有时甚至超越了更大的模型。除了分享模型权重外,我们还提供了核心设计、工程实践和训练细节,期待它们对学术界和工业界社区都有所裨益。
需求人群 :
Tele-FLM主要面向需要处理和生成多语言文本的开发者和研究人员,特别是那些在自然语言处理领域寻求高效、高性能模型的专业人士。
总访问量: 29.7M
占比最多地区: US(17.94%)
本站浏览量 : 49.1K
使用场景
用于生成特定领域的文本摘要。
在问答系统中提供准确的信息检索和回答。
作为聊天机器人的后端,提供流畅的对话体验。
产品特色
基于变换器架构的解码器仅模型,优化了事实判断能力。
支持多种语言,包括英语和中文。
提供核心设计和工程实践,方便社区使用和学习。
训练数据包含多个领域,覆盖广泛的知识。
采用3D并行训练技术,提高训练效率。
在多个评估基准上展现出良好的性能。
使用教程
1. 导入torch和transformers库。
2. 使用AutoTokenizer和AutoModelForCausalLM从预训练模型中加载tokenizer和模型。
3. 将输入文本通过tokenizer转换为模型可理解的格式。
4. 将转换后的输入数据传送到模型的设备上。
5. 使用model.generate方法生成文本。
6. 使用tokenizer.decode方法将生成的文本解码回可读格式。
7. 打印最终生成的文本。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase