Chinese Tiny LLM
C
Chinese Tiny LLM
简介 :
Chinese Tiny LLM(CT-LLM)是针对中文设计的首个大语言模型,拥有20亿参数,并在12000亿中文语料库上进行预训练。CT-LLM专注于提高对中文语言的理解和生成能力,利用大规模的中文数据预训练,实现对中文文本的高效处理。虽然重点优化了中文处理,CT-LLM也展示了对英文和编程代码的良好处理能力,体现了模型的多语言适应性。在中文语言任务的基准测试CHC-Bench上,CT-LLM展现了出色的性能,证明了其在理解和应用中文方面的高效能力。CT-LLM从零开始训练,主要使用中文数据进行预训练,开放了整个数据过滤过程、训练动态、训练和评估数据,以及模型的中间检查点等所有相关信息。该开放资源的做法使得其他研究者、开发者能够访问这些资源,利用这些资料进行自己的研究或进一步改进模型。
需求人群 :
用于中文文本处理、生成和理解任务
总访问量: 557
占比最多地区: US(78.22%)
本站浏览量 : 72.3K
使用场景
用于中文NLP研究
中文文章自动生成
中文文本情感分析
产品特色
20亿参数的大语言模型
中文语言任务表现优秀
适应中文、英文和编程代码
开放资源支持进一步研究和应用
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase