EXAONE-3.5-7.8B-Instruct
E
EXAONE 3.5 7.8B Instruct
简介 :
EXAONE-3.5-7.8B-Instruct是由LG AI Research开发的一系列指令调优的双语(英语和韩语)生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与近期发布的类似大小模型相比,在通用领域保持竞争力。
需求人群 :
目标受众为需要进行长上下文理解和文本生成的研究人员和开发者,特别是在需要处理大量数据和复杂任务时。由于模型支持双语,因此也适合需要英语和韩语文本生成能力的用户。
总访问量: 29.7M
占比最多地区: US(17.94%)
本站浏览量 : 48.0K
使用场景
用于生成高质量的英语和韩语文本
在长上下文理解任务中提供先进的性能
在多种真实世界用例中展现出竞争力
产品特色
参数数量(不包括嵌入):6.98B
层数:32
注意力头数:GQA,32个Q头和8个KV头
词汇量:102,400
上下文长度:32,768令牌
支持长上下文处理,最长达32K令牌
在真实世界用例中展现出最先进的性能
使用教程
1. 安装transformers库v4.43或更高版本
2. 使用AutoModelForCausalLM和AutoTokenizer从Hugging Face加载模型和分词器
3. 选择或编写提示(prompt)
4. 使用tokenizer.apply_chat_template方法处理消息并生成输入ID
5. 使用模型的generate方法生成文本
6. 使用tokenizer.decode方法将输出的令牌解码为文本
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase