EXAONE-3.5-2.4B-Instruct-AWQ
E
EXAONE 3.5 2.4B Instruct AWQ
簡介 :
EXAONE-3.5-2.4B-Instruct-AWQ是由LG AI Research開發的一系列雙語(英語和韓語)指令調優生成模型,參數範圍從2.4B到32B。這些模型支持長達32K令牌的長上下文處理,並且在真實世界用例和長上下文理解方面展現出最先進的性能,同時在與近期發佈的類似大小模型相比,在通用領域保持競爭力。該模型在部署到小型或資源受限設備上進行了優化,並且採用了AWQ量化技術,實現了4位群組權重量化(W4A16g128)。
需求人群 :
目標受眾為需要在資源受限設備上部署高性能語言模型的開發者和研究人員,以及需要處理長文本數據和多語言支持的NLP應用開發者。EXAONE-3.5-2.4B-Instruct-AWQ因其優化的部署能力和長上下文處理能力,特別適合需要在移動設備或邊緣計算環境中部署語言模型的場景。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 46.4K
使用場景
用於生成英語和韓語的對話回覆
在資源受限的移動設備上提供語言模型服務
作為長文本處理和分析的工具,用於研究和商業智能
產品特色
支持長達32K令牌的長上下文處理能力
優化的2.4B模型,適合在資源受限的設備上部署
7.8B模型提供與前代相同的規模但性能提升
32B模型提供強大的性能
支持英語和韓語兩種語言
AWQ量化技術,實現4位群組權重量化
支持多種部署框架,如TensorRT-LLM、vLLM等
使用教程
1. 安裝必要的庫,如transformers和autoawq
2. 使用AutoModelForCausalLM和AutoTokenizer加載模型和分詞器
3. 準備輸入提示,可以是英文或韓文
4. 使用tokenizer.apply_chat_template方法將消息模板化並轉換為輸入ID
5. 調用model.generate方法生成文本
6. 使用tokenizer.decode方法將生成的ID解碼為文本
7. 根據需要調整模型參數,如max_new_tokens和do_sample,以控制生成文本的長度和多樣性
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase