EXAONE-3.5-32B-Instruct-AWQ
E
EXAONE 3.5 32B Instruct AWQ
簡介 :
EXAONE-3.5-32B-Instruct-AWQ是LG AI Research開發的一系列指令調優的雙語(英語和韓語)生成模型,參數從2.4B到32B不等。這些模型支持長達32K令牌的長上下文處理,在真實世界用例和長上下文理解方面展現出最先進的性能,同時在與最近發佈的類似大小模型相比,在通用領域保持競爭力。該模型通過AWQ量化技術,實現了4位組級別的權重量化,優化了模型的部署效率。
需求人群 :
目標受眾為需要在多語言環境中進行文本生成和處理的研究人員、開發者和企業。由於模型支持長上下文處理和雙語能力,特別適合需要處理大量文本數據和跨語言交流的應用場景。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 51.9K
使用場景
研究人員使用該模型進行跨語言的文本翻譯和生成研究。
開發者利用模型的長上下文處理能力開發智能助手應用。
企業使用該模型優化客戶服務中的自動回覆系統。
產品特色
支持長達32K令牌的長上下文處理能力。
在英語和韓語的雙語生成模型中展現出最先進的性能。
通過AWQ量化技術,實現了4位組級別的權重量化。
模型參數數量達到30.95B,擁有64層和40個查詢頭。
支持快速啟動和部署,適用於多種框架,如TensorRT-LLM、vLLM等。
提供了預量化的EXAONE 3.5模型,方便在不同設備上部署。
模型生成的文本不反映LG AI Research的觀點,確保內容的中立性。
使用教程
1. 安裝必要的庫,如transformers>=4.43和autoawq>=0.2.7.post3。
2. 使用AutoModelForCausalLM和AutoTokenizer從Hugging Face加載模型和分詞器。
3. 準備輸入提示,可以是英文或韓文。
4. 使用tokenizer.apply_chat_template方法將消息轉換為模型輸入格式。
5. 調用model.generate方法生成文本。
6. 使用tokenizer.decode方法將生成的令牌轉換為可讀文本。
7. 根據需要調整模型參數,如max_new_tokens和do_sample,以控制生成文本的長度和多樣性。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase