FP6-LLM
F
FP6 LLM
簡介 :
FP6-LLM是一種用於大型語言模型的全新支持方案,通過六位量化(FP6)有效地減小了模型大小,並在各種應用中始終保持模型質量。我們提出了TC-FPx,這是第一個完整的GPU內核設計方案,統一支持各種量化位寬的浮點權重。我們將TC-FPx內核集成到現有推理系統中,為量化的LLM推理提供了全新的端到端支持(稱為FP6-LLM),實現了推理成本和模型質量之間更好的權衡。實驗證明,FP6-LLM使得使用單個GPU進行LLaMA-70b推理成為可能,實現的規範化推理吞吐量比FP16基準高1.69倍至2.65倍。
需求人群 :
適用於需要大型語言模型支持的推理場景,特別是對推理成本和模型質量有嚴格要求的情況。
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 58.5K
使用場景
科研機構使用FP6-LLM進行大規模語言模型推理
軟件公司將FP6-LLM集成到其自然語言處理應用中
數據中心利用FP6-LLM實現大規模語言模型推理加速
產品特色
六位量化模型支持
統一支持各種量化位寬的浮點權重
提供端到端支持,實現更好的推理成本和模型質量權衡
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase