PowerInfer
P
Powerinfer
簡介 :
PowerInfer 是一個在個人電腦上利用消費級 GPU 進行高速大型語言模型推理的引擎。它利用 LLM 推理中的高局部性特點,通過預加載熱激活的神經元到 GPU 上,從而顯著降低了 GPU 內存需求和 CPU-GPU 數據傳輸。PowerInfer 還集成了自適應預測器和神經元感知的稀疏運算符,優化神經元激活和計算稀疏性的效率。它可以在單個 NVIDIA RTX 4090 GPU 上以平均每秒 13.20 個標記的生成速率進行推理,比頂級服務器級 A100 GPU 僅低 18%。同時保持模型準確性。
需求人群 :
PowerInfer 適用於在本地部署大型語言模型的高速推理。
總訪問量: 474.6M
佔比最多地區: US(18.64%)
本站瀏覽量 : 119.0K
產品特色
利用稀疏激活和 “熱”/“冷” 神經元概念進行高效的 LLM 推理
無縫集成 CPU 和 GPU 的內存 / 計算能力,實現負載均衡和更快的處理速度
與常見的 ReLU 稀疏模型兼容
設計和深度優化用於本地部署在消費級硬件上,實現低延遲的 LLM 推理和服務
向後兼容性,支持與 llama.cpp 相同的模型權重進行推理,但不會有性能提升
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase