Phi-3-mini-4k-instruct-onnx
P
Phi 3 Mini 4k Instruct Onnx
簡介 :
Phi-3 Mini是一款輕量級的最先進的開源大模型,構建於用於Phi-2的合成數據和過濾網站數據之上,致力於提供極高質量、推理密集型的數據。該模型經過了嚴格的增強過程,結合了監督式微調和直接偏好優化,以確保精確遵循指令和強大的安全措施。該倉庫提供了Phi-3 Mini的優化ONNX版本,可通過ONNX Runtime在CPU和GPU上進行加速推理,支持服務器、Windows、Linux、Mac等多種平臺,並針對每個平臺提供最佳精度配置。ONNX Runtime的DirectML支持還可讓開發人員在AMD、英特爾和NVIDIA GPU驅動的Windows設備上實現大規模硬件加速。
需求人群 :
["- 企業:可將Phi-3 Mini集成到各種業務應用中,提供自然語言處理能力","- 開發者:可利用Phi-3 Mini強大的生成能力,開發各種語言相關的應用和服務"," - 如對話系統、問答系統、文本生成、數據分析等","- 個人用戶:利用Phi-3 Mini輸出高質量的自然語言內容,輔助寫作、查詢等需求"]
總訪問量: 29.7M
佔比最多地區: US(17.94%)
本站瀏覽量 : 63.2K
使用場景
1. 將Phi-3 Mini集成到企業的智能助理系統中,為客戶提供自然語言交互和生成式服務
2. 基於Phi-3 Mini開發自動文本生成和創作輔助工具,為作家、內容創作者等提供創作支持
3. 利用Phi-3 Mini的推理能力構建數據分析和報告生成系統,自動生成分析報告
產品特色
- 支持多種硬件平臺加速推理,包括: - DirectML:適用於AMD、Intel和NVIDIA GPU的Windows設備,通過AWQ量化實現int4精度 - FP16 CUDA:適用於NVIDIA GPU,FP16精度 - Int4 CUDA:適用於NVIDIA GPU,通過RTN量化實現int4精度 - Int4 CPU和移動端:通過RTN量化實現int4精度,針對CPU和移動端提供兩種版本以平衡延遲和精度
- 提供ONNX Runtime新的Generate()API,極大簡化了在應用中集成生成式AI模型的流程
- 性能優異,相比PyTorch提高多達10倍,相比Llama.cpp提高多達3倍
- 支持大批量、長提示和長輸出推理
- 量化後體積小,便於部署
使用教程
1. 前往Hugging Face頁面下載所需的ONNX模型文件
2. 安裝ONNX Runtime和ONNX Runtime Generate() API相關軟件包
3. 在代碼中加載ONNX模型文件
4. 使用ONNX Runtime Generate() API設置推理參數,如批量大小、提示長度等
5. 調用生成函數,輸入文本提示
6. 獲取輸出結果並進行後續處理
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase