

Phi 3 Mini 4k Instruct Onnx
簡介 :
Phi-3 Mini是一款輕量級的最先進的開源大模型,構建於用於Phi-2的合成數據和過濾網站數據之上,致力於提供極高質量、推理密集型的數據。該模型經過了嚴格的增強過程,結合了監督式微調和直接偏好優化,以確保精確遵循指令和強大的安全措施。該倉庫提供了Phi-3 Mini的優化ONNX版本,可通過ONNX Runtime在CPU和GPU上進行加速推理,支持服務器、Windows、Linux、Mac等多種平臺,並針對每個平臺提供最佳精度配置。ONNX Runtime的DirectML支持還可讓開發人員在AMD、英特爾和NVIDIA GPU驅動的Windows設備上實現大規模硬件加速。
需求人群 :
["- 企業:可將Phi-3 Mini集成到各種業務應用中,提供自然語言處理能力","- 開發者:可利用Phi-3 Mini強大的生成能力,開發各種語言相關的應用和服務"," - 如對話系統、問答系統、文本生成、數據分析等","- 個人用戶:利用Phi-3 Mini輸出高質量的自然語言內容,輔助寫作、查詢等需求"]
使用場景
1. 將Phi-3 Mini集成到企業的智能助理系統中,為客戶提供自然語言交互和生成式服務
2. 基於Phi-3 Mini開發自動文本生成和創作輔助工具,為作家、內容創作者等提供創作支持
3. 利用Phi-3 Mini的推理能力構建數據分析和報告生成系統,自動生成分析報告
產品特色
- 支持多種硬件平臺加速推理,包括:
- DirectML:適用於AMD、Intel和NVIDIA GPU的Windows設備,通過AWQ量化實現int4精度
- FP16 CUDA:適用於NVIDIA GPU,FP16精度
- Int4 CUDA:適用於NVIDIA GPU,通過RTN量化實現int4精度
- Int4 CPU和移動端:通過RTN量化實現int4精度,針對CPU和移動端提供兩種版本以平衡延遲和精度
- 提供ONNX Runtime新的Generate()API,極大簡化了在應用中集成生成式AI模型的流程
- 性能優異,相比PyTorch提高多達10倍,相比Llama.cpp提高多達3倍
- 支持大批量、長提示和長輸出推理
- 量化後體積小,便於部署
使用教程
1. 前往Hugging Face頁面下載所需的ONNX模型文件
2. 安裝ONNX Runtime和ONNX Runtime Generate() API相關軟件包
3. 在代碼中加載ONNX模型文件
4. 使用ONNX Runtime Generate() API設置推理參數,如批量大小、提示長度等
5. 調用生成函數,輸入文本提示
6. 獲取輸出結果並進行後續處理
精選AI產品推薦

Deepmind Gemini
Gemini是谷歌DeepMind推出的新一代人工智能系統。它能夠進行多模態推理,支持文本、圖像、視頻、音頻和代碼之間的無縫交互。Gemini在語言理解、推理、數學、編程等多個領域都超越了之前的狀態,成為迄今為止最強大的AI系統之一。它有三個不同規模的版本,可滿足從邊緣計算到雲計算的各種需求。Gemini可以廣泛應用於創意設計、寫作輔助、問題解答、代碼生成等領域。
AI模型
11.4M
中文精選

Liblibai
LiblibAI是一箇中國領先的AI創作平臺,提供強大的AI創作能力,幫助創作者實現創意。平臺提供海量免費AI創作模型,用戶可以搜索使用模型進行圖像、文字、音頻等創作。平臺還支持用戶訓練自己的AI模型。平臺定位於廣大創作者用戶,致力於創造條件普惠,服務創意產業,讓每個人都享有創作的樂趣。
AI模型
8.0M