Aya Vision 32B
A
Aya Vision 32B
簡介 :
Aya Vision 32B 是由 Cohere For AI 開發的先進視覺語言模型,擁有 320 億參數,支持 23 種語言,包括英語、中文、阿拉伯語等。該模型結合了最新的多語言語言模型 Aya Expanse 32B 和 SigLIP2 視覺編碼器,通過多模態適配器實現視覺與語言理解的結合。它在視覺語言領域表現出色,能夠處理複雜的圖像與文本任務,如 OCR、圖像描述、視覺推理等。該模型的發佈旨在推動多模態研究的普及,其開源權重為全球研究人員提供了強大的工具。該模型遵循 CC-BY-NC 許可證,並需遵守 Cohere For AI 的合理使用政策。
需求人群 :
該模型適合研究人員、開發者以及需要處理視覺語言任務的企業,尤其是那些需要多語言支持和高性能模型的用戶。
總訪問量: 25.3M
佔比最多地區: US(17.94%)
本站瀏覽量 : 62.4K
使用場景
在 Cohere Playground 中使用 Aya Vision 32B 進行圖像描述
通過 Hugging Face Space 與模型進行交互式對話
使用模型進行多語言的 OCR 任務
產品特色
支持 23 種語言,覆蓋多種語言場景
能夠處理圖像輸入並生成文本輸出
支持 16K 上下文長度,適合複雜任務
提供交互式體驗,如 Cohere Playground 和 Hugging Face Space
可通過 WhatsApp 與模型進行聊天交互
使用教程
安裝必要的 transformers 庫:`pip install 'git+https://github.com/huggingface/transformers.git@v4.49.0-AyaVision'`
加載模型和處理器:`AutoProcessor.from_pretrained(model_id)` 和 `AutoModelForImageTextToText.from_pretrained(model_id)`
準備輸入數據,包括圖像和文本內容
使用 `processor.apply_chat_template` 方法格式化輸入數據
調用模型的 `generate` 方法生成輸出文本
解碼生成的 token 並獲取最終結果
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase