

EXAONE 3.5 32B Instruct AWQ
紹介 :
EXAONE-3.5-32B-Instruct-AWQは、LG AI Researchが開発した、指示調整済みの英語と韓国語のバイリンガル生成モデルシリーズです。パラメーター数は2.4Bから32Bまで様々です。これらのモデルは最大32Kトークンのロングコンテキスト処理に対応し、現実世界のユースケースやロングコンテキスト理解において最先端の性能を発揮すると同時に、最近発表された同規模のモデルと比較して、汎用領域においても競争力を維持しています。AWQ量子化技術により、4ビットグループレベルの重み量子化を実現し、モデルの配置効率を最適化しています。
ターゲットユーザー :
多言語環境でのテキスト生成と処理を必要とする研究者、開発者、企業を対象としています。ロングコンテキスト処理とバイリンガル機能に対応しているため、大量のテキストデータの処理やクロスリンガルのコミュニケーションが必要なアプリケーションシーンに特に適しています。
使用シナリオ
研究者はこのモデルを使用して、クロスリンガルのテキスト翻訳と生成に関する研究を行います。
開発者はモデルのロングコンテキスト処理能力を利用して、インテリジェントアシスタントアプリケーションを開発します。
企業は、このモデルを使用して、顧客サービスにおける自動応答システムを最適化します。
製品特徴
最大32Kトークンのロングコンテキスト処理能力に対応。
英語と韓国語のバイリンガル生成モデルにおいて最先端の性能を発揮。
AWQ量子化技術により、4ビットグループレベルの重み量子化を実現。
モデルパラメーター数は30.95B、64層、40個のクエリヘッドを備えています。
TensorRT-LLM、vLLMなど、様々なフレームワークに対応し、迅速な起動と配置が可能。
事前に量子化されたEXAONE 3.5モデルを提供し、様々なデバイスへの配置を容易に。
モデルが生成するテキストはLG AI Researchの見解を反映するものではなく、中立性を確保しています。
使用チュートリアル
1. transformers>=4.43とautoawq>=0.2.7.post3などの必要なライブラリをインストールします。
2. AutoModelForCausalLMとAutoTokenizerを使用して、Hugging Faceからモデルとトークナイザーを読み込みます。
3. 入力プロンプトを用意します。英語または韓国語を使用できます。
4. tokenizer.apply_chat_templateメソッドを使用して、メッセージをモデル入力形式に変換します。
5. model.generateメソッドを呼び出してテキストを生成します。
6. tokenizer.decodeメソッドを使用して、生成されたトークンを可読なテキストに変換します。
7. 必要に応じて、max_new_tokensやdo_sampleなどのモデルパラメーターを調整して、生成されるテキストの長さと多様性を制御します。
おすすめAI製品

Deepmind Gemini
Geminiは、Google DeepMindが開発した次世代人工知能システムです。テキスト、画像、ビデオ、音声、コード間のシームレスな相互作用をサポートし、マルチモーダル推論を実行できます。言語理解、推論、数学、プログラミングなど、複数の分野において従来のシステムを凌駕し、現在までに開発された最も強力なAIシステムの一つとなっています。エッジコンピューティングからクラウドコンピューティングまで、様々なニーズに対応できる3つの異なる規模のバージョンがあります。Geminiは、クリエイティブデザイン、ライティングアシスタント、質問応答、コード生成など、幅広い分野で活用できます。
AIモデル
11.4M
中国語精選

Liblibai
LiblibAIは、中国をリードするAI創作プラットフォームです。強力なAI創作能力を提供し、クリエイターの創造性を支援します。プラットフォームは膨大な数の無料AI創作モデルを提供しており、ユーザーは検索してモデルを使用し、画像、テキスト、音声などの創作を行うことができます。また、ユーザーによる独自のAIモデルのトレーニングもサポートしています。幅広いクリエイターユーザーを対象としたプラットフォームとして、創作の機会を平等に提供し、クリエイティブ産業に貢献することで、誰もが創作の喜びを享受できるようにすることを目指しています。
AIモデル
6.9M