

Skywork MoE
紹介 :
Skywork-MoEは、146億パラメーターを持つ高性能な混合専門家(MoE)モデルであり、16個の専門家と22億の活性化パラメーターを含んでいます。このモデルは、Skywork-13Bモデルの密集型チェックポイントから初期化され、2つの革新的な技術、すなわち、ゲートロジット正規化による専門家の多様性の強化と、層固有の補助損失係数の調整を可能にする適応型補助損失係数、が導入されています。Skywork-MoEは、Grok-1、DBRX、Mistral 8*22、Deepseek-V2など、パラメーター数や活性化パラメーター数がより多いモデルと同等以上の性能を発揮します。
ターゲットユーザー :
Skywork-MoEモデルは、大規模言語モデルの訓練と推論を扱う研究者や開発者に適しています。その大量のパラメータと専門家の多様化技術により、複雑な言語タスクの処理において優れた性能を発揮し、同時に適応型補助損失係数の調整機能により、モデルを特定の層に合わせて最適化し、モデルの性能と効率を向上させることができます。
使用シナリオ
C-Eval、MMLU、CMMLUなどの一般的なベンチマークテストでの評価
HuggingFaceを使用したSkywork-MoE-Baseモデルの推論例
vLLMベースのSkywork-MoE-Baseモデルの高速展開例
製品特徴
ゲートロジット正規化技術による専門家の多様性の強化
層固有の補助損失係数の調整を可能にする適応型補助損失係数技術
Hugging Face、ModelScope、Wisemodelなどのプラットフォームとの互換性
8xA100/A800以上のGPUハードウェア構成での推論をサポート
vLLMモデル推論の高速な展開方法を提供
fp8精度をサポートし、8*4090でSkywork-MoE-Baseモデルを実行可能
詳細な技術レポートとコミュニティライセンス契約を提供
使用チュートリアル
pytorch-nightly版とvllm-flash-attnを含む必要な依存関係をインストールする
Skyworkが提供するvllmソースコードをクローンする
ローカル環境に合わせてvllmを構成し、インストールする
dockerを使用してvllmを実行し、モデルパスと作業ディレクトリを設定する
vllmのLLMクラスとSamplingParamsクラスを使用してテキストを生成する
おすすめAI製品

Deepmind Gemini
Geminiは、Google DeepMindが開発した次世代人工知能システムです。テキスト、画像、ビデオ、音声、コード間のシームレスな相互作用をサポートし、マルチモーダル推論を実行できます。言語理解、推論、数学、プログラミングなど、複数の分野において従来のシステムを凌駕し、現在までに開発された最も強力なAIシステムの一つとなっています。エッジコンピューティングからクラウドコンピューティングまで、様々なニーズに対応できる3つの異なる規模のバージョンがあります。Geminiは、クリエイティブデザイン、ライティングアシスタント、質問応答、コード生成など、幅広い分野で活用できます。
AIモデル
11.4M
中国語精選

Liblibai
LiblibAIは、中国をリードするAI創作プラットフォームです。強力なAI創作能力を提供し、クリエイターの創造性を支援します。プラットフォームは膨大な数の無料AI創作モデルを提供しており、ユーザーは検索してモデルを使用し、画像、テキスト、音声などの創作を行うことができます。また、ユーザーによる独自のAIモデルのトレーニングもサポートしています。幅広いクリエイターユーザーを対象としたプラットフォームとして、創作の機会を平等に提供し、クリエイティブ産業に貢献することで、誰もが創作の喜びを享受できるようにすることを目指しています。
AIモデル
6.9M