

Yuan2 M32 Hf Int4
紹介 :
Yuan2.0-M32は、32個の専門家を持つ混合専門家(MoE)言語モデルであり、そのうち2個がアクティブです。専門家の選択効率を向上させるため、新しいルーティングネットワークであるアテンションルーターを導入し、従来のルーティングネットワークを使用するモデルと比較して、精度を3.8%向上させました。Yuan2.0-M32は2000億トークンを使用してゼロからトレーニングされ、トレーニング計算量は同等の規模のパラメータを持つ密集型モデルに必要な計算量のわずか9.25%です。コーディング、数学、様々な専門分野で競争力を発揮し、総パラメータ40億個のうち3.7億個のみがアクティブパラメータであり、トークンあたりの順方向計算量は7.4 GFLOPSと、Llama3-70Bの1/19に過ぎません。Yuan2.0-M32は、MATHとARC-ChallengeベンチマークにおいてLlama3-70Bを上回り、精度はそれぞれ55.9%と95.8%に達しました。
ターゲットユーザー :
Yuan2.0-M32モデルは、大量のデータと複雑な計算タスクを処理する必要がある開発者や研究者にとって適しており、特にプログラミング、数学計算、専門分野の知識の応用において有効です。その高性能と低い計算要求により、大規模言語モデルアプリケーションに最適な選択肢となります。
使用シナリオ
プログラミング分野では、Yuan2.0-M32はコード生成とコード品質評価に使用できます。
数学分野では、複雑な数学問題の解法と論理推論を行うことができます。
医療や法律などの専門分野では、Yuan2.0-M32は専門家が知識検索や文書分析を行う際に役立ちます。
製品特徴
混合専門家(MoE)モデル。32個の専門家を持ち、そのうち2個がアクティブです。
アテンションルーターを使用して、より効率的な専門家の選択を行います。
2000億トークンを使用してゼロからトレーニングされています。
トレーニング計算量は、同等のパラメータ規模のモデルのわずか9.25%です。
コーディング、数学、専門分野で競争力を発揮します。
トークンあたりの順方向計算量が低く、7.4 GFLOPSしか必要ありません。
MATHとARC-Challengeベンチマークで優れた結果を示しています。
使用チュートリアル
1. 環境をセットアップし、推奨されるDockerイメージを使用してYuan2.0コンテナを起動します。
2. ドキュメントの説明に従って、データの前処理を行います。
3. 提供されているスクリプトを使用して、モデルの事前トレーニングを行います。
4. vllmの詳細なデプロイメントプランを参照して、推論サービスをデプロイします。
5. GitHubリポジトリにアクセスして、詳細情報とドキュメントを入手してください。
6. Apache 2.0オープンソースライセンスに準拠し、『Yuan2.0モデルライセンス契約』をよく理解し、遵守してください。
おすすめAI製品

Deepmind Gemini
Geminiは、Google DeepMindが開発した次世代人工知能システムです。テキスト、画像、ビデオ、音声、コード間のシームレスな相互作用をサポートし、マルチモーダル推論を実行できます。言語理解、推論、数学、プログラミングなど、複数の分野において従来のシステムを凌駕し、現在までに開発された最も強力なAIシステムの一つとなっています。エッジコンピューティングからクラウドコンピューティングまで、様々なニーズに対応できる3つの異なる規模のバージョンがあります。Geminiは、クリエイティブデザイン、ライティングアシスタント、質問応答、コード生成など、幅広い分野で活用できます。
AIモデル
11.4M
中国語精選

Liblibai
LiblibAIは、中国をリードするAI創作プラットフォームです。強力なAI創作能力を提供し、クリエイターの創造性を支援します。プラットフォームは膨大な数の無料AI創作モデルを提供しており、ユーザーは検索してモデルを使用し、画像、テキスト、音声などの創作を行うことができます。また、ユーザーによる独自のAIモデルのトレーニングもサポートしています。幅広いクリエイターユーザーを対象としたプラットフォームとして、創作の機会を平等に提供し、クリエイティブ産業に貢献することで、誰もが創作の喜びを享受できるようにすることを目指しています。
AIモデル
6.9M