

Yuan2.0 M32 Hf Int8
紹介 :
Yuan2.0-M32-hf-int8は、32個の専門家を持つ混合専門家(MoE)言語モデルであり、そのうち2個がアクティブです。本モデルは、新しいルーティングネットワークであるアテンションルーターを採用することで、専門家の選択効率を向上させ、従来のルーティングネットワークを使用するモデルと比較して精度を3.8%向上させました。Yuan2.0-M32は、2000億トークンを使用してゼロからトレーニングされており、そのトレーニング計算量は、同等の規模の密集モデルに必要な計算量のわずか9.25%です。本モデルは、プログラミング、数学、および様々な専門分野で競争力を示しており、37億個のアクティブパラメータのみを使用しており、総パラメータ40億個のごく一部です。トークンごとの順方向計算はわずか7.4 GFLOPSで、Llama3-70Bの1/19に過ぎません。Yuan2.0-M32は、MATHおよびARC-ChallengeベンチマークテストにおいてLlama3-70Bを上回り、それぞれ55.9%と95.8%の精度を達成しました。
ターゲットユーザー :
Yuan2.0-M32-hf-int8モデルは、大量のデータと複雑なタスクを処理する必要がある開発者や研究者、特にプログラミング、数学、専門分野に携わる方に適しています。その高い効率性と精度は、これらの分野における理想的な選択肢となります。
使用シナリオ
複雑なプログラミングプロジェクトの開発に使用し、コード生成の精度を向上させる
数学の問題解決において、正確な計算と推論を提供する
専門分野の知識取得やテキスト生成に応用する
製品特徴
32個の専門家のうち2個のみがアクティブで、効率性を向上
アテンションルーターを使用し、精度を3.8%向上
2000億トークンを使用してゼロからトレーニング
トレーニング計算量が少なく、同規模の密集モデルの9.25%のみ
プログラミング、数学などの分野で競争力を持つ
MATHおよびARC-Challengeベンチマークテストで優れた性能を発揮
使用チュートリアル
1. 環境を設定し、推奨されるDockerイメージを使用してYuan2.0コンテナを起動する
2. 提供されたスクリプトに従ってデータの前処理を行う
3. サンプルスクリプトを使用してモデルの事前トレーニングを行う
4. vllmドキュメントを参照して、推論サービスを提供するために詳細なデプロイを行う
5. GitHubリポジトリにアクセスして、詳細情報を入手する
おすすめAI製品

Deepmind Gemini
Geminiは、Google DeepMindが開発した次世代人工知能システムです。テキスト、画像、ビデオ、音声、コード間のシームレスな相互作用をサポートし、マルチモーダル推論を実行できます。言語理解、推論、数学、プログラミングなど、複数の分野において従来のシステムを凌駕し、現在までに開発された最も強力なAIシステムの一つとなっています。エッジコンピューティングからクラウドコンピューティングまで、様々なニーズに対応できる3つの異なる規模のバージョンがあります。Geminiは、クリエイティブデザイン、ライティングアシスタント、質問応答、コード生成など、幅広い分野で活用できます。
AIモデル
11.4M
中国語精選

Liblibai
LiblibAIは、中国をリードするAI創作プラットフォームです。強力なAI創作能力を提供し、クリエイターの創造性を支援します。プラットフォームは膨大な数の無料AI創作モデルを提供しており、ユーザーは検索してモデルを使用し、画像、テキスト、音声などの創作を行うことができます。また、ユーザーによる独自のAIモデルのトレーニングもサポートしています。幅広いクリエイターユーザーを対象としたプラットフォームとして、創作の機会を平等に提供し、クリエイティブ産業に貢献することで、誰もが創作の喜びを享受できるようにすることを目指しています。
AIモデル
6.9M