Elastic GPU Service は、Auto Scaling を備えたオンデマンドの GPU アクセラレーションコンピューティング機能を提供します。Alibaba Cloud のエラスティックコンピューティングファミリーのコンポーネントとして、Elastic GPU Service は GPU と CPU の計算能力を組み合わせ、人工知能 (AI)、ハイパフォーマンスコンピューティング (HPC)、プロフェッショナルグラフィックス、画像処理などのシナリオにおける要件を満たします。
各リージョンで利用可能なインスタンスタイプを表示。購入可能なインスタンスタイプはリージョンによって異なります。
このトピックを読む前に、ビジネスシナリオに基づいてインスタンスタイプを選択する方法については、「インスタンスタイプの選択手順」をご参照ください。
このトピックを読む前に、「インスタンスタイプのメトリックを表示」をご参照ください。
ECS 料金計算ツールを使用してインスタンスのコストを見積もることができます。
vGPU アクセラレーション | GPU コンピューティング最適化 | 非推奨 (以下のインスタンスファミリーが売り切れの場合は、代わりに前の列のインスタンスファミリーを使用してください) |
sgn8ia、vGPU アクセラレーションインスタンスファミリー
はじめに:
第 3 世代の SHENLONG アーキテクチャを搭載し、安定した予測可能な高いパフォーマンスを提供します。チップレベルのアクセラレーションにより、ストレージパフォーマンス、ネットワークパフォーマンス、コンピューティングの安定性が大幅に向上し、データストレージとモデルの読み込みを高速化できます。
NVIDIA GRID Virtual Workstation (vWS) ソフトウェアライセンスが含まれています。これにより、さまざまなプロフェッショナル向けコンピューター支援設計 (CAD) アプリケーションに認定されたグラフィックスアクセラレーションが提供され、プロフェッショナルなグラフィックデザインの要件を満たします。これらのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとしても使用でき、小規模な AI 推論のコストを削減します。
シナリオ:
高クロック速度の CPU、メモリ、GPU により、多くの同時 AI 推論タスクを処理できるため、画像認識、音声認識、行動認識などのアプリケーションに最適です。
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。これらのインスタンスは RTX をサポートし、高周波 CPU を搭載しています。
最大 3.75 GHz のクロック速度を持つ AMD Genoa プロセッサーは、映画やアニメーション制作、クラウドゲーム、機械設計などの分野における 3D モデリングで優れたパフォーマンスを発揮します。
コンピューティング:
NVIDIA Lovelace GPU を使用しており、以下の特徴があります:
大容量の GPU メモリと複数の GPU スライシングソリューション。
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。
プロセッサー:3.4 GHz から 3.75 GHz のクロック速度を提供する高周波 AMD Genoa プロセッサーにより、3D モデリングに高い計算能力を提供します。
ストレージ:
I/O 最適化インスタンス。
Non-Volatile Memory Express (NVMe) プロトコルをサポートします。詳細については、「NVMe プロトコル」をご参照ください。
サポートされるディスクカテゴリ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
sgn8iaには、以下のインスタンスタイプとメトリックデータが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | マルチキュー | ENI | ENI あたりのプライベート IPv4/IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン BPS (MB/s) |
ecs.sgn8ia-m2.xlarge | 4 | 16 | 2 GB | 2.5 | 1,000,000 | 4 | 4 | 15/15 | 9 | 30,000 | 244 |
ecs.sgn8ia-m4.2xlarge | 8 | 32 | 4 GB | 4 | 1,600,000 | 8 | 4 | 15/15 | 9 | 45,000 | 305 |
ecs.sgn8ia-m8.4xlarge | 16 | 64 | 8 GB | 7 | 2,000,000 | 16 | 8 | 30/30 | 17 | 60,000 | 427 |
ecs.sgn8ia-m16.8xlarge | 32 | 128 | 16 GB | 10 | 3,000,000 | 32 | 8 | 30/30 | 33 | 80,000 | 610 |
ecs.sgn8ia-m24.12xlarge | 48 | 192 | 24 GB | 16 | 4,500,000 | 48 | 8 | 30/30 | 33 | 120,000 | 1000 |
ecs.sgn8ia-m48.24xlarge | 96 | 384 | 48 GB | 32 | 9,000,000 | 64 | 15 | 30/30 | 33 | 240,000 | 2000 |
上記の表の GPU は、vGPU 技術を使用して作成された vGPU シャードです。
sgn8ia インスタンスのメモリと GPU メモリはインスタンス専用です。インスタンスの CPU は共有リソースであり、オーバーコミット率は約 1:1.5 です。CPU の計算能力に特定の要件がある場合は、gn7i GPU コンピューティング最適化インスタンスなどのパススルー GPU を備えた専用型インスタンスを購入できます。
sgn7i-vws、共有 CPU を搭載した vGPU アクセラレーションインスタンスファミリー
ファミリーの概要:
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。これにより、データストレージとモデルの読み込みをより迅速に実行できます。
このインスタンスファミリーのインスタンスは、CPU とネットワークリソースを共有して、基盤となるリソースの使用を最大化します。各インスタンスは、データ分離とパフォーマンス保証を提供するために、メモリと GPU メモリに排他的にアクセスできます。
説明排他的な CPU リソースを使用したい場合は、vgn7i-vws インスタンスファミリーを選択できます。
このインスタンスファミリーには、NVIDIA GRID vWS ライセンスが付属しており、CAD ソフトウェアに認定されたグラフィックスアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。
シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。
アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサーの使用を必要とする分野での 3D モデリング。
コンピューティング:
NVIDIA A10 GPU を搭載しています。
革新的な Ampere アーキテクチャ。
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。
プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
sgn7i-vws には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン/バースト帯域幅 (Gbit/s) | パケット転送速度 (PPS) | マルチキュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.sgn7i-vws-m2.xlarge | 4 | 15.5 | NVIDIA A10 × 1/12 | 24 GB × 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4.2xlarge | 8 | 31 | NVIDIA A10 × 1/6 | 24 GB × 1/6 | 2.6/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8.4xlarge | 16 | 62 | NVIDIA A10 × 1/3 | 24 GB × 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
ecs.sgn7i-vws-m2s.xlarge | 4 | 8 | NVIDIA A10 × 1/12 | 24 GB × 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4s.2xlarge | 8 | 16 | NVIDIA A10 × 1/6 | 24 GB × 1/6 | 2.6/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8s.4xlarge | 16 | 32 | NVIDIA A10 × 1/3 | 24 GB × 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
上記の表の GPU 列には、GPU カードモデルと GPU スライシング情報が含まれています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションはインスタンスに vGPU として割り当てることができます。例:
NVIDIA A10 * 1/12 では、NVIDIA A10 は GPU カードモデルを示し、1/12 は 1 つの GPU カードが 12 個のシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。
vgn7i-vws、vGPU アクセラレーションインスタンスファミリー
ファミリーの概要:
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。これにより、データストレージとモデルの読み込みをより迅速に実行できます。
このインスタンスファミリーには、NVIDIA GRID vWS ライセンスが付属しており、CAD ソフトウェアに認定されたグラフィックスアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。
シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。
Ice Lake プロセッサーは、映画やアニメーション制作、クラウドゲーム、機械設計などの分野での 3D モデリングのパフォーマンスを向上させます。
コンピューティング:
NVIDIA A10 GPU を搭載しています。
革新的な Ampere アーキテクチャ。
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。
プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
vgn7i-vws には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.vgn7i-vws-m4.xlarge | 4 | 30 | NVIDIA A10 × 1/6 | 24 GB × 1/6 | 3 | 1,000,000 | 4 | 4 | 10 | 1 |
ecs.vgn7i-vws-m8.2xlarge | 10 | 62 | NVIDIA A10 × 1/3 | 24 GB × 1/3 | 5 | 2,000,000 | 8 | 6 | 10 | 1 |
ecs.vgn7i-vws-m12.3xlarge | 14 | 93 | NVIDIA A10 × 1/2 | 24 GB × 1/2 | 8 | 3,000,000 | 8 | 6 | 15 | 1 |
ecs.vgn7i-vws-m24.7xlarge | 30 | 186 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 6,000,000 | 12 | 8 | 30 | 1 |
上記の表では、GPU 列に GPU カードモデルと GPU スライシング情報が指定されています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションはインスタンスに vGPU として割り当てることができます。例:
NVIDIA A10 * 1/6 では、NVIDIA A10 は GPU カードモデルを示し、1/6 は 1 つの GPU カードが 6 つのシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。
vgn6i-vws、vGPU アクセラレーションインスタンスファミリー
Alibaba Cloud は、GRID ドライバーのアップグレードをサポートするために vgn6i インスタンスファミリーを vgn6i-vws にアップグレードしました。新しいファミリーは最新の GRID ドライバーを使用し、無料の GRID vWS ライセンスが含まれています。プリインストールされた GRID ドライバーを持つ無料イメージをリクエストするには、チケットを送信してください。
GRID ドライバーを含まない他のパブリックイメージまたはカスタムイメージを使用するには、してチケットを送信し、別途インストールするための GRID ドライバーファイルをリクエストできます。Alibaba Cloud は GRID ドライバーのライセンス料を請求しません。
シナリオ:
クラウドゲームのリアルタイムレンダリング。
拡張現実 (AR) および仮想現実 (VR) アプリケーションのリアルタイムレンダリング。
AI 推論アプリケーションを含むインターネットサービスのエラスティックデプロイメントのための AI (ディープラーニングおよび機械学習) 推論。
ディープラーニングのための教育環境。
ディープラーニングのためのモデリング実験環境。
コンピューティング:
NVIDIA T4 GPU アクセラレータを使用します。
スライスおよび仮想化された vGPU を使用します。
NVIDIA Tesla T4 GPU の計算能力の 1/4 および 1/2 をサポートします。
4 GB および 8 GB の GPU メモリをサポートします。
CPU とメモリの比率は約 1:5 です。
プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake) プロセッサー。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、リージョン企業向け SSD (ESSD)、標準 SSD、および Ultra ディスク。詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
vgn6i-vws には、以下のインスタンスタイプとメトリックデータが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.vgn6i-m4-vws.xlarge | 4 | 23 | NVIDIA T4 × 1/4 | 16 GB × 1/4 | 2 | 500,000 | 4/2 | 3 | 10 | 1 |
ecs.vgn6i-m8-vws.2xlarge | 10 | 46 | NVIDIA T4 × 1/2 | 16 GB × 1/2 | 4 | 800,000 | 8/2 | 4 | 10 | 1 |
ecs.vgn6i-m16-vws.5xlarge | 20 | 92 | NVIDIA T4 × 1 | 16 GB × 1 | 7.5 | 1,200,000 | 6 | 4 | 10 | 1 |
上記の表では、GPU 列に GPU カードモデルと GPU スライシング情報が含まれています。GPU スライシングとは、GPU が複数のパーティションにスライスされ、各パーティションがインスタンスに割り当てられることを意味します。例:
NVIDIA T4 * 1/4 では、NVIDIA T4 は GPU カードモデルを示し、1/4 は 1 つの GPU カードが 4 つのシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。
gn8v/gn8v-tee、GPU コンピューティング最適化インスタンスファミリー
このインスタンスは現在、中国以外のリージョンを含む一部のリージョンでのみ利用可能です。このサービスをリクエストするには、Alibaba Cloud の営業担当者にお問い合わせください。
はじめに:
gn8v:このインスタンスファミリーは、Alibaba Cloud が AI モデルトレーニングおよび超大規模言語モデル (LLM) の推論タスク向けに提供する第 8 世代の GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。
gn8v-tee:大規模言語モデルのトレーニングと推論におけるセキュリティ要件を満たすため、Alibaba Cloud は gn8v をベースにした第 8 世代のインスタンスファミリーを提供しており、これにはコンフィデンシャルコンピューティング機能が含まれています。このインスタンスタイプは、GPU コンピューティング中にデータを暗号化し、ユーザーデータのセキュリティを確保します。
シナリオ:
700 億以上のパラメーターを持つ LLM のための、コスト効率の高いマルチ GPU 並列推論コンピューティング。
単一の GPU は 39.5 TFLOPS の FP32 計算能力を提供し、従来の AI および自動運転のトレーニングワークロードで優れたパフォーマンスを発揮します。
8 つの GPU 間の NVLink 接続を活用した、中小規模のモデルトレーニングシナリオ。
特徴と位置づけ:
高速かつ大容量の GPU メモリ:各 GPU は 96 GB の HBM3 メモリを搭載し、最大 4 TB/s のメモリ帯域幅を提供することで、モデルのトレーニングと推論を大幅に高速化します。
高い GPU 間帯域幅:複数の GPU は 900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。
大規模言語モデルの量子化:このインスタンスファミリーは、8 ビット浮動小数点 (FP8) フォーマットの計算能力をサポートし、大規模パラメーターのトレーニングと推論のための計算能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、GPU メモリ使用量が削減されます。
(gn8v-tee のみ) 高いセキュリティ:gn8v-tee インスタンスファミリーは、CPU ベースのコンフィデンシャルコンピューティング (Intel TDX) と GPU ベースのコンフィデンシャルコンピューティング (NVIDIA CC) 機能をサポートし、モデル推論のためのエンドツーエンドのコンフィデンシャルコンピューティング機能を提供します。コンフィデンシャルコンピューティング機能は、モデル推論とトレーニングにおけるユーザーの推論データと企業モデルのセキュリティを確保します。
コンピューティング:
最新の Cloud Infrastructure Processing Unit (CIPU) 1.0 プロセッサーを使用します。
コンピューティング能力とストレージ能力を分離し、必要に応じてストレージリソースを柔軟に選択できます。
従来の仮想化インスタンスよりも改善された、GPU インスタンス間の P2P (ピアツーピア) 通信をサポートするベアメタル機能を提供します。
プロセッサー:第 4 世代 Intel Xeon Scalable プロセッサーで、ベース周波数は最大 2.8 GHz、全コアターボ周波数は最大 3.1 GHz です。
ストレージ:
I/O 最適化インスタンス。
Non-Volatile Memory Express (NVMe) プロトコルをサポートします。詳細については、「NVMe プロトコル」をご参照ください。
サポートされるディスクタイプ:エラスティックエフェメラルディスク、企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
ジャンボフレーム機能をサポートします。詳細については、「ジャンボフレーム」をご参照ください。
最大 30,000,000 PPS のパケット転送速度で超高性能なネットワークパフォーマンスを提供します (8 つの GPU を搭載したインスタンスの場合)。
Elastic RDMA Interface (ERI) がサポートされています。
- 説明
ERI の使用方法の詳細については、「エンタープライズレベルのインスタンスで eRDMA を有効にするをご参照ください。
セキュリティ:Trusted Platform Module (vTPM) 機能をサポートします。この機能は gn8v でサポートされていますが、gn8v-tee ではサポートされていません。詳細については、「信頼できるコンピューティング機能の概要」をご参照ください。
gn8vには、次の表に示すインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENI | キュー (プライマリ) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅 (GB/s) |
ecs.gn8v.4xlarge | 16 | 96 | 96 GB × 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v.6xlarge | 24 | 128 | 96 GB × 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-2x.8xlarge | 32 | 192 | 96 GB × 2 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-4x.8xlarge | 32 | 384 | 96 GB × 4 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-2x.12xlarge | 48 | 256 | 96 GB × 2 | 25 | 8 | 48 | 30 | 30 | 33 | 300,000 | 1.50 |
ecs.gn8v-8x.16xlarge | 64 | 768 | 96 GB × 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-4x.24xlarge | 96 | 512 | 96 GB × 4 | 50 | 15 | 64 | 30 | 30 | 49 | 500,000 | 3 |
ecs.gn8v-8x.48xlarge | 192 | 1024 | 96 GB × 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8v-teeには、以下のインスタンスタイプとメトリックデータが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENI | キュー (プライマリ) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅 (GB/s) |
ecs.gn8v-tee.4xlarge | 16 | 96 | 96 GB × 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v-tee.6xlarge | 24 | 128 | 96 GB × 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-tee-8x.16xlarge | 64 | 768 | 96 GB × 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-tee-8x.48xlarge | 192 | 1024 | 96 GB × 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8v-tee インスタンスファミリーは、Alibaba Cloud Linux 3 イメージのみをサポートします。Alibaba Cloud Linux 3 に基づいて構築されたカスタムイメージを使用してインスタンスを作成する場合、カーネルバージョンが 5.10.134-18 以降であることを確認する必要があります。
gn8is、GPU コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。
はじめに:gn8is は、AI 生成コンテンツ (AIGC) サービスの成長に対応して開発された、Alibaba Cloud の第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。最新の NVIDIA L20 GPU を使用し、1-GPU、2-GPU、4-GPU、および 8-GPU のインスタンスタイプ、およびさまざまな CPU 対 GPU 比のインスタンスタイプを提供し、さまざまなアプリケーション要件に対応します。
特徴と位置づけ:
グラフィックス処理:このインスタンスファミリーは、第 4 世代 Intel Xeon Scalable 高周波プロセッサーを使用して、3D モデリングシナリオに十分な CPU 計算能力を提供し、グラフィックスのレンダリングとデザインをよりスムーズにします。
推論タスク:新しい NVIDIA L20 GPU を使用し、GPU ごとに 48 GB の GPU メモリを提供して推論タスクを高速化します。FP8 浮動小数点数フォーマットをサポートし、Container Service for Kubernetes (ACK) コンテナと組み合わせて使用することで、さまざまな AIGC モデルの推論を柔軟にサポートします。特に、700 億パラメーター未満の LLM モデルの推論タスクに適しています。
シナリオ:
アニメーション、映画やテレビの特殊効果、レンダリング。これらのインスタンスは、Alibaba Cloud Marketplace イメージの GRID ドライバーを使用してワークステーションレベルのグラフィックス処理能力を提供し、OpenGL および Direct3D グラフィックス機能を有効にします。
ACK コンテナ化管理を使用して、AIGC 画像生成と LLM 推論をより効率的かつコスト効率よくサポートします。
画像認識や音声認識など、その他の汎用 AI 認識シナリオ。
コンピューティング:
新しい NVIDIA L20 エンタープライズグレード GPU を使用します。
TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットをサポートし、モデル推論のパフォーマンスを向上させます。
GPU ごとに最大 48 GB のメモリを搭載し、複数の GPU を持つ単一インスタンスで 70B 以上のモデルの推論をサポートします。
グラフィックス処理能力が向上しました。たとえば、クラウドアシスタントまたは Alibaba Cloud Marketplace イメージを使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代プラットフォームの 2 倍のグラフィックス処理パフォーマンスを提供できます。
NVIDIA L20 の主要パラメーター:
GPU アーキテクチャ
GPU メモリ
計算パフォーマンス
ビデオエンコーディング/デコーディング能力
カード間接続
NVIDIA Ada Lovelace
容量: 48 GB
帯域幅: 864 GB/s
FP64:N/A
FP32:59.3 TFLOPS
FP16/BF16:119 TFLOPS
FP8/INT8:237 TFLOPS
3 × ビデオエンコーダー (+AV1)
3 × ビデオデコーダー
4 × JPEG デコーダー
PCIe インターフェイス:PCIe Gen4 x16
帯域幅: 64 GB/s
プロセッサー:最新の高周波 Intel ® Xeon ® プロセッサーで、全コアターボ周波数は 3.9 GHz で、複雑な 3D モデリング要件に対応します。
ストレージ:
I/O 最適化インスタンス。
Non-Volatile Memory Express (NVMe) プロトコルをサポートします。詳細については、「NVMe プロトコル」をご参照ください。
エラスティックエフェメラルディスク、企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD) をサポートします。ディスクに関する情報については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
Elastic RDMA Interface (ERI) がサポートされています。
説明ERI の使用方法については、「エンタープライズレベルのインスタンスで eRDMA を有効にするをご参照ください。
セキュリティ:vTPM 機能をサポートします。詳細については、「概要」をご参照ください。
gn8is には、次の表に示すインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | エラスティックネットワークインターフェイス | キュー (プライマリ) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅 (GB/s) |
ecs.gn8is.2xlarge | 8 | 64 | L20 × 1 | 48 GB × 1 | 8 | 4 | 8 | 15 | 15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | L20 × 1 | 48 GB × 1 | 16 | 8 | 16 | 30 | 30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | L20 × 2 | 48 GB × 2 | 32 | 8 | 32 | 30 | 30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | L20 × 4 | 48 GB × 4 | 64 | 8 | 64 | 30 | 30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1024 | L20 × 8 | 48 GB × 8 | 100 | 15 | 64 | 50 | 50 | 65 | 900,000 | 8 |
gn7e、GPU コンピューティング最適化インスタンスファミリー
gn7e の特徴は次のとおりです:
ファミリーの概要
AI のユースケースにおけるビジネス要件を満たすために、異なる数の GPU と CPU を提供するインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC)、ネットワーク、ディスクの平均帯域幅を 2 倍にします。
シナリオ:
中小規模の AI トレーニング。
Compute Unified Device Architecture (CUDA) を使用して高速化された HPC ワークロード。
高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク。
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション。
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション。
重要トランスフォーマーモデルなど、通信負荷の高い AI トレーニングサービスを使用する場合、GPU 間通信のために NVLink を有効にする必要があります。そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって引き起こされる予測不可能な障害により、データが破損する可能性があります。AI トレーニングサービスに使用される通信リンクのトポロジーを理解していない場合は、してチケットを送信し、技術サポートを受けることができます。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン ESSD。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn7e には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | マルチキュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80 GB × 1 | 8 | 3,000,000 | 8 | 8 | 10 | 1 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80 GB × 2 | 16 | 6,000,000 | 16 | 8 | 10 | 1 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80 GB × 4 | 32 | 12,000,000 | 32 | 8 | 10 | 1 |
ecs.gn7e-c16g1.32xlarge | 128 | 1000 | 80 GB × 8 | 64 | 24,000,000 | 32 | 16 | 15 | 1 |
gn7i、GPU コンピューティング最適化インスタンスファミリー
はじめに:このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。
シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。
コンピューティング:
NVIDIA A10 GPU を搭載しています。
革新的な Ampere アーキテクチャ。
RTX や TensorRT などのアクセラレーション機能をサポートします。
プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。
最大 752 GiB のメモリを提供し、gn6i インスタンスファミリーのメモリサイズよりもはるかに大きいです。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn7i には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | マルチキュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 1,600,000 | 8 | 4 | 15 | 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 3,000,000 | 8 | 8 | 30 | 30 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 6,000,000 | 12 | 8 | 30 | 30 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 × 2 | 24 GB × 2 | 32 | 12,000,000 | 16 | 15 | 30 | 30 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 × 4 | 24 GB × 4 | 64 | 24,000,000 | 32 | 15 | 30 | 30 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 × 1 | 24 GB × 1 | 16 | 10,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 × 2 | 24 GB × 2 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 × 4 | 24 GB × 4 | 32 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 × 4 | 24 GB × 4 | 64 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 × 8 | 24 GB × 8 | 64 | 24,000,000 | 32 | 16 | 30 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 × 8 | 24 GB × 8 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge インスタンスタイプは ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge に変更できますが、ecs.gn7i-c32g1.8xlarge などの他のインスタンスタイプには変更できません。
gn7s、GPU コンピューティング最適化インスタンスファミリー
gn7s インスタンスファミリーを使用するには、チケットを送信して申請できます。
仕様ファミリーの紹介:
このインスタンスファミリーは、最新の Intel Ice Lake プロセッサーと NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用します。AI シナリオでのビジネス要件を満たすために、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、ディスクの平均帯域幅を 2 倍にします。
シナリオ:画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
コンピューティング:
NVIDIA A30 GPU を搭載。
革新的な NVIDIA Ampere アーキテクチャ。
マルチインスタンス GPU (MIG) 機能とアクセラレーション機能 (第 2 世代 Tensor コアに基づく) をサポートし、多様なビジネスサポートを提供します。
プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。
前世代のインスタンスファミリーよりも大幅に大きいメモリサイズを提供します。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn7s には、以下のインスタンスタイプとメトリックデータが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | マルチキュー | ENI |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 × 1 | 24 GB × 1 | 16 | 1,600,000 | 5 | 1 | 8 | 4 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 × 1 | 24 GB × 1 | 16 | 3,000,000 | 5 | 1 | 8 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 × 1 | 24 GB × 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 × 2 | 24 GB × 2 | 32 | 12,000,000 | 5 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1000 | NVIDIA A30 × 4 | 24 GB × 4 | 64 | 24,000,000 | 10 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 × 1 | 24 GB × 1 | 16 | 9,000,000 | 8 | 1 | 16 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 × 1 | 24 GB × 1 | 16 | 10,000,000 | 8 | 1 | 16 | 8 |
gn7、GPU コンピューティング最適化インスタンスファミリー
シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション。
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、およびリージョン企業向け SSD (ESSD)。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn7 には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | マルチキュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40 GB × 1 | 4 | 2,500,000 | 4 | 8 | 10 | 1 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40 GB × 4 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40 GB × 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
gn6i、GPU コンピューティング最適化インスタンスファミリー
シナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムのための AI (ディープラーニングおよび機械学習) 推論。
クラウドゲームのリアルタイムレンダリング。
AR および VR アプリケーションのリアルタイムレンダリング。
高負荷のグラフィックスコンピューティングまたはグラフィックスワークステーション。
GPU アクセラレーションデータベース。
ハイパフォーマンスコンピューティング。
コンピューティング:
GPU アクセラレータ:T4。
革新的な Turing マイクロアーキテクチャ。
GPU ごとに 16 GB の GPU メモリ (320 GB/s の GPU メモリ帯域幅)。
GPU ごとに 2,560 の CUDA コア。
GPU ごとに最大 320 の Turing Tensor コア。
可変精度 Tensor コアは、65 TFLOPS FP16、130 INT8 TOPS、および 260 INT4 TOPS をサポートします。
プロセッサーとメモリの比率は約 1:4 です。
プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、標準 SSD、および Ultra ディスク。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn6i には、次の表で説明するインスタンスタイプとメトリックデータが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | ディスクベースライン IOPS | マルチキュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn6i-c4g1.xlarge | 4 | 15 | NVIDIA T4 × 1 | 16 GB × 1 | 4 | 2,500,000 | N/A | 2 | 2 | 10 | 1 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 × 1 | 16 GB × 1 | 5 | 2,500,000 | N/A | 2 | 2 | 10 | 1 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 × 1 | 16 GB × 1 | 6 | 2,500,000 | N/A | 4 | 3 | 10 | 1 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 × 1 | 16 GB × 1 | 7.5 | 2,500,000 | N/A | 6 | 4 | 10 | 1 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 × 1 | 16 GB × 1 | 10 | 1,600,000 | N/A | 16 | 10 | 10 | 1 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 × 2 | 16 GB × 2 | 15 | 4,500,000 | N/A | 12 | 6 | 10 | 1 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 × 4 | 16 GB × 4 | 30 | 4,500,000 | 250,000 | 24 | 8 | 10 | 1 |
gn6e、GPU コンピューティング最適化インスタンスファミリー
シナリオ:
画像分類、自動運転、音声認識のための AI アルゴリズムのトレーニングや推論アプリケーションなどのディープラーニング。
計算流体力学、計算金融、分子動力学、環境分析などの科学計算。
コンピューティング:
NVIDIA V100 (32 GB NVLink) GPU を使用します。
GPU アクセラレータ:V100 (SXM2 パッケージ)。
革新的な Volta アーキテクチャ。
GPU ごとに 32 GB の HBM2 メモリ (900 GB/s の GPU メモリ帯域幅)。
GPU ごとに 5,120 の CUDA コア。
GPU ごとに 640 の Tensor コア。
各 GPU は 6 つの NVLink リンクをサポートします。NVLink は双方向リンクです。単方向リンクの帯域幅は 25 Gbit/s で、合計帯域幅は 300 Gbit/s (6 × 25 × 2) です。
プロセッサーとメモリの比率は約 1:8 です。
プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプには、企業向け SSD (ESSD)、ESSD AutoPL ディスク、リージョン企業向け SSD (ESSD)、標準 SSD、および Ultra ディスクが含まれます。詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn6e には、次の表に示すインスタンスタイプと仕様が含まれます。
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 × 1 | 32 GB × 1 | 5 | 800,000 | 8 | 6 | 10 | 1 |
ecs.gn6e-c12g1.6xlarge | 24 | 184 | NVIDIA V100 × 2 | 32 GB × 2 | 8 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 × 4 | 32 GB × 4 | 16 | 2,400,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 × 8 | 32 GB × 8 | 32 | 4,500,000 | 16 | 8 | 20 | 1 |
gn6v、GPU コンピューティング最適化インスタンスファミリー
シナリオ:
画像分類、自動運転、音声認識のための AI アルゴリズムのトレーニングや推論アプリケーションなどのディープラーニング。
計算流体力学、計算金融、分子動力学、環境分析などの科学計算。
コンピューティング:
NVIDIA V100 GPU を使用します。
GPU アクセラレータ:V100 (SXM2 パッケージ)。
革新的な Volta アーキテクチャ。
GPU ごとに 16 GB の HBM2 メモリ (900 GB/s の GPU メモリ帯域幅)。
GPU ごとに 5,120 の CUDA コア。
GPU ごとに 640 の Tensor コア。
各 GPU は 6 つの NVLink リンクをサポートします。NVLink は双方向リンクです。単方向リンクの帯域幅は 25 Gbit/s で、合計帯域幅は 300 Gbit/s (6 × 25 × 2) です。
プロセッサーとメモリの比率は約 1:4 です。
プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクタイプ:企業向け SSD (ESSD)、ESSD AutoPL ディスク、標準 SSD、および Ultra ディスク。詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn6v インスタンスファミリーには、次の表に示すインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | ディスクベースライン IOPS | キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 × 1 | 16 GB × 1 | 2.5 | 800,000 | N/A | 4 | 4 | 10 | 1 |
ecs.gn6v-c8g1.4xlarge | 16 | 64 | NVIDIA V100 × 2 | 16 GB × 2 | 5 | 1,000,000 | N/A | 4 | 8 | 20 | 1 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 × 4 | 16 GB × 4 | 10 | 2,000,000 | N/A | 8 | 8 | 20 | 1 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 × 8 | 16 GB × 8 | 20 | 2,500,000 | N/A | 16 | 8 | 20 | 1 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 × 8 | 16 GB × 8 | 35 | 4,500,000 | 250,000 | 16 | 8 | 20 | 1 |
gn5、GPU コンピューティング最適化インスタンスファミリー
シナリオ:
ディープラーニング。
計算流体力学、計算金融、ゲノミクス研究、環境分析などの科学計算。
ハイパフォーマンスコンピューティング、レンダリング、マルチメディアエンコーディングおよびデコーディングなどのサーバーサイド GPU コンピューティングワークロード。
コンピューティング:
NVIDIA P100 GPU を使用します。
複数のプロセッサーとメモリの比率。
プロセッサー:2.5 GHz Intel ® Xeon ® E5-2682 v4 (Broadwell)。
ストレージ:
高性能 NVMe SSD ローカルディスクを搭載。
I/O 最適化インスタンス。
サポートされるディスクカテゴリ:標準 SSD および Ultra ディスク。
ネットワーク:
IPv4 のみをサポートします。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn5 には、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ローカルストレージ (GiB) | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | キュー | ENI | ENI あたりのプライベート IPv4 アドレス |
ecs.gn5-c4g1.xlarge | 4 | 30 | NVIDIA P100 × 1 | 16 GB × 1 | 440 | 3 | 300,000 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | NVIDIA P100 × 1 | 16 GB × 1 | 440 | 3 | 400,000 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | NVIDIA P100 × 2 | 16 GB × 2 | 880 | 5 | 1,000,000 | 4 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | NVIDIA P100 × 2 | 16 GB × 2 | 880 | 5 | 1,000,000 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | NVIDIA P100 × 1 | 16 GB × 1 | 440 | 5 | 2,250,000 | 7 | 8 | 10 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | NVIDIA P100 × 4 | 16 GB × 4 | 1760 | 10 | 2,000,000 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | NVIDIA P100 × 2 | 16 GB × 2 | 880 | 10 | 4,500,000 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | NVIDIA P100 × 8 | 16 GB × 8 | 3520 | 25 | 4,000,000 | 14 | 8 | 10 |
gn5i、GPU コンピューティング最適化インスタンスファミリー
シナリオ:ディープラーニング推論やマルチメディアエンコーディングおよびデコーディングなどのサーバーサイド GPU コンピューティングワークロード。
コンピューティング:
NVIDIA P4 GPU を使用します。
プロセッサーとメモリの比率は 1:4 です。
プロセッサー:2.5 GHz Intel ® Xeon ® E5-2682 v4 (Broadwell)。
ストレージ:
I/O 最適化インスタンス。
サポートされるディスクカテゴリ:標準 SSD および Ultra ディスク。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。
gn5i インスタンスファミリーには、以下のインスタンスタイプとメトリックが含まれます:
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (PPS) | キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 × 1 | 8 GB × 1 | 1 | 100,000 | 2 | 2 | 6 | 1 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 × 1 | 8 GB × 1 | 1.5 | 200,000 | 2 | 3 | 10 | 1 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 × 1 | 8 GB × 1 | 2 | 400,000 | 4 | 4 | 10 | 1 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 × 1 | 8 GB × 1 | 3 | 800,000 | 4 | 8 | 20 | 1 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 × 2 | 8 GB × 2 | 6 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 × 2 | 8 GB × 2 | 10 | 2,000,000 | 14 | 8 | 20 | 1 |