GPU高速化されたコンピューティング最適化インスタンスは、高いパフォーマンスと高い並列コンピューティング機能を提供し、大規模な並列コンピューティングシナリオに適しています。 GPU高速化されたコンピューティング最適化インスタンスを使用して、ビジネスのコンピューティングパフォーマンスと効率を向上させることができます。 このトピックでは、ECS (Elastic compute Service) のGPUアクセラレーションコンピューティング最適化インスタンスファミリーの機能について説明し、各インスタンスファミリーのインスタンスタイプを一覧表示します。
推奨インスタンスファミリー
その他の利用可能なインスタンスファミリー (上記のインスタンスファミリーが売り切れている場合は、推奨されるインスタンスファミリーを使用できます) 。
gn8is、GPU高速化コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
特徴:
このインスタンスファミリーは、AIによって生成されたビジネスの最近の発展に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1、2、4、または8個のGPUを提供する複数のインスタンスタイプで構成され、さまざまなユースケースに合わせてCPUとGPUの比率が異なります。
利点とポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波数の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオでのスムーズなグラフィックレンダリングとデザインに十分なCPU容量を提供します。
推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、70B以上の大規模言語モデル (LLM) の推論タスクに対応できます。
コンピューティング
次の機能を備えた革新的なGPUを使用します。
LLM推論のパフォーマンスを向上させるために、TensorRTなどのアクセラレーション機能とFP8浮動小数点形式をサポートします。
GPUあたり最大48 GBのメモリを使用し、複数のGPUを持つ単一インスタンスで70B以上のLLMの推論をサポートします。
改善されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを使用してgn8isインスタンスにGRIDドライバーをインストールした後、インスタンスは7世代インスタンスの2倍のグラフィック処理パフォーマンスを提供できます。
最新の高周波インテルを使用®Xeon ®複雑な3Dモデリング要件を満たすために、3.9 GHzのオールコアターボ周波数を提供するプロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。
ネットワーク
IPv4およびIPv6をサポート。
Elastic RDMAインターフェイス (ERIs) をサポートします。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。.
サポートされるシナリオ:
アニメーション、映画やテレビの特殊効果、レンダリング
AIGCイメージの生成とLLMの推論
その他の汎用AI認識、画像認識、および音声認識のシナリオ
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENIs | プライマリENIごとのNICキュー | IPアドレス (IPv4/IPv6) | 最大ディスク数 | ディスクベースラインIOPS | ディスクベースライン帯域幅 (Gbit/s) |
ecs.gn8is.2xlarge | 8 | 64 | 48GB * 1 | 8 | 4 | 8 | 15/15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | 48GB * 1 | 16 | 8 | 16 | 30/30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | 48GB * 2 | 32 | 8 | 32 | 30/30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | 48GB * 4 | 64 | 8 | 64 | 30/30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1024 | 48GB * 8 | 100 | 15 | 64 | 50/50 | 65 | 900,000 | 8 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
gn7e、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
AIユースケースのビジネス要件を満たすことができます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC) 、ネットワーク、およびディスクの平均帯域幅を2倍にします。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
中小規模のAIトレーニングワークロード
Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) ビジネス
高いGPU処理能力または大量のGPUメモリを必要とするAI推論タスク
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション。
計算流体力学、計算ファイナンス、分子力学、環境分析などの堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション。
重要トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、 チケットを起票してテクニカルサポートを受ける。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 3,000,000 | 8 | 8 | 10 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80GB * 2 | 16 | 6,000,000 | 16 | 8 | 10 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 12,000,000 | 32 | 8 | 10 |
ecs.gn7e-c16g1.32xlarge | 128 | 1000 | 80GB * 8 | 64 | 24,000,000 | 32 | 16 | 15 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
ECSコンソールでgn7eインスタンスを作成または再起動すると、インスタンスのマルチインスタンスGPU (MIG) 機能が自動的に無効になります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、MIG機能がgn7eインスタンスファミリーのインスタンスタイプでサポートされているかどうかを示しています。
インスタンスタイプ | ミグ | 説明 |
ecs.gn7e-c16g1.4xlarge | 必須 | シングルGPUインスタンスはMIG機能をサポートしています。 |
ecs.gn7e-c16g1.16xlarge | 選択可能 | セキュリティ上の理由から、マルチGPUインスタンスはMIG機能をサポートしていません。 |
ecs.gn7e-c16g1.32xlarge | 選択可能 |
gn7i、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。
コンピューティング
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なアンペアアーキテクチャ
RTXやTensorRTなどのアクセラレーション機能のサポート
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
最大752 GiBのメモリを提供します。これは、gn6iインスタンスファミリーのメモリサイズよりもはるかに大きくなります。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn7i-c8g1.2xlarge | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | NVIDIA A10 * 1 | 24 GB * 1 | 16 | 1,600,000 | 8 | 4 | 有効期限の 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24 GB * 1 | 16 | 3,000,000 | 8 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24 GB * 1 | 16 | 6,000,000 | 12 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24 GB * 2 | 32 | 12,000,000 | 16 | 15 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24 GB * 4 | 64 | 24,000,000 | 32 | 15 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24 GB * 1 | 16 | 9,000,000 | 16 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24 GB * 1 | 16 | 12,000,000 | 16 | 12 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24 GB * 2 | 16 | 6,000,000 | 16 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24 GB * 4 | 16 | 6,000,000 | 16 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24 GB * 4 | 32 | 12,000,000 | 32 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24 GB * 8 | 64 | 24,000,000 | 32 | 16 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24 GB * 8 | 32 | 12,000,000 | 32 | 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
次のインスタンスタイプをecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeのみに変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlarge。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
gn7s、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
このインスタンスファミリーは、NVIDIA Ampereアーキテクチャに基づく最新のIntel Ice LakeプロセッサとNVIDIA A30 GPUを使用します。 AIシナリオのビジネス要件を満たすために、GPUとvCPUを適切に組み合わせたインスタンスタイプを選択できます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を2倍にします。
コンピューティング
以下の機能を備えたNVIDIA A30 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
マルチインスタンスGPU (MIG) 機能とアクセラレーション機能 (第2世代のTensorコアに基づく) をサポートし、多様なビジネスサポートを提供します。
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
前世代のインスタンスファミリーからメモリサイズを大幅に改善します。
ストレージ: 拡張SSD (ESSD) およびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされているシナリオ: 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、およびGPUを必要とする同時AI推論タスク。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのIPv6アドレス | NICキュー | ENIs |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 * 1 | 24 GB * 1 | 16 | 6,000,000 | 1 | 12 | 8 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 * 1 | 24 GB * 1 | 16 | 6,000,000 | 1 | 12 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 * 1 | 24 GB * 1 | 16 | 6,000,000 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 * 2 | 24 GB * 2 | 32 | 12,000,000 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1,000 | NVIDIA A30 * 4 | 24 GB * 4 | 64 | 24,000,000 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 * 1 | 24 GB * 1 | 16 | 6,000,000 | 1 | 12 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 * 1 | 24 GB * 1 | 16 | 6,000,000 | 1 | 12 | 8 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
gn7、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転車、音声認識などのAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 2,500,000 | 4 | 8 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 9,000,000 | 16 | 8 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 18,000,000 | 16 | 15 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
ECSコンソールでgn7インスタンスを作成または再起動すると、インスタンスのMIG機能は自動的に無効になります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、MIG機能がgn7インスタンスファミリーのインスタンスタイプでサポートされているかどうかを示しています。
インスタンスタイプ | ミグ | 説明 |
ecs.gn7-c12g1.3xlarge | 必須 | シングルGPUインスタンスはMIG機能をサポートしています。 |
ecs.gn7-c13g1.13xlarge | 選択可能 | セキュリティ上の理由から、マルチGPUインスタンスはMIG機能をサポートしていません。 |
ecs.gn7-c13g1.26xlarge | 選択可能 |
gn6i、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
コンピューティング
以下の機能を備えたNVIDIA T4 GPUを使用します。
革新的なNVIDIAチューリングアーキテクチャ
16 GPUあたりGBメモリ (320ギガバイト/秒帯域幅)
GPUあたり2,560 CUDAコア
GPUあたり最大320個のTuring Tensorコア
65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
コンピュータービジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムの AI (深層学習と機械学習) 推論
クラウドゲームのリアルタイムレンダリング
AR・VR アプリケーションのリアルタイムレンダリング
グラフィックスワークステーションまたはグラフィックスの重いコンピューティング
GPU 高速化データベース
高性能コンピューティング
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn6i-c4g1.xlarge | 4 | 有効期限の 15 | NVIDIA T4 * 1 | 16 GB * 1 | 4 | 500,000 | なし | 2 | 2 | 10 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16 GB * 1 | 5 | 800,000 | なし | 2 | 2 | 10 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16 GB * 1 | 6 | 1,000,000 | なし | 4 | 3 | 10 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16 GB * 1 | 7.5 | 1,200,000 | なし | 6 | 4 | 10 |
ecs.gn6i-c40g1.10xlarge | 中国 (青島) の Enterprise Edition トランジットルーターへ 40 GB の | 155 | NVIDIA T4 * 1 | 16 GB * 1 | 10 | 1,600,000 | なし | 16 | 10 | 10 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16 GB * 2 | 15 | 2,400,000 | なし | 12 | 6 | 10 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16 GB * 4 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 4,800,000 | 250,000 | 24 | 8 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
gn6e、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
コンピューティング
NVIDIA V100 GPUを使用し、それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートしています。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
32 GPUあたりGB HBM2メモリ (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
最大6つのNVLink双方向接続をサポートします。各方向に25ギガバイト/秒の帯域幅を提供し、合計300ギガバイト/秒の帯域幅を提供します (6 × 25 × 2 = 300)
CPU 対メモリ比は 1:8。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 * 1 | 32 GB * 1 | 5 | 800,000 | 8 | 6 | 10 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 * 4 | 32 GB * 4 | 16 | 2,400,000 | 8 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 * 8 | 32 GB * 8 | 32 | 4,800,000 | 16 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
gn6v、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
コンピューティング
NVIDIA V100 GPUを使用します。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
16 GPUあたりGB HBM2メモリ (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
最大6つのNVLink双方向接続をサポートします。各方向に25ギガバイト/秒の帯域幅を提供し、合計300ギガバイト/秒の帯域幅を提供します (6 × 25 × 2 = 300)
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16 GB * 1 | 2.5 | 800,000 | なし | 4 | 4 | 10 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16 GB * 4 | 10 | 2,000,000 | なし | 8 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16 GB * 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の | 2,500,000 | なし | 16 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16 GB * 8 | 32 | 4,500,000 | 250,000 | 16 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様の詳細については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ebmgn8is、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
特徴:
ebmgn8isインスタンスファミリーは、AIによって生成されたビジネスの最近の発展に対応して、Alibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化ECS Bare Metalインスタンスファミリーです。 このインスタンスファミリーの各インスタンスには、8つのGPUが装備されています。
利点とポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオで十分なCPUコンピューティングパワーを提供し、スムーズなグラフィックレンダリングとデザインを実現します。
推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、70B以上の大規模言語モデル (LLM) の推論タスクに対応できます。
トレーニングタスク: このインスタンスファミリーは、費用対効果の高いコンピューティング機能を提供し、7世代の推論インスタンスのコンピューティングパフォーマンスと比較して2倍の単精度浮動小数点形式 (FP32) コンピューティングパフォーマンスを実現します。 このインスタンスファミリーのインスタンスは、FP32-based CVモデルやその他の中小規模モデルのトレーニングに適しています。
このインスタンスファミリーは、最新のCIPU (Cloud Infrastructure Processing Unit) 1.0プロセッサを使用します。
コンピューティング機能をストレージ機能から分離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにし、インスタンス間の帯域幅を160 Gbit/sに増やして、前世代のインスタンスファミリーと比較して高速なデータ転送と処理を実現します。
CIPUプロセッサが提供するベアメタル機能を使用して、GPUアクセラレーションインスタンス間のPeripheral Component Interconnect Express (PCIe) ピアツーピア (P2P) 通信をサポートします。
コンピューティング
次の機能を備えた革新的なGPUを使用します。
vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート
CPUダイレクト接続方式と比較してNVIDIA Collective Communications Library (NCCL) パフォーマンスが36% 向上し、複数のGPUでLLM推論タスクを並行して実行する場合に推論パフォーマンスが最大9% 向上するPCIeスイッチインターコネクトのサポート
1つのインスタンスで70億以上のパラメータを持つLLM推論タスクをサポートするために、1つのGPUあたり48 GBのメモリを持つインスタンスあたり8つのGPUをサポート
3.4 GHzインテルを使用®Xeon ®3.9 GHzの全コアターボ周波数を提供するスケーラブル (SPR) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスクをサポートします。
ネットワーク
IPv4およびIPv6をサポート。
30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
VPCでのインスタンス間RDMAベースの通信を可能にするERIをサポートし、インスタンスあたり最大160 Gbit/sの帯域幅を提供します。これは、CVモデルと従来のモデルに基づくトレーニングタスクに適しています。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。.
サポートされるシナリオ:
Alibaba Cloud Marketplace GRIDイメージが使用され、GRIDドライバがインストールされ、OpenGLおよびDirect3Dグラフィックス機能が有効になっているシナリオでは、ワークステーションレベルのグラフィックス処理機能に基づいて、アニメーション、フィルム、テレビ用の特殊効果を作成およびレンダリングします。
コンテナ化されたアプリケーションに対してACKによって提供される管理サービスを使用して、最大130億のパラメータを持つAI生成グラフィックコンテンツおよびLLM推論タスクをサポートするシナリオ
その他の汎用AI認識、画像認識、および音声認識のシナリオ
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | NICキュー (プライマリENI /セカンダリENI) | ENIs | 最大データディスク | 最大ディスク帯域幅 (Gbit/s) |
ecs.ebmgn8is.32xlarge | 128 | 1,024 | 48GB * 8 | 160 (80 × 2) | 30,000,000 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 64/16 | 32 | 31 | 6 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFIである必要があります。 インスタンスでカスタムイメージを使用する場合は、イメージがUEFIブートモードをサポートし、イメージのブートモードがUEFIに設定されていることを確認してください。 カスタムイメージのブートモードを設定する方法については、「API操作を呼び出してカスタムイメージのブートモードをUEFIモードに設定する」をご参照ください。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn7e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
コンピューティング
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供し、PCIe 4.0インターフェイスをサポートするスケーラブル (Ice Lake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
サポートされるシナリオ:
ディープラーニングのトレーニングと開発
ハイパフォーマンスコンピューティング (HPC) とシミュレーション
重要トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、 チケットを起票してテクニカルサポートを受ける。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー (プライマリENI /セカンダリENI) | ENIs |
ecs.ebmgn7e.32xlarge | 128 | 1,024 | 80GB * 8 | 64 | 24,000,000 | 32/12 | 32 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn7eインスタンスを起動した後、MIG機能のステータスを確認し、MIG機能を有効または無効にする必要があります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、MIG機能がebmgn7eインスタンスファミリーのインスタンスタイプでサポートされているかどうかを示しています。
インスタンスタイプ | ミグ | 説明 |
ecs.ebmgn7e.32xlarge | 必須 | MIG機能はebmgn7eインスタンスでサポートされています。 |
ebmgn7i、GPU高速化コンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
コンピューティング
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
高パフォーマンスのレンダーファームの作成など、高いネットワーク帯域幅とディスク帯域幅を必要とするシナリオ
高いネットワーク帯域幅を必要とする小規模なディープラーニングおよびトレーニングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs |
ecs.ebmgn7i.32xlarge | 128 | 768 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 32 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn7、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
コンピューティング
2.5 GHzインテルを使用®Xeon ®プラチナ8269CY (カスケード湖) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.ebmgn7.26xlarge | 104 | 768 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 18,000,000 | 16 | 15 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn7インスタンスの起動後、MIG機能のステータスを手動で確認し、MIG機能を有効または無効にする必要があります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、ebmgn7インスタンスファミリーのインスタンスタイプでMIG機能がサポートされているかどうかを示しています。
インスタンスタイプ | ミグ | 説明 |
ecs.ebmgn7.26xlarge | 必須 | MIG機能はebmgn7インスタンスでサポートされています。 |
ebmgn6ia、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャとチップ上の高速パスアクセラレーションを使用して、予測可能で一貫性のある超高度なコンピューティング、ストレージ、およびネットワークパフォーマンスを提供します。
このインスタンスファミリーは、NVIDIA T4 GPUを使用してグラフィックスおよびAIアプリケーション用のGPUアクセラレーション機能を提供し、コンテナテクノロジーを採用して最大60台の仮想Androidデバイスを起動し、ハードウェアで高速化されたビデオトランスコーディングを提供します。
コンピューティング
CPU とメモリの比率は 1:3
2.8 GHzアンペアを使用®Altra ®Armベースのプロセッサは、3.0 GHzのターボ周波数を提供し、Androidサーバー用のアプリケーションとの高いパフォーマンスと高い互換性を提供します。
ストレージ
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクのみをサポートします。
ネットワーク
IPv6をサポート
サポートされるシナリオ:
常時接続のクラウドベースのサービス、クラウドベースのモバイルゲーム、クラウドベースの携帯電話、Androidサービスクローラーなど、Androidベースのリモートアプリケーションサービス。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.ebmgn6ia.20xlarge | 80 | 256 | NVIDIA T4 * 2 | 16GB * 2 | 32 | 24,000,000 | 32 | 15 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
アンペア ®Altra ®プロセッサには、オペレーティングシステムカーネルに関する特定の要件があります。 上記のインスタンスタイプのインスタンスは、Alibaba Cloud Linux 3イメージとCentOS 8.4以降のイメージを使用できます。 インスタンスでAlibaba Cloud Linux 3イメージを使用することを推奨します。 別のオペレーティングシステムディストリビューションを使用する場合は、そのディストリビューションのオペレーティングシステムを実行するインスタンスのカーネルにパッチを適用し、インスタンスからカスタムイメージを作成してから、カスタムイメージを使用してインスタンスタイプのインスタンスを作成します。 カーネルパッチの詳細については、Ampere Altra (TM) Linux kernel Porting Guideをご覧ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn6e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用します。
このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ。
32 GPUあたりHBM2メモリ (900ギガバイト/秒帯域幅) のGB。
5,120 CUDA core / GPU
640 GPUごとのTensorコア。
GPUごとに最大6つのNVLink接続をサポートします。 各NVLink接続は、全帯域幅300ギガバイト/秒 (6 × 25 × 2 = 300) に対して各方向に25ギガバイト/秒の帯域幅を提供する。
コンピューティング
CPU 対メモリ比は 1:8。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.ebmgn6e.24xlarge | 96 | 768 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 4,800,000 | 16 | 15 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn6v、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーはNVIDIA V100 GPUを使用します。
このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ。
16 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)
5,120 CUDA core / GPU
640 GPUごとのTensorコア。
GPUごとに最大6つのNVLink接続をサポートします。 各NVLink接続は、全帯域幅300ギガバイト/秒 (6 × 25 × 2 = 300) に対して各方向に25ギガバイト/秒の帯域幅を提供する。
コンピューティング
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.ebmgn6v.24xlarge | 96 | 384 | NVIDIA V100 * 8 | 16GB * 8 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 4,500,000 | 8 | 32 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
ebmgn6i、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
特徴:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、次の機能を備えたNVIDIA T4 GPUを使用します。
革新的なNVIDIAチューリングアーキテクチャ
16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)
GPUあたり2,560 CUDAコア
GPUあたり最大320個のTuring Tensorコア
65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア
コンピューティング
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP) 、機械翻訳、および参照システムのためのAI (ディープラーニングおよび機械学習) 推論
クラウドゲームのリアルタイムレンダリング
AR・VR アプリケーションのリアルタイムレンダリング
グラフィックスワークステーションまたはグラフィックスの重いコンピューティング
GPU 高速化データベース
高性能コンピューティング
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.ebmgn6i.24xlarge | 96 | 384 | NVIDIA T4 * 4 | 16GB * 4 | 中国 (青島) の Enterprise Edition トランジットルーターへ 30 GB の | 4,500,000 | 8 | 32 | 10 |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
インスタンスタイプの仕様については、「インスタンスファミリーの概要」トピックのインスタンスタイプの仕様セクションをご参照ください。
ECSベアメタルインスタンスに関するCPUモニタリング情報を取得できません。 ECSベアメタルインスタンスに関するCPUモニタリング情報を取得するには、インスタンスにCloudMonitorエージェントをインストールします。 詳細については、「Cloud Monitorエージェントのインストールとアンインストール」をご参照ください。
gn5i、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
コンピューティング
NVIDIA P4 GPUを使用します。
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。
ストレージ
I/O 最適化インスタンス。
標準SSDとウルトラディスクのみをサポートします。
ネットワーク
IPv6をサポート
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
サポートされるシナリオ:
ディープラーニング推論
サーバー側のGPUコンピューティングワークロード (マルチメディアエンコードやデコードなど)
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8 GB * 1 | 1 | 100,000 | 2 | 2 | 6 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8 GB * 1 | 1.5 | 200,000 | 2 | 3 | 10 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8 GB * 1 | 2 | 400,000 | 4 | 4 | 10 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8 GB * 1 | 3 | 800,000 | 4 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8 GB * 2 | 6 | 1,200,000 | 8 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8 GB * 2 | 10 | 2,000,000 | 14 | 8 | 中国 (深セン) の Enterprise Edition トランジットルーターへ 20 GB の |
[各リージョンで使用可能なインスタンスタイプ] に移動して、各リージョンで使用可能なインスタンスタイプを表示できます。
これらの仕様の詳細については、「インスタンスファミリーの概要」の「インスタンスタイプの仕様」セクションをご参照ください。 パケット転送レートは、ビジネスシナリオによって大きく異なります。 インスタンスに対してビジネスストレステストを実行し、適切なインスタンスタイプを選択することを推奨します。