Elastic GPU Serviceは、GPU高速化されたコンピューティング機能と、すぐに使用できるスケーラブルなGPUコンピューティングリソースを提供します。 Elastic GPU Serviceは、Alibaba Cloudが提供するエラスティックコンピューティングサービスです。 このサービスは、GPUとCPUのコンピューティングパワーを組み合わせて、AI、高性能コンピューティング、プロフェッショナルなグラフィックスと画像処理などのシナリオの課題に対処します。
背景情報
このトピックをさらに読む前に、次の情報に精通している必要があります。
インスタンスタイプの分類と命名 インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、およびインスタンスファミリー間の違いをよく理解してください。 詳細については、「インスタンスタイプの分類と命名」をご参照ください。
インスタンスタイプのメトリック インスタンスタイプのメトリックの詳細については、「インスタンスタイプメトリック」をご参照ください。
ビジネスシナリオに基づいてインスタンスタイプを選択する手順 詳細については、「インスタンスタイプの選択」をご参照ください。
ユースケースのインスタンスタイプを決定した後、次の情報について学ぶ必要があります。
インスタンスタイプが購入可能なリージョン 購入可能なインスタンスタイプは、リージョンによって異なります。 [各リージョンで利用可能なインスタンスタイプ] ページに移動して、各リージョンで購入可能なインスタンスタイプを表示できます。
推定インスタンスコスト。 さまざまな課金方法を使用するインスタンスの料金を計算できます。
価格計算機。インスタンスの購入手順 ECSインスタンス購入ページに移動して、インスタンスの購入注文を行うことができます。
あなたは以下の情報について心配しているかもしれません:
退職したインスタンスファミリー このトピックでインスタンスタイプが見つからない場合、そのインスタンスタイプは退職したインスタンスファミリーである可能性があります。 退職したインスタンスファミリーの詳細については、「退職したインスタンスファミリー」をご参照ください。
サポートされているインスタンスタイプの変更。 インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを識別します。 詳細については、「インスタンスタイプの変更をサポートするインスタンスタイプとファミリー」をご参照ください。
vGPU高速化インスタンスファミリー | GPU高速化コンピューティング最適化インスタンスファミリー | 推奨されないインスタンスファミリー (次のインスタンスファミリーが売り切れている場合は、前の列のインスタンスファミリーを使用することを推奨します) |
CPUを共有したsgn7i-vwsのvGPU高速化インスタンスファミリー
はじめに:
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。 このようにして、データ記憶およびモデルロードをより迅速に行うことができる。
このインスタンスファミリーのインスタンスは、CPUリソースとネットワークリソースを共有して、基盤となるリソースを最大限に活用します。 各インスタンスは、データの分離とパフォーマンス保証を提供するために、メモリとGPUメモリに排他的にアクセスできます。
説明排他的なCPUリソースを使用する場合は、vgn7i-vwsインスタンスファミリーを選択します。
このインスタンスファミリーには、NVIDIA GRID vWSライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD (Computer Aided Design) ソフトウェアの認定グラフィックアクセラレーション機能を提供しています。 このインスタンスファミリーのインスタンスは、軽量のGPU高速化コンピューティング最適化インスタンスとして機能し、小規模なAI推論タスクのコストを削減できます。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lakeプロセッサの使用が必要な分野での3Dモデリング
計算:
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
vGPU、RTX、TensorRTなどのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン /バースト帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.sgn7i-vws-m2.xlarge | 4 | 15.5 | NVIDIA A10 * 1/12 | 24GB * 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4.2xlarge | 8 | 31 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 2.5/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8.4xlarge | 16 | 62 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
ecs.sgn7i-vws-m2s.xlarge | 4 | 8 | NVIDIA A10 * 1/12 | 24GB * 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4s.2xlarge | 8 | 16 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 2.5/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8s.4xlarge | 16 | 32 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:
NVIDIA A10 * 1/12
NVIDIA A10
はGPUモデルです。 1/12
は、GPUが12個のGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。
vgn7i-vwsのvGPU高速化インスタンスファミリー
はじめに:
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。 このようにして、データ記憶およびモデルロードをより迅速に行うことができる。
このインスタンスファミリーにはNVIDIA GRID vWSライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすためにCADソフトウェアの認定グラフィックアクセラレーション機能を提供しています。 このインスタンスファミリーのインスタンスは、軽量のGPU高速化コンピューティング最適化インスタンスとして機能し、小規模なAI推論タスクのコストを削減できます。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lakeプロセッサの使用が必要な分野での3Dモデリング
計算:
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
vGPU、RTX、TensorRTなどのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.vgn7i-vws-m4.xlarge | 4 | 30 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 3 | 1,000,000 | 4 | 4 | 10 | 1 |
ecs.vgn7i-vws-m8.2xlarge | 10 | 62 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5 | 2,000,000 | 8 | 6 | 10 | 1 |
ecs.vgn7i-vws-m12.3xlarge | 14 | 93 | NVIDIA A10 * 1/2 | 24GB * 1/2 | 8 | 3,000,000 | 8 | 6 | 15 | 1 |
ecs.vgn7i-vws-m24.7xlarge | 30 | 186 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 1 |
上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:
NVIDIA A10 * 1/6
NVIDIA A10
はGPUモデルです。 1/6
は、GPUが6つのGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。
vgn6i-vwsのvGPU高速化インスタンスファミリー
NVIDIA GRIDドライバーのアップグレードに照らして、Alibaba Cloudはvgn6iインスタンスファミリーをvgn6i-vwsインスタンスファミリーにアップグレードします。 vgn6i-vwsインスタンスファミリーは、最新のNVIDIA GRIDドライバーを使用し、NVIDIA GRID vWSライセンスを提供します。 NVIDIA GRIDドライバーがプリインストールされている無料の画像を申請するには、チケットを起票してください。
NVIDIA GRIDドライバーを含まない他のパブリックイメージまたはカスタムイメージを使用するには、
チケットを起票してGRIDドライバーファイルを申請し、NVIDIA GRIDドライバーをインストールします。 Alibaba Cloudは、GRIDドライバーに対して追加のライセンス料を請求しません。
サポートされるシナリオ:
クラウドゲームのリアルタイムレンダリング
拡張現実 (AR) およびバーチャルリアリティ (VR) アプリケーションのリアルタイムレンダリング
柔軟なインターネットサービス展開のためのAI (ディープラーニングと機械学習) 推論
深層学習の教育環境
深層学習の実験環境のモデリング
計算:
NVIDIA T4 GPUを使用します。
vGPUを使用します。
NVIDIA Tesla T4 GPUの1/4および1/2コンピューティング容量をサポートします。
4 GBと8 GBのGPUメモリをサポートします。
CPU とメモリの比率は 1:5
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
標準 SSD および Ultra ディスクをサポート。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.vgn6i-m4-vws.xlarge | 4 | 23 | NVIDIA T4 * 1/4 | 16GB * 1/4 | 2 | 500,000 | 4/2 | 3 | 10 | 1 |
ecs.vgn6i-m8-vws.2xlarge | 10 | 46 | NVIDIA T4 * 1/2 | 16GB * 1/2 | 4 | 800,000 | 8/2 | 4 | 10 | 1 |
ecs.vgn6i-m16-vws.5xlarge | 20 | 92 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 1,200,000 | 6 | 4 | 10 | 1 |
上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:
NVIDIA T4 * 1/4
NVIDIA T4
はGPUモデルです。 1/4
は、GPUが4つのGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。
gn8is、GPU高速化コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AIによって生成されたビジネスの最近の発展に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1、2、4、または8個のGPUを提供する複数のインスタンスタイプで構成され、さまざまなユースケースに合わせてCPUとGPUの比率が異なります。
利点とポジショニング
グラフィック処理: このインスタンスファミリーは、高周波数の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオでのスムーズなグラフィックレンダリングとデザインに十分なCPU容量を提供します。
推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、70B以上の大規模言語モデル (LLM) の推論タスクに対応できます。
サポートされるシナリオ:
アニメーション、映画やテレビの特殊効果、レンダリング
AIGCイメージの生成とLLMの推論
その他の汎用AI認識、画像認識、および音声認識のシナリオ
計算:
次の機能を備えた革新的なGPUを使用します。
LLM推論のパフォーマンスを向上させるために、TensorRTなどのアクセラレーション機能とFP8浮動小数点形式をサポートします。
GPUあたり最大48 GBのメモリを使用し、複数のGPUを持つ単一インスタンスで70B以上のLLMの推論をサポートします。
改善されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを使用してgn8isインスタンスにGRIDドライバーをインストールした後、インスタンスは7世代インスタンスの2倍のグラフィック処理パフォーマンスを提供できます。
最新の高周波インテルを使用®Xeon ®複雑な3Dモデリング要件を満たすために、3.9 GHzのオールコアターボ周波数を提供するプロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
Elastic RDMAインターフェイス (ERIs) をサポートします。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。
.
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENIs | プライマリENIごとのNICキュー | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | 最大ディスク数 | ディスクベースラインIOPS | ディスクベースライン帯域幅 (Gbit/s) |
ecs.gn8is.2xlarge | 8 | 64 | 48GB * 1 | 8 | 4 | 8 | 15 | 15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | 48GB * 1 | 16 | 8 | 16 | 30 | 30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | 48GB * 2 | 32 | 8 | 32 | 30 | 30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | 48GB * 4 | 64 | 8 | 64 | 30 | 30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1024 | 48GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 900,000 | 8 |
gn7e、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
はじめに:
AIユースケースのビジネス要件を満たすために、さまざまな数のGPUとCPUを提供するインスタンスタイプを選択できます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC) 、ネットワーク、およびディスクの平均帯域幅を2倍にします。
サポートされるシナリオ:
中小規模のAIトレーニング
Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) ビジネス
高いGPU処理能力または大量のGPUメモリを必要とするAI推論タスク
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
重要トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、
チケットを起票してテクニカルサポートを受ける。ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 3,000,000 | 8 | 8 | 10 | 1 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80GB * 2 | 16 | 6,000,000 | 16 | 8 | 10 | 1 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 12,000,000 | 32 | 8 | 10 | 1 |
ecs.gn7e-c16g1.32xlarge | 128 | 1000 | 80GB * 8 | 64 | 24,000,000 | 32 | 16 | 15 | 1 |
gn7i、GPU高速化コンピューティング最適化インスタンスファミリー
はじめに: このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
計算:
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
RTXやTensorRTなどのアクセラレーション機能のサポート
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
最大752 GiBのメモリを提供します。これは、gn6iインスタンスファミリーのメモリサイズよりもはるかに大きくなります。
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 1,600,000 | 8 | 4 | 有効期限の 15 | 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 3,000,000 | 8 | 8 | 30 | 30 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 30 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24GB * 2 | 32 | 12,000,000 | 16 | 15 | 30 | 30 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 15 | 30 | 30 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 12,000,000 | 16 | 12 | 30 | 30 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24GB * 2 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24GB * 4 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24GB * 4 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24GB * 8 | 64 | 24,000,000 | 32 | 16 | 30 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24GB * 8 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
次のインスタンスタイプをecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeのみに変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlarge。
gn7s、GPU高速化コンピューティング最適化インスタンスファミリー
gn7sインスタンスファミリーを使用するには、
チケットを起票してください。はじめに:
このインスタンスファミリーは、NVIDIA Ampereアーキテクチャに基づく最新のIntel Ice LakeプロセッサとNVIDIA A30 GPUを使用します。 AIシナリオのビジネス要件を満たすために、GPUとvCPUを適切に組み合わせたインスタンスタイプを選択できます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を2倍にします。
サポートされているシナリオ: 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク。
計算:
以下の機能を備えたNVIDIA A30 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
マルチインスタンスGPU (MIG) 機能とアクセラレーション機能 (第2世代のTensorコアに基づく) をサポートし、多様なビジネスサポートを提供します。
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
前世代のインスタンスファミリーからメモリサイズを大幅に改善します。
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | NICキュー | ENIs |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 * 2 | 24GB * 2 | 32 | 12,000,000 | 5 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1000 | NVIDIA A30 * 4 | 24GB * 4 | 64 | 24,000,000 | 10 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 8 | 1 | 12 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 8 | 1 | 12 | 8 |
gn7、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 2,500,000 | 4 | 8 | 10 | 1 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
gn6i、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
コンピュータービジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムの AI (深層学習と機械学習) 推論
クラウドゲームのリアルタイムレンダリング
AR・VR アプリケーションのリアルタイムレンダリング
グラフィックスワークステーションまたはグラフィックスの重いコンピューティング
GPU 高速化データベース
高性能コンピューティング
計算:
以下の機能を備えたNVIDIA T4 GPUを使用します。
革新的なNVIDIAチューリングアーキテクチャ
16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)
GPUあたり2,560 CUDAコア
GPUあたり最大320個のTuring Tensorコア
65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6i-c4g1.xlarge | 4 | 有効期限の 15 | NVIDIA T4 * 1 | 16GB * 1 | 4 | 500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16GB * 1 | 5 | 800,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16GB * 1 | 6 | 1,000,000 | なし | 4 | 3 | 10 | 1 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 1,200,000 | なし | 6 | 4 | 10 | 1 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 * 1 | 16GB * 1 | 10 | 1,600,000 | なし | 16 | 10 | 10 | 1 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16GB * 2 | 15 | 2,400,000 | なし | 12 | 6 | 10 | 1 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 4,800,000 | 250,000 | 24 | 8 | 10 | 1 |
gn6e、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用しています。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ。
32 GPUあたりHBM2メモリ (900ギガバイト/秒帯域幅) のGB。
5,120 CUDA core / GPU
640 GPUごとのTensorコア。
GPUごとに最大6つのNVLink双方向接続をサポートします。 各NVLink接続は、300 Gbit/s (6 × 25 × 2 = 300) の総帯域幅に対して、各方向に25 Gbit/sの帯域幅を提供する。
CPU 対メモリ比は 1:8。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 * 1 | 32GB * 1 | 5 | 800,000 | 8 | 6 | 10 | 1 |
ecs.gn6e-c12g1.6xlarge | 24 | 182 | NVIDIA V100 * 2 | 32GB * 2 | 8 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 * 4 | 32GB * 4 | 16 | 2,400,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 4,800,000 | 16 | 8 | 20 | 1 |
gn6v、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
NVIDIA V100 GPUを使用します。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ。
16 GPUあたりHBM2メモリ (900ギガバイト/秒帯域幅) のGB。
5,120 CUDA core / GPU
640 GPUごとのTensorコア。
GPUごとに最大6つのNVLink双方向接続をサポートします。 各NVLink接続は、300 Gbit/s (6 × 25 × 2 = 300) の総帯域幅に対して、各方向に25 Gbit/sの帯域幅を提供する。
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16GB * 1 | 2.5 | 800,000 | なし | 4 | 4 | 10 | 1 |
ecs.gn6v-c8g1.4xlarge | 16 | 64 | NVIDIA V100 * 2 | 16GB * 2 | 5 | 1,000,000 | なし | 4 | 8 | 20 | 1 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16GB * 4 | 10 | 2,000,000 | なし | 8 | 8 | 20 | 1 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16GB * 8 | 20 | 2,500,000 | なし | 16 | 8 | 20 | 1 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16GB * 8 | 32 | 4,500,000 | 250,000 | 16 | 8 | 20 | 1 |
gn5、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
深層学習
計算流体力学、計算ファイナンス、ゲノミクス、環境分析などの科学的コンピューティングアプリケーション
高性能コンピューティング、レンダリング、マルチメディアのエンコードとデコードなど、サーバー側のGPUコンピューティングワークロード
計算:
NVIDIA P100 GPUを使用します。
複数の CPU とメモリの比率を提供
2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。
ストレージ:
高パフォーマンスのローカル不揮発性メモリエクスプレス (NVMe) SSDをサポートします。
I/O 最適化インスタンス。
標準 SSD および Ultra ディスクをサポート。
ネットワーク:
IPv4のみをサポート。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | ローカルストレージ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn5-c4g1.xlarge | 4 | 30 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 300,000 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 400,000 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 2 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 5 | 1,000,000 | 8 | 8 | 20 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | 1760 | NVIDIA P100 * 4 | 16GB * 4 | 10 | 2,000,000 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | 3520 | NVIDIA P100 * 8 | 16GB * 8 | 25 | 4,000,000 | 14 | 8 | 20 |
gn5i、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされているシナリオ: ディープラーニング推論やマルチメディアのエンコードとデコードなど、サーバー側のGPU計算ワークロード。
コンピューティング
NVIDIA P4 GPUを使用します。
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。
ストレージ
I/O 最適化インスタンス。
標準 SSD および Ultra ディスクをサポート。
ネットワーク
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8GB * 1 | 1 | 100,000 | 2 | 2 | 6 | 1 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8GB * 1 | 1.5 | 200,000 | 2 | 3 | 10 | 1 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8GB * 1 | 2 | 400,000 | 4 | 4 | 10 | 1 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8GB * 1 | 3 | 800,000 | 4 | 8 | 20 | 1 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8GB * 2 | 6 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 | 1 |