すべてのプロダクト
Search
ドキュメントセンター

Elastic Compute Service:Elastic GPU Service インスタンスファミリー (gn、vgn、sgn シリーズ)

最終更新日:Dec 26, 2025

Elastic GPU Service は、Auto Scaling を備えたオンデマンドの GPU アクセラレーションコンピューティング機能を提供します。Alibaba Cloud のエラスティックコンピューティングファミリーのコンポーネントとして、Elastic GPU Service は GPU と CPU の計算能力を組み合わせ、人工知能 (AI)、ハイパフォーマンスコンピューティング (HPC)、プロフェッショナルグラフィックス、画像処理などのシナリオにおける要件を満たします。

説明

vGPU アクセラレーション

GPU コンピューティング最適化

非推奨 (以下のインスタンスファミリーが売り切れの場合は、代わりに前の列のインスタンスファミリーを使用してください)

sgn8ia、vGPU アクセラレーションインスタンスファミリー

  • はじめに:

    • 第 3 世代の SHENLONG アーキテクチャを搭載し、安定した予測可能な高いパフォーマンスを提供します。チップレベルのアクセラレーションにより、ストレージパフォーマンス、ネットワークパフォーマンス、コンピューティングの安定性が大幅に向上し、データストレージとモデルの読み込みを高速化できます。

    • NVIDIA GRID Virtual Workstation (vWS) ソフトウェアライセンスが含まれています。これにより、さまざまなプロフェッショナル向けコンピューター支援設計 (CAD) アプリケーションに認定されたグラフィックスアクセラレーションが提供され、プロフェッショナルなグラフィックデザインの要件を満たします。これらのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとしても使用でき、小規模な AI 推論のコストを削減します。

  • シナリオ:

    • 高クロック速度の CPU、メモリ、GPU により、多くの同時 AI 推論タスクを処理できるため、画像認識、音声認識、行動認識などのアプリケーションに最適です。

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。これらのインスタンスは RTX をサポートし、高周波 CPU を搭載しています。

    • 最大 3.75 GHz のクロック速度を持つ AMD Genoa プロセッサーは、映画やアニメーション制作、クラウドゲーム、機械設計などの分野における 3D モデリングで優れたパフォーマンスを発揮します。

  • コンピューティング:

    • NVIDIA Lovelace GPU を使用しており、以下の特徴があります:

      • 大容量の GPU メモリと複数の GPU スライシングソリューション。

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。

    • プロセッサー:3.4 GHz から 3.75 GHz のクロック速度を提供する高周波 AMD Genoa プロセッサーにより、3D モデリングに高い計算能力を提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

sgn8iaには、以下のインスタンスタイプとメトリックデータが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

マルチキュー

ENI

ENI あたりのプライベート IPv4/IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン BPS (MB/s)

ecs.sgn8ia-m2.xlarge

4

16

2 GB

2.5

1,000,000

4

4

15/15

9

30,000

244

ecs.sgn8ia-m4.2xlarge

8

32

4 GB

4

1,600,000

8

4

15/15

9

45,000

305

ecs.sgn8ia-m8.4xlarge

16

64

8 GB

7

2,000,000

16

8

30/30

17

60,000

427

ecs.sgn8ia-m16.8xlarge

32

128

16 GB

10

3,000,000

32

8

30/30

33

80,000

610

ecs.sgn8ia-m24.12xlarge

48

192

24 GB

16

4,500,000

48

8

30/30

33

120,000

1000

ecs.sgn8ia-m48.24xlarge

96

384

48 GB

32

9,000,000

64

15

30/30

33

240,000

2000

説明
  • 上記の表の GPU は、vGPU 技術を使用して作成された vGPU シャードです。

  • sgn8ia インスタンスのメモリと GPU メモリはインスタンス専用です。インスタンスの CPU は共有リソースであり、オーバーコミット率は約 1:1.5 です。CPU の計算能力に特定の要件がある場合は、gn7i GPU コンピューティング最適化インスタンスなどのパススルー GPU を備えた専用型インスタンスを購入できます。

sgn7i-vws、共有 CPU を搭載した vGPU アクセラレーションインスタンスファミリー

  • ファミリーの概要

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。これにより、データストレージとモデルの読み込みをより迅速に実行できます。

    • このインスタンスファミリーのインスタンスは、CPU とネットワークリソースを共有して、基盤となるリソースの使用を最大化します。各インスタンスは、データ分離とパフォーマンス保証を提供するために、メモリと GPU メモリに排他的にアクセスできます。

      説明

      排他的な CPU リソースを使用したい場合は、vgn7i-vws インスタンスファミリーを選択できます。

    • このインスタンスファミリーには、NVIDIA GRID vWS ライセンスが付属しており、CAD ソフトウェアに認定されたグラフィックスアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。

  • シナリオ

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。

    • アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサーの使用を必要とする分野での 3D モデリング。

  • コンピューティング

    • NVIDIA A10 GPU を搭載しています。

      • 革新的な Ampere アーキテクチャ。

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。

    • プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

sgn7i-vws には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン/バースト帯域幅 (Gbit/s)

パケット転送速度 (PPS)

マルチキュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.sgn7i-vws-m2.xlarge

4

15.5

NVIDIA A10 × 1/12

24 GB × 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4.2xlarge

8

31

NVIDIA A10 × 1/6

24 GB × 1/6

2.6/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8.4xlarge

16

62

NVIDIA A10 × 1/3

24 GB × 1/3

5/20

2,000,000

8

4

10

1

ecs.sgn7i-vws-m2s.xlarge

4

8

NVIDIA A10 × 1/12

24 GB × 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4s.2xlarge

8

16

NVIDIA A10 × 1/6

24 GB × 1/6

2.6/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8s.4xlarge

16

32

NVIDIA A10 × 1/3

24 GB × 1/3

5/20

2,000,000

8

4

10

1

説明

上記の表の GPU 列には、GPU カードモデルと GPU スライシング情報が含まれています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションはインスタンスに vGPU として割り当てることができます。例:

NVIDIA A10 * 1/12 では、NVIDIA A10 は GPU カードモデルを示し、1/12 は 1 つの GPU カードが 12 個のシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。

vgn7i-vws、vGPU アクセラレーションインスタンスファミリー

  • ファミリーの概要

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。これにより、データストレージとモデルの読み込みをより迅速に実行できます。

    • このインスタンスファミリーには、NVIDIA GRID vWS ライセンスが付属しており、CAD ソフトウェアに認定されたグラフィックスアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量な GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。

  • シナリオ

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。

    • Ice Lake プロセッサーは、映画やアニメーション制作、クラウドゲーム、機械設計などの分野での 3D モデリングのパフォーマンスを向上させます。

  • コンピューティング

    • NVIDIA A10 GPU を搭載しています。

      • 革新的な Ampere アーキテクチャ。

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。

    • プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

vgn7i-vws には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.vgn7i-vws-m4.xlarge

4

30

NVIDIA A10 × 1/6

24 GB × 1/6

3

1,000,000

4

4

10

1

ecs.vgn7i-vws-m8.2xlarge

10

62

NVIDIA A10 × 1/3

24 GB × 1/3

5

2,000,000

8

6

10

1

ecs.vgn7i-vws-m12.3xlarge

14

93

NVIDIA A10 × 1/2

24 GB × 1/2

8

3,000,000

8

6

15

1

ecs.vgn7i-vws-m24.7xlarge

30

186

NVIDIA A10 × 1

24 GB × 1

16

6,000,000

12

8

30

1

説明

上記の表では、GPU 列に GPU カードモデルと GPU スライシング情報が指定されています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションはインスタンスに vGPU として割り当てることができます。例:

NVIDIA A10 * 1/6 では、NVIDIA A10 は GPU カードモデルを示し、1/6 は 1 つの GPU カードが 6 つのシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。

vgn6i-vws、vGPU アクセラレーションインスタンスファミリー

重要
  • Alibaba Cloud は、GRID ドライバーのアップグレードをサポートするために vgn6i インスタンスファミリーを vgn6i-vws にアップグレードしました。新しいファミリーは最新の GRID ドライバーを使用し、無料の GRID vWS ライセンスが含まれています。プリインストールされた GRID ドライバーを持つ無料イメージをリクエストするには、チケットを送信してください。

  • GRID ドライバーを含まない他のパブリックイメージまたはカスタムイメージを使用するには、してチケットを送信し、別途インストールするための GRID ドライバーファイルをリクエストできます。Alibaba Cloud は GRID ドライバーのライセンス料を請求しません。

  • シナリオ

    • クラウドゲームのリアルタイムレンダリング。

    • 拡張現実 (AR) および仮想現実 (VR) アプリケーションのリアルタイムレンダリング。

    • AI 推論アプリケーションを含むインターネットサービスのエラスティックデプロイメントのための AI (ディープラーニングおよび機械学習) 推論。

    • ディープラーニングのための教育環境。

    • ディープラーニングのためのモデリング実験環境。

  • コンピューティング

    • NVIDIA T4 GPU アクセラレータを使用します。

    • スライスおよび仮想化された vGPU を使用します。

      • NVIDIA Tesla T4 GPU の計算能力の 1/4 および 1/2 をサポートします。

      • 4 GB および 8 GB の GPU メモリをサポートします。

    • CPU とメモリの比率は約 1:5 です。

    • プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake) プロセッサー。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

vgn6i-vws には、以下のインスタンスタイプとメトリックデータが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.vgn6i-m4-vws.xlarge

4

23

NVIDIA T4 × 1/4

16 GB × 1/4

2

500,000

4/2

3

10

1

ecs.vgn6i-m8-vws.2xlarge

10

46

NVIDIA T4 × 1/2

16 GB × 1/2

4

800,000

8/2

4

10

1

ecs.vgn6i-m16-vws.5xlarge

20

92

NVIDIA T4 × 1

16 GB × 1

7.5

1,200,000

6

4

10

1

説明

上記の表では、GPU 列に GPU カードモデルと GPU スライシング情報が含まれています。GPU スライシングとは、GPU が複数のパーティションにスライスされ、各パーティションがインスタンスに割り当てられることを意味します。例:

NVIDIA T4 * 1/4 では、NVIDIA T4 は GPU カードモデルを示し、1/4 は 1 つの GPU カードが 4 つのシャードにスライスされ、各インスタンスが 1 つのシャードを使用することを示します。

gn8v/gn8v-tee、GPU コンピューティング最適化インスタンスファミリー

このインスタンスは現在、中国以外のリージョンを含む一部のリージョンでのみ利用可能です。このサービスをリクエストするには、Alibaba Cloud の営業担当者にお問い合わせください。

  • はじめに

    • gn8v:このインスタンスファミリーは、Alibaba Cloud が AI モデルトレーニングおよび超大規模言語モデル (LLM) の推論タスク向けに提供する第 8 世代の GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。

    • gn8v-tee:大規模言語モデルのトレーニングと推論におけるセキュリティ要件を満たすため、Alibaba Cloud は gn8v をベースにした第 8 世代のインスタンスファミリーを提供しており、これにはコンフィデンシャルコンピューティング機能が含まれています。このインスタンスタイプは、GPU コンピューティング中にデータを暗号化し、ユーザーデータのセキュリティを確保します。

  • シナリオ

    • 700 億以上のパラメーターを持つ LLM のための、コスト効率の高いマルチ GPU 並列推論コンピューティング。

    • 単一の GPU は 39.5 TFLOPS の FP32 計算能力を提供し、従来の AI および自動運転のトレーニングワークロードで優れたパフォーマンスを発揮します。

    • 8 つの GPU 間の NVLink 接続を活用した、中小規模のモデルトレーニングシナリオ。

  • 特徴と位置づけ

    • 高速かつ大容量の GPU メモリ:各 GPU は 96 GB の HBM3 メモリを搭載し、最大 4 TB/s のメモリ帯域幅を提供することで、モデルのトレーニングと推論を大幅に高速化します。

    • 高い GPU 間帯域幅:複数の GPU は 900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。

    • 大規模言語モデルの量子化:このインスタンスファミリーは、8 ビット浮動小数点 (FP8) フォーマットの計算能力をサポートし、大規模パラメーターのトレーニングと推論のための計算能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、GPU メモリ使用量が削減されます。

    • (gn8v-tee のみ) 高いセキュリティ:gn8v-tee インスタンスファミリーは、CPU ベースのコンフィデンシャルコンピューティング (Intel TDX) と GPU ベースのコンフィデンシャルコンピューティング (NVIDIA CC) 機能をサポートし、モデル推論のためのエンドツーエンドのコンフィデンシャルコンピューティング機能を提供します。コンフィデンシャルコンピューティング機能は、モデル推論とトレーニングにおけるユーザーの推論データと企業モデルのセキュリティを確保します。

  • コンピューティング

    • 最新の Cloud Infrastructure Processing Unit (CIPU) 1.0 プロセッサーを使用します。

      • コンピューティング能力とストレージ能力を分離し、必要に応じてストレージリソースを柔軟に選択できます。

      • 従来の仮想化インスタンスよりも改善された、GPU インスタンス間の P2P (ピアツーピア) 通信をサポートするベアメタル機能を提供します。

    • プロセッサー:第 4 世代 Intel Xeon Scalable プロセッサーで、ベース周波数は最大 2.8 GHz、全コアターボ周波数は最大 3.1 GHz です。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • ジャンボフレーム機能をサポートします。詳細については、「ジャンボフレーム」をご参照ください。

    • 最大 30,000,000 PPS のパケット転送速度で超高性能なネットワークパフォーマンスを提供します (8 つの GPU を搭載したインスタンスの場合)。

    • Elastic RDMA Interface (ERI) がサポートされています。

    • 説明

      ERI の使用方法の詳細については、「エンタープライズレベルのインスタンスで eRDMA を有効にするをご参照ください。

  • セキュリティ:Trusted Platform Module (vTPM) 機能をサポートします。この機能は gn8v でサポートされていますが、gn8v-tee ではサポートされていません。詳細については、「信頼できるコンピューティング機能の概要」をご参照ください。

gn8vには、次の表に示すインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENI

キュー (プライマリ)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅 (GB/s)

ecs.gn8v.4xlarge

16

96

96 GB × 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v.6xlarge

24

128

96 GB × 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-2x.8xlarge

32

192

96 GB × 2

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-4x.8xlarge

32

384

96 GB × 4

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-2x.12xlarge

48

256

96 GB × 2

25

8

48

30

30

33

300,000

1.50

ecs.gn8v-8x.16xlarge

64

768

96 GB × 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-4x.24xlarge

96

512

96 GB × 4

50

15

64

30

30

49

500,000

3

ecs.gn8v-8x.48xlarge

192

1024

96 GB × 8

100

15

64

50

50

65

1,000,000

6

gn8v-teeには、以下のインスタンスタイプとメトリックデータが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENI

キュー (プライマリ)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅 (GB/s)

ecs.gn8v-tee.4xlarge

16

96

96 GB × 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v-tee.6xlarge

24

128

96 GB × 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-tee-8x.16xlarge

64

768

96 GB × 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-tee-8x.48xlarge

192

1024

96 GB × 8

100

15

64

50

50

65

1,000,000

6

説明

gn8v-tee インスタンスファミリーは、Alibaba Cloud Linux 3 イメージのみをサポートします。Alibaba Cloud Linux 3 に基づいて構築されたカスタムイメージを使用してインスタンスを作成する場合、カーネルバージョンが 5.10.134-18 以降であることを確認する必要があります。

gn8is、GPU コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。

  • はじめに:gn8is は、AI 生成コンテンツ (AIGC) サービスの成長に対応して開発された、Alibaba Cloud の第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。最新の NVIDIA L20 GPU を使用し、1-GPU、2-GPU、4-GPU、および 8-GPU のインスタンスタイプ、およびさまざまな CPU 対 GPU 比のインスタンスタイプを提供し、さまざまなアプリケーション要件に対応します。

  • 特徴と位置づけ

    • グラフィックス処理:このインスタンスファミリーは、第 4 世代 Intel Xeon Scalable 高周波プロセッサーを使用して、3D モデリングシナリオに十分な CPU 計算能力を提供し、グラフィックスのレンダリングとデザインをよりスムーズにします。

    • 推論タスク:新しい NVIDIA L20 GPU を使用し、GPU ごとに 48 GB の GPU メモリを提供して推論タスクを高速化します。FP8 浮動小数点数フォーマットをサポートし、Container Service for Kubernetes (ACK) コンテナと組み合わせて使用することで、さまざまな AIGC モデルの推論を柔軟にサポートします。特に、700 億パラメーター未満の LLM モデルの推論タスクに適しています。

  • シナリオ

    • アニメーション、映画やテレビの特殊効果、レンダリング。これらのインスタンスは、Alibaba Cloud Marketplace イメージの GRID ドライバーを使用してワークステーションレベルのグラフィックス処理能力を提供し、OpenGL および Direct3D グラフィックス機能を有効にします。

    • ACK コンテナ化管理を使用して、AIGC 画像生成と LLM 推論をより効率的かつコスト効率よくサポートします。

    • 画像認識や音声認識など、その他の汎用 AI 認識シナリオ。

  • コンピューティング

    • 新しい NVIDIA L20 エンタープライズグレード GPU を使用します。

      • TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットをサポートし、モデル推論のパフォーマンスを向上させます。

      • GPU ごとに最大 48 GB のメモリを搭載し、複数の GPU を持つ単一インスタンスで 70B 以上のモデルの推論をサポートします。

      • グラフィックス処理能力が向上しました。たとえば、クラウドアシスタントまたは Alibaba Cloud Marketplace イメージを使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代プラットフォームの 2 倍のグラフィックス処理パフォーマンスを提供できます。

    • NVIDIA L20 の主要パラメーター:

      GPU アーキテクチャ

      GPU メモリ

      計算パフォーマンス

      ビデオエンコーディング/デコーディング能力

      カード間接続

      NVIDIA Ada Lovelace

      • 容量: 48 GB

      • 帯域幅: 864 GB/s

      • FP64:N/A

      • FP32:59.3 TFLOPS

      • FP16/BF16:119 TFLOPS

      • FP8/INT8:237 TFLOPS

      • 3 × ビデオエンコーダー (+AV1)

      • 3 × ビデオデコーダー

      • 4 × JPEG デコーダー

      • PCIe インターフェイス:PCIe Gen4 x16

      • 帯域幅: 64 GB/s

    • プロセッサー:最新の高周波 Intel ® Xeon ® プロセッサーで、全コアターボ周波数は 3.9 GHz で、複雑な 3D モデリング要件に対応します。

  • ストレージ

  • ネットワーク

  • セキュリティ:vTPM 機能をサポートします。詳細については、「概要」をご参照ください。

gn8is には、次の表に示すインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

エラスティックネットワークインターフェイス

キュー (プライマリ)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅 (GB/s)

ecs.gn8is.2xlarge

8

64

L20 × 1

48 GB × 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

L20 × 1

48 GB × 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

L20 × 2

48 GB × 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

L20 × 4

48 GB × 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1024

L20 × 8

48 GB × 8

100

15

64

50

50

65

900,000

8

gn7e、GPU コンピューティング最適化インスタンスファミリー

gn7e の特徴は次のとおりです:

  • ファミリーの概要

    • AI のユースケースにおけるビジネス要件を満たすために、異なる数の GPU と CPU を提供するインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC)、ネットワーク、ディスクの平均帯域幅を 2 倍にします。

  • シナリオ

    • 中小規模の AI トレーニング。

    • Compute Unified Device Architecture (CUDA) を使用して高速化された HPC ワークロード。

    • 高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク。

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション。

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション。

    重要

    トランスフォーマーモデルなど、通信負荷の高い AI トレーニングサービスを使用する場合、GPU 間通信のために NVLink を有効にする必要があります。そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって引き起こされる予測不可能な障害により、データが破損する可能性があります。AI トレーニングサービスに使用される通信リンクのトポロジーを理解していない場合は、してチケットを送信し、技術サポートを受けることができます。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn7e には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

マルチキュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn7e-c16g1.4xlarge

16

125

80 GB × 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80 GB × 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80 GB × 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1000

80 GB × 8

64

24,000,000

32

16

15

1

gn7i、GPU コンピューティング最適化インスタンスファミリー

  • はじめに:このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用して、予測可能で一貫した超高性能を提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを使用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。

  • シナリオ

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とする計算集約型のグラフィックス処理タスク。インスタンスは RTX をサポートし、高周波 CPU を搭載しています。

  • コンピューティング

    • NVIDIA A10 GPU を搭載しています。

      • 革新的な Ampere アーキテクチャ。

      • RTX や TensorRT などのアクセラレーション機能をサポートします。

    • プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。

    • 最大 752 GiB のメモリを提供し、gn6i インスタンスファミリーのメモリサイズよりもはるかに大きいです。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn7i には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

マルチキュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 × 1

24 GB × 1

16

1,600,000

8

4

15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 × 1

24 GB × 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 × 1

24 GB × 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 × 2

24 GB × 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 × 4

24 GB × 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 × 1

24 GB × 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 × 1

24 GB × 1

16

10,000,000

16

8

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 × 2

24 GB × 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 × 4

24 GB × 4

32

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 × 4

24 GB × 4

64

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 × 8

24 GB × 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 × 8

24 GB × 8

32

12,000,000

32

8

30

30

重要

ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge インスタンスタイプは ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge に変更できますが、ecs.gn7i-c32g1.8xlarge などの他のインスタンスタイプには変更できません。

gn7s、GPU コンピューティング最適化インスタンスファミリー

gn7s インスタンスファミリーを使用するには、チケットを送信して申請できます。

  • 仕様ファミリーの紹介

    • このインスタンスファミリーは、最新の Intel Ice Lake プロセッサーと NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用します。AI シナリオでのビジネス要件を満たすために、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、ディスクの平均帯域幅を 2 倍にします。

  • シナリオ:画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

  • コンピューティング

    • NVIDIA A30 GPU を搭載。

      • 革新的な NVIDIA Ampere アーキテクチャ。

      • マルチインスタンス GPU (MIG) 機能とアクセラレーション機能 (第 2 世代 Tensor コアに基づく) をサポートし、多様なビジネスサポートを提供します。

    • プロセッサー:2.9 GHz Intel ® Xeon ® Scalable (Ice Lake) プロセッサーで、全コアターボ周波数は 3.5 GHz です。

    • 前世代のインスタンスファミリーよりも大幅に大きいメモリサイズを提供します。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn7s には、以下のインスタンスタイプとメトリックデータが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

マルチキュー

ENI

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 × 1

24 GB × 1

16

1,600,000

5

1

8

4

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 × 1

24 GB × 1

16

3,000,000

5

1

8

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 × 2

24 GB × 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1000

NVIDIA A30 × 4

24 GB × 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 × 1

24 GB × 1

16

9,000,000

8

1

16

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 × 1

24 GB × 1

16

10,000,000

8

1

16

8

gn7、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション。

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション。

gn7 には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

マルチキュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn7-c12g1.3xlarge

12

94

40 GB × 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40 GB × 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40 GB × 8

30

18,000,000

16

15

10

1

gn6i、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ

    • コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムのための AI (ディープラーニングおよび機械学習) 推論。

    • クラウドゲームのリアルタイムレンダリング。

    • AR および VR アプリケーションのリアルタイムレンダリング。

    • 高負荷のグラフィックスコンピューティングまたはグラフィックスワークステーション。

    • GPU アクセラレーションデータベース。

    • ハイパフォーマンスコンピューティング。

  • コンピューティング

    • GPU アクセラレータ:T4。

      • 革新的な Turing マイクロアーキテクチャ。

      • GPU ごとに 16 GB の GPU メモリ (320 GB/s の GPU メモリ帯域幅)。

      • GPU ごとに 2,560 の CUDA コア。

      • GPU ごとに最大 320 の Turing Tensor コア。

      • 可変精度 Tensor コアは、65 TFLOPS FP16、130 INT8 TOPS、および 260 INT4 TOPS をサポートします。

    • プロセッサーとメモリの比率は約 1:4 です。

    • プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn6i には、次の表で説明するインスタンスタイプとメトリックデータが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

ディスクベースライン IOPS

マルチキュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn6i-c4g1.xlarge

4

15

NVIDIA T4 × 1

16 GB × 1

4

2,500,000

N/A

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 × 1

16 GB × 1

5

2,500,000

N/A

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 × 1

16 GB × 1

6

2,500,000

N/A

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 × 1

16 GB × 1

7.5

2,500,000

N/A

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 × 1

16 GB × 1

10

1,600,000

N/A

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 × 2

16 GB × 2

15

4,500,000

N/A

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 × 4

16 GB × 4

30

4,500,000

250,000

24

8

10

1

gn6e、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ

    • 画像分類、自動運転、音声認識のための AI アルゴリズムのトレーニングや推論アプリケーションなどのディープラーニング。

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算。

  • コンピューティング

    • NVIDIA V100 (32 GB NVLink) GPU を使用します。

    • GPU アクセラレータ:V100 (SXM2 パッケージ)。

      • 革新的な Volta アーキテクチャ。

      • GPU ごとに 32 GB の HBM2 メモリ (900 GB/s の GPU メモリ帯域幅)。

      • GPU ごとに 5,120 の CUDA コア。

      • GPU ごとに 640 の Tensor コア。

      • 各 GPU は 6 つの NVLink リンクをサポートします。NVLink は双方向リンクです。単方向リンクの帯域幅は 25 Gbit/s で、合計帯域幅は 300 Gbit/s (6 × 25 × 2) です。

    • プロセッサーとメモリの比率は約 1:8 です。

    • プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn6e には、次の表に示すインスタンスタイプと仕様が含まれます。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 × 1

32 GB × 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

184

NVIDIA V100 × 2

32 GB × 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 × 4

32 GB × 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 × 8

32 GB × 8

32

4,500,000

16

8

20

1

gn6v、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ

    • 画像分類、自動運転、音声認識のための AI アルゴリズムのトレーニングや推論アプリケーションなどのディープラーニング。

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算。

  • コンピューティング

    • NVIDIA V100 GPU を使用します。

    • GPU アクセラレータ:V100 (SXM2 パッケージ)。

      • 革新的な Volta アーキテクチャ。

      • GPU ごとに 16 GB の HBM2 メモリ (900 GB/s の GPU メモリ帯域幅)。

      • GPU ごとに 5,120 の CUDA コア。

      • GPU ごとに 640 の Tensor コア。

      • 各 GPU は 6 つの NVLink リンクをサポートします。NVLink は双方向リンクです。単方向リンクの帯域幅は 25 Gbit/s で、合計帯域幅は 300 Gbit/s (6 × 25 × 2) です。

    • プロセッサーとメモリの比率は約 1:4 です。

    • プロセッサー:2.5 GHz Intel ® Xeon ® Platinum 8163 (Skylake)。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn6v インスタンスファミリーには、次の表に示すインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

ディスクベースライン IOPS

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 × 1

16 GB × 1

2.5

800,000

N/A

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 × 2

16 GB × 2

5

1,000,000

N/A

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 × 4

16 GB × 4

10

2,000,000

N/A

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 × 8

16 GB × 8

20

2,500,000

N/A

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 × 8

16 GB × 8

35

4,500,000

250,000

16

8

20

1

gn5、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ

    • ディープラーニング。

    • 計算流体力学、計算金融、ゲノミクス研究、環境分析などの科学計算。

    • ハイパフォーマンスコンピューティング、レンダリング、マルチメディアエンコーディングおよびデコーディングなどのサーバーサイド GPU コンピューティングワークロード。

  • コンピューティング

    • NVIDIA P100 GPU を使用します。

    • 複数のプロセッサーとメモリの比率。

    • プロセッサー:2.5 GHz Intel ® Xeon ® E5-2682 v4 (Broadwell)。

  • ストレージ

    • 高性能 NVMe SSD ローカルディスクを搭載。

    • I/O 最適化インスタンス。

    • サポートされるディスクカテゴリ:標準 SSD および Ultra ディスク。

  • ネットワーク

    • IPv4 のみをサポートします。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn5 には、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ローカルストレージ (GiB)

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ecs.gn5-c4g1.xlarge

4

30

NVIDIA P100 × 1

16 GB × 1

440

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

NVIDIA P100 × 1

16 GB × 1

440

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

NVIDIA P100 × 2

16 GB × 2

880

5

1,000,000

4

4

10

ecs.gn5-c8g1.4xlarge

16

120

NVIDIA P100 × 2

16 GB × 2

880

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

NVIDIA P100 × 1

16 GB × 1

440

5

2,250,000

7

8

10

ecs.gn5-c8g1.8xlarge

32

240

NVIDIA P100 × 4

16 GB × 4

1760

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

NVIDIA P100 × 2

16 GB × 2

880

10

4,500,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

NVIDIA P100 × 8

16 GB × 8

3520

25

4,000,000

14

8

10

gn5i、GPU コンピューティング最適化インスタンスファミリー

  • シナリオ:ディープラーニング推論やマルチメディアエンコーディングおよびデコーディングなどのサーバーサイド GPU コンピューティングワークロード。

  • コンピューティング:

    • NVIDIA P4 GPU を使用します。

    • プロセッサーとメモリの比率は 1:4 です。

    • プロセッサー:2.5 GHz Intel ® Xeon ® E5-2682 v4 (Broadwell)。

  • ストレージ:

    • I/O 最適化インスタンス。

    • サポートされるディスクカテゴリ:標準 SSD および Ultra ディスク。

  • ネットワーク:

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • インスタンスのネットワークパフォーマンスは、インスタンスタイプに比例します。

gn5i インスタンスファミリーには、以下のインスタンスタイプとメトリックが含まれます:

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (PPS)

キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 × 1

8 GB × 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 × 1

8 GB × 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 × 1

8 GB × 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 × 1

8 GB × 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 × 2

8 GB × 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 × 2

8 GB × 2

10

2,000,000

14

8

20

1