すべてのプロダクト
Search
ドキュメントセンター

Elastic Compute Service:Elastic GPU Serviceインスタンスファミリー (gn、vgn、sgnシリーズ)

最終更新日:Nov 19, 2024

Elastic GPU Serviceは、GPU高速化されたコンピューティング機能と、すぐに使用できるスケーラブルなGPUコンピューティングリソースを提供します。 Elastic GPU Serviceは、Alibaba Cloudが提供するエラスティックコンピューティングサービスです。 このサービスは、GPUとCPUのコンピューティングパワーを組み合わせて、AI、高性能コンピューティング、プロフェッショナルなグラフィックスと画像処理などのシナリオの課題に対処します。

背景情報

このトピックをさらに読む前に、次の情報に精通している必要があります。

  • インスタンスタイプの分類と命名 インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、およびインスタンスファミリー間の違いをよく理解してください。 詳細については、「インスタンスタイプの分類と命名」をご参照ください。

  • インスタンスタイプのメトリック インスタンスタイプのメトリックの詳細については、「インスタンスタイプメトリック」をご参照ください。

  • ビジネスシナリオに基づいてインスタンスタイプを選択する手順 詳細については、「インスタンスタイプの選択」をご参照ください。

ユースケースのインスタンスタイプを決定した後、次の情報について学ぶ必要があります。

  • インスタンスタイプが購入可能なリージョン 購入可能なインスタンスタイプは、リージョンによって異なります。 [各リージョンで利用可能なインスタンスタイプ] ページに移動して、各リージョンで購入可能なインスタンスタイプを表示できます。

  • 推定インスタンスコスト。 さまざまな課金方法を使用するインスタンスの料金を計算できます。

    価格計算機

  • インスタンスの購入手順 ECSインスタンス購入ページに移動して、インスタンスの購入注文を行うことができます。

あなたは以下の情報について心配しているかもしれません:

  • 退職したインスタンスファミリー このトピックでインスタンスタイプが見つからない場合、そのインスタンスタイプは退職したインスタンスファミリーである可能性があります。 退職したインスタンスファミリーの詳細については、「退職したインスタンスファミリー」をご参照ください。

  • サポートされているインスタンスタイプの変更。 インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを識別します。 詳細については、「インスタンスタイプの変更をサポートするインスタンスタイプとファミリー」をご参照ください。

vGPU高速化インスタンスファミリー

GPU高速化コンピューティング最適化インスタンスファミリー

推奨されないインスタンスファミリー (次のインスタンスファミリーが売り切れている場合は、前の列のインスタンスファミリーを使用することを推奨します)

CPUを共有したsgn7i-vwsのvGPU高速化インスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。 このようにして、データ記憶およびモデルロードをより迅速に行うことができる。

    • このインスタンスファミリーのインスタンスは、CPUリソースとネットワークリソースを共有して、基盤となるリソースを最大限に活用します。 各インスタンスは、データの分離とパフォーマンス保証を提供するために、メモリとGPUメモリに排他的にアクセスできます。

      説明

      排他的なCPUリソースを使用する場合は、vgn7i-vwsインスタンスファミリーを選択します。

    • このインスタンスファミリーには、NVIDIA GRID vWSライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD (Computer Aided Design) ソフトウェアの認定グラフィックアクセラレーション機能を提供しています。 このインスタンスファミリーのインスタンスは、軽量のGPU高速化コンピューティング最適化インスタンスとして機能し、小規模なAI推論タスクのコストを削減できます。

  • サポートされるシナリオ:

    • 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク

    • アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lakeプロセッサの使用が必要な分野での3Dモデリング

  • 計算:

    • 以下の機能を備えたNVIDIA A10 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • vGPU、RTX、TensorRTなどのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン /バースト帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.sgn7i-vws-m2.xlarge

4

15.5

NVIDIA A10 * 1/12

24GB * 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4.2xlarge

8

31

NVIDIA A10 * 1/6

24GB * 1/6

2.5/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8.4xlarge

16

62

NVIDIA A10 * 1/3

24GB * 1/3

5/20

2,000,000

8

4

10

1

ecs.sgn7i-vws-m2s.xlarge

4

8

NVIDIA A10 * 1/12

24GB * 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4s.2xlarge

8

16

NVIDIA A10 * 1/6

24GB * 1/6

2.5/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8s.4xlarge

16

32

NVIDIA A10 * 1/3

24GB * 1/3

5/20

2,000,000

8

4

10

1

説明

上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:

NVIDIA A10 * 1/12 NVIDIA A10はGPUモデルです。 1/12は、GPUが12個のGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。

vgn7i-vwsのvGPU高速化インスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。 このようにして、データ記憶およびモデルロードをより迅速に行うことができる。

    • このインスタンスファミリーにはNVIDIA GRID vWSライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすためにCADソフトウェアの認定グラフィックアクセラレーション機能を提供しています。 このインスタンスファミリーのインスタンスは、軽量のGPU高速化コンピューティング最適化インスタンスとして機能し、小規模なAI推論タスクのコストを削減できます。

  • サポートされるシナリオ:

    • 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク

    • アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lakeプロセッサの使用が必要な分野での3Dモデリング

  • 計算:

    • 以下の機能を備えたNVIDIA A10 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • vGPU、RTX、TensorRTなどのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.vgn7i-vws-m4.xlarge

4

30

NVIDIA A10 * 1/6

24GB * 1/6

3

1,000,000

4

4

10

1

ecs.vgn7i-vws-m8.2xlarge

10

62

NVIDIA A10 * 1/3

24GB * 1/3

5

2,000,000

8

6

10

1

ecs.vgn7i-vws-m12.3xlarge

14

93

NVIDIA A10 * 1/2

24GB * 1/2

8

3,000,000

8

6

15

1

ecs.vgn7i-vws-m24.7xlarge

30

186

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

1

説明

上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:

NVIDIA A10 * 1/6 NVIDIA A10はGPUモデルです。 1/6は、GPUが6つのGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。

vgn6i-vwsのvGPU高速化インスタンスファミリー

重要
  • NVIDIA GRIDドライバーのアップグレードに照らして、Alibaba Cloudはvgn6iインスタンスファミリーをvgn6i-vwsインスタンスファミリーにアップグレードします。 vgn6i-vwsインスタンスファミリーは、最新のNVIDIA GRIDドライバーを使用し、NVIDIA GRID vWSライセンスを提供します。 NVIDIA GRIDドライバーがプリインストールされている無料の画像を申請するには、チケットを起票してください

  • NVIDIA GRIDドライバーを含まない他のパブリックイメージまたはカスタムイメージを使用するには、

    チケットを起票してGRIDドライバーファイルを申請し、NVIDIA GRIDドライバーをインストールします。 Alibaba Cloudは、GRIDドライバーに対して追加のライセンス料を請求しません。

  • サポートされるシナリオ:

    • クラウドゲームのリアルタイムレンダリング

    • 拡張現実 (AR) およびバーチャルリアリティ (VR) アプリケーションのリアルタイムレンダリング

    • 柔軟なインターネットサービス展開のためのAI (ディープラーニングと機械学習) 推論

    • 深層学習の教育環境

    • 深層学習の実験環境のモデリング

  • 計算:

    • NVIDIA T4 GPUを使用します。

    • vGPUを使用します。

      • NVIDIA Tesla T4 GPUの1/4および1/2コンピューティング容量をサポートします。

      • 4 GBと8 GBのGPUメモリをサポートします。

    • CPU とメモリの比率は 1:5

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.vgn6i-m4-vws.xlarge

4

23

NVIDIA T4 * 1/4

16GB * 1/4

2

500,000

4/2

3

10

1

ecs.vgn6i-m8-vws.2xlarge

10

46

NVIDIA T4 * 1/2

16GB * 1/2

4

800,000

8/2

4

10

1

ecs.vgn6i-m16-vws.5xlarge

20

92

NVIDIA T4 * 1

16GB * 1

7.5

1,200,000

6

4

10

1

説明

上の表の [GPU] 列は、各インスタンスタイプのGPUモデルとGPUスライシング情報を示します。 各GPUは、複数のGPUパーティションにスライスすることができ、各GPUパーティションは、vGPUとしてインスタンスに割り当てることができる。 例:

NVIDIA T4 * 1/4 NVIDIA T4はGPUモデルです。 1/4は、GPUが4つのGPUパーティションにスライスされ、各GPUパーティションをvGPUとしてインスタンスに割り当てることができることを示します。

gn8is、GPU高速化コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AIによって生成されたビジネスの最近の発展に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1、2、4、または8個のGPUを提供する複数のインスタンスタイプで構成され、さまざまなユースケースに合わせてCPUとGPUの比率が異なります。

  • 利点とポジショニング

    • グラフィック処理: このインスタンスファミリーは、高周波数の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオでのスムーズなグラフィックレンダリングとデザインに十分なCPU容量を提供します。

    • 推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、70B以上の大規模言語モデル (LLM) の推論タスクに対応できます。

  • サポートされるシナリオ:

    • アニメーション、映画やテレビの特殊効果、レンダリング

    • AIGCイメージの生成とLLMの推論

    • その他の汎用AI認識、画像認識、および音声認識のシナリオ

  • 計算:

    • 次の機能を備えた革新的なGPUを使用します。

      • LLM推論のパフォーマンスを向上させるために、TensorRTなどのアクセラレーション機能とFP8浮動小数点形式をサポートします。

      • GPUあたり最大48 GBのメモリを使用し、複数のGPUを持つ単一インスタンスで70B以上のLLMの推論をサポートします。

      • 改善されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを使用してgn8isインスタンスにGRIDドライバーをインストールした後、インスタンスは7世代インスタンスの2倍のグラフィック処理パフォーマンスを提供できます。

    • 最新の高周波インテルを使用®Xeon ®複雑な3Dモデリング要件を満たすために、3.9 GHzのオールコアターボ周波数を提供するプロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。

  • ネットワーク

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENIs

プライマリENIごとのNICキュー

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

最大ディスク数

ディスクベースラインIOPS

ディスクベースライン帯域幅 (Gbit/s)

ecs.gn8is.2xlarge

8

64

48GB * 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

48GB * 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

48GB * 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

48GB * 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1024

48GB * 8

100

15

64

50

50

65

900,000

8

gn7e、GPU高速化コンピューティング最適化インスタンスファミリー

特徴:

  • はじめに:

    • AIユースケースのビジネス要件を満たすために、さまざまな数のGPUとCPUを提供するインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC) 、ネットワーク、およびディスクの平均帯域幅を2倍にします。

  • サポートされるシナリオ:

    • 中小規模のAIトレーニング

    • Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) ビジネス

    • 高いGPU処理能力または大量のGPUメモリを必要とするAI推論タスク

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション

    重要

    トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、

    チケットを起票してテクニカルサポートを受ける。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7e-c16g1.4xlarge

16

125

80GB * 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80GB * 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80GB * 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1000

80GB * 8

64

24,000,000

32

16

15

1

gn7i、GPU高速化コンピューティング最適化インスタンスファミリー

  • はじめに: このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。

  • サポートされるシナリオ:

    • 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク

  • 計算:

    • 以下の機能を備えたNVIDIA A10 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • RTXやTensorRTなどのアクセラレーション機能のサポート

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

    • 最大752 GiBのメモリを提供します。これは、gn6iインスタンスファミリーのメモリサイズよりもはるかに大きくなります。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 * 1

24GB * 1

16

1,600,000

8

4

有効期限の 15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 * 1

24GB * 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 * 2

24GB * 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 * 4

24GB * 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 * 1

24GB * 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 * 1

24GB * 1

16

12,000,000

16

12

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 * 2

24GB * 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 * 4

24GB * 4

16

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 * 4

24GB * 4

32

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 * 8

24GB * 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 * 8

24GB * 8

32

12,000,000

32

8

30

30

説明

次のインスタンスタイプをecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeのみに変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlarge。

gn7s、GPU高速化コンピューティング最適化インスタンスファミリー

gn7sインスタンスファミリーを使用するには、

チケットを起票してください。

  • はじめに:

    • このインスタンスファミリーは、NVIDIA Ampereアーキテクチャに基づく最新のIntel Ice LakeプロセッサとNVIDIA A30 GPUを使用します。 AIシナリオのビジネス要件を満たすために、GPUとvCPUを適切に組み合わせたインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を2倍にします。

  • サポートされているシナリオ: 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク。

  • 計算:

    • 以下の機能を備えたNVIDIA A30 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • マルチインスタンスGPU (MIG) 機能とアクセラレーション機能 (第2世代のTensorコアに基づく) をサポートし、多様なビジネスサポートを提供します。

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

    • 前世代のインスタンスファミリーからメモリサイズを大幅に改善します。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

NICキュー

ENIs

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 * 2

24GB * 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1000

NVIDIA A30 * 4

24GB * 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 * 1

24GB * 1

16

6,000,000

8

1

12

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 * 1

24GB * 1

16

6,000,000

8

1

12

8

gn7、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7-c12g1.3xlarge

12

94

40GB * 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40GB * 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40GB * 8

30

18,000,000

16

15

10

1

gn6i、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • コンピュータービジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムの AI (深層学習と機械学習) 推論

    • クラウドゲームのリアルタイムレンダリング

    • AR・VR アプリケーションのリアルタイムレンダリング

    • グラフィックスワークステーションまたはグラフィックスの重いコンピューティング

    • GPU 高速化データベース

    • 高性能コンピューティング

  • 計算:

    • 以下の機能を備えたNVIDIA T4 GPUを使用します。

      • 革新的なNVIDIAチューリングアーキテクチャ

      • 16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)

      • GPUあたり2,560 CUDAコア

      • GPUあたり最大320個のTuring Tensorコア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースラインIOPS

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6i-c4g1.xlarge

4

有効期限の 15

NVIDIA T4 * 1

16GB * 1

4

500,000

なし

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 * 1

16GB * 1

5

800,000

なし

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 * 1

16GB * 1

6

1,000,000

なし

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 * 1

16GB * 1

7.5

1,200,000

なし

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 * 1

16GB * 1

10

1,600,000

なし

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 * 2

16GB * 2

15

2,400,000

なし

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 * 4

16GB * 4

30

4,800,000

250,000

24

8

10

1

gn6e、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用しています。

    • 以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ。

      • 32 GPUあたりHBM2メモリ (900ギガバイト/秒帯域幅) のGB。

      • 5,120 CUDA core / GPU

      • 640 GPUごとのTensorコア。

      • GPUごとに最大6つのNVLink双方向接続をサポートします。 各NVLink接続は、300 Gbit/s (6 × 25 × 2 = 300) の総帯域幅に対して、各方向に25 Gbit/sの帯域幅を提供する。

    • CPU 対メモリ比は 1:8。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 * 1

32GB * 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

182

NVIDIA V100 * 2

32GB * 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 * 4

32GB * 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 * 8

32GB * 8

32

4,800,000

16

8

20

1

gn6v、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • NVIDIA V100 GPUを使用します。

    • 以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ。

      • 16 GPUあたりHBM2メモリ (900ギガバイト/秒帯域幅) のGB。

      • 5,120 CUDA core / GPU

      • 640 GPUごとのTensorコア。

      • GPUごとに最大6つのNVLink双方向接続をサポートします。 各NVLink接続は、300 Gbit/s (6 × 25 × 2 = 300) の総帯域幅に対して、各方向に25 Gbit/sの帯域幅を提供する。

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースラインIOPS

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 * 1

16GB * 1

2.5

800,000

なし

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 * 2

16GB * 2

5

1,000,000

なし

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 * 4

16GB * 4

10

2,000,000

なし

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 * 8

16GB * 8

20

2,500,000

なし

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 * 8

16GB * 8

32

4,500,000

250,000

16

8

20

1

gn5、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 深層学習

    • 計算流体力学、計算ファイナンス、ゲノミクス、環境分析などの科学的コンピューティングアプリケーション

    • 高性能コンピューティング、レンダリング、マルチメディアのエンコードとデコードなど、サーバー側のGPUコンピューティングワークロード

  • 計算:

    • NVIDIA P100 GPUを使用します。

    • 複数の CPU とメモリの比率を提供

    • 2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。

  • ストレージ:

    • 高パフォーマンスのローカル不揮発性メモリエクスプレス (NVMe) SSDをサポートします。

    • I/O 最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク

    • IPv4のみをサポート。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

ローカルストレージ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 * 1

16GB * 1

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 * 1

16GB * 1

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

2

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 * 1

16GB * 1

5

1,000,000

8

8

20

ecs.gn5-c8g1.8xlarge

32

240

1760

NVIDIA P100 * 4

16GB * 4

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 * 2

16GB * 2

10

2,000,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3520

NVIDIA P100 * 8

16GB * 8

25

4,000,000

14

8

20

gn5i、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされているシナリオ: ディープラーニング推論やマルチメディアのエンコードとデコードなど、サーバー側のGPU計算ワークロード。

  • コンピューティング

    • NVIDIA P4 GPUを使用します。

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。

  • ストレージ

    • I/O 最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 * 1

8GB * 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 * 1

8GB * 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 * 1

8GB * 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 * 1

8GB * 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 * 2

8GB * 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 * 2

8GB * 2

10

2,000,000

14

8

20

1