すべてのプロダクト
Search
ドキュメントセンター

Elastic GPU Service:GPU高速化コンピューティング最適化インスタンスファミリー (gn、ebm、sccシリーズ)

最終更新日:Dec 13, 2024

GPU高速化されたコンピューティング最適化インスタンスは、高いパフォーマンスと高い並列コンピューティング機能を提供し、大規模な並列コンピューティングシナリオに適しています。 GPU高速化されたコンピューティング最適化インスタンスを使用して、ビジネスのコンピューティングパフォーマンスと効率を向上させることができます。 このトピックでは、ECS (Elastic compute Service) のGPUアクセラレーションコンピューティング最適化インスタンスファミリーの機能について説明し、各インスタンスファミリーのインスタンスタイプを一覧表示します。

背景情報

このトピックをさらに読む前に、次の情報に精通している必要があります。

  • インスタンスタイプの分類と命名 インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、およびインスタンスファミリー間の違いをよく理解してください。 詳細については、「インスタンスタイプの分類と命名」をご参照ください。

  • インスタンスタイプのメトリック インスタンスタイプのメトリックの詳細については、「インスタンスタイプメトリック」をご参照ください。

  • ビジネスシナリオに基づいてインスタンスタイプを選択する手順 詳細については、「インスタンスタイプの選択」をご参照ください。

ユースケースのインスタンスタイプを決定した後、次の情報について学ぶ必要があります。

  • インスタンスタイプが購入可能なリージョン 購入可能なインスタンスタイプは、リージョンによって異なります。 [各リージョンで利用可能なインスタンスタイプ] ページに移動して、各リージョンで購入可能なインスタンスタイプを表示できます。

  • 推定インスタンスコスト。 さまざまな課金方法を使用するインスタンスの料金を計算できます。

    価格計算機

  • インスタンスの購入手順 ECSインスタンス購入ページに移動して、インスタンスの購入注文を行うことができます。

あなたは以下の情報について心配しているかもしれません:

  • 退職したインスタンスファミリー このトピックでインスタンスタイプが見つからない場合、そのインスタンスタイプは退職したインスタンスファミリーである可能性があります。 退職したインスタンスファミリーの詳細については、「退職したインスタンスファミリー」をご参照ください。

  • サポートされているインスタンスタイプの変更。 インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを識別します。 詳細については、「インスタンスタイプの変更をサポートするインスタンスタイプとファミリー」をご参照ください。

カテゴリ

関連ドキュメント

GPU高速化コンピューティング最適化インスタンスファミリー (gnシリーズ)

ECSベアメタルインスタンスファミリー

推奨されないインスタンスファミリー (次のインスタンスファミリーが売り切れている場合は、前の列のインスタンスファミリーを使用することを推奨します)

gn8v、GPU高速化コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AIモデルトレーニングおよび超大型モデルの推論タスクのためにAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1つ、2つ、4つ、または8つのGPUを提供する複数のインスタンスタイプで構成されます。

  • サポートされるシナリオ:

    • 700億を超えるパラメータを持つ大規模言語モデル (LLM) 用のマルチGPU並列推論コンピューティング

    • 従来のAIモデルトレーニングと自動運転トレーニング。各GPUは、単精度浮動小数点形式 (FP32) で最大39.5 TFLOPSの計算能力を発揮します。

    • 8つのGPU間のNVLink接続を活用する中小規模のモデルトレーニングシナリオ

  • 利点とポジショニング

    • 高速大容量GPUメモリ: 各GPUには96 GBのHBM3Eメモリが搭載されており、最大4 TB/sのメモリ帯域幅を実現できるため、モデルのトレーニングと推論が大幅に高速化されます。

    • GPU間の高帯域幅: 900ギガバイト/秒NVLink接続を使用して複数のGPUを相互接続します。 マルチGPUのトレーニングと推論の効率は、前世代のGPUアクセラレーションインスタンスよりもはるかに高くなります。

    • 大きなモデルの量子化: このインスタンスファミリーは、8ビット浮動小数点形式 (FP8) の計算能力をサポートし、大規模なパラメータトレーニングと推論の計算能力を最適化します。 これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。

    • 高セキュリティ: このインスタンスファミリーは、モデル推論タスクの完全なリンクをカバーする機密コンピューティング機能をサポートしています。 機能には、CPUベースのIntel Trust Domain Extensions (TDX) 機密コンピューティングとGPUベースのNVIDIA confidential computing (CC) が含まれます。 機密コンピューティング機能により、モデル推論とトレーニングにおけるユーザー推論データとエンタープライズモデルのセキュリティが確保されます。

  • 計算:

    • 最新のクラウドインフラストラクチャ処理ユニット (CIPU) 1.0プロセッサを使用します。

      • コンピューティング機能をストレージ機能から切り離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにします。

      • GPU高速化インスタンス間のピアツーピア (P2P) 通信をサポートするベアメタル機能を提供します。

    • 第4世代のIntel Xeonスケーラブルプロセッサを使用し、最大2.8 GHzの基本周波数と最大3.1 GHzのオールコアターボ周波数を実現します。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 最大30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します (8つのGPUを搭載したインスタンスの場合) 。

    • elastic RDMAインターフェイス (ERIs) をサポートします。

      説明

      ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。

      .

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENIs

プライマリENIごとのNICキュー

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

最大ディスク数

ディスクベースラインIOPS

ディスクベースライン帯域幅 (Gbit/s)

ecs.gn8v.4xlarge

16

96

96GB * 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v.6xlarge

24

128

96GB * 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-2x.8xlarge

32

192

96GB * 2

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-4x.8xlarge

32

384

96GB * 4

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-2x.12xlarge

48

256

96GB * 2

25

8

48

30

30

33

300,000

1.50

ecs.gn8v-8x.16xlarge

64

768

96GB * 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-4x.24xlarge

96

512

96GB * 4

50

15

64

30

30

49

500,000

3

ecs.gn8v-8x.48xlarge

192

1024

96GB * 8

100

15

64

50

50

65

1,000,000

6

gn8is、GPU高速化コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AI生成分野の最近の開発に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1つ、2つ、4つ、または8つのGPUを提供する複数のインスタンスタイプで構成され、さまざまなユースケースに合わせてCPUとGPUの比率が異なります。

  • 利点とポジショニング

    • グラフィック処理: このインスタンスファミリーは、高周波数の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオでのスムーズなグラフィックレンダリングとデザインに十分なCPU容量を提供します。

    • 推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、パラメーターが700億未満のLLMの推論タスクに対応できます。

  • サポートされるシナリオ:

    • アニメーション、映画やテレビの特殊効果、レンダリング

    • AIGCイメージの生成とLLMの推論

    • その他の汎用AI認識、画像認識、および音声認識のシナリオ

  • 計算:

    • 次の機能を備えた革新的なGPUを使用します。

      • LLM推論のパフォーマンスを向上させるために、TensorRTなどのアクセラレーション機能とFP8浮動小数点形式をサポートします。

      • GPUあたり最大48 GBのメモリを使用し、複数のGPUを持つ単一インスタンスで70B以上のLLMの推論をサポートします。

      • 改善されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを使用してgn8isインスタンスにGRIDドライバーをインストールした後、インスタンスは7世代インスタンスの2倍のグラフィック処理パフォーマンスを提供できます。

    • 最新の高周波インテルを使用®Xeon ®複雑な3Dモデリング要件を満たすために、3.9 GHzのオールコアターボ周波数を提供するプロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、およびEEDをサポートします。

  • ネットワーク

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENIs

プライマリENIごとのNICキュー

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

最大ディスク数

ディスクベースラインIOPS

ディスクベースライン帯域幅 (Gbit/s)

ecs.gn8is.2xlarge

8

64

48GB * 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

48GB * 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

48GB * 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

48GB * 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1024

48GB * 8

100

15

64

50

50

65

900,000

8

gn7e、GPU高速化コンピューティング最適化インスタンスファミリー

特徴:

  • はじめに:

    • AIユースケースのビジネス要件を満たすために、さまざまな数のGPUとCPUを提供するインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC) 、ネットワーク、およびディスクの平均帯域幅を2倍にします。

  • サポートされるシナリオ:

    • 中小規模のAIトレーニング

    • Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) ビジネス

    • 高いGPU処理能力または大量のGPUメモリを必要とするAI推論タスク

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション

    重要

    トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、

    チケットを起票してテクニカルサポートを受ける。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7e-c16g1.4xlarge

16

125

80GB * 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80GB * 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80GB * 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1000

80GB * 8

64

24,000,000

32

16

15

1

gn7i、GPU高速化コンピューティング最適化インスタンスファミリー

  • はじめに: このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。

  • サポートされるシナリオ:

    • 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク

  • 計算:

    • 以下の機能を備えたNVIDIA A10 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • RTXやTensorRTなどのアクセラレーション機能のサポート

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

    • 最大752 GiBのメモリを提供します。これは、gn6iインスタンスファミリーのメモリサイズよりもはるかに大きくなります。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 * 1

24GB * 1

16

1,600,000

8

4

有効期限の 15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 * 1

24GB * 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 * 2

24GB * 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 * 4

24GB * 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 * 1

24GB * 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 * 1

24GB * 1

16

12,000,000

16

12

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 * 2

24GB * 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 * 4

24GB * 4

16

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 * 4

24GB * 4

32

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 * 8

24GB * 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 * 8

24GB * 8

32

12,000,000

32

8

30

30

説明

次のインスタンスタイプをecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeのみに変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlarge。

gn7s、GPU高速化コンピューティング最適化インスタンスファミリー

gn7sインスタンスファミリーを使用するには、

チケットを起票してください。

  • はじめに:

    • このインスタンスファミリーは、NVIDIA Ampereアーキテクチャに基づく最新のIntel Ice LakeプロセッサとNVIDIA A30 GPUを使用します。 AIシナリオのビジネス要件を満たすために、GPUとvCPUを適切に組み合わせたインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を2倍にします。

  • サポートされているシナリオ: 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク。

  • 計算:

    • 以下の機能を備えたNVIDIA A30 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • マルチインスタンスGPU (MIG) 機能とアクセラレーション機能 (第2世代のTensorコアに基づく) をサポートし、多様なビジネスサポートを提供します。

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

    • 前世代のインスタンスファミリーからメモリサイズを大幅に改善します。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

NICキュー

ENIs

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 * 2

24GB * 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1000

NVIDIA A30 * 4

24GB * 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 * 1

24GB * 1

16

6,000,000

8

1

12

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 * 1

24GB * 1

16

6,000,000

8

1

12

8

gn7、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSDおよびESSD AutoPLディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn7-c12g1.3xlarge

12

94

40GB * 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40GB * 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40GB * 8

30

18,000,000

16

15

10

1

gn6i、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • コンピュータービジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムの AI (深層学習と機械学習) 推論

    • クラウドゲームのリアルタイムレンダリング

    • AR・VR アプリケーションのリアルタイムレンダリング

    • グラフィックスワークステーションまたはグラフィックスの重いコンピューティング

    • GPU 高速化データベース

    • 高性能コンピューティング

  • 計算:

    • 以下の機能を備えたNVIDIA T4 GPUを使用します。

      • 革新的なNVIDIAチューリングアーキテクチャ

      • 16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)

      • GPUあたり2,560 CUDAコア

      • GPUあたり最大320個のTuring Tensorコア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースラインIOPS

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6i-c4g1.xlarge

4

有効期限の 15

NVIDIA T4 * 1

16GB * 1

4

500,000

なし

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 * 1

16GB * 1

5

800,000

なし

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 * 1

16GB * 1

6

1,000,000

なし

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 * 1

16GB * 1

7.5

1,200,000

なし

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 * 1

16GB * 1

10

1,600,000

なし

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 * 2

16GB * 2

15

2,400,000

なし

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 * 4

16GB * 4

30

4,800,000

250,000

24

8

10

1

gn6e、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用しています。

    • 以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ

      • 32 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)

      • GPUあたり5,120 CUDAコア

      • 640 GPUごとのTensorコア

      • GPUごとに最大6つのNVLink双方向接続があり、それぞれが各方向に25 Gbit/sの帯域幅を提供し、合計帯域幅が300 Gbit/s (6 × 25 × 2 = 300)

    • CPU 対メモリ比は 1:8。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 * 1

32GB * 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

182

NVIDIA V100 * 2

32GB * 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 * 4

32GB * 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 * 8

32GB * 8

32

4,800,000

16

8

20

1

gn6v、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • NVIDIA V100 GPUを使用します。

    • 以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ

      • 16 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)

      • GPUあたり5,120 CUDAコア

      • 640 GPUごとのTensorコア

      • GPUごとに最大6つのNVLink双方向接続があり、それぞれが各方向に25 Gbit/sの帯域幅を提供し、合計帯域幅が300 Gbit/s (6 × 25 × 2 = 300)

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースラインIOPS

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 * 1

16GB * 1

2.5

800,000

なし

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 * 2

16GB * 2

5

1,000,000

なし

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 * 4

16GB * 4

10

2,000,000

なし

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 * 8

16GB * 8

20

2,500,000

なし

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 * 8

16GB * 8

32

4,500,000

250,000

16

8

20

1

ebmgn8v、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AIモデルトレーニングおよび超大型モデル用にAlibaba Cloudが提供する、GPUアクセラレーションによるコンピューティングに最適化された第8世代のECS Bare Metal instanceファミリーです。 このインスタンスファミリーの各インスタンスには、8つのGPUが装備されています。

  • サポートされるシナリオ:

    • 700億を超えるパラメータを持つ大規模言語モデル (LLM) 用のマルチGPU並列推論コンピューティング

    • 従来のAIモデルトレーニングと自動運転トレーニング。各GPUは、単精度浮動小数点形式 (FP32) で最大39.5 TFLOPSの計算能力を発揮します。

    • 8つのGPU間のNVLink接続を活用する中小規模のモデルトレーニングシナリオ

  • 利点とポジショニング

    • 高速大容量GPUメモリ: 各GPUには96 GBのHBM3Eメモリが搭載されており、最大4 TB/sのメモリ帯域幅を実現できるため、モデルのトレーニングと推論が大幅に高速化されます。

    • GPU間の高帯域幅: 900ギガバイト/秒NVLink接続を使用して複数のGPUを相互接続します。 マルチGPUのトレーニングと推論の効率は、前世代のGPUアクセラレーションインスタンスよりもはるかに高くなります。

    • 大きなモデルの量子化: このインスタンスファミリーは、8ビット浮動小数点形式 (FP8) の計算能力をサポートし、大規模なパラメータトレーニングと推論の計算能力を最適化します。 これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。

  • 計算:

    • 最新のCIPU 1.0プロセッサを使用します。

      • コンピューティング機能をストレージ機能から分離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにし、インスタンス間の帯域幅を160 Gbit/sに増やして、第7世代のインスタンスファミリーと比較してデータ転送と処理を高速化します。

      • CIPUプロセッサが提供するベアメタル機能を使用して、GPUアクセラレーションインスタンス間のピアツーピア (P2P) 通信をサポートします。

    • 第4世代のIntel Xeonスケーラブルプロセッサを使用し、最大3.1 GHzのオールコアターボ周波数を提供し、192のvCPUを提供します。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。

    • VPCでのインスタンス間RDMAベースの通信を可能にするelastic RDMAインターフェイス (ERI) をサポートし、インスタンスあたり最大160 Gbit/sの帯域幅を提供します。これは、CVモデルと従来のモデルに基づくトレーニングタスクに適しています。

      説明

      ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。

      .

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

NICキュー (プライマリENI /セカンダリENI)

ENIs

最大接続データディスク

最大ディスク帯域幅 (Gbit/s)

ecs.ebmgn8v.48xlarge

192

1,024

96GB * 8

160 (80 × 2)

30,000,000

30

30

64

32

31

6

説明

このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFIである必要があります。 インスタンスでカスタムイメージを使用する場合は、イメージがUEFIブートモードをサポートし、イメージのブートモードがUEFIに設定されていることを確認してください。 カスタムイメージのブートモードを設定する方法については、「API操作を呼び出してカスタムイメージのブートモードをUEFIモードに設定する」をご参照ください。

ebmgn8is、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AI生成分野の最近の進展に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化ECS Bare Metalインスタンスファミリーです。 このインスタンスファミリーの各インスタンスには、8つのGPUが装備されています。

  • サポートされるシナリオ:

    • Alibaba Cloud Marketplace GRIDイメージが使用され、GRIDドライバがインストールされ、OpenGLおよびDirect3Dグラフィックス機能が有効になっているシナリオでは、ワークステーションレベルのグラフィックス処理機能に基づくアニメーション、フィルム、テレビ用の特殊効果の作成とレンダリング

    • Container Service for Kubernetes (ACK) が提供するコンテナー化されたアプリケーション用の管理サービスを使用して、AIで生成されたグラフィックコンテンツとLLM推論タスクを最大130億のパラメーターでサポートするシナリオ

    • その他の汎用AI認識、画像認識、および音声認識のシナリオ

  • 利点とポジショニング:

    • グラフィック処理: このインスタンスファミリーは、高周波の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオで十分なCPUコンピューティングパワーを提供し、スムーズなグラフィックレンダリングとデザインを実現します。

    • 推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをACKと一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、パラメーターが700億未満のLLMの推論タスクに対応できます。

    • トレーニングタスク: このインスタンスファミリーは、費用対効果の高いコンピューティング機能を提供し、第7世代の推論インスタンスの2倍のFP32コンピューティングパフォーマンスを実現します。 このインスタンスファミリーのインスタンスは、FP32-based CVモデルやその他の中小規模モデルのトレーニングに適しています。

  • 使用最新のCIPU 1.0プロセッサを提供する次の利点:

    • コンピューティング機能をストレージ機能から分離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにし、インスタンス間の帯域幅を160 Gbit/sに増やして、前世代のインスタンスファミリーと比較して高速なデータ転送と処理を実現します。

    • CIPUプロセッサが提供するベアメタル機能を使用して、GPUアクセラレーションインスタンス間のPeripheral Component Interconnect Express (PCIe) P2P通信をサポートします。

  • 計算:

    • 次の機能を備えた革新的なGPUを使用します。

      • vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート

      • CPUダイレクト接続方式と比較してNVIDIA Collective Communications Library (NCCL) パフォーマンスが36% 向上し、複数のGPUでLLM推論タスクを並行して実行する場合に推論パフォーマンスが最大9% 向上するPCIeスイッチインターコネクトのサポート

      • 1つのインスタンスで70億以上のパラメータを持つLLM推論タスクをサポートするために、1つのGPUあたり48 GBのメモリを持つインスタンスあたり8つのGPUをサポート

    • 3.4 GHzインテルを使用®Xeon ®最大3.9 GHzのオールコアターボ周波数を提供するスケーラブル (SPR) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、およびEEDをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。

    • VPCでのインスタンス間RDMAベースの通信を可能にするERIをサポートし、インスタンスあたり最大160 Gbit/sの帯域幅を提供します。これは、CVモデルと従来のモデルに基づくトレーニングタスクに適しています。

      説明

      ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。

      .

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

NICキュー (プライマリENI /セカンダリENI)

ENIs

最大接続データディスク

最大ディスク帯域幅 (Gbit/s)

ecs.ebmgn8is.32xlarge

128

1,024

48 GB × 8

160 (80 × 2)

30,000,000

30

30

64/16

32

31

6

説明

このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFIである必要があります。 インスタンスでカスタムイメージを使用する場合は、イメージがUEFIブートモードをサポートし、イメージのブートモードがUEFIに設定されていることを確認してください。 カスタムイメージのブートモードを設定する方法については、「API操作を呼び出してカスタムイメージのブートモードをUEFIモードに設定する」をご参照ください。

ebmgn7e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

  • サポートされるシナリオ:

    • ディープラーニングのトレーニングと開発

    • ハイパフォーマンスコンピューティング (HPC) とシミュレーション

    重要

    トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、

    チケットを起票してテクニカルサポートを受ける。

  • 計算:

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供し、PCIe 4.0インターフェイスをサポートするスケーラブルなプロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー (プライマリNIC /セカンダリNIC)

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn7e.32xlarge

128

1,024

80 GB × 8

64

24,000,000

32/12

32

10

1

ebmgn7eインスタンスを起動した後、マルチインスタンスGPU (MIG) 機能のステータスを確認し、MIG機能を有効または無効にする必要があります。 MIG機能の詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。

次の表は、MIG機能がebmgn7eインスタンスファミリーのインスタンスタイプでサポートされているかどうかを示しています。

インスタンスタイプ

MIGのサポート

説明

ecs.ebmgn7e.32xlarge

MIG機能はebmgn7eインスタンスでサポートされています。

ebmgn7i、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

  • サポートされるシナリオ:

    • 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク

    • 高パフォーマンスのレンダーファームの作成など、高いネットワーク帯域幅とディスク帯域幅を必要とするシナリオ

    • 高いネットワーク帯域幅を必要とする小規模なディープラーニングおよびトレーニングアプリケーション

  • 計算:

    • 以下の機能を備えたNVIDIA A10 GPUを使用します。

      • 革新的なNVIDIA Ampereアーキテクチャ

      • vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート

    • 2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn7i.32xlarge

128

768

NVIDIA A10 × 4

24 GB × 4

64

24,000,000

32

32

10

1

ebmgn7、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション

  • 計算:

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8269CY (カスケード湖) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn7.26xlarge

104

768

40 GB × 8

30

18,000,000

16

15

10

1

ebmgn7インスタンスの起動後、MIG機能のステータスを手動で確認し、MIG機能を有効または無効にする必要があります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。

次の表は、ebmgn7インスタンスファミリーのインスタンスタイプでMIG機能がサポートされているかどうかを示しています。

インスタンスタイプ

ミグ

説明

ecs.ebmgn7.26xlarge

MIG機能はebmgn7インスタンスでサポートされています。

ebmgn6ia、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャとチップ上の高速パスアクセラレーションを使用して、予測可能で一貫性のある超高度なコンピューティング、ストレージ、およびネットワークパフォーマンスを提供します。

    • このインスタンスファミリーは、NVIDIA T4 GPUを使用してグラフィックスおよびAIアプリケーション用のGPUアクセラレーション機能を提供し、コンテナテクノロジーを採用して60台以上の仮想Androidデバイスを起動し、ハードウェアで高速化されたビデオトランスコーディングを提供します。

  • サポートされるシナリオ:

    • 常時接続のクラウドベースのサービス、クラウドベースのモバイルゲーム、クラウドベースの携帯電話、Androidサービスクローラーなど、Androidベースのリモートアプリケーションサービス。

  • 計算:

    • CPU とメモリの比率は 1:3

    • 2.8 GHzアンペアを使用®Altra ®Armベースのプロセッサは、3.0 GHzのターボ周波数を提供し、Androidサーバー用のアプリケーションとの高いパフォーマンスと高い互換性を提供します。

  • ストレージ:

    • I/O 最適化インスタンス。

    • エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn6ia.20xlarge

80

256

NVIDIA T4 × 2

16 GB × 2

32

24,000,000

32

15

10

1

説明

アンペア ®Altra ®プロセッサには、オペレーティングシステムカーネルの特定の要件があります。 上記のインスタンスタイプのインスタンスは、Alibaba Cloud Linux 3イメージとCentOS 8.4以降のイメージを使用できます。 インスタンスでAlibaba Cloud Linux 3イメージを使用することを推奨します。 別のオペレーティングシステムディストリビューションを使用する場合は、そのディストリビューションのオペレーティングシステムを実行するインスタンスのカーネルにパッチを適用し、インスタンスからカスタムイメージを作成してから、カスタムイメージを使用してインスタンスタイプのインスタンスを作成します。 カーネルパッチの詳細については、Ampere Altra (TM) Linux kernel Porting Guideをご覧ください。

ebmgn6e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーは、それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用します。

    • このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ

      • 32 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)

      • GPUあたり5,120 CUDAコア

      • 640 GPUごとのTensorコア

      • GPUごとに最大6つのNVLink接続があり、それぞれが各方向に25ギガバイト/秒の帯域幅を提供し、合計帯域幅は300ギガバイト/秒です (6 × 25 × 2 = 300) 。

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • CPU 対メモリ比は 1:8。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn6e.24xlarge

96

768

NVIDIA V100 × 8

32 GB × 8

32

4,800,000

16

15

10

1

ebmgn6v、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーはNVIDIA V100 GPUを使用します。

    • このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。

      • 革新的なNVIDIA Voltaアーキテクチャ

      • 16 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)

      • GPUあたり5,120 CUDAコア

      • 640 GPUごとのTensorコア

      • GPUごとに最大6つのNVLink接続があり、それぞれが各方向に25ギガバイト/秒の帯域幅を提供し、合計帯域幅は300ギガバイト/秒です (6 × 25 × 2 = 300) 。

  • サポートされるシナリオ:

    • 画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション

  • 計算:

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn6v.24xlarge

96

384

NVIDIA V100 × 8

16 GB × 8

30

4,500,000

8

32

10

1

ebmgn6i、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーは、次の機能を備えたNVIDIA T4 GPUを使用します。

      • 革新的なNVIDIAチューリングアーキテクチャ

      • 16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)

      • GPUあたり2,560 CUDAコア

      • GPUあたり最大320個のTuring Tensorコア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア

  • サポートされるシナリオ:

    • コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP) 、機械翻訳、および参照システムのためのAI (ディープラーニングおよび機械学習) 推論

    • クラウドゲームのリアルタイムレンダリング

    • 拡張現実 (AR) およびバーチャルリアリティ (VR) アプリケーションのリアルタイムレンダリング

    • グラフィックスワークステーションまたはグラフィックスの重いコンピューティング

    • GPU 高速化データベース

    • 高性能コンピューティング

  • 計算:

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。

  • ストレージ:

    • I/O 最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.ebmgn6i.24xlarge

96

384

NVIDIA T4 × 4

16 GB × 4

30

4,500,000

8

32

10

1

gn5i、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされているシナリオ: ディープラーニング推論やマルチメディアのエンコードとデコードなど、サーバー側のGPU計算ワークロード。

  • コンピューティング

    • NVIDIA P4 GPUを使用します。

    • CPU 対メモリ比は 1:4。

    • 2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。

  • ストレージ

    • I/O 最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク

    • IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ENIごとのIPv6アドレス

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 * 1

8GB * 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 * 1

8GB * 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 * 1

8GB * 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 * 1

8GB * 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 * 2

8GB * 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 * 2

8GB * 2

10

2,000,000

14

8

20

1

gn5、GPU高速化コンピューティング最適化インスタンスファミリー

  • サポートされるシナリオ:

    • 深層学習

    • 計算流体力学、計算ファイナンス、ゲノミクス、環境分析などの科学的コンピューティングアプリケーション

    • 高性能コンピューティング、レンダリング、マルチメディアのエンコードとデコードなど、サーバー側のGPUコンピューティングワークロード

  • 計算:

    • NVIDIA P100 GPUを使用します。

    • 複数の CPU とメモリの比率を提供

    • 2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。

  • ストレージ:

    • 高パフォーマンスのローカル不揮発性メモリエクスプレス (NVMe) SSDをサポートします。

    • I/O 最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク

    • IPv4のみをサポート。

    • 大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。

インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

ローカルストレージ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NICキュー

ENIs

ENIごとのプライベートIPv4アドレス

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 * 1

16GB * 1

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 * 1

16GB * 1

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

2

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 * 1

16GB * 1

5

1,000,000

8

8

20

ecs.gn5-c8g1.8xlarge

32

240

1760

NVIDIA P100 * 4

16GB * 4

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 * 2

16GB * 2

10

2,000,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3520

NVIDIA P100 * 8

16GB * 8

25

4,000,000

14

8

20