GPU高速化されたコンピューティング最適化インスタンスは、高いパフォーマンスと高い並列コンピューティング機能を提供し、大規模な並列コンピューティングシナリオに適しています。 GPU高速化されたコンピューティング最適化インスタンスを使用して、ビジネスのコンピューティングパフォーマンスと効率を向上させることができます。 このトピックでは、ECS (Elastic compute Service) のGPUアクセラレーションコンピューティング最適化インスタンスファミリーの機能について説明し、各インスタンスファミリーのインスタンスタイプを一覧表示します。
背景情報
このトピックをさらに読む前に、次の情報に精通している必要があります。
インスタンスタイプの分類と命名 インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、およびインスタンスファミリー間の違いをよく理解してください。 詳細については、「インスタンスタイプの分類と命名」をご参照ください。
インスタンスタイプのメトリック インスタンスタイプのメトリックの詳細については、「インスタンスタイプメトリック」をご参照ください。
ビジネスシナリオに基づいてインスタンスタイプを選択する手順 詳細については、「インスタンスタイプの選択」をご参照ください。
ユースケースのインスタンスタイプを決定した後、次の情報について学ぶ必要があります。
インスタンスタイプが購入可能なリージョン 購入可能なインスタンスタイプは、リージョンによって異なります。 [各リージョンで利用可能なインスタンスタイプ] ページに移動して、各リージョンで購入可能なインスタンスタイプを表示できます。
推定インスタンスコスト。 さまざまな課金方法を使用するインスタンスの料金を計算できます。
価格計算機。インスタンスの購入手順 ECSインスタンス購入ページに移動して、インスタンスの購入注文を行うことができます。
あなたは以下の情報について心配しているかもしれません:
退職したインスタンスファミリー このトピックでインスタンスタイプが見つからない場合、そのインスタンスタイプは退職したインスタンスファミリーである可能性があります。 退職したインスタンスファミリーの詳細については、「退職したインスタンスファミリー」をご参照ください。
サポートされているインスタンスタイプの変更。 インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを識別します。 詳細については、「インスタンスタイプの変更をサポートするインスタンスタイプとファミリー」をご参照ください。
カテゴリ | 関連ドキュメント |
GPU高速化コンピューティング最適化インスタンスファミリー (gnシリーズ) | |
ECSベアメタルインスタンスファミリー | |
推奨されないインスタンスファミリー (次のインスタンスファミリーが売り切れている場合は、前の列のインスタンスファミリーを使用することを推奨します) |
gn8v、GPU高速化コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AIモデルトレーニングおよび超大型モデルの推論タスクのためにAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1つ、2つ、4つ、または8つのGPUを提供する複数のインスタンスタイプで構成されます。
サポートされるシナリオ:
700億を超えるパラメータを持つ大規模言語モデル (LLM) 用のマルチGPU並列推論コンピューティング
従来のAIモデルトレーニングと自動運転トレーニング。各GPUは、単精度浮動小数点形式 (FP32) で最大39.5 TFLOPSの計算能力を発揮します。
8つのGPU間のNVLink接続を活用する中小規模のモデルトレーニングシナリオ
利点とポジショニング
高速大容量GPUメモリ: 各GPUには96 GBのHBM3Eメモリが搭載されており、最大4 TB/sのメモリ帯域幅を実現できるため、モデルのトレーニングと推論が大幅に高速化されます。
GPU間の高帯域幅: 900ギガバイト/秒NVLink接続を使用して複数のGPUを相互接続します。 マルチGPUのトレーニングと推論の効率は、前世代のGPUアクセラレーションインスタンスよりもはるかに高くなります。
大きなモデルの量子化: このインスタンスファミリーは、8ビット浮動小数点形式 (FP8) の計算能力をサポートし、大規模なパラメータトレーニングと推論の計算能力を最適化します。 これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。
高セキュリティ: このインスタンスファミリーは、モデル推論タスクの完全なリンクをカバーする機密コンピューティング機能をサポートしています。 機能には、CPUベースのIntel Trust Domain Extensions (TDX) 機密コンピューティングとGPUベースのNVIDIA confidential computing (CC) が含まれます。 機密コンピューティング機能により、モデル推論とトレーニングにおけるユーザー推論データとエンタープライズモデルのセキュリティが確保されます。
計算:
最新のクラウドインフラストラクチャ処理ユニット (CIPU) 1.0プロセッサを使用します。
コンピューティング機能をストレージ機能から切り離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにします。
GPU高速化インスタンス間のピアツーピア (P2P) 通信をサポートするベアメタル機能を提供します。
第4世代のIntel Xeonスケーラブルプロセッサを使用し、最大2.8 GHzの基本周波数と最大3.1 GHzのオールコアターボ周波数を実現します。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
最大30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します (8つのGPUを搭載したインスタンスの場合) 。
elastic RDMAインターフェイス (ERIs) をサポートします。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。
.
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENIs | プライマリENIごとのNICキュー | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | 最大ディスク数 | ディスクベースラインIOPS | ディスクベースライン帯域幅 (Gbit/s) |
ecs.gn8v.4xlarge | 16 | 96 | 96GB * 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v.6xlarge | 24 | 128 | 96GB * 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-2x.8xlarge | 32 | 192 | 96GB * 2 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-4x.8xlarge | 32 | 384 | 96GB * 4 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-2x.12xlarge | 48 | 256 | 96GB * 2 | 25 | 8 | 48 | 30 | 30 | 33 | 300,000 | 1.50 |
ecs.gn8v-8x.16xlarge | 64 | 768 | 96GB * 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-4x.24xlarge | 96 | 512 | 96GB * 4 | 50 | 15 | 64 | 30 | 30 | 49 | 500,000 | 3 |
ecs.gn8v-8x.48xlarge | 192 | 1024 | 96GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8is、GPU高速化コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AI生成分野の最近の開発に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化インスタンスファミリーです。 このインスタンスファミリーは、インスタンスごとに1つ、2つ、4つ、または8つのGPUを提供する複数のインスタンスタイプで構成され、さまざまなユースケースに合わせてCPUとGPUの比率が異なります。
利点とポジショニング
グラフィック処理: このインスタンスファミリーは、高周波数の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオでのスムーズなグラフィックレンダリングとデザインに十分なCPU容量を提供します。
推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをContainer Service for Kubernetes (ACK) と一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、パラメーターが700億未満のLLMの推論タスクに対応できます。
サポートされるシナリオ:
アニメーション、映画やテレビの特殊効果、レンダリング
AIGCイメージの生成とLLMの推論
その他の汎用AI認識、画像認識、および音声認識のシナリオ
計算:
次の機能を備えた革新的なGPUを使用します。
LLM推論のパフォーマンスを向上させるために、TensorRTなどのアクセラレーション機能とFP8浮動小数点形式をサポートします。
GPUあたり最大48 GBのメモリを使用し、複数のGPUを持つ単一インスタンスで70B以上のLLMの推論をサポートします。
改善されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを使用してgn8isインスタンスにGRIDドライバーをインストールした後、インスタンスは7世代インスタンスの2倍のグラフィック処理パフォーマンスを提供できます。
最新の高周波インテルを使用®Xeon ®複雑な3Dモデリング要件を満たすために、3.9 GHzのオールコアターボ周波数を提供するプロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびEEDをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
ERIをサポートします。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。
.
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENIs | プライマリENIごとのNICキュー | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | 最大ディスク数 | ディスクベースラインIOPS | ディスクベースライン帯域幅 (Gbit/s) |
ecs.gn8is.2xlarge | 8 | 64 | 48GB * 1 | 8 | 4 | 8 | 15 | 15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | 48GB * 1 | 16 | 8 | 16 | 30 | 30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | 48GB * 2 | 32 | 8 | 32 | 30 | 30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | 48GB * 4 | 64 | 8 | 64 | 30 | 30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1024 | 48GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 900,000 | 8 |
gn7e、GPU高速化コンピューティング最適化インスタンスファミリー
特徴:
はじめに:
AIユースケースのビジネス要件を満たすために、さまざまな数のGPUとCPUを提供するインスタンスタイプを選択できます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、仮想プライベートクラウド (VPC) 、ネットワーク、およびディスクの平均帯域幅を2倍にします。
サポートされるシナリオ:
中小規模のAIトレーニング
Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) ビジネス
高いGPU処理能力または大量のGPUメモリを必要とするAI推論タスク
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
重要トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、
チケットを起票してテクニカルサポートを受ける。ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 3,000,000 | 8 | 8 | 10 | 1 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80GB * 2 | 16 | 6,000,000 | 16 | 8 | 10 | 1 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 12,000,000 | 32 | 8 | 10 | 1 |
ecs.gn7e-c16g1.32xlarge | 128 | 1000 | 80GB * 8 | 64 | 24,000,000 | 32 | 16 | 15 | 1 |
gn7i、GPU高速化コンピューティング最適化インスタンスファミリー
はじめに: このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用して、予測可能で一貫性のある超高性能を提供します。 このインスタンスファミリーは、チップ上で高速パス高速化を利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を1桁向上させます。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
計算:
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
RTXやTensorRTなどのアクセラレーション機能のサポート
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
最大752 GiBのメモリを提供します。これは、gn6iインスタンスファミリーのメモリサイズよりもはるかに大きくなります。
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 1,600,000 | 8 | 4 | 有効期限の 15 | 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 3,000,000 | 8 | 8 | 30 | 30 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 30 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24GB * 2 | 32 | 12,000,000 | 16 | 15 | 30 | 30 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 15 | 30 | 30 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 12,000,000 | 16 | 12 | 30 | 30 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24GB * 2 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24GB * 4 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24GB * 4 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24GB * 8 | 64 | 24,000,000 | 32 | 16 | 30 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24GB * 8 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
次のインスタンスタイプをecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeのみに変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlarge。
gn7s、GPU高速化コンピューティング最適化インスタンスファミリー
gn7sインスタンスファミリーを使用するには、
チケットを起票してください。はじめに:
このインスタンスファミリーは、NVIDIA Ampereアーキテクチャに基づく最新のIntel Ice LakeプロセッサとNVIDIA A30 GPUを使用します。 AIシナリオのビジネス要件を満たすために、GPUとvCPUを適切に組み合わせたインスタンスタイプを選択できます。
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を2倍にします。
サポートされているシナリオ: 画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク。
計算:
以下の機能を備えたNVIDIA A30 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
マルチインスタンスGPU (MIG) 機能とアクセラレーション機能 (第2世代のTensorコアに基づく) をサポートし、多様なビジネスサポートを提供します。
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
前世代のインスタンスファミリーからメモリサイズを大幅に改善します。
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | NICキュー | ENIs |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 * 2 | 24GB * 2 | 32 | 12,000,000 | 5 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1000 | NVIDIA A30 * 4 | 24GB * 4 | 64 | 24,000,000 | 10 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 8 | 1 | 12 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 8 | 1 | 12 | 8 |
gn7、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
ストレージ:
I/O 最適化インスタンス。
ESSDおよびESSD AutoPLディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 2,500,000 | 4 | 8 | 10 | 1 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
gn6i、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
コンピュータービジョン、音声認識、音声合成、自然言語処理 (NLP)、機械翻訳、推奨システムの AI (深層学習と機械学習) 推論
クラウドゲームのリアルタイムレンダリング
AR・VR アプリケーションのリアルタイムレンダリング
グラフィックスワークステーションまたはグラフィックスの重いコンピューティング
GPU 高速化データベース
高性能コンピューティング
計算:
以下の機能を備えたNVIDIA T4 GPUを使用します。
革新的なNVIDIAチューリングアーキテクチャ
16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)
GPUあたり2,560 CUDAコア
GPUあたり最大320個のTuring Tensorコア
65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6i-c4g1.xlarge | 4 | 有効期限の 15 | NVIDIA T4 * 1 | 16GB * 1 | 4 | 500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16GB * 1 | 5 | 800,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16GB * 1 | 6 | 1,000,000 | なし | 4 | 3 | 10 | 1 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 1,200,000 | なし | 6 | 4 | 10 | 1 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 * 1 | 16GB * 1 | 10 | 1,600,000 | なし | 16 | 10 | 10 | 1 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16GB * 2 | 15 | 2,400,000 | なし | 12 | 6 | 10 | 1 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 4,800,000 | 250,000 | 24 | 8 | 10 | 1 |
gn6e、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用しています。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
32 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
GPUごとに最大6つのNVLink双方向接続があり、それぞれが各方向に25 Gbit/sの帯域幅を提供し、合計帯域幅が300 Gbit/s (6 × 25 × 2 = 300)
CPU 対メモリ比は 1:8。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 * 1 | 32GB * 1 | 5 | 800,000 | 8 | 6 | 10 | 1 |
ecs.gn6e-c12g1.6xlarge | 24 | 182 | NVIDIA V100 * 2 | 32GB * 2 | 8 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 * 4 | 32GB * 4 | 16 | 2,400,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 4,800,000 | 16 | 8 | 20 | 1 |
gn6v、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
NVIDIA V100 GPUを使用します。
以下の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
16 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
GPUごとに最大6つのNVLink双方向接続があり、それぞれが各方向に25 Gbit/sの帯域幅を提供し、合計帯域幅が300 Gbit/s (6 × 25 × 2 = 300)
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースラインIOPS | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16GB * 1 | 2.5 | 800,000 | なし | 4 | 4 | 10 | 1 |
ecs.gn6v-c8g1.4xlarge | 16 | 64 | NVIDIA V100 * 2 | 16GB * 2 | 5 | 1,000,000 | なし | 4 | 8 | 20 | 1 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16GB * 4 | 10 | 2,000,000 | なし | 8 | 8 | 20 | 1 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16GB * 8 | 20 | 2,500,000 | なし | 16 | 8 | 20 | 1 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16GB * 8 | 32 | 4,500,000 | 250,000 | 16 | 8 | 20 | 1 |
ebmgn8v、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AIモデルトレーニングおよび超大型モデル用にAlibaba Cloudが提供する、GPUアクセラレーションによるコンピューティングに最適化された第8世代のECS Bare Metal instanceファミリーです。 このインスタンスファミリーの各インスタンスには、8つのGPUが装備されています。
サポートされるシナリオ:
700億を超えるパラメータを持つ大規模言語モデル (LLM) 用のマルチGPU並列推論コンピューティング
従来のAIモデルトレーニングと自動運転トレーニング。各GPUは、単精度浮動小数点形式 (FP32) で最大39.5 TFLOPSの計算能力を発揮します。
8つのGPU間のNVLink接続を活用する中小規模のモデルトレーニングシナリオ
利点とポジショニング
高速大容量GPUメモリ: 各GPUには96 GBのHBM3Eメモリが搭載されており、最大4 TB/sのメモリ帯域幅を実現できるため、モデルのトレーニングと推論が大幅に高速化されます。
GPU間の高帯域幅: 900ギガバイト/秒NVLink接続を使用して複数のGPUを相互接続します。 マルチGPUのトレーニングと推論の効率は、前世代のGPUアクセラレーションインスタンスよりもはるかに高くなります。
大きなモデルの量子化: このインスタンスファミリーは、8ビット浮動小数点形式 (FP8) の計算能力をサポートし、大規模なパラメータトレーニングと推論の計算能力を最適化します。 これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。
計算:
最新のCIPU 1.0プロセッサを使用します。
コンピューティング機能をストレージ機能から分離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにし、インスタンス間の帯域幅を160 Gbit/sに増やして、第7世代のインスタンスファミリーと比較してデータ転送と処理を高速化します。
CIPUプロセッサが提供するベアメタル機能を使用して、GPUアクセラレーションインスタンス間のピアツーピア (P2P) 通信をサポートします。
第4世代のIntel Xeonスケーラブルプロセッサを使用し、最大3.1 GHzのオールコアターボ周波数を提供し、192のvCPUを提供します。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) をサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
VPCでのインスタンス間RDMAベースの通信を可能にするelastic RDMAインターフェイス (ERI) をサポートし、インスタンスあたり最大160 Gbit/sの帯域幅を提供します。これは、CVモデルと従来のモデルに基づくトレーニングタスクに適しています。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。
.
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | NICキュー (プライマリENI /セカンダリENI) | ENIs | 最大接続データディスク | 最大ディスク帯域幅 (Gbit/s) |
ecs.ebmgn8v.48xlarge | 192 | 1,024 | 96GB * 8 | 160 (80 × 2) | 30,000,000 | 30 | 30 | 64 | 32 | 31 | 6 |
このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFIである必要があります。 インスタンスでカスタムイメージを使用する場合は、イメージがUEFIブートモードをサポートし、イメージのブートモードがUEFIに設定されていることを確認してください。 カスタムイメージのブートモードを設定する方法については、「API操作を呼び出してカスタムイメージのブートモードをUEFIモードに設定する」をご参照ください。
ebmgn8is、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ使用できます。 インスタンスファミリーを使用するには、Alibaba Cloud営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AI生成分野の最近の進展に対応してAlibaba Cloudが提供する第8世代のGPU高速化コンピューティング最適化ECS Bare Metalインスタンスファミリーです。 このインスタンスファミリーの各インスタンスには、8つのGPUが装備されています。
サポートされるシナリオ:
Alibaba Cloud Marketplace GRIDイメージが使用され、GRIDドライバがインストールされ、OpenGLおよびDirect3Dグラフィックス機能が有効になっているシナリオでは、ワークステーションレベルのグラフィックス処理機能に基づくアニメーション、フィルム、テレビ用の特殊効果の作成とレンダリング
Container Service for Kubernetes (ACK) が提供するコンテナー化されたアプリケーション用の管理サービスを使用して、AIで生成されたグラフィックコンテンツとLLM推論タスクを最大130億のパラメーターでサポートするシナリオ
その他の汎用AI認識、画像認識、および音声認識のシナリオ
利点とポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波の第5世代Intel Xeonスケーラブルプロセッサを使用して、3Dモデリングシナリオで十分なCPUコンピューティングパワーを提供し、スムーズなグラフィックレンダリングとデザインを実現します。
推論タスク: このインスタンスファミリーは、それぞれ48 GBのメモリを備えた革新的なGPUを使用しており、推論タスクを高速化し、FP8浮動小数点形式をサポートしています。 このインスタンスファミリーをACKと一緒に使用して、さまざまなAI生成コンテンツ (AIGC) モデルの推論をサポートし、パラメーターが700億未満のLLMの推論タスクに対応できます。
トレーニングタスク: このインスタンスファミリーは、費用対効果の高いコンピューティング機能を提供し、第7世代の推論インスタンスの2倍のFP32コンピューティングパフォーマンスを実現します。 このインスタンスファミリーのインスタンスは、FP32-based CVモデルやその他の中小規模モデルのトレーニングに適しています。
使用最新のCIPU 1.0プロセッサを提供する次の利点:
コンピューティング機能をストレージ機能から分離し、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようにし、インスタンス間の帯域幅を160 Gbit/sに増やして、前世代のインスタンスファミリーと比較して高速なデータ転送と処理を実現します。
CIPUプロセッサが提供するベアメタル機能を使用して、GPUアクセラレーションインスタンス間のPeripheral Component Interconnect Express (PCIe) P2P通信をサポートします。
計算:
次の機能を備えた革新的なGPUを使用します。
vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート
CPUダイレクト接続方式と比較してNVIDIA Collective Communications Library (NCCL) パフォーマンスが36% 向上し、複数のGPUでLLM推論タスクを並行して実行する場合に推論パフォーマンスが最大9% 向上するPCIeスイッチインターコネクトのサポート
1つのインスタンスで70億以上のパラメータを持つLLM推論タスクをサポートするために、1つのGPUあたり48 GBのメモリを持つインスタンスあたり8つのGPUをサポート
3.4 GHzインテルを使用®Xeon ®最大3.9 GHzのオールコアターボ周波数を提供するスケーラブル (SPR) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、およびEEDをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
30,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
VPCでのインスタンス間RDMAベースの通信を可能にするERIをサポートし、インスタンスあたり最大160 Gbit/sの帯域幅を提供します。これは、CVモデルと従来のモデルに基づくトレーニングタスクに適しています。
説明ERIの使用方法については、「エンタープライズレベルのインスタンスでのeRDMAの設定」をご参照ください。
.
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス | NICキュー (プライマリENI /セカンダリENI) | ENIs | 最大接続データディスク | 最大ディスク帯域幅 (Gbit/s) |
ecs.ebmgn8is.32xlarge | 128 | 1,024 | 48 GB × 8 | 160 (80 × 2) | 30,000,000 | 30 | 30 | 64/16 | 32 | 31 | 6 |
このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFIである必要があります。 インスタンスでカスタムイメージを使用する場合は、イメージがUEFIブートモードをサポートし、イメージのブートモードがUEFIに設定されていることを確認してください。 カスタムイメージのブートモードを設定する方法については、「API操作を呼び出してカスタムイメージのブートモードをUEFIモードに設定する」をご参照ください。
ebmgn7e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
サポートされるシナリオ:
ディープラーニングのトレーニングと開発
ハイパフォーマンスコンピューティング (HPC) とシミュレーション
重要トランスフォーマーモデルなど、通信負荷の高いAIトレーニングサービスを使用する場合は、GPU間通信でNVLinkを有効にする必要があります。 そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予測不可能な障害により、データが損傷する可能性があります。 AIトレーニングサービスに使用される通信リンクのトポロジがわからない場合は、
チケットを起票してテクニカルサポートを受ける。計算:
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供し、PCIe 4.0インターフェイスをサポートするスケーラブルなプロセッサ。
ストレージ:
I/O 最適化インスタンス。
エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー (プライマリNIC /セカンダリNIC) | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn7e.32xlarge | 128 | 1,024 | 80 GB × 8 | 64 | 24,000,000 | 32/12 | 32 | 10 | 1 |
ebmgn7eインスタンスを起動した後、マルチインスタンスGPU (MIG) 機能のステータスを確認し、MIG機能を有効または無効にする必要があります。 MIG機能の詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、MIG機能がebmgn7eインスタンスファミリーのインスタンスタイプでサポートされているかどうかを示しています。
インスタンスタイプ | MIGのサポート | 説明 |
ecs.ebmgn7e.32xlarge | 可 | MIG機能はebmgn7eインスタンスでサポートされています。 |
ebmgn7i、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
サポートされるシナリオ:
画像認識、音声認識、動作識別など、高性能なCPU、メモリ、GPUを必要とする同時AI推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な3Dグラフィックス仮想化機能を必要とするコンピューティング集約型のグラフィックス処理タスク
高パフォーマンスのレンダーファームの作成など、高いネットワーク帯域幅とディスク帯域幅を必要とするシナリオ
高いネットワーク帯域幅を必要とする小規模なディープラーニングおよびトレーニングアプリケーション
計算:
以下の機能を備えたNVIDIA A10 GPUを使用します。
革新的なNVIDIA Ampereアーキテクチャ
vGPU、RTXテクノロジ、TensorRT推論エンジンなどの高速化機能のサポート
2.9 GHzインテルを使用®Xeon ®3.5 GHzのオールコアターボ周波数を提供するスケーラブル (Ice Lake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
24,000,000 ppsのパケット転送速度で超高ネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn7i.32xlarge | 128 | 768 | NVIDIA A10 × 4 | 24 GB × 4 | 64 | 24,000,000 | 32 | 32 | 10 | 1 |
ebmgn7、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに: このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析など、堅牢なGPUコンピューティング機能を必要とする科学的コンピューティングアプリケーション
計算:
2.5 GHzインテルを使用®Xeon ®プラチナ8269CY (カスケード湖) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn7.26xlarge | 104 | 768 | 40 GB × 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
ebmgn7インスタンスの起動後、MIG機能のステータスを手動で確認し、MIG機能を有効または無効にする必要があります。 MIGの詳細については、「NVIDIAマルチインスタンスGPUユーザーガイド」をご参照ください。
次の表は、ebmgn7インスタンスファミリーのインスタンスタイプでMIG機能がサポートされているかどうかを示しています。
インスタンスタイプ | ミグ | 説明 |
ecs.ebmgn7.26xlarge | 可 | MIG機能はebmgn7インスタンスでサポートされています。 |
ebmgn6ia、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに:
このインスタンスファミリーは、第3世代のSHENLONGアーキテクチャとチップ上の高速パスアクセラレーションを使用して、予測可能で一貫性のある超高度なコンピューティング、ストレージ、およびネットワークパフォーマンスを提供します。
このインスタンスファミリーは、NVIDIA T4 GPUを使用してグラフィックスおよびAIアプリケーション用のGPUアクセラレーション機能を提供し、コンテナテクノロジーを採用して60台以上の仮想Androidデバイスを起動し、ハードウェアで高速化されたビデオトランスコーディングを提供します。
サポートされるシナリオ:
常時接続のクラウドベースのサービス、クラウドベースのモバイルゲーム、クラウドベースの携帯電話、Androidサービスクローラーなど、Androidベースのリモートアプリケーションサービス。
計算:
CPU とメモリの比率は 1:3
2.8 GHzアンペアを使用®Altra ®Armベースのプロセッサは、3.0 GHzのターボ周波数を提供し、Androidサーバー用のアプリケーションとの高いパフォーマンスと高い互換性を提供します。
ストレージ:
I/O 最適化インスタンス。
エンタープライズSSD (ESSD) およびESSD AutoPLディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn6ia.20xlarge | 80 | 256 | NVIDIA T4 × 2 | 16 GB × 2 | 32 | 24,000,000 | 32 | 15 | 10 | 1 |
アンペア ®Altra ®プロセッサには、オペレーティングシステムカーネルの特定の要件があります。 上記のインスタンスタイプのインスタンスは、Alibaba Cloud Linux 3イメージとCentOS 8.4以降のイメージを使用できます。 インスタンスでAlibaba Cloud Linux 3イメージを使用することを推奨します。 別のオペレーティングシステムディストリビューションを使用する場合は、そのディストリビューションのオペレーティングシステムを実行するインスタンスのカーネルにパッチを適用し、インスタンスからカスタムイメージを作成してから、カスタムイメージを使用してインスタンスタイプのインスタンスを作成します。 カーネルパッチの詳細については、Ampere Altra (TM) Linux kernel Porting Guideをご覧ください。
ebmgn6e、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、それぞれ32 GBのGPUメモリを持ち、NVLinkをサポートするNVIDIA V100 GPUを使用します。
このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
32 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
GPUごとに最大6つのNVLink接続があり、それぞれが各方向に25ギガバイト/秒の帯域幅を提供し、合計帯域幅は300ギガバイト/秒です (6 × 25 × 2 = 300) 。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
CPU 対メモリ比は 1:8。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn6e.24xlarge | 96 | 768 | NVIDIA V100 × 8 | 32 GB × 8 | 32 | 4,800,000 | 16 | 15 | 10 | 1 |
ebmgn6v、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーはNVIDIA V100 GPUを使用します。
このインスタンスファミリーは、次の機能を備えたNVIDIA V100 GPU (SXM2-based) を使用します。
革新的なNVIDIA Voltaアーキテクチャ
16 GPUあたりHBM2メモリのGB (900ギガバイト/秒帯域幅)
GPUあたり5,120 CUDAコア
640 GPUごとのTensorコア
GPUごとに最大6つのNVLink接続があり、それぞれが各方向に25ギガバイト/秒の帯域幅を提供し、合計帯域幅は300ギガバイト/秒です (6 × 25 × 2 = 300) 。
サポートされるシナリオ:
画像分類、自動運転車、音声認識で使用されるAIアルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算ファイナンス、分子力学、環境分析などの科学的コンピューティングアプリケーション
計算:
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn6v.24xlarge | 96 | 384 | NVIDIA V100 × 8 | 16 GB × 8 | 30 | 4,500,000 | 8 | 32 | 10 | 1 |
ebmgn6i、GPU高速化されたコンピューティング最適化ECSベアメタルインスタンスファミリー
はじめに:
このインスタンスファミリーは、SHENLONGアーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、次の機能を備えたNVIDIA T4 GPUを使用します。
革新的なNVIDIAチューリングアーキテクチャ
16 GPUあたりGBのメモリ (320ギガバイト/秒帯域幅)
GPUあたり2,560 CUDAコア
GPUあたり最大320個のTuring Tensorコア
65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSをサポートする混合精度Tensorコア
サポートされるシナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP) 、機械翻訳、および参照システムのためのAI (ディープラーニングおよび機械学習) 推論
クラウドゲームのリアルタイムレンダリング
拡張現実 (AR) およびバーチャルリアリティ (VR) アプリケーションのリアルタイムレンダリング
グラフィックスワークステーションまたはグラフィックスの重いコンピューティング
GPU 高速化データベース
高性能コンピューティング
計算:
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®プラチナ8163 (Skylake) プロセッサ。
ストレージ:
I/O 最適化インスタンス。
ESSD、ESSD AutoPLディスク、標準SSD、およびウルトラディスクをサポートします。 ディスクについては、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.ebmgn6i.24xlarge | 96 | 384 | NVIDIA T4 × 4 | 16 GB × 4 | 30 | 4,500,000 | 8 | 32 | 10 | 1 |
gn5i、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされているシナリオ: ディープラーニング推論やマルチメディアのエンコードとデコードなど、サーバー側のGPU計算ワークロード。
コンピューティング
NVIDIA P4 GPUを使用します。
CPU 対メモリ比は 1:4。
2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。
ストレージ
I/O 最適化インスタンス。
標準 SSD および Ultra ディスクをサポート。
ネットワーク
IPv4およびIPv6をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス | ENIごとのIPv6アドレス |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8GB * 1 | 1 | 100,000 | 2 | 2 | 6 | 1 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8GB * 1 | 1.5 | 200,000 | 2 | 3 | 10 | 1 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8GB * 1 | 2 | 400,000 | 4 | 4 | 10 | 1 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8GB * 1 | 3 | 800,000 | 4 | 8 | 20 | 1 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8GB * 2 | 6 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 | 1 |
gn5、GPU高速化コンピューティング最適化インスタンスファミリー
サポートされるシナリオ:
深層学習
計算流体力学、計算ファイナンス、ゲノミクス、環境分析などの科学的コンピューティングアプリケーション
高性能コンピューティング、レンダリング、マルチメディアのエンコードとデコードなど、サーバー側のGPUコンピューティングワークロード
計算:
NVIDIA P100 GPUを使用します。
複数の CPU とメモリの比率を提供
2.5 GHzインテルを使用®Xeon ®E5-2682 v4 (Broadwell) プロセッサ。
ストレージ:
高パフォーマンスのローカル不揮発性メモリエクスプレス (NVMe) SSDをサポートします。
I/O 最適化インスタンス。
標準 SSD および Ultra ディスクをサポート。
ネットワーク:
IPv4のみをサポート。
大規模コンピューティング能力で、高いネットワークパフォーマンスを提供します。
インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | ローカルストレージ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NICキュー | ENIs | ENIごとのプライベートIPv4アドレス |
ecs.gn5-c4g1.xlarge | 4 | 30 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 300,000 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 400,000 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 2 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 5 | 1,000,000 | 8 | 8 | 20 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | 1760 | NVIDIA P100 * 4 | 16GB * 4 | 10 | 2,000,000 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | 3520 | NVIDIA P100 * 8 | 16GB * 8 | 25 | 4,000,000 | 14 | 8 | 20 |