すべてのプロダクト
Search
ドキュメントセンター

Elastic GPU Service:サービス特典

最終更新日:Aug 01, 2024

Elastic GPU Serviceは、広範なサービス範囲、優れたコンピューティングパワーとネットワークパフォーマンス、および柔軟な購入方法を提供します。 DeepGPUは、Elastic GPU ServiceのGPUコンピューティング機能を強化するためにAlibaba Cloudが提供する無料のツールキットです。 このトピックでは、Elastic GPU ServiceとDeepGPUの利点について説明します。

Elastic GPUサービス

  • 広範なサービス範囲

    Elastic GPU Serviceは、17のリージョンで大規模なデプロイをサポート 世界中。 Elastic GPU Serviceは、ビジネスの突然の要求を満たすために、自動プロビジョニングや自動スケーリングなどの柔軟な配信方法も提供します。

  • 優れたコンピューティング能力

    Elastic GPU Serviceは、優れたコンピューティングパワーを備えたGPUを提供します。 高パフォーマンスCPUプラットフォームと一緒にElastic GPU Serviceを使用すると、GPU高速化インスタンスは、1秒あたり最大1,000兆個の浮動小数点演算 (TFLOPS) の混合精度コンピューティングパフォーマンスを提供できます。

  • 優れたネットワーク性能

    GPU高速化インスタンスは、最大4.5万パケット /秒 (Mpps) と32 Gbit/sの内部帯域幅をサポートする仮想プライベートクラウド (VPC) を使用します。 GPU高速化インスタンスをSuper Computing Cluster (SCC) と一緒に使用して、ノード間で最大50 Gbit/sの帯域幅を持つリモートダイレクトメモリアクセス (RDMA) ネットワークを提供できます。 これにより、ノード間でデータを送信するときに、低レイテンシと高帯域幅の要件を満たすことができます。

  • 柔軟な購入方法

    Elastic GPU Serviceは、サブスクリプションや従量課金、プリエンプティブルインスタンス、リザーブドインスタンス、SCU (storage capacity Unit) など、さまざまな課金方法をサポートしています。 リソースの非効率的な使用を防ぐには、ビジネス要件に基づいて課金方法を選択します。

    説明

    特定のGPU高速化インスタンスファミリーのリザーブドインスタンスは購入できません。 詳細については、「属性」をご参照ください。

DeepGPU

DeepGPUには、Apsara AI Accelerator (AIACC、AIACC-TrainingおよびAIACC-Inferenceを含む) 、AIACC 2.0-AIACC Communication Speeding (AIACC-ACSpeed) 、AIACC 2.0-AIACC Graph Speeding (AIACC-AGSpeed) 、FastGPU、およびcGPUが含まれます。

AIACC

AIACCは、Alibaba Cloudによって開発されたAIアクセラレータです。 AIACCには、トレーニングと推論のシナリオでパフォーマンスに大きな利点があり、コンピューティング効率の向上と使用コストの削減に役立ちます。

  • 集中型アクセラレーション

    AIACCは、TensorFlow、Caffe、MXNet、およびPyTorchのさまざまなAIフレームワークの集中型アクセラレーションを促進します。

  • 詳細なパフォーマンスの最適化

    AIACCは、GPU、CPU、ネットワーク、I/OなどのAlibaba Cloudの基本的なIaaSリソースに基づいて、詳細なパフォーマンス最適化を提供します。

  • 自動スケーリング

    AIACCは、基本的なIaaSリソースに基づく迅速な構築と自動スケーリングをサポートします。

  • オープンソースフレームワークとの互換性

    AIACCは軽量で便利で、オープンソースフレームワークと互換性があります。 オープンソースのフレームワークからモデルのアルゴリズムを直接インポートすることができます。

AIACC-ACSpeed

ACSpeedとも呼ばれるAIACC-ACSpeedは、Alibaba Cloudによって開発された社内AIトレーニングアクセラレータであり、分散モデルトレーニングのパフォーマンスを大幅に向上させます。 ACSpeedを使用して、分散通信を伴うジョブのパフォーマンスを最適化できます。 これにより、コンピューティング効率が向上し、コストが削減されます。

  • カスタマイズされた最適化

    ACSpeedは、一般的なPyTorchフレームワークにカスタマイズ可能な最適化機能を提供します。 この機能は、すべてのモデルトレーニングシナリオに適用できます。

  • 集中型アクセラレーション

    ACSpeedは、nccl-pluginコンポーネントの機能を活用して、TensorFlow、Caffee、MXNetなどの複数のAIフレームワークの集中型アクセラレーションをサポートします。

  • 詳細なパフォーマンスの最適化

    ACSpeedは、GPU、CPU、ネットワーク、I/OなどのAlibaba Cloudの基本的なIaaSリソースに基づいて、詳細なパフォーマンス最適化を提供します。

  • 自動スケーリング

    ACSpeedは、Alibaba CloudおよびPyTorchのネイティブ機能のIaaSリソースに合わせて迅速にデプロイし、自動的に拡張できます。

  • オープンソースフレームワークとの互換性

    ACSpeedは軽量で便利で、オープンソースフレームワークと互換性があります。 オープンソースのフレームワークからモデルのアルゴリズムを直接インポートすることができます。

モデルトレーニングにおけるACSpeedのパフォーマンスの利点の詳細については、「AIACC-ACSpeedパフォーマンスデータ」をご参照ください。

AIACC-AGSpeed

AGSpeedとも呼ばれるAIACC-AGSpeedは、Alibaba Cloudによって開発されたAIトレーニング用の最適化コンパイラです。 AGSpeedは、トレーニングパフォーマンスを最適化し、PyTorchフレームワーク上に構築されたジョブのボトルネック問題を解決するように設計されています。 AGSpeedはパフォーマンスに大きなメリットをもたらすことが証明されており、トレーニング効率の向上とコスト削減に使用できます。

  • カスタマイズされた最適化

    AGSpeedは、一般的なPyTorchフレームワークにカスタマイズ可能な最適化機能を提供します。 この機能は、すべてのモデルトレーニングシナリオに適用できます。

  • 知覚不可能な加速

    トレーニングジョブを最適化するために使用される標準的な業界アプローチは、TorchScriptを使用して静的な計算グラフを取得することです。このグラフは、PyTorchフレームワークのバックエンドコンパイラによって最適化されます。 ただし、このアプローチは正確ではなく、知覚できません。 PyTorchネイティブのフロントエンドTorchScriptと比較して、AGSpeedはトレーニングジョブに知覚できない加速を提供できます。

  • 詳細なパフォーマンスの最適化

    AGSpeedは、GPU、CPU、ネットワーク、I/OなどのAlibaba Cloudの基本的なIaaSリソースに基づいて、詳細なパフォーマンス最適化を提供します。

  • オープンソースフレームワークとの互換性

    AGSpeedは軽量で便利で、オープンソースフレームワークと互換性があります。 オープンソースのフレームワークからモデルのアルゴリズムを直接インポートすることができます。

FastGPU

FastGPUを使用すると、IaaSレイヤーでコンピューティング、ストレージ、またはネットワークリソースをデプロイすることなく、AIコンピューティングタスクを構築できます。 簡単な設定を行うと、クラスターをすばやくデプロイできます。 FastGPUは、時間の節約とコストの削減に役立ちます。

  • 高い効率

    • 数回クリックするだけでクラスターをデプロイできます。 IaaSレイヤーでは、コンピューティング、ストレージ、ネットワークリソースなどのリソースをデプロイする必要はありません。 クラスターのデプロイに必要な時間は5分に短縮されます。

    • インターフェイスとコマンドラインを使用して、タスクとリソースを便利かつ迅速に管理できます。

  • コスト効率

    • データセットが準備を完了し、トレーニングまたは推論タスクをトリガーした後、GPUアクセラレーションインスタンスを購入できます。 トレーニングまたは推論タスクが終了すると、GPUアクセラレーションインスタンスは自動的にリリースされます。 FastGPUは、リソースライフサイクルをタスクと同期させてコストを削減できます。

    • プリエンプティブルインスタンスがサポートされています。

  • 使いやすさ

    • すべてのリソースはIaaSレイヤーでデプロイされます。 リソースはアクセス可能であり、デバッグすることができる。

    • FastGPUは、視覚化とログ管理の要件を満たし、タスクを追跡できるようにします。

cGPU

GPUのcGPUを使用すると、リソースを柔軟に割り当て、ビジネスを分離できます。 cGPUを使用してコストを削減し、セキュリティを向上できます。

  • コスト効率

    グラフィックスカードの継続的な開発と半導体製造の進歩により、計算能力は強化されますが、単一のGPUの価格は上昇します。 ほとんどのビジネスシナリオでは、AIアプリケーションはGPU全体を必要としません。 cGPUでは、複数のコンテナーが1つのGPUを共有できます。 このようにして、ビジネスはセキュリティのために隔離されます。 GPUの利用が改善され、コストが削減される。

  • リソースの柔軟な割り当て

    cGPUを使用すると、ビジネス要件に基づいて物理GPUリソースを柔軟に割り当てることができます。

    • ビデオメモリまたは計算能力によってリソースを柔軟に割り当てることができます。灵活资源分配

    • cGPUでは、計算能力を割り当てるポリシーを柔軟に設定することもできます。 スケジューリングポリシーをリアルタイムで切り替えて、ビジネスピークとオフピークの要件を満たすことができます。 可配置的算力分配策略