すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:ディープラーニングの有効化

最終更新日:Jul 22, 2024

Platform for AI (PAI) は、深層学習フレームワークをサポートし、GPU高速コンピューティングクラスターを提供します。 これらのフレームワークとハードウェアリソースに基づいて、深層学習アルゴリズムを使用できます。

前提条件

MaxComputeリソースが関連付けられています。 詳細については、「ワークスペースの管理」をご参照ください。

背景情報

ディープラーニングはTensorFlowフレームワークをサポートし、TensorFlow 1.12と互換性があります。 TensorFlowはPythonのカスタムコードをサポートしています。

深層学習フレームワークを使用してモデルをトレーニングする前に、データをObject Storage Service (OSS) にアップロードする必要があります。 アルゴリズムは、アルゴリズムを実行するときに、指定されたOSSパスからデータを読み取ります。 同じリージョンにデプロイされているOSSバケットからのデータにアルゴリズムを使用してアクセスする場合、データ転送料金は請求されません。 OSSバケットが異なるリージョンにデプロイされている場合、データ転送料金が課金されます。

説明

PAIは、中国 (上海)中国 (北京)中国 (杭州) 、および中国 (深セン) のリージョンでのみGPUアクセラレーションクラスターをサポートします。

ディープラーニングの有効化

深層学習を使用するには、GPUリソースを管理および構成するワークスペースの詳細ページに移動します。

  1. 最初に PAIコンソール にログインします。

  2. 左側のナビゲーションウィンドウで、[ワークスペース] をクリックします。 [ワークスペース] ページで、管理するワークスペースの名前をクリックします。

  3. [ワークスペースの詳細] ページの [詳細] セクションで、[コンピューティングリソース] の横にある [リソース] をクリックします。

  4. [ワークスペースリソース設定] パネルで、次の図に示す手順を実行して、[リソース設定] ダイアログボックスを開きます。image.png

  5. [リソース設定] ダイアログボックスで、GPUパラメーターを [従量課金] に設定し、[OK] をクリックします。开启GPU

深層学習フレームワークTensorFlow使用

TensorFlowでは、CPUサーバーで実行されるTensorFlowタスクのみを送信できます。 詳細については、「PAI-TensorFlow」をご参照ください。

GPUサーバーで実行されるTensorFlowタスクを送信するには、Pythonスクリプトコンポーネントを使用します。 詳細については、「Pythonスクリプト」をご参照ください。