トレーニング済みモデルを取得したら、CLIを使用して、Platform for AI (PAI) のElastic Algorithm service (EAS) モジュールでモデルをオンラインサービスとして展開できます。 このトピックでは、CLIを使用してモデルサービスをデプロイする方法について説明します。
背景情報
前提条件
このトピックで説明する操作を実行する前に、次の要件が満たされていることを確認してください。
訓練されたモデルが得られる。
AccessKey IDとAccessKey secretが取得されます。 AccessKey IDとAccessKeyシークレットの取得方法の詳細については、「AccessKeyペアの作成」をご参照ください。
デプロイにDSWを使用する場合は、DSWインスタンスを作成する必要があります。 詳細については、「DSWインスタンスの作成と管理」をご参照ください。
EASCMDの使用
EASCMDクライアントを使用すると、サーバー上でモデルサービスを作成、表示、更新、および削除できます。 サービスの作成時に複数のインスタンスタイプを指定できます。 詳細は、「複数のインスタンスタイプの指定」をご参照ください。 次の手順は、64ビットWindowsバージョンのEASCMDクライアントを使用してサービスを展開する方法を示しています。
EASCMDクライアントをダウンロードし、ID認証を完了します。 詳細については、「EASCMDクライアントのダウンロードとID認証の完了」をご参照ください。
サービスをデプロイします。
test. JSON
という名前のjsonファイルを作成します。 サンプルコード:{ "metadata": { // If you use a dedicated resource group to deploy the service, configure the resource parameter. "resource": "eas-r-9lkbl2jvdm0puv****", "instance": 1, "gpu": 0, "cpu": 1, "memory": 2000 }, // If you use the public resource group to deploy the service, configure the cloud.computing parameter to specify an instance type. /*"cloud": { "computing": { "instance_type":"ecs.gn6i-c24g1.6xlarge" } },*/ "name": "test_eascmd", "processor": "tensorflow_cpu_1.12", "model_path": "oss://cri-ldbuutu1acd51ryd-registry/linshi/pslr/" }
パラメーター:
model_path: このパラメーターを、Object Storage Service (OSS) バケット内のモデルファイルのパスに設定します。 ファイル内の他のパラメーターについては、「モデルサービスのパラメーター」をご参照ください。
cloud.com puting: パブリックリソースグループを使用してサービスをデプロイする場合、このパラメーターを使用するインスタンスタイプに設定します。
JSONファイルを含むディレクトリで次のコマンドを実行して、サービスをデプロイします。
eascmdwin64.exe create <test.json>
<test.json> を、作成したJSONファイルの名前に置き換えます。
サンプル成功出力:
[RequestId]: 1651567F-8F8D-4A2B-933D-F8D3E2DD**** +-------------------+----------------------------------------------------------------------------+ | Intranet Endpoint | http://166233998075****.cn-shanghai.pai-eas.aliyuncs.com/api/predict/test_eascmd | | Token | YjhjOWQ2ZjNkYzdiYjEzMDZjOGEyNGY5MDIxMzczZWUzNGEyMzhi**** | +-------------------+--------------------------------------------------------------------------+ [OK] Creating api gateway [OK] Building image [registry-vpc.cn-shanghai.aliyuncs.com/eas/test_eascmd_cn-shanghai:v0.0.1-20221122114614] [OK] Pushing image [registry-vpc.cn-shanghai.aliyuncs.com/eas/test_eascmd_cn-shanghai:v0.0.1-20221122114614] [OK] Waiting [Total: 1, Pending: 1, Running: 0] [OK] Waiting [Total: 1, Pending: 1, Running: 0] [OK] Service is running
です
モデルサービスのデプロイには数分かかります。 [Elastic Algorithm Service (EAS)] ページに移動して、モデルサービスの展開ステータスを表示できます。 詳細については、「PAIコンソールでのモデルサービスのデプロイ」をご参照ください。
デプロイ後、EASCMDクライアントを使用してモデルサービスを管理することもできます。 詳細については、「EASCMDクライアントを使用するコマンドの実行」をご参照ください。
DSWの使用
PAIのDSWモジュールは、深層学習用の高性能GPUを提供するクラウドベースのインタラクティブな開発環境です。 DSWはEASCMDクライアントを統合します。 モデルトレーニング後にDSWのEASにモデルを展開するには、次の手順を実行します。
DSWを入力します。
PAIコンソールにログインします。
左側のナビゲーションウィンドウで、[ワークスペース] をクリックします。 [ワークスペース] ページで、使用するワークスペースの名前をクリックします。
ページの左上隅で、PAIを使用するリージョンを選択します。
左側のナビゲーションウィンドウで、 .
(オプション) [インタラクティブモデリング (DSW)] ページで、検索ボックスにインスタンス名またはキーワードを入力して、DSWインスタンスを検索します。
DSWインスタンスを見つけて、開くで、アクション列を作成します。
最新の64ビットLinuxバージョンのEASCMDクライアントをダウンロードし、ダウンロードしたファイルをNotebookインターフェイスのディレクトリにアップロードします。
EASCMDクライアントのダウンロード方法については、「EASCMDクライアントのダウンロードとユーザー認証の完了」をご参照ください。
データファイルのアップロード方法については、「データファイルのアップロードまたはダウンロード」をご参照ください。
DSWインターフェイスの上部のナビゲーションバーで、ターミナル起動するタブターミナルをクリックします。
ターミナルで、EASCMDクライアントがアップロードされているディレクトリに移動します。 EASCMDクライアントを実行可能ファイルに変換し、Alibaba CloudアカウントのAccessKeyペアを使用してID認証を完了します。 詳細については、「EASCMDクライアントのダウンロードとID認証の完了」をご参照ください。
JSONファイルを作成し、EASCMDクライアントを含むディレクトリにアップロードします。
JSONファイルの作成方法については、「EASCMDクライアントを使用するコマンドの実行」をご参照ください。
JSONファイルでパラメーターを設定する方法については、「モデルサービスのパラメーター」をご参照ください。
JSONファイルをアップロードする方法については、「データファイルのアップロードまたはダウンロード」をご参照ください。
JSONファイルを含むディレクトリで次のコマンドを実行して、サービスをデプロイします。
./eascmd64 create <service_desc_json>
<service_desc_json> を、作成したJSONファイルの名前に置き換えます。
モデルサービスのデプロイには数分かかります。
関連ドキュメント
[Elastic Algorithm Service (EAS)] ページに移動して、モデルサービスの展開ステータスを表示し、モデルサービスを管理できます。 詳細については、「PAIコンソールを使用したモデルサービスのデプロイ」をご参照ください。
EASは複数の展開方法を提供します。 ビジネス要件に基づいて方法を設定できます。 詳細については、「概要」をご参照ください。
サービスのデプロイ後、自動ストレステストツールを使用してサービスのパフォーマンスをテストできます。 詳細については、「自動ストレステスト」をご参照ください。
EASが提供するプロセッサがモデル展開要件を満たさない場合は、プロセッサ開発標準に基づいてカスタムプロセッサを作成できます。 詳細については、「カスタムプロセッサを使用したサービスのデプロイ」をご参照ください。