モデルを登録するときに、モデルのサービス展開を設定できます。 モデルをデプロイすると、システムは自動的に設定を使用します。 これにより、手動で展開構成を変更する必要がなくなり、展開効率が向上します。 このトピックでは、数回クリックするだけでサービスのデプロイを構成し、モデルサービスをデプロイする方法について説明します。
モデルサービスの展開
新しいモデルを登録するときに、[モデルサービス展開] セクションでサービス展開構成をカスタマイズできます。
[カスタム設定] を選択し、デプロイ設定情報を入力します。
カスタムイメージを使用してデプロイされたモデルのサンプル構成:
{ "containers": [ { "image": "registry-vpc.cn-shanghai.aliyuncs.com/xxx/yyy:zzz", "env": [ { "name": "var_name", "value": "var_value" } ], "command": "/data/eas/ENV/bin/python /data/eas/app.py", "port": 8000 } ], "storage": [ { "oss": { "readOnly": false }, "properties": { "resource_type": "model" } } ], }
パラメーターの詳細については、「カスタムイメージを使用したモデルサービスのデプロイ」をご参照ください。 Elastic Algorithm Service (EAS) でのモデル展開の詳細については、「PAIコンソールとMachine Learning Designerを使用したモデルサービス展開」をご参照ください。
プリセットプロセッサを使用してデプロイされたモデルのサンプル設定:
{ "processor": "tensorflow_gpu_1.12" }
カスタムプロセッサを使用してデプロイされたモデルのサンプル構成:
{ "processor_entry": "./service.py", "processor_type": "python", "processor_path": "http://eas-data.oss-cn-shanghai.aliyuncs.com/demo/service.py", "data_image": "registry.cn-shanghai.aliyuncs.com/eas-service/develop:latest" }
モデル展開
[モデルサービス展開] で指定した設定に基づいて、登録済みモデルをEASに展開できます。 以下の手順を実行します。
[モデル管理] ページで、管理するモデルを見つけ、[操作] 列の [EASにデプロイ] をクリックします。 画面上の指示に従って、デプロイを確認します。 サービスのデプロイページが表示されます。
[サービスのデプロイ] ページで、[モデルサービス情報] セクションの主要なパラメーターは、モデルサービスのデプロイ構成に従って設定されます。 デプロイを開始するには、その他の必須パラメーターを設定するだけです。 詳細については、「PAIコンソールとMachine Learning Designerを使用したモデルサービスのデプロイ」をご参照ください。