Platform for AI (PAI) でElastic Algorithm Service (EAS) を有効にすると、システムは自動的にパブリックリソースグループを作成します。 パブリックリソースグループを使用して、モデルサービスをデプロイできます。 このトピックでは、パブリックリソースグループの概要を説明します。
シナリオ
少数のタスクを実行し、迅速な応答を必要としない場合は、パブリックリソースグループを使用することをお勧めします。
課金
課金を開始する方法
パブリックリソースグループを使用すると、ノードリソースまたはノードタイプを指定してモデルサービスをデプロイできます。 サービスのデプロイ後に課金が開始され、[実行中] 状態になります。 詳細については、「EASの課金」をご参照ください。
不要なコストを防ぐため、使用しなくなったモデルサービスを停止することを推奨します。
EASCMDクライアントを使用してサービスをデプロイする場合は、システムディスク容量を指定できます。 詳細については、「モデルサービスのパラメーター」をご参照ください。 パブリックリソースグループの各ノードには、30 GBの空きシステムディスク容量があります。 従量課金制で無料クォータを超えたストレージ容量に対して課金され、システムディスクが作成された直後に課金が開始されます。 詳細については、「EASの課金」をご参照ください。
課金を停止する方法
[Elastic Algorithm Service (EAS)] ページで、停止するモデルサービスを [推論サービス] タブで見つけ、[操作] 列の [停止] をクリックします。 その後、モデルサービスが停止され、モデルサービスが使用するリソースの課金が停止されます。 詳細については、「PAIコンソールとMachine Learning Designerを使用したモデルサービスのデプロイ」をご参照ください。
システムディスク容量をサービスに割り当てた場合、サービスが削除された場合にのみ容量の課金が停止します。
不要なビジネス損失を防ぐために、停止したモデルサービスが不要になったことを確認してください。
パブリックリソースグループの操作
EASを有効にすると、パブリックリソースグループを使用できるようになります。
パブリックリソースグループのVirtual Private Cloud (VPC) 直接接続を有効にして、クライアントのネットワーク遅延を短縮し、EASサービスが同じVPCにデプロイされている他のクラウドサービスにアクセスできるようにすることができます。 詳細については、「ネットワーク接続の設定」をご参照ください。
パブリックリソースグループのログ収集を設定して、パブリックリソースグループ内のEASサービスによって生成されたログをSimple log Serviceに送信できます。 このようにして、EASサービスをリアルタイムで監視できます。 詳細については、「リソースグループのログ収集の設定」をご参照ください。
パブリックリソースグループにサービスをデプロイするには、次のいずれかの方法を使用します。
コンソールの使用
[Elastic Algorithm service (EAS)] ページにモデルサービスをデプロイし、[Resource Group Type] を [Public Resource Group] に設定します。 詳細については、「PAIコンソールとMachine Learning Designerを使用したモデルサービスのデプロイ」をご参照ください。
EASCMDの使用
EASCMDクライアントを使用して、モデルサービスをデプロイします。 詳細については、「EASCMDまたはDSWを使用したモデルサービスのデプロイ」をご参照ください。
ノードリソースまたはノードタイプを指定して、モデルサービスをデプロイします。
ノードリソースを指定してモデルサービスをデプロイします。
{ "metadata": { "instance": 2, "cpu": 1, "memory": 2000 }, "cloud": { "computing": {} }, "name": "test", "model_path": "http://examplebucket.oss-cn-shanghai.aliyuncs.com/models/model.tar.gz", "processor": "tensorflow_cpu_1.12" }
ノードタイプを指定してモデルサービスをデプロイするには、cloud.com puting.instance_typeパラメーターをサービス設定ファイルに追加して、Elastic Compute service (ECS) インスタンスタイプを指定する必要があります。
{ "name": "tf_serving_test", "model_path": "http://examplebucket.oss-cn-shanghai.aliyuncs.com/models/model.tar.gz", "processor": "tensorflow_gpu_1.12", "cloud":{ "computing":{ "instance_type":"ecs.gn6i-c24g1.6xlarge" } }, "metadata": { "instance": 1, "cuda": "9.0", "memory": 7000, "gpu": 1, "cpu": 4 } }
次の表に、instance_typeパラメーターでサポートされているECSインスタンスタイプを示します。
[インスタンスタイプ]
仕様
ecs.c5.6xlarge
c5 (24vCPU + 48GB)
ecs.c6.2xlarge
c6 (8vCPU + 16GB)
ecs.c6.4xlarge
c6 (16vCPU + 32GB)
ecs.c6.6xlarge
c6 (24vCPU + 48GB)
ecs.c6.8xlarge
c6 (32vCPU + 64GB)
ecs.g5.6xlarge
g5 (24vCPU + 96GB)
ecs.g6.2xlarge
g6 (8vCPU + 32GB)
ecs.g6.4xlarge
g6 (16vCPU + 64GB)
ecs.g6.6xlarge
g6 (24vCPU + 96GB)
ecs.g6.8xlarge
g6 (32vCPU + 128GB)
ecs.gn5-c28g1.7xlarge
28vCPU + 112GB + 1 * P100
ecs.gn5-c4g1.xlarge
4vCPU + 30GB + 1 * P100
ecs.gn5-c8g1.2xlarge
8vCPU + 60GB + 1 * P100
ecs.gn5-c8g1.4xlarge
16vCPU + 120GB + 2 * P100
ecs.gn5i-c4g1.xlarge
4vCPU + 16GB + 1 * P4
ecs.gn5i-c8g1.2xlarge
8vCPU + 32GB + 1 * P4
ecs.gn6i-c16g1.4xlarge
16vCPU + 62GB + 1 * T4
ecs.gn6i-c24g1.12xlarge
48vCPU + 186GB + 2 * T4
ecs.gn6i-c24g1.6xlarge
48vCPU + 186GB + 2 * T4
ecs.gn6i-c4g1.xlarge
4vCPU + 15GB + 1 * T4
ecs.gn6i-c8g1.2xlarge
8vCPU + 31GB + 1 * T4
ecs.gn6v-c8g1.2xlarge
8vCPU + 32GB + 1 * V100
ecs.r6.2xlarge
r6 (8vCPU + 64GB)
ecs.r6.4xlarge
r6 (16vCPU + 128GB)
ecs.r6.6xlarge
r6 (24vCPU + 192GB)
ecs.r6.8xlarge
r6 (32vCPU + 256GB)
ecs.g7.2xlarge
g7 (8vCPU + 32GB)
ecs.g7.4xlarge
g7 (16vCPU + 64GB)
ecs.g7.6xlarge
g7 (24vCPU + 96GB)
ecs.g7.8xlarge
g7 (32vCPU + 128GB)
ecs.c7.2xlarge
c7 (8vCPU + 16GB)
ecs.c7.4xlarge
c7 (16vCPU + 32GB)
ecs.c7.6xlarge
c7 (24vCPU + 48GB)
ecs.c7.8xlarge
c7 (32vCPU + 64GB)
ecs.r7.2xlarge
r7 (8vCPU + 64GB)
ecs.r7.4xlarge
r7 (16vCPU + 128GB)
ecs.r7.6xlarge
r7 (24vCPU + 192GB)
ecs.r7.8xlarge
r7 (32vCPU + 256GB)
ecs.g7.16xlarge
g7 (64vCPU + 256GB)
ecs.c7.16xlarge
c7 (64vCPU + 128GB)
ecs.r7.16xlarge
r7 (64vCPU + 512GB)
ecs.gn7i-c8g1.2xlarge
8vCPU + 30GB + 1 * A10
ecs.gn7i-c16g1.4xlarge
16vCPU + 60GB + 1 * A10
ecs.gn7i-c32g1.8xlarge
32vCPU + 188GB + 1 * A10
ecs.gn6e-c12g1.3xlarge
12vCPU + 92GB + 1 * V100
ecs.g6.xlarge
g6 (4vCPU + 16GB)
ecs.c6.xlarge
c6 (4vCPU + 8GB)
ecs.r6.xlarge
r6 (4vCPU + 32GB)
ecs.g6.large
g6 (2vCPU + 8GB)
ecs.c6.large
c6 (2vCPU + 4GB)
ecs.r6.large
r6 (2vCPU + 16GB)
ecs.c7a.large
AMD (2vCPU + 4GB)
ecs.c7a.xlarge
AMD (4vCPU + 8GB)
ecs.c7a.2xlarge
AMD (8vCPU + 16GB)
ecs.c7a.4xlarge
AMD (16vCPU + 32GB)
ecs.c7a.8xlarge
AMD (32vCPU + 64GB)
ecs.c7a.16xlarge
AMD (64vCPU + 128GB)
ecs.g7a.large
AMD (2vCPU + 8GB)
ecs.g7a.xlarge
AMD (4vCPU + 16GB)
ecs.g7a.2xlarge
AMD (8vCPU + 32GB)
ecs.g7a.4xlarge
AMD (16vCPU + 64GB)
ecs.g7a.8xlarge
AMD (32vCPU + 128GB)
ecs.g7a.16xlarge
AMD (64vCPU + 256GB)
関連ドキュメント
パブリックリソースグループ内のリソースは複数のサービスで共有できますが、ピーク時に安定したリソース割り当てを確保できません。 専用リソースグループを作成し、専用リソースグループを使用してサービスをデプロイできます。 詳細については、「専用リソースグループの操作」をご参照ください。
パブリックリソースグループにデプロイされたサービスに対してVPC直接接続を有効にできます。 詳細については、「ネットワーク接続の設定」をご参照ください。