Platform for AI (PAI) でサービスをデプロイした後、オンラインデバッグ機能を使用して、サービスが期待どおりに実行されるかどうかをテストできます。 このトピックでは、サービスをオンラインでデバッグする方法について説明します。
前提条件
サービスがデプロイされました。 詳細については、「PAIコンソールでのモデルサービスのデプロイ」をご参照ください。
手順
Elastic Algorithm Service (EAS)ページに移動します。
PAIコンソールにログインします。
左側のナビゲーションウィンドウで、[ワークスペース] をクリックします。 [ワークスペース] ページで、管理するワークスペースの名前をクリックします。
左側のナビゲーションウィンドウで、 を選択します。 Elastic Algorithm Service (EAS) ページが表示されます。
[推論サービス] タブで、デバッグするサービスを見つけ、[操作] 列の [オンラインデバッグ] をクリックします。
[リクエストパラメーターオンラインチューニング] セクションの [ボディ] タブで、サービスリクエストパラメーターを設定します。
TensorFlow、Caffe、PMML (Predictive Model Markup Language) などの共通プロセッサを使用してサービスをデプロイする場合は、「TensorFlowサービスのリクエストを作成する」トピックを参照してサービスリクエストを作成できます。
配置するサービスがカスタムモデルなどの別の種類のモデルを使用する場合は、モデルまたは使用するイメージの入力データ形式に基づいてサービスリクエストを作成する必要があります。
次のセクションでは、心臓病予測サービスのリクエスト本文のサンプルを示します。 このサービスは、バイナリ分類のロジスティック回帰モデルを使用します。
バイナリ分類モデルのロジスティック回帰はPMMLモデルです。 モデルファイルには、sex、cp、fbs、restecg、exang、slop、thal、age、trestbps、chol、thalach、oldpeak、caが含まれています。 この場合、[要求本文] セクションで次の内容を指定できます。
[{"sex":0、"cp":0、"fbs":0、"restecg":0、"exang":0、"slop":0、"thal":0、"age":0、"trestbps":0、"chol":0、"thalach":0、"oldpeak":0、"ca" 0}]
[リクエストの送信] をクリックします。 予測結果は [デバッグ情報] セクションに表示されます。
関連ドキュメント
Elastic Algorithm Service (EAS) ページで、デプロイされたオンラインモデルサービスを表示および管理できます。 詳細については、「EASでのオンラインモデルサービスの管理」をご参照ください。
自動ストレステストツールを使用して、Elastic Algorithm Service (EAS) にデプロイされているサービスのストレステストタスクを作成し、EASのパフォーマンスについて詳しく知ることができます。 詳細については、「自動サービスストレステスト」をご参照ください。
EASユースケースの詳細については、「EASユースケース」をご参照ください。