すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:サービスをオンラインでデバッグする

最終更新日:Jul 22, 2024

Platform for AI (PAI) でサービスをデプロイした後、オンラインデバッグ機能を使用して、サービスが期待どおりに実行されるかどうかをテストできます。 このトピックでは、サービスをオンラインでデバッグする方法について説明します。

前提条件

サービスがデプロイされました。 詳細については、「PAIコンソールでのモデルサービスのデプロイ」をご参照ください。

手順

  1. Elastic Algorithm Service (EAS)ページに移動します。

    1. PAIコンソールにログインします。

    2. 左側のナビゲーションウィンドウで、[ワークスペース] をクリックします。 [ワークスペース] ページで、管理するワークスペースの名前をクリックします。

    3. 左側のナビゲーションウィンドウで、[モデル展開] > [Elastic Algorithm Service (EAS)] を選択します。 Elastic Algorithm Service (EAS) ページが表示されます。

  2. [推論サービス] タブで、デバッグするサービスを見つけ、[操作] 列の [オンラインデバッグ] をクリックします。

  3. [リクエストパラメーターオンラインチューニング] セクションの [ボディ] タブで、サービスリクエストパラメーターを設定します。

    • TensorFlow、Caffe、PMML (Predictive Model Markup Language) などの共通プロセッサを使用してサービスをデプロイする場合は、「TensorFlowサービスのリクエストを作成する」トピックを参照してサービスリクエストを作成できます。

    • 配置するサービスがカスタムモデルなどの別の種類のモデルを使用する場合は、モデルまたは使用するイメージの入力データ形式に基づいてサービスリクエストを作成する必要があります。

      次のセクションでは、心臓病予測サービスのリクエスト本文のサンプルを示します。 このサービスは、バイナリ分類のロジスティック回帰モデルを使用します。

      バイナリ分類モデルのロジスティック回帰はPMMLモデルです。 モデルファイルには、sexcpfbsrestecgexangslopthalagetrestbpscholthalacholdpeakcaが含まれています。 この場合、[要求本文] セクションで次の内容を指定できます。[{"sex":0、"cp":0、"fbs":0、"restecg":0、"exang":0、"slop":0、"thal":0、"age":0、"trestbps":0、"chol":0、"thalach":0、"oldpeak":0、"ca" 0}]

  4. [リクエストの送信] をクリックします。 予測結果は [デバッグ情報] セクションに表示されます。 image

関連ドキュメント

  • Elastic Algorithm Service (EAS) ページで、デプロイされたオンラインモデルサービスを表示および管理できます。 詳細については、「EASでのオンラインモデルサービスの管理」をご参照ください。

  • 自動ストレステストツールを使用して、Elastic Algorithm Service (EAS) にデプロイされているサービスのストレステストタスクを作成し、EASのパフォーマンスについて詳しく知ることができます。 詳細については、「自動サービスストレステスト」をご参照ください。

  • EASユースケースの詳細については、「EASユースケース」をご参照ください。