このトピックでは、Machine Learning Designerによってトレーニングされたモデルを使用して、本番環境で新しいデータの予測を行う方法について説明します。
Elastic Algorithm Service (EAS) にサービスとしてモデルをデプロイした後、そのモデルを使用して新しいデータの予測を行うことができます。 Machine Learning Designerは、リアルタイム予測とバッチ予測の2種類の予測サービスをサポートしています。 予測の適時性に関する要件に基づいて、これらのタイプから選択できます。 Machine Learning Designerは、両方のタイプの予測サービスをサポートします。
リアルタイム予測
モデルをオンラインサービスとしてデプロイして、リアルタイム予測を実装できます。 パイプラインが正常に実行されたら、数回クリックするだけで、パイプラインによって生成されたモデルをオンラインサービスとしてEASにデプロイできます。 プッシュボタン展開は、トレーニング済みのPredictive Model Markup Language (PMML) 、AlinkModel、およびXGBoostモデルで使用できます。 1つのモデルを毎回デプロイできます。 トレーニング済みのPMMLモデルファイルをコンピューターに手動でエクスポートし、ファイルをアップロードして、モデルをオンラインサービスとしてEASに展開することもできます。 パラメータサーバー (PS) 形式のモデルは、この方法でオンラインサービスとして展開する前に、準備が必要です。
特定のパイプラインをオンラインサービスとしてデプロイして、リアルタイム予測を実装できます。 具体的には、Alinkコンポーネントを使用して、データ前処理、機能エンジニアリング、およびモデル予測を組み合わせたバッチデータ処理パイプラインを作成し、そのパイプラインをオンラインサービスとしてデプロイできます。 これは、バッチモデルとしてパイプラインをパッケージ化した後、数回クリックするだけで実現できます。
Machine Learning Designerによってトレーニングされたモデルをオンラインサービスとしてデプロイした後、Update EAS serviceコンポーネントを、モデルを生成するコンポーネントの下流ノードとして接続して、オンラインサービスを更新できます。 パイプラインをDataWorksに送信して、定期的なタスクとしてスケジュールすることもできます。 このように、パイプラインからデプロイされたモデルサービスは、特定の時点で自動的に更新されます。
バッチ予測
予測コンポーネントをパイプラインに追加して、Machine Learning Designerを使用してバッチ予測を実装できます。 次に、パイプラインをDataWorksに送信し、定期的なタスクとしてスケジュールして、特定の時点で自動予測を実装します。 詳細については、「バッチ予測の実装」をご参照ください。