すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:オブジェクト検出 (easycv)

最終更新日:Jul 22, 2024

オブジェクト検出トレーニング (easycv) コンポーネントは、主流のYOLOXと、オブジェクト検出トレーニング用の完全畳み込みワンステージオブジェクト検出器 (FCOS) モデルを提供します。 オブジェクト検出 (easycv) コンポーネントを使用して、推論に使用されるオブジェクト検出モデルをトレーニングしたり、画像内の不正なコンテンツを識別するビジネスシナリオに適用したりできます。 このトピックでは、オブジェクト検出 (easycv) コンポーネントの設定方法と、Platform for AI (PAI) でのコンポーネントの使用方法の例について説明します。

前提条件

OSSが有効化され、Machine Learning StudioはOSSへのアクセスが許可されています。 詳細については、「OSSの有効化」および「Machine Learning Designerの使用に必要な権限の付与」をご参照ください。

制限事項

  • オブジェクト検出 (easycv) コンポーネントは、PAIのMachine Learning Designerでのみ使用できます。

  • Deep Learning Containers (DLC) のみに基づくオブジェクト検出 (easycv) コンポーネントを使用できます。

PAIコンソールでコンポーネントを設定する

  • 入力ポート

    入力ポート (左から右へ)

    データ型

    推奨上流コンポーネント

    必須

    トレーニングのためのTFRecords

    OSS

    ファイルデータの読み取り

    いいえ。

    この入力にポートを使用しない場合は、[フィールド設定] タブで [トレーニングtfrecordへのoss path] パラメーターを設定する必要があります。

    評価のためのTFRecords

    OSS

    ファイルデータの読み取り

    いいえ。

    この入力にポートを使用しない場合は、[フィールド設定] タブで [oss path to evaluation tfrecord] パラメーターを設定する必要があります。

    yolov5クラス一覧ファイル

    OSS

    ファイルデータの読み取り

    いいえ。

    この入力にポートを使用しない場合は、[フィールド設定] タブで [クラスリストファイルのoss path] パラメーターを設定する必要があります。

  • コンポーネントパラメータ

    タブ

    パラメーター

    必須

    説明

    デフォルト値

    フィールド設定

    モデルタイプ

    トレーニングするモデルのタイプ。 有効な値:

    • FCOS

    • YOLOX

    YOLOX

    oss dir to save model

    不可

    トレーニング済みモデルを保存するOSSパス。 例: examplebucket.oss-cn-shanghai-internal.aliyuncs.com/test/ckpt/ 。 このパラメーターを空のままにすると、ワークスペースのデフォルトパスが使用されます。

    N/A

    ossアノテーションパスfor training set

    不可

    • データ形式DetSourcePAIに設定した場合は、マニフェスト形式。

    • データ形式COCOに設定した場合は、json形式。

    入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方を設定した場合、トレーニングタスクは入力ポートによって提供された値を使用します。

    N/A

    ossアノテーションパスfor validation set

    不可

    • データ形式DetSourcePAIに設定した場合は、マニフェスト形式。

    • データ形式COCOに設定した場合は、json形式。

    入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方が設定されている場合、トレーニングタスクは入力ポートによって提供された値を使用します。

    N/A

    クラス一覧ファイルのossパス

    不可

    タグのリストを含むファイルを指定します。txt形式。

    入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方を設定した場合、トレーニングタスクは入力ポートによって提供された値を使用します。

    N/A

    事前トレーニング済みモデルへのoss path to pretrained model

    不可

    事前トレーニング済みモデルが保存されているObject Storage Service (OSS) パス。 事前トレーニング済みモデルがある場合は、このパラメーターを事前トレーニング済みモデルのOSSパスに設定します。 このパラメーターを空のままにすると、PAIが提供するデフォルトの事前トレーニング済みモデルが使用されます。

    N/A

    oss path to training tfrecord

    トレーニングデータのパス。 このパラメーターは、データソースをCOCOに設定した場合にのみ必要です。

    N/A

    oss path to evaluation tfrecord

    評価データのパス。 このパラメーターは、データソースをCOCOに設定した場合にのみ必要です。

    データ形式

    イベントのスコープ。 有効な値:

    • COCO

    • DetSourcePAI

    DetSourcePAI

    パラメーター設定

    YOLOXモデル構造

    このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。 ドロップダウンリストから、使用するモデルタイプを選択します。

    • yolox-s

    • yolox-m

    • yolox-l

    • yolox-x

    yolo-s

    numクラス

    データセット内のカテゴリの数。

    20

    イメージスケール

    サイズ変更後の画像のサイズ。 高さと幅をスペースで区切ります。 例: 320 320。

    320 320

    オプティマイザ

    このパラメーターは、model typeパラメーターをYOLOXに設定した場合にのみ必要です。

    モデルトレーニングの最適化方法。 有効な値:

    • momentum

    • adam

    momentum

    初期学習率

    初期学習率。

    0.01

    バッチサイズ

    トレーニングバッチのサイズ。 このパラメータは、トレーニングプロセスおよび後続の反復トレーニングサイクル中に使用するサンプルの数を指定します。

    8

    evalバッチサイズ

    評価バッチのサイズ。 このパラメータは、トレーニングプロセスおよび後続の反復トレーニングサイクル中に使用するサンプルの数を指定します。

    8

    numエポック

    トレーニングエポックの総数。

    説明

    モデルタイプをYOLOXに設定した場合、エポックの総数は、ウォームアップエポックと安定した学習率を持つエポックの合計よりも大きくなければなりません。 安定した学習レートを有するエポックは、最後の拡張されないエポックパラメータによって指定される。

    20

    損失周波数

    不可

    損失値の印刷頻度。 デフォルト値は200です。これは、損失値が200バッチごとに印刷されることを示します。

    検証周波数

    不可

    デフォルト値は2で、3つのエポックごとに検証が実行されることを示します。

    ウォームアップエポック

    不可

    このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。

    5

    last no augmented lr epochs

    不可

    このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。

    5

    タイプのエクスポートモデル

    モデルがエクスポートされる形式。 有効な値:

    • raw

    • jit

    raw

    チェックポイントエポックを保存

    不可

    チェックポイントが保存される頻度。 値1は、すべてのデータが反復のために1回保存されることを示します。

    1

    チューニング

    gpuマシンタイプ

    このアルゴリズムのGPU仕様を指定する必要があります。

    4

    evtorchモデルfp16

    不可

    モデルトレーニング中のメモリ使用量を減らすためにFP16を有効にするかどうかを指定します。

    false

    単一のワーカーまたはMaxComputeまたはDLCに分散

    distribute_on_dlcのみが利用可能です。

    distribute_on_dlc

  • 出力ポート

    出力ポート (左から右)

    データ型

    下流コンポーネント

    出力モデル

    出力モデルが保存されるOSSパス。 この値は、[フィールド設定] タブで [oss dir to save model] パラメーターに指定した値と同じです。 SavedModel形式の出力モデルは、このOSSパスに格納されます。

    イメージ予測

次の図は、オブジェクト検出 (easycv) コンポーネントが使用されるサンプルパイプラインを示しています。 3eeb980b8371052b9785a02f3719c4aa

この例では、次の手順を実行してコンポーネントを設定します。

  1. PAIが提供するiTAGを使用して画像にラベルを付ける。 詳細については、「プロセスラベル付けジョブ」をご参照ください。

  2. ラベリング結果ファイルxxx.manifestを読み取るように、[ファイルデータの読み取り] コンポーネントを設定します。 この場合、Read File Data-1コンポーネントのOSS Data Pathパラメーターを、ラベリング結果ファイルが保存されているOSSパスに設定する必要があります。 例: oss:// examplebucket.oss-cn-shanghai.aliyuncs.com/ev_demo/xxx.manifest

  3. トレーニングデータと評価データをオブジェクト検出 (easycv) コンポーネントにインポートし、コンポーネントパラメータを設定します。 詳細については、「Machine Learning Designerでのコンポーネントの設定」をご参照ください。

  4. オフライン推論を実行するように画像予測-1コンポーネントを設定します。 詳細については、「画像予測」をご参照ください。

Machine Learning Designerは、イメージオブジェクト検出テンプレートを提供します。 パイプラインを作成し、オブジェクト検出 (easycv) コンポーネントに慣れるには、[プリセットテンプレート] タブに移動し、[CV] > [画像オブジェクト検出] を選択します。 詳細については、「プリセットテンプレートからのパイプラインの作成」をご参照ください。

関連ドキュメント

  • オブジェクト検出モデルをトレーニングした後、オブジェクト検出 (easycv) コンポーネントの下流コンポーネントとして一般的な画像予測コンポーネントを追加して、モデルで予測を実行できます。 詳細については、「画像予測」をご参照ください。