オブジェクト検出トレーニング (easycv) コンポーネントは、主流のYOLOXと、オブジェクト検出トレーニング用の完全畳み込みワンステージオブジェクト検出器 (FCOS) モデルを提供します。 オブジェクト検出 (easycv) コンポーネントを使用して、推論に使用されるオブジェクト検出モデルをトレーニングしたり、画像内の不正なコンテンツを識別するビジネスシナリオに適用したりできます。 このトピックでは、オブジェクト検出 (easycv) コンポーネントの設定方法と、Platform for AI (PAI) でのコンポーネントの使用方法の例について説明します。
前提条件
OSSが有効化され、Machine Learning StudioはOSSへのアクセスが許可されています。 詳細については、「OSSの有効化」および「Machine Learning Designerの使用に必要な権限の付与」をご参照ください。
制限事項
オブジェクト検出 (easycv) コンポーネントは、PAIのMachine Learning Designerでのみ使用できます。
Deep Learning Containers (DLC) のみに基づくオブジェクト検出 (easycv) コンポーネントを使用できます。
PAIコンソールでコンポーネントを設定する
入力ポート
入力ポート (左から右へ)
データ型
推奨上流コンポーネント
必須
トレーニングのためのTFRecords
OSS
いいえ。
この入力にポートを使用しない場合は、[フィールド設定] タブで [トレーニングtfrecordへのoss path] パラメーターを設定する必要があります。
評価のためのTFRecords
OSS
いいえ。
この入力にポートを使用しない場合は、[フィールド設定] タブで [oss path to evaluation tfrecord] パラメーターを設定する必要があります。
yolov5クラス一覧ファイル
OSS
いいえ。
この入力にポートを使用しない場合は、[フィールド設定] タブで [クラスリストファイルのoss path] パラメーターを設定する必要があります。
コンポーネントパラメータ
タブ
パラメーター
必須
説明
デフォルト値
フィールド設定
モデルタイプ
可
トレーニングするモデルのタイプ。 有効な値:
FCOS
YOLOX
YOLOX
oss dir to save model
不可
トレーニング済みモデルを保存するOSSパス。 例:
examplebucket.oss-cn-shanghai-internal.aliyuncs.com/test/ckpt/
。 このパラメーターを空のままにすると、ワークスペースのデフォルトパスが使用されます。N/A
ossアノテーションパスfor training set
不可
データ形式をDetSourcePAIに設定した場合は、マニフェスト形式。
データ形式をCOCOに設定した場合は、json形式。
入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方を設定した場合、トレーニングタスクは入力ポートによって提供された値を使用します。
N/A
ossアノテーションパスfor validation set
不可
データ形式をDetSourcePAIに設定した場合は、マニフェスト形式。
データ形式をCOCOに設定した場合は、json形式。
入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方が設定されている場合、トレーニングタスクは入力ポートによって提供された値を使用します。
N/A
クラス一覧ファイルのossパス
不可
タグのリストを含むファイルを指定します。txt形式。
入力ポートを設定した場合は、このパラメーターを空のままにすることができます。 入力ポートとこのパラメーターの両方を設定した場合、トレーニングタスクは入力ポートによって提供された値を使用します。
N/A
事前トレーニング済みモデルへのoss path to pretrained model
不可
事前トレーニング済みモデルが保存されているObject Storage Service (OSS) パス。 事前トレーニング済みモデルがある場合は、このパラメーターを事前トレーニング済みモデルのOSSパスに設定します。 このパラメーターを空のままにすると、PAIが提供するデフォルトの事前トレーニング済みモデルが使用されます。
N/A
oss path to training tfrecord
可
トレーニングデータのパス。 このパラメーターは、データソースをCOCOに設定した場合にのみ必要です。
N/A
oss path to evaluation tfrecord
可
評価データのパス。 このパラメーターは、データソースをCOCOに設定した場合にのみ必要です。
データ形式
可
イベントのスコープ。 有効な値:
COCO
DetSourcePAI
DetSourcePAI
パラメーター設定
YOLOXモデル構造
可
このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。 ドロップダウンリストから、使用するモデルタイプを選択します。
yolox-s
yolox-m
yolox-l
yolox-x
yolo-s
numクラス
可
データセット内のカテゴリの数。
20
イメージスケール
可
サイズ変更後の画像のサイズ。 高さと幅をスペースで区切ります。 例: 320 320。
320 320
オプティマイザ
可
このパラメーターは、model typeパラメーターをYOLOXに設定した場合にのみ必要です。
モデルトレーニングの最適化方法。 有効な値:
momentum
adam
momentum
初期学習率
可
初期学習率。
0.01
バッチサイズ
可
トレーニングバッチのサイズ。 このパラメータは、トレーニングプロセスおよび後続の反復トレーニングサイクル中に使用するサンプルの数を指定します。
8
evalバッチサイズ
可
評価バッチのサイズ。 このパラメータは、トレーニングプロセスおよび後続の反復トレーニングサイクル中に使用するサンプルの数を指定します。
8
numエポック
可
トレーニングエポックの総数。
説明モデルタイプをYOLOXに設定した場合、エポックの総数は、ウォームアップエポックと安定した学習率を持つエポックの合計よりも大きくなければなりません。 安定した学習レートを有するエポックは、最後の拡張されないエポックパラメータによって指定される。
20
損失周波数
不可
損失値の印刷頻度。 デフォルト値は200です。これは、損失値が200バッチごとに印刷されることを示します。
検証周波数
不可
デフォルト値は2で、3つのエポックごとに検証が実行されることを示します。
ウォームアップエポック
不可
このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。
5
last no augmented lr epochs
不可
このパラメーターは、モデルタイプをYOLOXに設定した場合にのみ必要です。
5
タイプのエクスポートモデル
可
モデルがエクスポートされる形式。 有効な値:
raw
jit
raw
チェックポイントエポックを保存
不可
チェックポイントが保存される頻度。 値1は、すべてのデータが反復のために1回保存されることを示します。
1
チューニング
gpuマシンタイプ
可
このアルゴリズムのGPU仕様を指定する必要があります。
4
evtorchモデルfp16
不可
モデルトレーニング中のメモリ使用量を減らすためにFP16を有効にするかどうかを指定します。
false
単一のワーカーまたはMaxComputeまたはDLCに分散
可
distribute_on_dlcのみが利用可能です。
distribute_on_dlc
出力ポート
出力ポート (左から右)
データ型
下流コンポーネント
出力モデル
出力モデルが保存されるOSSパス。 この値は、[フィールド設定] タブで [oss dir to save model] パラメーターに指定した値と同じです。 SavedModel形式の出力モデルは、このOSSパスに格納されます。
例
次の図は、オブジェクト検出 (easycv) コンポーネントが使用されるサンプルパイプラインを示しています。
この例では、次の手順を実行してコンポーネントを設定します。
PAIが提供するiTAGを使用して画像にラベルを付ける。 詳細については、「プロセスラベル付けジョブ」をご参照ください。
ラベリング結果ファイルxxx.manifestを読み取るように、[ファイルデータの読み取り] コンポーネントを設定します。 この場合、Read File Data-1コンポーネントのOSS Data Pathパラメーターを、ラベリング結果ファイルが保存されているOSSパスに設定する必要があります。 例:
oss:// examplebucket.oss-cn-shanghai.aliyuncs.com/ev_demo/xxx.manifest
トレーニングデータと評価データをオブジェクト検出 (easycv) コンポーネントにインポートし、コンポーネントパラメータを設定します。 詳細については、「Machine Learning Designerでのコンポーネントの設定」をご参照ください。
オフライン推論を実行するように画像予測-1コンポーネントを設定します。 詳細については、「画像予測」をご参照ください。
Machine Learning Designerは、イメージオブジェクト検出テンプレートを提供します。 パイプラインを作成し、オブジェクト検出 (easycv) コンポーネントに慣れるには、[プリセットテンプレート] タブに移動し、[CV] > [画像オブジェクト検出] を選択します。 詳細については、「プリセットテンプレートからのパイプラインの作成」をご参照ください。
関連ドキュメント
オブジェクト検出モデルをトレーニングした後、オブジェクト検出 (easycv) コンポーネントの下流コンポーネントとして一般的な画像予測コンポーネントを追加して、モデルで予測を実行できます。 詳細については、「画像予測」をご参照ください。
Machine Learning Designerコンポーネントの詳細については、「Machine Learning Designerの概要」をご参照ください。
Machine Learning Designerは、さまざまなプリセットアルゴリズムコンポーネントを提供します。 さまざまなシナリオに基づいて、データ処理用のコンポーネントを選択できます。 詳細については、「コンポーネントリファレンス: すべてのコンポーネントの概要」をご参照ください。