すべてのプロダクト
Search
ドキュメントセンター

Data Transmission Service:ApsaraDB for MongoDBシャードクラスターインスタンスのデータをFunction Compute関数に同期する

最終更新日:Oct 22, 2024

Data Transmission Service (DTS) を使用して、ApsaraDB for MongoDBシャードクラスターインスタンスの増分データをFunction Compute関数に同期できます。 関数に同期されたデータをさらに処理する関数コードを記述できます。

前提条件

  • ソースApsaraDB for MongoDBシャードクラスターインスタンスが作成されました。 詳細については、「シャードクラスターインスタンスの作成」をご参照ください。

  • 宛先サービスと関数が作成され、Handler Typeパラメーターが関数のEvent Handlerに設定されます。 関数の作成方法の詳細については、「関数の迅速な作成」をご参照ください。

制限事項

カテゴリ

説明

ソースデータベースの制限

  • 帯域幅の要件: ソースデータベースがデプロイされるサーバーには、十分なアウトバウンド帯域幅が必要です。 そうしないと、データ同期速度が影響を受けます。

  • 同期するコレクションには、PRIMARY KEYまたはUNIQUE制約が必要で、すべてのフィールドが一意である必要があります。 そうでない場合、宛先データベースは重複するデータレコードを含み得る。

  • ソースデータベースの1つのデータエントリのサイズは、16 MBを超えることはできません。 それ以外の場合、DTSは宛先関数にデータを書き込むことができず、エラーが報告されます。 すべてのフィールドを同期したくない場合は、抽出、変換、および読み込み (ETL) 機能を使用して、大きなフィールドでデータをフィルタリングできます。

  • 同期するオブジェクトがコレクションの場合、1つのデータ同期タスクで最大1,000個のコレクションを同期できます。 タスクを実行して1,000を超えるコレクションを同期すると、リクエストエラーが発生します。 この場合、複数のタスクを構成してコレクションをバッチで同期するか、タスクを構成してデータベース全体を同期することをお勧めします。

  • 操作ログ機能を有効にする必要があります。

    説明

    ソースデータベースの操作ログは、少なくとも7日間保持する必要があります。 そうしないと、DTSは操作ログの取得に失敗し、タスクが失敗したり、データの不整合やデータの損失が発生する可能性があります。 操作ログの保持期間は、上記の要件に基づいて設定してください。 それ以外の場合、DTSのサービスレベル契約 (SLA) はサービスの信頼性またはパフォーマンスを保証しません。

  • データ同期タスク中、ソースApsaraDB for MongoDBシャードクラスターインスタンスはスケーリングできません。 それ以外の場合、タスクは失敗します。

  • ソースApsaraDB for MongoDBシャードクラスターインスタンスのMongosノードの数は10を超えることはできません。

  • ソースデータベースがシャードクラスターアーキテクチャを使用する自己管理型MongoDBデータベースである場合、アクセス方法パラメーターをExpress Connect、VPN Gateway、または Smart Access GatewayまたはCloud Enterprise Network (CEN) に設定します。

その他の制限

  • DTSは、adminまたはローカルデータベースのデータを同期できません。

  • 完全なデータ同期はサポートされていません。

  • クロスリージョン同期はサポートされていません。

  • マッピング機能はサポートされていません。

  • データ同期中に、INSERTステートメントを実行して同期するデータにデータを挿入する場合、同期するデータにはシャードキーが含まれている必要があります。 UPDATEステートメントを実行して同期するデータを変更する場合、シャードキーは変更できません。

  • データを1つの関数に同期するために、DTSタスクを1つだけ設定することを推奨します。 そうしないと、宛先関数のデータにエラーが発生する可能性があります。

  • トランザクション情報は保持されません。 トランザクションが宛先データベースに同期されると、トランザクションは単一のレコードに変換されます。

課金

同期タイプ

タスク設定料金

増分データ同期

有料。 詳細については、「課金の概要」をご参照ください。

データ同期をサポートする操作

同期タイプ

説明

増分データ同期

DTSは、次の操作によって生成された増分データを同期します。

  • コレクションの作成とインデックスの作成

  • ドロップデータベース、ドロップコレクション、およびドロップインデックス

  • タイトルコレクション

  • コレクション内のドキュメントを挿入、更新、および削除するために実行される操作。

データベースアカウントに必要な権限

データベース

必要な権限

関連ドキュメント

ApsaraDB for MongoDBインスタンスのソース

ソース、管理者、およびローカルデータベースの読み取り権限。

MongoDBデータベースユーザーの権限の管理

手順

  1. [データ同期タスク] ページに移動します。

    1. にログインします。 DMSコンソールを使用します。

    2. 上部のナビゲーションバーで、ポインタを上に移動します。データ开発.

    3. 選択DTS (DTS) > データ同期.

    説明
  2. の右側にデータ同期タスク、データ同期インスタンスが存在するリージョンを選択します。

    説明

    新しいDTSコンソールを使用する場合は、上部のナビゲーションバーでデータ同期タスクを作成するリージョンを選択します。

  3. [タスクの作成] をクリックします。 タスクの作成ウィザードで、ソースデータベースとターゲットデータベースを設定します。

    セクション

    パラメーター

    説明

    非該当

    タスク名

    DTSタスクの名前。 タスク名は自動生成されます。 タスクを簡単に識別できるように、わかりやすい名前を指定することをお勧めします。 一意のタスク名を指定する必要はありません。

    移行元データベース

    既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)

    使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。

    • 既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。

    • 既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。

    データベースタイプ

    移行元ディスクのタイプを設定します。 MongoDB を選択します。

    アクセス方法

    ソースデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。

    インスタンスのリージョン

    ソースApsaraDB for MongoDBインスタンスが存在するリージョン。

    Alibaba Cloud アカウント間でデータを複製

    Alibaba Cloudアカウント間でデータを同期するかどうかを指定します。 この例では、× が選択されています。

    アーキテクチャ

    ソースインスタンスがデプロイされるアーキテクチャ。 シャードクラスターを選択します。

    インスタンス ID

    ソースApsaraDB for MongoDBインスタンスのID。

    認証データベース

    ソースApsaraDB for MongoDBインスタンスのデータベースアカウントとパスワードを格納する認証データベースの名前。 以前に名前を変更しなかった場合、デフォルト値はadminです。

    データベースアカウント

    ソースApsaraDB for MongoDBインスタンスのデータベースアカウント。 必要な権限の詳細については、このトピックの「データベースアカウントに必要な権限」をご参照ください。

    データベースのパスワード

    データベースインスタンスへのアクセスに使用されるパスワード。

    Shardアカウント

    ソースApsaraDB for MongoDBインスタンスのシャードへのアクセスに使用されるアカウント。

    Shardパスワード

    ソースApsaraDB for MongoDBインスタンスのシャードアカウントのパスワード。

    移行先データベース

    既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)

    使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。

    • 既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。

    • 既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。

    データベースタイプ

    ターゲットデータベースのタイプ。 Function Compute (FC) を選択します。

    アクセス方法

    ターゲットデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。

    インスタンスのリージョン

    ターゲットデータベースが存在するリージョン。 デフォルトでは、値はソースデータベースのインスタンスのリージョンパラメーターと同じであり、変更することはできません。

    サービス

    宛先関数が属するサービスの名前。

    関数

    同期されたデータを受信する宛先関数。

    サービスのバージョンとエイリアス

    サービスのバージョンまたはエイリアス。 ビジネス要件に基づいてこのパラメーターを設定します。

    • デフォルトバージョン を選択した場合、サービスバージョン パラメーターの値は [最新] に固定されます。

    • バージョンの指定 を選択した場合、サービスバージョン パラメーターを設定する必要があります。

    • エイリアスの指定 を選択した場合、サービスのエイリアス パラメーターを設定する必要があります。

    説明

    Function Computeの利用規約の詳細については、「利用規約」をご参照ください。

  4. ページの下部で、接続性をテストして続行.

    ソースまたはターゲットデータベースがAlibaba Cloudデータベースインスタンス (ApsaraDB RDS for MySQLインスタンスやApsaraDB for MongoDBインスタンスなど) の場合、DTSは自動的にDTSサーバーのCIDRブロックをインスタンスのホワイトリストに追加します。 ソースデータベースまたはターゲットデータベースがElastic Compute Service (ECS) インスタンスでホストされている自己管理データベースの場合、DTSサーバーのCIDRブロックがECSインスタンスのセキュリティグループルールに自動的に追加されます。ECSインスタンスがデータベースにアクセスできることを確認する必要があります。 データベースが複数のECSインスタンスにデプロイされている場合、DTSサーバーのCIDRブロックを各ECSインスタンスのセキュリティグループルールに手動で追加する必要があります。 ソースデータベースまたはターゲットデータベースが、データセンターにデプロイされているか、サードパーティのクラウドサービスプロバイダーによって提供される自己管理データベースである場合、DTSサーバーのCIDRブロックをデータベースのホワイトリストに手動で追加して、DTSがデータベースにアクセスできるようにする必要があります。 詳細については、「DTSサーバーのCIDRブロックの追加」トピックの「DTSサーバーのCIDRブロック」セクションをご参照ください。

    警告

    DTSサーバーのCIDRブロックがデータベースまたはインスタンスのホワイトリスト、またはECSセキュリティグループルールに自動的または手動で追加されると、セキュリティリスクが発生する可能性があります。 したがって、DTSを使用してデータを同期する前に、潜在的なリスクを理解して認識し、次の対策を含む予防策を講じる必要があります。VPNゲートウェイ、またはSmart Access Gateway。

  5. 同期するオブジェクトと詳細設定を設定します。

    パラメーター

    説明

    同期タイプ

    デフォルトでは、増分データ同期が選択されており、値を変更することはできません。

    データ形式

    同期されたデータが宛先関数に格納される形式。 Canal Json形式のみがサポートされています。

    説明

    Canal JSON形式のパラメーターの詳細については、「Kafkaクラスターのデータ形式」トピックの「Canal Json」セクションをご参照ください。

    ソースオブジェクト

    ソースオブジェクト セクションから1つ以上のオブジェクトを選択し、向右アイコンをクリックして 選択中のオブジェクト セクションにオブジェクトを追加します。

    説明

    同期するオブジェクトとして、データベースまたはコレクションを選択できます。

    選択中のオブジェクト

    選択中のオブジェクト セクションで、同期するデータを確認します。

    説明

    選択したオブジェクトを削除するには、選択中のオブジェクト セクションで削除するオブジェクトを選択し、アイコンをクリックしzuoyiます。

  6. [次へ:詳細設定] をクリックして詳細設定を構成します。

    パラメーター

    説明

    タスクのスケジュールに使用する専用クラスターの選択

    デフォルトでは、DTSはタスクを共有クラスターにスケジュールします。 このパラメーターを設定する必要はありません。 データ同期タスクの安定性を向上させたい場合は、専用クラスターを購入してください。 詳細については、「DTS専用クラスターの概要」をご参照ください。

    アラートの設定

    データ同期タスクのアラートを設定するかどうかを指定します。 タスクが失敗するか、同期レイテンシが指定されたしきい値を超えると、アラート送信先は通知を受け取ります。 有効な値:

    失敗した接続の再試行時間

    失敗した接続のリトライ時間範囲。 データ同期タスクの開始後にソースデータベースまたはターゲットデータベースの接続に失敗した場合、DTSはその時間範囲内ですぐに接続を再試行します。 有効な値: 10 ~ 1440 単位は分です。 デフォルト値: 720 このパラメーターを30より大きい値に設定することを推奨します。 DTSが指定された時間範囲内にソースデータベースとターゲットデータベースに再接続すると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。

    説明
    • ソースまたはターゲットデータベースが同じである複数のデータ同期タスクに対して異なるリトライ時間範囲を指定した場合、最も短いリトライ時間範囲が優先されます。

    • DTSが接続を再試行すると、DTSインスタンスに対して課金されます。 業務要件に基づいて再試行時間範囲を指定することを推奨します。 ソースインスタンスとターゲットインスタンスがリリースされた後、できるだけ早くDTSインスタンスをリリースすることもできます。

    移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。

    その他の問題の再試行時間範囲。 たとえば、データ同期タスクの開始後にDDLまたはDML操作の実行に失敗した場合、DTSはその時間範囲内ですぐに操作を再試行します。 有効な値: 1 ~ 1440 単位は分です。 デフォルト値は 10 です。 このパラメーターを10より大きい値に設定することを推奨します。 指定された時間範囲内で失敗した操作が正常に実行されると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。

    重要

    移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。 パラメーターの値は、失敗した接続の再試行時間 パラメーターの値よりも小さくする必要があります。

    増分同期率を制限するかどうか

    増分データ同期のスロットリングを有効にするかどうかを指定します。 ビジネス要件に基づいて、増分データ同期のスロットリングを有効にできます。 スロットリングを設定するには、1 秒あたりの増分同期の行数 RPSおよび1 秒あたりの増分同期データ量 (MB) BPS パラメーターを設定する必要があります。 これにより、移行先データベースサーバーの負荷が軽減されます。

    環境タグ

    DTSインスタンスを識別するために使用される環境タグ。 ビジネス要件に基づいて環境タグを選択できます。 この例では、環境タグは追加されません。

    ETL の設定

    抽出、変換、および読み込み (ETL) 機能を有効にするかどうかを指定します。 詳細については、「」をご参照ください。ETLとは何ですか? 有効な値:

  7. タスク設定を保存し、事前チェックを実行します。

    • 関連するAPI操作を呼び出してDTSタスクを設定するときに指定するパラメーターを表示するには、ポインターを 次:タスク設定の保存と事前チェック に移動し、OpenAPI パラメーターのプレビュー をクリックします。

    • パラメーターを表示または表示する必要がない場合は、ページ下部の 次:タスク設定の保存と事前チェック をクリックします。

    説明
    • データ同期タスクを開始する前に、DTSは事前チェックを実行します。 データ同期タスクは、タスクが事前チェックに合格した後にのみ開始できます。

    • データ同期タスクが事前チェックに失敗した場合は、失敗した各項目の横にある [詳細の表示] をクリックします。 チェック結果に基づいて原因を分析した後、問題のトラブルシューティングを行います。 次に、プレチェックを再実行します。

    • 事前チェック中にアイテムに対してアラートがトリガーされた場合:

      • アラートアイテムを無視できない場合は、失敗したアイテムの横にある [詳細の表示] をクリックして、問題のトラブルシューティングを行います。 次に、もう一度プレチェックを実行します。

      • アラート項目を無視できる場合は、[アラート詳細の確認] をクリックします。 [詳細の表示] ダイアログボックスで、[無視] をクリックします。 表示されたメッセージボックスで、[OK] をクリックします。 次に、[再度事前チェック] をクリックして、事前チェックを再度実行します。 アラート項目を無視すると、データの不整合が発生し、ビジネスが潜在的なリスクにさらされる可能性があります。

  8. 成功率100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。

  9. 購入ページで、データ同期インスタンスの課金方法とインスタンスクラスのパラメーターを設定します。 下表にパラメーターを示します。

    セクション

    パラメーター

    説明

    新しいインスタンスクラス

    Billing Method

    • サブスクリプション: データ同期インスタンスの作成時にサブスクリプションの料金を支払います。 サブスクリプションの課金方法は、長期使用の場合、従量課金の課金方法よりも費用対効果が高くなります。

    • 従量課金: 従量課金インスタンスは1時間ごとに課金されます。 従量課金方法は、短期使用に適しています。 従量課金データ同期インスタンスが不要になった場合は、インスタンスをリリースしてコストを削減できます。

    リソースグループの設定

    データ同期インスタンスが属するリソースグループ。 デフォルト値: Default resource group 詳細については、「」をご参照ください。リソース管理とは

    インスタンスクラス

    DTSは、同期速度が異なるインスタンスクラスを提供します。 ビジネス要件に基づいてインスタンスクラスを選択できます。 詳細については、「データ同期仕様」をご参照ください。

    サブスクリプション期間

    サブスクリプションの課金方法を選択した場合は、サブスクリプション期間と作成するデータ同期インスタンスの数を指定します。 サブスクリプション期間は、1〜9か月、1年、2年、3年、または5年とすることができる。

    説明

    このパラメーターは、サブスクリプション の課金方法を選択した場合にのみ使用できます。

  10. 読み取りと選択データ伝送サービス (従量課金) サービス規約.

  11. [購入して開始] をクリックします。 表示されるダイアログボックスで、OK をクリックします。

    タスクリストでタスクの進行状況を確認できます。

  12. 成功率100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。

宛先関数が受信したデータの形式

宛先関数によって受信されるデータは、Object型である。 ソースデータベースの増分データは、Recordsフィールドに配列形式で格納されます。 配列内の各要素は、Object型のデータレコードを示します。 次の表に、Object型のデータレコードのフィールドを示します。

説明

宛先関数は、次の2種類のSQL操作を記録するデータを受け取ります。

  • DDL: データスキーマの変更に対する操作 (CreateIndex、CreateCollection、DropIndex、DropCollectionなど) 。

  • DML: INSERT、UPDATE、DELETEなどのデータ管理に関する操作。

パラメーター

カテゴリ

説明

isDdl

Boolean

操作がDDL操作かどうかを示します。 有効な値:

タイプ

String

SQL操作のタイプ。

  • DML操作の有効な値: DELETEUPDATE、およびINSERT

  • DDL操作の有効値: DDL

データベース

String

MongoDBデータベースの名前。

テーブル

String

MongoDBデータベース内のコレクションの名前。

pkNames

String

MongoDBデータベースのプライマリキーの名前。 値を _idに設定します。

es

Long

ソースデータベースで操作が実行された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。

説明

検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。

ts

Long

ターゲットデータベースで操作の実行が開始された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。

説明

検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。

データ

オブジェクト配列

Object型の要素を1つだけ含む配列。 要素のキーはdocで、要素の値はJSON文字列です。

説明

値をデシリアル化してデータレコードを取得します。

id

Int

操作のシリアル番号。

DDL操作と宛先関数によって受信されたデータの例

コレクションを作成するCreate a collection

SQL文

db.createCollection("testCollection")

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"create": "testCollection", "idIndex": {"v": 2, "key": {"_id": 1}, "name": "_id_"}}'
		}],
		'pkNames': ['_id'],
		'type': 'DDL',
		'es': 1694056437000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': True,
		'table': 'testCollection',
		'ts': 1694056437510
	}]
}

コレクションの削除

SQL文

db.testCollection.drop()

宛先関数で受信したデータ

{
'Records': [{
'data': [{
'doc': '{"drop": "testCollection"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056577000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': 'testCollection' 、'ts': 1694056577789
}]
} 

インデックスの作成

SQL文

db.testCollection.createIndex({name:1})

宛先関数で受信したデータ

{
'Records': [{
'data': [{
'doc': '{"createIndexes": "testCollection", "v": 2, "key": {"name": 1}, "name": "name_1"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056670000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': 'testCollection' 、'ts': 1694056670719
}]
} 

インデックスの削除

SQL文

db.testCollection.dropIndex({name:1})

宛先関数で受信したデータ

{
'Records': [{
'data': [{
'doc': '{"dropIndexes": "testCollection", "index": "name_1"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056817000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': '$cmd' 、'ts': 1694056818035
}]
} 

destination関数が受け取るDML操作とデータの例

データの挿入

SQL文

// Insert multiple data records at a time.
db.runCommand({insert: "user", documents: [{"name":"jack","age":20},{"name":"lili","age":20}]})

// Insert one data record at a time.
db.user.insert({"name":"jack","age":20})
db.user.insert({"name":"lili","age":20})

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "jack", "age": 20}'
		}],
		'pkNames': ['_id'],
		'type': 'INSERT',
		'es': 1694054783000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694054784427
	}, {
		'data': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "lili", "age": 20}'
		}],
		'pkNames': ['_id'],
		'type': 'INSERT',
		'es': 1694054783000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694054784428
	}]
}

データの更新

SQL文

db.user.update({"name":"jack" },{$ set:{"age":30}})

宛先関数で受信したデータ

{
'Records': [{
'data': [{
'doc': '{"$set": {"age": 30}}'
}],
'pkNames': ['_id'] 、'oldd: [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a ****"}}'
}],
'type': 'UPDATE' 、'es': 1694054989000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 偽、'table': 'user' 、'ts': 1694054990555
}]
} 

データの削除

SQL文

db.user.remove({"name":"jack"})

宛先関数で受信したデータ

{
'Records': [{
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a ****"}}'
}],
'pkNames': ['_id'] 、'type': 'DELETE' 、'es': 1694055452000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 偽、'table': 'user' 、'ts': 1694055452852
}]
}