Data Transmission Service (DTS) を使用して、ApsaraDB for MongoDBシャードクラスターインスタンスの増分データをFunction Compute関数に同期できます。 関数に同期されたデータをさらに処理する関数コードを記述できます。
前提条件
ソースApsaraDB for MongoDBシャードクラスターインスタンスが作成されました。 詳細については、「シャードクラスターインスタンスの作成」をご参照ください。
宛先サービスと関数が作成され、Handler Typeパラメーターが関数のEvent Handlerに設定されます。 関数の作成方法の詳細については、「関数の迅速な作成」をご参照ください。
制限事項
カテゴリ | 説明 |
ソースデータベースの制限 |
|
その他の制限 |
|
課金
同期タイプ | タスク設定料金 |
増分データ同期 | 有料。 詳細については、「課金の概要」をご参照ください。 |
データ同期をサポートする操作
同期タイプ | 説明 |
増分データ同期 | DTSは、次の操作によって生成された増分データを同期します。
|
データベースアカウントに必要な権限
データベース | 必要な権限 | 関連ドキュメント |
ApsaraDB for MongoDBインスタンスのソース | ソース、管理者、およびローカルデータベースの読み取り権限。 |
手順
[データ同期タスク] ページに移動します。
にログインします。 DMSコンソールを使用します。
上部のナビゲーションバーで、ポインタを上に移動します。データ开発.
選択 .
説明実際の動作は、DMSのモードおよびレイアウトに応じて変化し得る。 詳細については、「シンプルモード」および「DMSコンソールのレイアウトとスタイルのカスタマイズ」をご参照ください。
に行くこともできます 新しいDTSコンソールのデータ同期タスクページ。
の右側にデータ同期タスク、データ同期インスタンスが存在するリージョンを選択します。
説明新しいDTSコンソールを使用する場合は、上部のナビゲーションバーでデータ同期タスクを作成するリージョンを選択します。
[タスクの作成] をクリックします。 タスクの作成ウィザードで、ソースデータベースとターゲットデータベースを設定します。
セクション
パラメーター
説明
非該当
タスク名
DTSタスクの名前。 タスク名は自動生成されます。 タスクを簡単に識別できるように、わかりやすい名前を指定することをお勧めします。 一意のタスク名を指定する必要はありません。
移行元データベース
既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)
使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。
既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。
既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。
データベースタイプ
移行元ディスクのタイプを設定します。 MongoDB を選択します。
アクセス方法
ソースデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。
インスタンスのリージョン
ソースApsaraDB for MongoDBインスタンスが存在するリージョン。
Alibaba Cloud アカウント間でデータを複製
Alibaba Cloudアカウント間でデータを同期するかどうかを指定します。 この例では、× が選択されています。
アーキテクチャ
ソースインスタンスがデプロイされるアーキテクチャ。 シャードクラスターを選択します。
インスタンス ID
ソースApsaraDB for MongoDBインスタンスのID。
認証データベース
ソースApsaraDB for MongoDBインスタンスのデータベースアカウントとパスワードを格納する認証データベースの名前。 以前に名前を変更しなかった場合、デフォルト値はadminです。
データベースアカウント
ソースApsaraDB for MongoDBインスタンスのデータベースアカウント。 必要な権限の詳細については、このトピックの「データベースアカウントに必要な権限」をご参照ください。
データベースのパスワード
データベースインスタンスへのアクセスに使用されるパスワード。
Shardアカウント
ソースApsaraDB for MongoDBインスタンスのシャードへのアクセスに使用されるアカウント。
Shardパスワード
ソースApsaraDB for MongoDBインスタンスのシャードアカウントのパスワード。
移行先データベース
既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)
使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。
既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。
既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。
データベースタイプ
ターゲットデータベースのタイプ。 Function Compute (FC) を選択します。
アクセス方法
ターゲットデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。
インスタンスのリージョン
ターゲットデータベースが存在するリージョン。 デフォルトでは、値はソースデータベースのインスタンスのリージョンパラメーターと同じであり、変更することはできません。
サービス
宛先関数が属するサービスの名前。
関数
同期されたデータを受信する宛先関数。
サービスのバージョンとエイリアス
サービスのバージョンまたはエイリアス。 ビジネス要件に基づいてこのパラメーターを設定します。
デフォルトバージョン を選択した場合、サービスバージョン パラメーターの値は [最新] に固定されます。
バージョンの指定 を選択した場合、サービスバージョン パラメーターを設定する必要があります。
エイリアスの指定 を選択した場合、サービスのエイリアス パラメーターを設定する必要があります。
説明Function Computeの利用規約の詳細については、「利用規約」をご参照ください。
ページの下部で、接続性をテストして続行.
ソースまたはターゲットデータベースがAlibaba Cloudデータベースインスタンス (ApsaraDB RDS for MySQLインスタンスやApsaraDB for MongoDBインスタンスなど) の場合、DTSは自動的にDTSサーバーのCIDRブロックをインスタンスのホワイトリストに追加します。 ソースデータベースまたはターゲットデータベースがElastic Compute Service (ECS) インスタンスでホストされている自己管理データベースの場合、DTSサーバーのCIDRブロックがECSインスタンスのセキュリティグループルールに自動的に追加されます。ECSインスタンスがデータベースにアクセスできることを確認する必要があります。 データベースが複数のECSインスタンスにデプロイされている場合、DTSサーバーのCIDRブロックを各ECSインスタンスのセキュリティグループルールに手動で追加する必要があります。 ソースデータベースまたはターゲットデータベースが、データセンターにデプロイされているか、サードパーティのクラウドサービスプロバイダーによって提供される自己管理データベースである場合、DTSサーバーのCIDRブロックをデータベースのホワイトリストに手動で追加して、DTSがデータベースにアクセスできるようにする必要があります。 詳細については、「DTSサーバーのCIDRブロックの追加」トピックの「DTSサーバーのCIDRブロック」セクションをご参照ください。
警告DTSサーバーのCIDRブロックがデータベースまたはインスタンスのホワイトリスト、またはECSセキュリティグループルールに自動的または手動で追加されると、セキュリティリスクが発生する可能性があります。 したがって、DTSを使用してデータを同期する前に、潜在的なリスクを理解して認識し、次の対策を含む予防策を講じる必要があります。VPNゲートウェイ、またはSmart Access Gateway。
同期するオブジェクトと詳細設定を設定します。
パラメーター
説明
同期タイプ
デフォルトでは、増分データ同期が選択されており、値を変更することはできません。
データ形式
同期されたデータが宛先関数に格納される形式。 Canal Json形式のみがサポートされています。
説明Canal JSON形式のパラメーターの詳細については、「Kafkaクラスターのデータ形式」トピックの「Canal Json」セクションをご参照ください。
ソースオブジェクト
ソースオブジェクト セクションから1つ以上のオブジェクトを選択し、アイコンをクリックして 選択中のオブジェクト セクションにオブジェクトを追加します。
説明同期するオブジェクトとして、データベースまたはコレクションを選択できます。
選択中のオブジェクト
選択中のオブジェクト セクションで、同期するデータを確認します。
説明選択したオブジェクトを削除するには、選択中のオブジェクト セクションで削除するオブジェクトを選択し、アイコンをクリックします。
[次へ:詳細設定] をクリックして詳細設定を構成します。
パラメーター
説明
タスクのスケジュールに使用する専用クラスターの選択
デフォルトでは、DTSはタスクを共有クラスターにスケジュールします。 このパラメーターを設定する必要はありません。 データ同期タスクの安定性を向上させたい場合は、専用クラスターを購入してください。 詳細については、「DTS専用クラスターの概要」をご参照ください。
アラートの設定
データ同期タスクのアラートを設定するかどうかを指定します。 タスクが失敗するか、同期レイテンシが指定されたしきい値を超えると、アラート送信先は通知を受け取ります。 有効な値:
No: アラートを有効にしません。
Yes: アラートを設定します。 この場合、アラートしきい値と アラート通知設定 詳細については、「モニタリングとアラートの設定」トピックの「DTSタスクを作成するときのモニタリングとアラートの設定」をご参照ください。
失敗した接続の再試行時間
失敗した接続のリトライ時間範囲。 データ同期タスクの開始後にソースデータベースまたはターゲットデータベースの接続に失敗した場合、DTSはその時間範囲内ですぐに接続を再試行します。 有効な値: 10 ~ 1440 単位は分です。 デフォルト値: 720 このパラメーターを30より大きい値に設定することを推奨します。 DTSが指定された時間範囲内にソースデータベースとターゲットデータベースに再接続すると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。
説明ソースまたはターゲットデータベースが同じである複数のデータ同期タスクに対して異なるリトライ時間範囲を指定した場合、最も短いリトライ時間範囲が優先されます。
DTSが接続を再試行すると、DTSインスタンスに対して課金されます。 業務要件に基づいて再試行時間範囲を指定することを推奨します。 ソースインスタンスとターゲットインスタンスがリリースされた後、できるだけ早くDTSインスタンスをリリースすることもできます。
移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。
その他の問題の再試行時間範囲。 たとえば、データ同期タスクの開始後にDDLまたはDML操作の実行に失敗した場合、DTSはその時間範囲内ですぐに操作を再試行します。 有効な値: 1 ~ 1440 単位は分です。 デフォルト値は 10 です。 このパラメーターを10より大きい値に設定することを推奨します。 指定された時間範囲内で失敗した操作が正常に実行されると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。
重要移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。 パラメーターの値は、失敗した接続の再試行時間 パラメーターの値よりも小さくする必要があります。
増分同期率を制限するかどうか
増分データ同期のスロットリングを有効にするかどうかを指定します。 ビジネス要件に基づいて、増分データ同期のスロットリングを有効にできます。 スロットリングを設定するには、1 秒あたりの増分同期の行数 RPSおよび1 秒あたりの増分同期データ量 (MB) BPS パラメーターを設定する必要があります。 これにより、移行先データベースサーバーの負荷が軽減されます。
環境タグ
DTSインスタンスを識別するために使用される環境タグ。 ビジネス要件に基づいて環境タグを選択できます。 この例では、環境タグは追加されません。
ETL の設定
抽出、変換、および読み込み (ETL) 機能を有効にするかどうかを指定します。 詳細については、「」をご参照ください。ETLとは何ですか? 有効な値:
Yes: ETL機能を設定します。 コードエディターでデータ処理ステートメントを入力できます。 詳細については、「データ移行またはデータ同期タスクでのETLの設定」をご参照ください。
No: ETL機能を設定しません。
タスク設定を保存し、事前チェックを実行します。
関連するAPI操作を呼び出してDTSタスクを設定するときに指定するパラメーターを表示するには、ポインターを 次:タスク設定の保存と事前チェック に移動し、OpenAPI パラメーターのプレビュー をクリックします。
パラメーターを表示または表示する必要がない場合は、ページ下部の 次:タスク設定の保存と事前チェック をクリックします。
説明データ同期タスクを開始する前に、DTSは事前チェックを実行します。 データ同期タスクは、タスクが事前チェックに合格した後にのみ開始できます。
データ同期タスクが事前チェックに失敗した場合は、失敗した各項目の横にある [詳細の表示] をクリックします。 チェック結果に基づいて原因を分析した後、問題のトラブルシューティングを行います。 次に、プレチェックを再実行します。
事前チェック中にアイテムに対してアラートがトリガーされた場合:
アラートアイテムを無視できない場合は、失敗したアイテムの横にある [詳細の表示] をクリックして、問題のトラブルシューティングを行います。 次に、もう一度プレチェックを実行します。
アラート項目を無視できる場合は、[アラート詳細の確認] をクリックします。 [詳細の表示] ダイアログボックスで、[無視] をクリックします。 表示されたメッセージボックスで、[OK] をクリックします。 次に、[再度事前チェック] をクリックして、事前チェックを再度実行します。 アラート項目を無視すると、データの不整合が発生し、ビジネスが潜在的なリスクにさらされる可能性があります。
成功率が100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。
購入ページで、データ同期インスタンスの課金方法とインスタンスクラスのパラメーターを設定します。 下表にパラメーターを示します。
セクション
パラメーター
説明
新しいインスタンスクラス
Billing Method
サブスクリプション: データ同期インスタンスの作成時にサブスクリプションの料金を支払います。 サブスクリプションの課金方法は、長期使用の場合、従量課金の課金方法よりも費用対効果が高くなります。
従量課金: 従量課金インスタンスは1時間ごとに課金されます。 従量課金方法は、短期使用に適しています。 従量課金データ同期インスタンスが不要になった場合は、インスタンスをリリースしてコストを削減できます。
リソースグループの設定
データ同期インスタンスが属するリソースグループ。 デフォルト値: Default resource group 詳細については、「」をご参照ください。リソース管理とは
インスタンスクラス
DTSは、同期速度が異なるインスタンスクラスを提供します。 ビジネス要件に基づいてインスタンスクラスを選択できます。 詳細については、「データ同期仕様」をご参照ください。
サブスクリプション期間
サブスクリプションの課金方法を選択した場合は、サブスクリプション期間と作成するデータ同期インスタンスの数を指定します。 サブスクリプション期間は、1〜9か月、1年、2年、3年、または5年とすることができる。
説明このパラメーターは、サブスクリプション の課金方法を選択した場合にのみ使用できます。
読み取りと選択データ伝送サービス (従量課金) サービス規約.
[購入して開始] をクリックします。 表示されるダイアログボックスで、OK をクリックします。
タスクリストでタスクの進行状況を確認できます。
成功率が100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。
宛先関数が受信したデータの形式
宛先関数によって受信されるデータは、Object型である。 ソースデータベースの増分データは、Recordsフィールドに配列形式で格納されます。 配列内の各要素は、Object型のデータレコードを示します。 次の表に、Object型のデータレコードのフィールドを示します。
宛先関数は、次の2種類のSQL操作を記録するデータを受け取ります。
DDL: データスキーマの変更に対する操作 (CreateIndex、CreateCollection、DropIndex、DropCollectionなど) 。
DML: INSERT、UPDATE、DELETEなどのデータ管理に関する操作。
パラメーター | カテゴリ | 説明 |
| Boolean | 操作がDDL操作かどうかを示します。 有効な値:
|
| String | SQL操作のタイプ。
|
| String | MongoDBデータベースの名前。 |
| String | MongoDBデータベース内のコレクションの名前。 |
| String | MongoDBデータベースのプライマリキーの名前。 値を _idに設定します。 |
| Long | ソースデータベースで操作が実行された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。 説明 検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。 |
| Long | ターゲットデータベースで操作の実行が開始された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。 説明 検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。 |
| オブジェクト配列 | Object型の要素を1つだけ含む配列。 要素のキーはdocで、要素の値はJSON文字列です。 説明 値をデシリアル化してデータレコードを取得します。 |
| Int | 操作のシリアル番号。 |
DDL操作と宛先関数によって受信されたデータの例
コレクションを作成するCreate a collection
SQL文
db.createCollection("testCollection")
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"create": "testCollection", "idIndex": {"v": 2, "key": {"_id": 1}, "name": "_id_"}}'
}],
'pkNames': ['_id'],
'type': 'DDL',
'es': 1694056437000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': True,
'table': 'testCollection',
'ts': 1694056437510
}]
}
コレクションの削除
SQL文
db.testCollection.drop()
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"drop": "testCollection"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056577000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': 'testCollection' 、'ts': 1694056577789
}]
}
インデックスの作成
SQL文
db.testCollection.createIndex({name:1})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"createIndexes": "testCollection", "v": 2, "key": {"name": 1}, "name": "name_1"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056670000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': 'testCollection' 、'ts': 1694056670719
}]
}
インデックスの削除
SQL文
db.testCollection.dropIndex({name:1})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"dropIndexes": "testCollection", "index": "name_1"}'
}],
'pkNames': ['_id'] 、'type': 'DDL' 、'es': 1694056817000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 本当、'table': '$cmd' 、'ts': 1694056818035
}]
}
destination関数が受け取るDML操作とデータの例
データの挿入
SQL文
// Insert multiple data records at a time.
db.runCommand({insert: "user", documents: [{"name":"jack","age":20},{"name":"lili","age":20}]})
// Insert one data record at a time.
db.user.insert({"name":"jack","age":20})
db.user.insert({"name":"lili","age":20})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "jack", "age": 20}'
}],
'pkNames': ['_id'],
'type': 'INSERT',
'es': 1694054783000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694054784427
}, {
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "lili", "age": 20}'
}],
'pkNames': ['_id'],
'type': 'INSERT',
'es': 1694054783000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694054784428
}]
}
データの更新
SQL文
db.user.update({"name":"jack" },{$ set:{"age":30}})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"$set": {"age": 30}}'
}],
'pkNames': ['_id'] 、'oldd: [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a ****"}}'
}],
'type': 'UPDATE' 、'es': 1694054989000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 偽、'table': 'user' 、'ts': 1694054990555
}]
}
データの削除
SQL文
db.user.remove({"name":"jack"})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a ****"}}'
}],
'pkNames': ['_id'] 、'type': 'DELETE' 、'es': 1694055452000、「データベース」: 「MongoDBTest」、'id': 0、'isDdl': 偽、'table': 'user' 、'ts': 1694055452852
}]
}