このトピックでは、data Transmission Service (DTS) を使用して、ApsaraDB for MongoDBレプリカセットインスタンスの増分データをFunction Compute関数に同期する方法について説明します。 関数に同期されたデータをさらに処理する関数コードを記述できます。
前提条件
ソースApsaraDB for MongoDBレプリカセットインスタンスが作成されました。 詳細については、「レプリカセットインスタンスの作成」をご参照ください。
宛先サービスと関数が作成され、Handler Typeパラメーターが関数のEvent Handlerに設定されます。 関数の作成方法の詳細については、「関数の迅速な作成」をご参照ください。
使用上の注意
カテゴリ | 説明 |
ソースデータベースの制限 |
|
その他の制限 |
|
特別なケース | ソースデータベースが自己管理型MongoDBデータベースの場合、次の制限事項に注意してください。
説明 同期するオブジェクトとしてデータベース全体を選択した場合は、ハートビートテーブルを作成できます。 ハートビートテーブルは1秒ごとに更新されるか、データを受信します。 |
課金
同期タイプ | タスク設定料金 |
増分データ同期 | 有料。 詳細については、「課金の概要」をご参照ください。 |
データ同期をサポートする操作
同期タイプ | 説明 |
増分データ同期 | DTSは、次の操作によって生成された増分データを同期します。
|
データベースアカウントに必要な権限
データベース | 必要な権限 | 関連ドキュメント |
ソースMongoDBインスタンス | ソース、管理者、およびローカルデータベースに対する読み取り権限。 |
手順
[データ同期タスク] ページに移動します。
DMSコンソールにログインします。
上部のナビゲーションバーで、ポインタをデータ开発の上に移動します。
選択を選択します。
説明実際の動作は、DMSのモードおよびレイアウトに応じて変化し得る。 詳細については、「シンプルモード」および「DMSコンソールのレイアウトとスタイルのカスタマイズ」をご参照ください。
新しいDTSコンソールのデータ同期タスクページに行くこともできます。
データ同期タスクの右側で、データ同期インスタンスが存在するリージョンを選択します。
説明新しいDTSコンソールを使用する場合は、上部のナビゲーションバーでデータ同期タスクを作成するリージョンを選択します。
[タスクの作成] をクリックします。 [タスクの作成] ページで、ソースデータベースとターゲットデータベースを設定します。 次の表にパラメーターを示します。
セクション
パラメーター
説明
非該当
タスク名
DTSタスクの名前。 タスク名は自動生成されます。 タスクを簡単に識別できるように、わかりやすい名前を指定することをお勧めします。 一意のタスク名を指定する必要はありません。
移行元データベース
既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)
使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。
既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。
既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。
データベースタイプ
移行元ディスクのタイプを設定します。 MongoDB を選択します。
アクセス方法
ソースデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。
インスタンスのリージョン
ソースMongoDBインスタンスが存在するリージョン。
Alibaba Cloud アカウント間でデータを複製
Alibaba Cloudアカウント間でデータを同期するかどうかを指定します。 この例では、× が選択されています。
アーキテクチャ
ソースデータベースがデプロイされるアーキテクチャ。 レプリカセット を選択します。
インスタンス ID
ソースMongoDBインスタンスのID。
認証データベース
ソースApsaraDB for MongoDBインスタンスのデータベースアカウントとパスワードを格納する認証データベースの名前。 以前に認証データベースの名前を変更しなかった場合、デフォルト値はadminです。
データベースアカウント
ソースApsaraDB for MongoDBインスタンスのデータベースアカウント。 アカウントに必要な権限の詳細については、このトピックの「データベースアカウントに必要な権限」をご参照ください。
データベースのパスワード
データベースインスタンスへのアクセスに使用されるパスワード。
暗号化
ソースデータベースへの接続を暗号化するかどうかを指定します。 ビジネス要件に基づいて、非暗号化 または SSL 暗号化 を選択します。
説明このパラメーターは、ソースApsaraDB for MongoDBインスタンスがレプリカセットアーキテクチャにデプロイされている場合にのみ有効です。
ソースデータベースが自己管理型ApsaraDB for MongoDBレプリカセットインスタンスで、暗号化がSSL 暗号化に設定されている場合、認証機関 (CA) 証明書をアップロードして、ソースデータベースへの接続を確認できます。
移行先データベース
既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)
使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。
既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。
既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。
データベースタイプ
ターゲットデータベースのタイプ。 Function Compute (FC) を選択します。
アクセス方法
ターゲットデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。
インスタンスのリージョン
ターゲットデータベースが存在するリージョン。 デフォルトでは、値はソースデータベースのインスタンスのリージョンパラメーターと同じであり、変更することはできません。
サービス
宛先関数が属するサービスの名前。
関数
同期されたデータを受信する宛先関数。
サービスのバージョンとエイリアス
サービスのバージョンまたはエイリアス。 ビジネス要件に基づいてこのパラメーターを設定します。
デフォルトバージョン を選択した場合、サービスバージョン パラメーターの値は [最新] に固定されます。
バージョンの指定 を選択した場合、サービスバージョン パラメーターを設定する必要があります。
エイリアスの指定 を選択した場合、サービスのエイリアス パラメーターを設定する必要があります。
説明Function Computeの利用規約の詳細については、「利用規約」をご参照ください。
ページの下部で、接続性をテストして続行をクリックします。
ソースまたはターゲットデータベースがAlibaba Cloudデータベースインスタンス (ApsaraDB RDS for MySQLインスタンスやApsaraDB for MongoDBインスタンスなど) の場合、DTSは自動的にDTSサーバーのCIDRブロックをインスタンスのホワイトリストに追加します。 ソースデータベースまたはターゲットデータベースがElastic Compute Service (ECS) インスタンスでホストされている自己管理データベースの場合、DTSサーバーのCIDRブロックがECSインスタンスのセキュリティグループルールに自動的に追加されます。ECSインスタンスがデータベースにアクセスできることを確認する必要があります。 データベースが複数のECSインスタンスにデプロイされている場合、DTSサーバーのCIDRブロックを各ECSインスタンスのセキュリティグループルールに手動で追加する必要があります。 ソースデータベースまたはターゲットデータベースが、データセンターにデプロイされているか、サードパーティのクラウドサービスプロバイダーによって提供される自己管理データベースである場合、DTSサーバーのCIDRブロックをデータベースのホワイトリストに手動で追加して、DTSがデータベースにアクセスできるようにする必要があります。 詳細については、「DTSサーバーのCIDRブロックの追加」トピックの「DTSサーバーのCIDRブロック」セクションをご参照ください。
警告DTSサーバーのCIDRブロックがデータベースまたはインスタンスのホワイトリスト、またはECSセキュリティグループルールに自動的または手動で追加されると、セキュリティリスクが発生する可能性があります。 したがって、DTSを使用してデータを同期する前に、潜在的なリスクを理解して認識し、次の対策を含む予防策を講じる必要があります。VPNゲートウェイ、またはSmart Access Gateway。
同期するオブジェクトと詳細設定を設定します。
パラメーター
説明
同期タイプ
デフォルトでは、増分データ同期が選択されており、値を変更することはできません。
データ形式
宛先関数に同期されるデータが格納される形式。 Canal Json形式のみがサポートされています。
説明Canal JSON形式のパラメーターの詳細については、「Kafkaクラスターのデータ形式」トピックのCanal Jsonセクションをご参照ください。
ソースオブジェクト
ソースオブジェクト セクションから1つ以上のオブジェクトを選択し、アイコンをクリックして 選択中のオブジェクト セクションにオブジェクトを追加します。
説明同期するオブジェクトとしてデータベースまたはコレクションを選択します。
選択中のオブジェクト
選択中のオブジェクト セクションで、同期するデータを確認します。
説明選択したオブジェクトを削除するには、選択中のオブジェクト セクションで削除するオブジェクトを選択し、アイコンをクリックします。
[次へ:詳細設定] をクリックして詳細設定を構成します。
パラメーター
説明
タスクのスケジュールに使用する専用クラスターの選択
デフォルトでは、DTSはタスクを共有クラスターにスケジュールします。 このパラメーターを設定する必要はありません。 データ同期タスクの安定性を向上させたい場合は、専用クラスターを購入してください。 詳細については、「DTS専用クラスターの概要」をご参照ください。
アラートの設定
データ同期タスクのアラートを設定するかどうかを指定します。 タスクが失敗するか、同期レイテンシが指定されたしきい値を超えると、アラート送信先は通知を受け取ります。 有効な値:
No: アラートを有効にしません。
Yes: アラートを設定します。 この場合、アラートしきい値と アラート通知設定 詳細については、「モニタリングとアラートの設定」トピックの「DTSタスクを作成するときのモニタリングとアラートの設定」をご参照ください。
失敗した接続の再試行時間
失敗した接続のリトライ時間範囲。 データ同期タスクの開始後にソースデータベースまたはターゲットデータベースの接続に失敗した場合、DTSはその時間範囲内ですぐに接続を再試行します。 有効な値: 10 ~ 1440 単位は分です。 デフォルト値: 720 このパラメーターを30より大きい値に設定することを推奨します。 DTSが指定された時間範囲内にソースデータベースとターゲットデータベースに再接続すると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。
説明ソースまたはターゲットデータベースが同じである複数のデータ同期タスクに対して異なるリトライ時間範囲を指定した場合、最も短いリトライ時間範囲が優先されます。
DTSが接続を再試行すると、DTSインスタンスに対して課金されます。 業務要件に基づいて再試行時間範囲を指定することを推奨します。 ソースインスタンスとターゲットインスタンスがリリースされた後、できるだけ早くDTSインスタンスをリリースすることもできます。
移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。
その他の問題の再試行時間範囲。 たとえば、データ同期タスクの開始後にDDLまたはDML操作の実行に失敗した場合、DTSはその時間範囲内ですぐに操作を再試行します。 有効な値: 1 ~ 1440 単位は分です。 デフォルト値は 10 です。 このパラメーターを10より大きい値に設定することを推奨します。 指定された時間範囲内で失敗した操作が正常に実行されると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。
重要移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。 パラメーターの値は、失敗した接続の再試行時間 パラメーターの値よりも小さくする必要があります。
増分同期率を制限するかどうか
増分データ同期のスロットリングを有効にするかどうかを指定します。 ビジネス要件に基づいて、増分データ同期のスロットリングを有効にできます。 スロットリングを設定するには、1 秒あたりの増分同期の行数 RPSおよび1 秒あたりの増分同期データ量 (MB) BPS パラメーターを設定する必要があります。 これにより、移行先データベースサーバーの負荷が軽減されます。
環境タグ
DTSインスタンスを識別するために使用される環境タグ。 ビジネス要件に基づいて環境タグを選択できます。 この例では、このパラメーターを設定する必要はありません。
ETL の設定
抽出、変換、および読み込み (ETL) 機能を有効にするかどうかを指定します。 詳細については、「ETLとは何ですか? 」をご参照ください。有効な値:
Yes: ETL機能を設定します。 コードエディターでデータ処理ステートメントを入力できます。 詳細については、「データ移行またはデータ同期タスクでのETLの設定」をご参照ください。
No: ETL機能を設定しません。
タスク設定を保存し、事前チェックを実行します。
関連するAPI操作を呼び出してDTSタスクを設定するときに指定するパラメーターを表示するには、ポインターを 次:タスク設定の保存と事前チェック に移動し、OpenAPI パラメーターのプレビュー をクリックします。
パラメーターを表示または表示する必要がない場合は、ページ下部の 次:タスク設定の保存と事前チェック をクリックします。
説明データ同期タスクを開始する前に、DTSは事前チェックを実行します。 データ同期タスクは、タスクが事前チェックに合格した後にのみ開始できます。
データ同期タスクが事前チェックに失敗した場合は、失敗した各項目の横にある [詳細の表示] をクリックします。 チェック結果に基づいて原因を分析した後、問題のトラブルシューティングを行います。 次に、プレチェックを再実行します。
事前チェック中にアイテムに対してアラートがトリガーされた場合:
アラートアイテムを無視できない場合は、失敗したアイテムの横にある [詳細の表示] をクリックして、問題のトラブルシューティングを行います。 次に、もう一度プレチェックを実行します。
アラート項目を無視できる場合は、[アラート詳細の確認] をクリックします。 [詳細の表示] ダイアログボックスで、[無視] をクリックします。 表示されたメッセージボックスで、[OK] をクリックします。 次に、[再度事前チェック] をクリックして、事前チェックを再度実行します。 アラート項目を無視すると、データの不整合が発生し、ビジネスが潜在的なリスクにさらされる可能性があります。
成功率が100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。
購入ページで、データ同期インスタンスの課金方法とインスタンスクラスのパラメーターを設定します。 下表にパラメーターを示します。
セクション
パラメーター
説明
新しいインスタンスクラス
Billing Method
サブスクリプション: データ同期インスタンスの作成時にサブスクリプションの料金を支払います。 サブスクリプションの課金方法は、長期使用の場合、従量課金の課金方法よりも費用対効果が高くなります。
従量課金: 従量課金インスタンスは1時間ごとに課金されます。 従量課金方法は、短期使用に適しています。 従量課金データ同期インスタンスが不要になった場合は、インスタンスをリリースしてコストを削減できます。
リソースグループの設定
データ同期インスタンスが属するリソースグループ。 デフォルト値: Default resource group 詳細については、「リソース管理とは 」をご参照ください。
インスタンスクラス
DTSは、同期速度が異なるインスタンスクラスを提供します。 ビジネス要件に基づいてインスタンスクラスを選択できます。 詳細については、「データ同期インスタンスのインスタンスクラス」をご参照ください。
サブスクリプション期間
サブスクリプションの課金方法を選択した場合は、サブスクリプション期間と作成するデータ同期インスタンスの数を指定します。 サブスクリプション期間は、1〜9か月、1年、2年、3年、または5年とすることができる。
説明このパラメーターは、サブスクリプション の課金方法を選択した場合にのみ使用できます。
データ伝送サービス (従量課金) サービス規約を読んで選択します。
[購入して開始] をクリックします。 表示されるダイアログボックスで、OK をクリックします。
タスクリストでタスクの進行状況を確認できます。
成功率が100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。
次のステップ
同期する1つのデータエントリのサイズが16 MBを超えると、DTSタスクのエラーが報告されます。 同期するオブジェクトを変更したり、ETL機能を使用して大きなサイズのデータエントリを除外したりできます。 詳細については、「データ移行または同期タスクのETLの設定」トピックの「既存のデータ同期タスクのETL設定の変更」セクションおよび「同期するオブジェクトの変更」をご参照ください。
ビジネス要件に基づいて関数コードを作成します。 詳細については、「概要」をご参照ください。
宛先関数が受信したデータの形式
宛先関数によって受信されるデータは、Object型である。 ソースデータベースの増分データは、Recordsフィールドに配列形式で格納されます。 配列内の各要素は、Object型のデータレコードを示します。 次の表に、Object型のデータレコードのフィールドを示します。
宛先関数は、次の2種類のSQL操作を記録するデータを受け取ります。
DDL: データスキーマの変更に対する操作 (CreateIndex、CreateCollection、DropIndex、DropCollectionなど) 。
DML: INSERT、UPDATE、DELETEなどのデータ管理に関する操作。
パラメーター | カテゴリ | 説明 |
| Boolean | 操作がDDL操作かどうかを示します。 有効な値:
|
| String | SQL操作のタイプ。
|
| String | MongoDBデータベースの名前。 |
| String | MongoDBデータベース内のコレクションの名前。 |
| String | MongoDBデータベースのプライマリキーの名前。 値を _idに設定します。 |
| Long | ソースデータベースで操作が実行された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。 説明 検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。 |
| Long | ターゲットデータベースで操作の実行が開始された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。 説明 検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。 |
| オブジェクト配列 | Object型の要素を1つだけ含む配列。 要素のキーはdocで、要素の値はJSON文字列です。 説明 値をデシリアル化してデータレコードを取得します。 |
| Int | 操作のシリアル番号。 |
DDL操作と宛先関数によって受信されたデータの例
コレクションを作成するCreate a collection
SQL文
db.createCollection("testCollection")
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"create": "testCollection", "idIndex": {"v": 2, "key": {"_id": 1}, "name": "_id_"}}'
}],
'pkNames': ['_id'],
'type': 'DDL',
'es': 1694056437000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': True,
'table': 'testCollection',
'ts': 1694056437510
}]
}
コレクションの削除
SQL文
db.testCollection.drop()
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"drop": "testCollection"}'
}],
'pkNames': ['_id'],
'type': 'DDL',
'es': 1694056577000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': True,
'table': 'testCollection',
'ts': 1694056577789
}]
}
インデックスの作成
SQL文
db.testCollection.createIndex({name:1})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"createIndexes": "testCollection", "v": 2, "key": {"name": 1}, "name": "name_1"}'
}],
'pkNames': ['_id'],
'type': 'DDL',
'es': 1694056670000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': True,
'table': 'testCollection',
'ts': 1694056670719
}]
}
インデックスの削除
SQL文
db.testCollection.dropIndex({name:1})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"dropIndexes": "testCollection", "index": "name_1"}'
}],
'pkNames': ['_id'],
'type': 'DDL',
'es': 1694056817000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': True,
'table': '$cmd',
'ts': 1694056818035
}]
}
destination関数が受け取るDML操作とデータの例
データの挿入
SQL文
// Insert multiple data records at a time.
db.runCommand({insert: "user", documents: [{"name":"jack","age":20},{"name":"lili","age":20}]})
// Insert one data record at a time.
db.user.insert({"name":"jack","age":20})
db.user.insert({"name":"lili","age":20})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "jack", "age": 20}'
}],
'pkNames': ['_id'],
'type': 'INSERT',
'es': 1694054783000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694054784427
}, {
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "lili", "age": 20}'
}],
'pkNames': ['_id'],
'type': 'INSERT',
'es': 1694054783000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694054784428
}]
}
データの更新
SQL文
db.user.update({"name":"jack"},{$set:{"age":30}})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"$set": {"age": 30}}'
}],
'pkNames': ['_id'],
'old': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}}'
}],
'type': 'UPDATE',
'es': 1694054989000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694054990555
}]
}
データの削除
SQL文
db.user.remove({"name":"jack"})
宛先関数で受信したデータ
{
'Records': [{
'data': [{
'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}}'
}],
'pkNames': ['_id'],
'type': 'DELETE',
'es': 1694055452000,
'database': 'MongoDBTest',
'id': 0,
'isDdl': False,
'table': 'user',
'ts': 1694055452852
}]
}