すべてのプロダクト
Search
ドキュメントセンター

Data Transmission Service:ApsaraDB for MongoDBレプリカセットインスタンスからFunction Compute関数へのデータの同期

最終更新日:Oct 31, 2024

このトピックでは、data Transmission Service (DTS) を使用して、ApsaraDB for MongoDBレプリカセットインスタンスの増分データをFunction Compute関数に同期する方法について説明します。 関数に同期されたデータをさらに処理する関数コードを記述できます。

前提条件

  • ソースApsaraDB for MongoDBレプリカセットインスタンスが作成されました。 詳細については、「レプリカセットインスタンスの作成」をご参照ください。

  • 宛先サービスと関数が作成され、Handler Typeパラメーターが関数のEvent Handlerに設定されます。 関数の作成方法の詳細については、「関数の迅速な作成」をご参照ください。

使用上の注意

カテゴリ

説明

ソースデータベースの制限

  • 帯域幅の要件: ソースデータベースがデプロイされるサーバーには、十分なアウトバウンド帯域幅が必要です。 そうしないと、データ同期速度が影響を受けます。

  • 同期するコレクションには、PRIMARY KEYまたはUNIQUE制約が必要で、すべてのフィールドが一意である必要があります。 そうでない場合、宛先データベースは重複するデータレコードを含み得る。

  • ソースデータベースの1つのデータエントリのサイズは、16 MBを超えることはできません。 それ以外の場合、DTSは宛先関数にデータを書き込むことができず、エラーが報告されます。 すべてのフィールドを同期したくない場合は、抽出、変換、および読み込み (ETL) 機能を使用して、大きなフィールドでデータをフィルタリングできます。

  • 同期するオブジェクトがコレクションの場合、一度に最大1,000個のコレクションを同期できます。 タスクを実行して1,000を超えるコレクションを同期すると、リクエストエラーが発生します。 この場合、複数のタスクを構成してコレクションを同期するか、タスクを構成してデータベース全体を同期することをお勧めします。

  • 操作ログ機能を有効にする必要があります。

    説明

    増分データのみを同期する場合、ソースデータベースのoplogを24時間以上保存する必要があります。 完全データと増分データの両方を同期する場合、ソースデータベースのoplogは少なくとも7日間保存する必要があります。 そうしないと、DTSはoplogの取得に失敗する可能性があり、タスクが失敗したり、データの不整合やデータの損失が発生したりします。 完全なデータが同期された後、保持期間を24時間以上に設定できます。 上記の要件に基づいてoplogsの保持期間を設定してください。 そうしないと、DTSのサービスレベル契約 (SLA) に記載されているサービスの信頼性とパフォーマンスが保証されない場合があります。

その他の制限

  • DTSは、adminまたはローカルデータベースのデータを同期できません。

  • 完全なデータ同期はサポートされていません。

  • クロスリージョン同期はサポートされていません。

  • マッピング機能はサポートされていません。

  • データを1つの関数に同期するために、DTSタスクを1つだけ設定することを推奨します。 そうしないと、宛先関数のデータにエラーが発生する可能性があります。

  • トランザクション情報は保持されません。 トランザクションが宛先データベースに同期されると、トランザクションは単一のレコードに変換されます。

特別なケース

ソースデータベースが自己管理型MongoDBデータベースの場合、次の制限事項に注意してください。

  • データ同期タスクの実行中にソースデータベースでプライマリ /セカンダリの切り替えを実行すると、タスクは失敗します。

  • DTSは、同期先データベースの最新の同期データのタイムスタンプとソースデータベースの現在のタイムスタンプに基づいて同期レイテンシを計算します。 長期間にわたってソースデータベースに対して更新操作が実行されない場合、同期レイテンシが不正確になる可能性があります。 同期タスクのレイテンシが高すぎる場合は、ソースデータベースで更新操作を実行してレイテンシを更新できます。

説明

同期するオブジェクトとしてデータベース全体を選択した場合は、ハートビートテーブルを作成できます。 ハートビートテーブルは1秒ごとに更新されるか、データを受信します。

課金

同期タイプ

タスク設定料金

増分データ同期

有料。 詳細については、「課金の概要」をご参照ください。

データ同期をサポートする操作

同期タイプ

説明

増分データ同期

DTSは、次の操作によって生成された増分データを同期します。

  • コレクションの作成とインデックスの作成

  • ドロップデータベース、ドロップコレクション、およびドロップインデックス

  • タイトルコレクション

  • コレクションに対するドキュメントの挿入、更新、および削除操作

データベースアカウントに必要な権限

データベース

必要な権限

関連ドキュメント

ソースMongoDBインスタンス

ソース、管理者、およびローカルデータベースに対する読み取り権限。

MongoDBデータベースユーザーの権限の管理

手順

  1. [データ同期タスク] ページに移動します。

    1. DMSコンソールにログインします。

    2. 上部のナビゲーションバーで、ポインタをデータ开発上に移動します。

    3. 選択DTS (DTS) > データ同期を選択します。

    説明
  2. データ同期タスクの右側で、データ同期インスタンスが存在するリージョンを選択します。

    説明

    新しいDTSコンソールを使用する場合は、上部のナビゲーションバーでデータ同期タスクを作成するリージョンを選択します。

  3. [タスクの作成] をクリックします。 [タスクの作成] ページで、ソースデータベースとターゲットデータベースを設定します。 次の表にパラメーターを示します。

    セクション

    パラメーター

    説明

    非該当

    タスク名

    DTSタスクの名前。 タスク名は自動生成されます。 タスクを簡単に識別できるように、わかりやすい名前を指定することをお勧めします。 一意のタスク名を指定する必要はありません。

    移行元データベース

    既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)

    使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。

    • 既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。

    • 既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。

    データベースタイプ

    移行元ディスクのタイプを設定します。 MongoDB を選択します。

    アクセス方法

    ソースデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。

    インスタンスのリージョン

    ソースMongoDBインスタンスが存在するリージョン。

    Alibaba Cloud アカウント間でデータを複製

    Alibaba Cloudアカウント間でデータを同期するかどうかを指定します。 この例では、× が選択されています。

    アーキテクチャ

    ソースデータベースがデプロイされるアーキテクチャ。 レプリカセット を選択します。

    インスタンス ID

    ソースMongoDBインスタンスのID。

    認証データベース

    ソースApsaraDB for MongoDBインスタンスのデータベースアカウントとパスワードを格納する認証データベースの名前。 以前に認証データベースの名前を変更しなかった場合、デフォルト値はadminです。

    データベースアカウント

    ソースApsaraDB for MongoDBインスタンスのデータベースアカウント。 アカウントに必要な権限の詳細については、このトピックの「データベースアカウントに必要な権限」をご参照ください。

    データベースのパスワード

    データベースインスタンスへのアクセスに使用されるパスワード。

    暗号化

    ソースデータベースへの接続を暗号化するかどうかを指定します。 ビジネス要件に基づいて、非暗号化 または SSL 暗号化 を選択します。

    説明
    • このパラメーターは、ソースApsaraDB for MongoDBインスタンスがレプリカセットアーキテクチャにデプロイされている場合にのみ有効です。

    • ソースデータベースが自己管理型ApsaraDB for MongoDBレプリカセットインスタンスで、暗号化がSSL 暗号化に設定されている場合、認証機関 (CA) 証明書をアップロードして、ソースデータベースへの接続を確認できます。

    移行先データベース

    既存の DMS データベースインスタンスを選択します。(任意です。DMS データベースインスタンスが未登録の場合は、このオプションを無視して、以下のセクションでデータベース設定を行ってください。)

    使用するデータベースインスタンス。 ビジネス要件に基づいて、既存のインスタンスを使用するかどうかを選択できます。

    • 既存のインスタンスを選択すると、DTSはデータベースのパラメーターを自動的に入力します。

    • 既存のインスタンスを選択しない場合は、次のデータベース情報を設定する必要があります。

    データベースタイプ

    ターゲットデータベースのタイプ。 Function Compute (FC) を選択します。

    アクセス方法

    ターゲットデータベースのアクセス方法。 Alibaba Cloud インスタンス を選択します。

    インスタンスのリージョン

    ターゲットデータベースが存在するリージョン。 デフォルトでは、値はソースデータベースのインスタンスのリージョンパラメーターと同じであり、変更することはできません。

    サービス

    宛先関数が属するサービスの名前。

    関数

    同期されたデータを受信する宛先関数。

    サービスのバージョンとエイリアス

    サービスのバージョンまたはエイリアス。 ビジネス要件に基づいてこのパラメーターを設定します。

    • デフォルトバージョン を選択した場合、サービスバージョン パラメーターの値は [最新] に固定されます。

    • バージョンの指定 を選択した場合、サービスバージョン パラメーターを設定する必要があります。

    • エイリアスの指定 を選択した場合、サービスのエイリアス パラメーターを設定する必要があります。

    説明

    Function Computeの利用規約の詳細については、「利用規約」をご参照ください。

  4. ページの下部で、接続性をテストして続行をクリックします。

    ソースまたはターゲットデータベースがAlibaba Cloudデータベースインスタンス (ApsaraDB RDS for MySQLインスタンスやApsaraDB for MongoDBインスタンスなど) の場合、DTSは自動的にDTSサーバーのCIDRブロックをインスタンスのホワイトリストに追加します。 ソースデータベースまたはターゲットデータベースがElastic Compute Service (ECS) インスタンスでホストされている自己管理データベースの場合、DTSサーバーのCIDRブロックがECSインスタンスのセキュリティグループルールに自動的に追加されます。ECSインスタンスがデータベースにアクセスできることを確認する必要があります。 データベースが複数のECSインスタンスにデプロイされている場合、DTSサーバーのCIDRブロックを各ECSインスタンスのセキュリティグループルールに手動で追加する必要があります。 ソースデータベースまたはターゲットデータベースが、データセンターにデプロイされているか、サードパーティのクラウドサービスプロバイダーによって提供される自己管理データベースである場合、DTSサーバーのCIDRブロックをデータベースのホワイトリストに手動で追加して、DTSがデータベースにアクセスできるようにする必要があります。 詳細については、「DTSサーバーのCIDRブロックの追加」トピックの「DTSサーバーのCIDRブロック」セクションをご参照ください。

    警告

    DTSサーバーのCIDRブロックがデータベースまたはインスタンスのホワイトリスト、またはECSセキュリティグループルールに自動的または手動で追加されると、セキュリティリスクが発生する可能性があります。 したがって、DTSを使用してデータを同期する前に、潜在的なリスクを理解して認識し、次の対策を含む予防策を講じる必要があります。VPNゲートウェイ、またはSmart Access Gateway。

  5. 同期するオブジェクトと詳細設定を設定します。

    パラメーター

    説明

    同期タイプ

    デフォルトでは、増分データ同期が選択されており、値を変更することはできません。

    データ形式

    宛先関数に同期されるデータが格納される形式。 Canal Json形式のみがサポートされています。

    説明

    Canal JSON形式のパラメーターの詳細については、「Kafkaクラスターのデータ形式」トピックのCanal Jsonセクションをご参照ください。

    ソースオブジェクト

    ソースオブジェクト セクションから1つ以上のオブジェクトを選択し、向右アイコンをクリックして 選択中のオブジェクト セクションにオブジェクトを追加します。

    説明

    同期するオブジェクトとしてデータベースまたはコレクションを選択します。

    選択中のオブジェクト

    選択中のオブジェクト セクションで、同期するデータを確認します。

    説明

    選択したオブジェクトを削除するには、選択中のオブジェクト セクションで削除するオブジェクトを選択し、アイコンをクリックしzuoyiます。

  6. [次へ:詳細設定] をクリックして詳細設定を構成します。

    パラメーター

    説明

    タスクのスケジュールに使用する専用クラスターの選択

    デフォルトでは、DTSはタスクを共有クラスターにスケジュールします。 このパラメーターを設定する必要はありません。 データ同期タスクの安定性を向上させたい場合は、専用クラスターを購入してください。 詳細については、「DTS専用クラスターの概要」をご参照ください。

    アラートの設定

    データ同期タスクのアラートを設定するかどうかを指定します。 タスクが失敗するか、同期レイテンシが指定されたしきい値を超えると、アラート送信先は通知を受け取ります。 有効な値:

    失敗した接続の再試行時間

    失敗した接続のリトライ時間範囲。 データ同期タスクの開始後にソースデータベースまたはターゲットデータベースの接続に失敗した場合、DTSはその時間範囲内ですぐに接続を再試行します。 有効な値: 10 ~ 1440 単位は分です。 デフォルト値: 720 このパラメーターを30より大きい値に設定することを推奨します。 DTSが指定された時間範囲内にソースデータベースとターゲットデータベースに再接続すると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。

    説明
    • ソースまたはターゲットデータベースが同じである複数のデータ同期タスクに対して異なるリトライ時間範囲を指定した場合、最も短いリトライ時間範囲が優先されます。

    • DTSが接続を再試行すると、DTSインスタンスに対して課金されます。 業務要件に基づいて再試行時間範囲を指定することを推奨します。 ソースインスタンスとターゲットインスタンスがリリースされた後、できるだけ早くDTSインスタンスをリリースすることもできます。

    移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。

    その他の問題の再試行時間範囲。 たとえば、データ同期タスクの開始後にDDLまたはDML操作の実行に失敗した場合、DTSはその時間範囲内ですぐに操作を再試行します。 有効な値: 1 ~ 1440 単位は分です。 デフォルト値は 10 です。 このパラメーターを10より大きい値に設定することを推奨します。 指定された時間範囲内で失敗した操作が正常に実行されると、DTSはデータ同期タスクを再開します。 それ以外の場合、データ同期タスクは失敗します。

    重要

    移行元データベースと移行先データベースで他の問題が発生した場合の、再試行までの待機時間です。 パラメーターの値は、失敗した接続の再試行時間 パラメーターの値よりも小さくする必要があります。

    増分同期率を制限するかどうか

    増分データ同期のスロットリングを有効にするかどうかを指定します。 ビジネス要件に基づいて、増分データ同期のスロットリングを有効にできます。 スロットリングを設定するには、1 秒あたりの増分同期の行数 RPSおよび1 秒あたりの増分同期データ量 (MB) BPS パラメーターを設定する必要があります。 これにより、移行先データベースサーバーの負荷が軽減されます。

    環境タグ

    DTSインスタンスを識別するために使用される環境タグ。 ビジネス要件に基づいて環境タグを選択できます。 この例では、このパラメーターを設定する必要はありません。

    ETL の設定

    抽出、変換、および読み込み (ETL) 機能を有効にするかどうかを指定します。 詳細については、「ETLとは何ですか? 」をご参照ください。有効な値:

  7. タスク設定を保存し、事前チェックを実行します。

    • 関連するAPI操作を呼び出してDTSタスクを設定するときに指定するパラメーターを表示するには、ポインターを 次:タスク設定の保存と事前チェック に移動し、OpenAPI パラメーターのプレビュー をクリックします。

    • パラメーターを表示または表示する必要がない場合は、ページ下部の 次:タスク設定の保存と事前チェック をクリックします。

    説明
    • データ同期タスクを開始する前に、DTSは事前チェックを実行します。 データ同期タスクは、タスクが事前チェックに合格した後にのみ開始できます。

    • データ同期タスクが事前チェックに失敗した場合は、失敗した各項目の横にある [詳細の表示] をクリックします。 チェック結果に基づいて原因を分析した後、問題のトラブルシューティングを行います。 次に、プレチェックを再実行します。

    • 事前チェック中にアイテムに対してアラートがトリガーされた場合:

      • アラートアイテムを無視できない場合は、失敗したアイテムの横にある [詳細の表示] をクリックして、問題のトラブルシューティングを行います。 次に、もう一度プレチェックを実行します。

      • アラート項目を無視できる場合は、[アラート詳細の確認] をクリックします。 [詳細の表示] ダイアログボックスで、[無視] をクリックします。 表示されたメッセージボックスで、[OK] をクリックします。 次に、[再度事前チェック] をクリックして、事前チェックを再度実行します。 アラート項目を無視すると、データの不整合が発生し、ビジネスが潜在的なリスクにさらされる可能性があります。

  8. 成功率100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。

  9. 購入ページで、データ同期インスタンスの課金方法とインスタンスクラスのパラメーターを設定します。 下表にパラメーターを示します。

    セクション

    パラメーター

    説明

    新しいインスタンスクラス

    Billing Method

    • サブスクリプション: データ同期インスタンスの作成時にサブスクリプションの料金を支払います。 サブスクリプションの課金方法は、長期使用の場合、従量課金の課金方法よりも費用対効果が高くなります。

    • 従量課金: 従量課金インスタンスは1時間ごとに課金されます。 従量課金方法は、短期使用に適しています。 従量課金データ同期インスタンスが不要になった場合は、インスタンスをリリースしてコストを削減できます。

    リソースグループの設定

    データ同期インスタンスが属するリソースグループ。 デフォルト値: Default resource group 詳細については、「リソース管理とは 」をご参照ください。

    インスタンスクラス

    DTSは、同期速度が異なるインスタンスクラスを提供します。 ビジネス要件に基づいてインスタンスクラスを選択できます。 詳細については、「データ同期インスタンスのインスタンスクラス」をご参照ください。

    サブスクリプション期間

    サブスクリプションの課金方法を選択した場合は、サブスクリプション期間と作成するデータ同期インスタンスの数を指定します。 サブスクリプション期間は、1〜9か月、1年、2年、3年、または5年とすることができる。

    説明

    このパラメーターは、サブスクリプション の課金方法を選択した場合にのみ使用できます。

  10. データ伝送サービス (従量課金) サービス規約を読んで選択します。

  11. [購入して開始] をクリックします。 表示されるダイアログボックスで、OK をクリックします。

    タスクリストでタスクの進行状況を確認できます。

  12. 成功率100% になるまで待ちます。 次に、[次へ: インスタンスの購入] をクリックします。

次のステップ

  • 同期する1つのデータエントリのサイズが16 MBを超えると、DTSタスクのエラーが報告されます。 同期するオブジェクトを変更したり、ETL機能を使用して大きなサイズのデータエントリを除外したりできます。 詳細については、「データ移行または同期タスクのETLの設定」トピックの「既存のデータ同期タスクのETL設定の変更」セクションおよび「同期するオブジェクトの変更」をご参照ください。

  • ビジネス要件に基づいて関数コードを作成します。 詳細については、「概要」をご参照ください。

宛先関数が受信したデータの形式

宛先関数によって受信されるデータは、Object型である。 ソースデータベースの増分データは、Recordsフィールドに配列形式で格納されます。 配列内の各要素は、Object型のデータレコードを示します。 次の表に、Object型のデータレコードのフィールドを示します。

説明

宛先関数は、次の2種類のSQL操作を記録するデータを受け取ります。

  • DDL: データスキーマの変更に対する操作 (CreateIndex、CreateCollection、DropIndex、DropCollectionなど) 。

  • DML: INSERT、UPDATE、DELETEなどのデータ管理に関する操作。

パラメーター

カテゴリ

説明

isDdl

Boolean

操作がDDL操作かどうかを示します。 有効な値:

タイプ

String

SQL操作のタイプ。

  • DML操作の有効な値: DELETEUPDATE、およびINSERT

  • DDL操作の有効値: DDL

データベース

String

MongoDBデータベースの名前。

テーブル

String

MongoDBデータベース内のコレクションの名前。

pkNames

String

MongoDBデータベースのプライマリキーの名前。 値を _idに設定します。

es

Long

ソースデータベースで操作が実行された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。

説明

検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。

ts

Long

ターゲットデータベースで操作の実行が開始された時刻。 値は13ビットのUNIXタイムスタンプです。 単位:ミリ秒。

説明

検索エンジンを使用して、UNIXタイムスタンプコンバーターを取得できます。

データ

オブジェクト配列

Object型の要素を1つだけ含む配列。 要素のキーはdocで、要素の値はJSON文字列です。

説明

値をデシリアル化してデータレコードを取得します。

id

Int

操作のシリアル番号。

DDL操作と宛先関数によって受信されたデータの例

コレクションを作成するCreate a collection

SQL文

db.createCollection("testCollection")

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"create": "testCollection", "idIndex": {"v": 2, "key": {"_id": 1}, "name": "_id_"}}'
		}],
		'pkNames': ['_id'],
		'type': 'DDL',
		'es': 1694056437000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': True,
		'table': 'testCollection',
		'ts': 1694056437510
	}]
}

コレクションの削除

SQL文

db.testCollection.drop()

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"drop": "testCollection"}'
		}],
		'pkNames': ['_id'],
		'type': 'DDL',
		'es': 1694056577000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': True,
		'table': 'testCollection',
		'ts': 1694056577789
	}]
}

インデックスの作成

SQL文

db.testCollection.createIndex({name:1})

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"createIndexes": "testCollection", "v": 2, "key": {"name": 1}, "name": "name_1"}'
		}],
		'pkNames': ['_id'],
		'type': 'DDL',
		'es': 1694056670000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': True,
		'table': 'testCollection',
		'ts': 1694056670719
	}]
}

インデックスの削除

SQL文

db.testCollection.dropIndex({name:1})

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"dropIndexes": "testCollection", "index": "name_1"}'
		}],
		'pkNames': ['_id'],
		'type': 'DDL',
		'es': 1694056817000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': True,
		'table': '$cmd',
		'ts': 1694056818035
	}]
}

destination関数が受け取るDML操作とデータの例

データの挿入

SQL文

// Insert multiple data records at a time.
db.runCommand({insert: "user", documents: [{"name":"jack","age":20},{"name":"lili","age":20}]})

// Insert one data record at a time.
db.user.insert({"name":"jack","age":20})
db.user.insert({"name":"lili","age":20})

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "jack", "age": 20}'
		}],
		'pkNames': ['_id'],
		'type': 'INSERT',
		'es': 1694054783000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694054784427
	}, {
		'data': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}, "name": "lili", "age": 20}'
		}],
		'pkNames': ['_id'],
		'type': 'INSERT',
		'es': 1694054783000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694054784428
	}]
}

データの更新

SQL文

db.user.update({"name":"jack"},{$set:{"age":30}}) 

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"$set": {"age": 30}}'
		}],
		'pkNames': ['_id'],
		'old': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}}'
		}],
		'type': 'UPDATE',
		'es': 1694054989000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694054990555
	}]
}

データの削除

SQL文

db.user.remove({"name":"jack"})

宛先関数で受信したデータ

{
	'Records': [{
		'data': [{
			'doc': '{"_id": {"$oid": "64f9397f6e255f74d65a****"}}'
		}],
		'pkNames': ['_id'],
		'type': 'DELETE',
		'es': 1694055452000,
		'database': 'MongoDBTest',
		'id': 0,
		'isDdl': False,
		'table': 'user',
		'ts': 1694055452852
	}]
}