すべてのプロダクト
Search
ドキュメントセンター

Tablestore:Data Integration

最終更新日:Sep 06, 2025

ビジネスで、高並列の読み書きパフォーマンス、高スケーラビリティ、高可用性、複雑な取得、ビッグデータ分析などのデータベース機能が必要な場合に、既存のデータベースのアーキテクチャがビジネス要件を満たせない、またはデータベース変換のコストが高い場合は、DataWorks Data Integration を使用して、既存のデータベースから Tablestore テーブルにデータを移行できます。 また、DataWorks Data Integration を使用して、インスタンスまたは Alibaba Cloud アカウント間で Tablestore テーブルのデータを移行したり、Tablestore データを Object Storage Service (OSS) または MaxCompute に移行したりすることもできます。 この方法で、Tablestore データをバックアップし、他のサービスで Tablestore データを使用できます。

シナリオ

DataWorks Data Integration は、安定性、効率性、スケーラビリティに優れたデータ同期プラットフォームです。 MySQL、Oracle、MaxCompute、Tablestore など、複数の異種データソース間のデータ移行と同期に適しています。

Tablestore では、DataWorks Data Integration を使用してデータベースデータを Tablestore に移行したり、インスタンスまたは Alibaba Cloud アカウント間で Tablestore データを移行したり、Tablestore データを OSS または MaxCompute に移行したりできます。

データベースデータを Tablestore に移行する

DataWorks は、異種データソース間で安定して効率的なデータ同期機能を提供します。さまざまなデータベースから Tablestore にデータを移行できます

説明

DataWorks でサポートされているデータソース、Reader プラグイン、Writer プラグインについては、「サポートされているデータソースの種類、Reader プラグイン、Writer プラグイン」をご参照ください。

インスタンスまたは Alibaba Cloud アカウント間で Tablestore データを移行または同期する

DataWorks で Tablestore 関連の Reader プラグインと Writer プラグインを構成して、Tablestore データテーブルまたは時系列テーブルのデータを同期できます次の表に、Tablestore 関連の Reader プラグインと Writer プラグインを示します。

プラグイン

説明

OTSReader

このプラグインは、Tablestore テーブルからデータを読み取るために使用されます。増分抽出を実行するために抽出するデータの範囲を指定できます。

OTSStreamReader

このプラグインは、Tablestore テーブルのデータをインクリメンタルモードでエクスポートするために使用されます。

OTSWriter

このプラグインは、Tablestore にデータを書き込むために使用されます。

Tablestore データを OSS または MaxCompute に移行する

ビジネスシナリオに基づいて、Tablestore データを OSS または MaxCompute に移行できます。

  • MaxCompute は、テラバイトまたはペタバイトのデータを高速で処理できるフルマネージドのデータウェアハウスサービスです。 MaxCompute を使用して Tablestore データをバックアップしたり、Tablestore データを MaxCompute に移行して MaxCompute で Tablestore データを使用したりできます。

  • OSS は、大量のデータを保存できる安全で費用対効果が高く、信頼性の高いサービスです。 OSS を使用して Tablestore データをバックアップしたり、Tablestore データを OSS に同期したり、OSS からローカルデバイスにオブジェクトをダウンロードしたりできます。

移行ソリューション

DataWorks Data Integration を使用して、Tablestore とさまざまなデータソース間でデータを移行できます。

  • データインポートソリューションを使用して、MySQL、Oracle、Kafka、HBase、MaxCompute などの以下の種類のデータを Tablestore に同期できます。 また、Tablestore データテーブルまたは時系列テーブル間でデータを同期することもできます。

  • データエクスポートソリューションを使用して、Tablestore から MaxCompute または OSS にデータを同期できます。

データをインポートする

次の表に、データインポートソリューションを示します。

ソリューション

説明

MySQL データを Tablestore に同期する

MySQL データベースのデータを Tablestore データテーブルのみに移行できます。

移行中は、MySQL の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

Oracle データを Tablestore に同期する

Oracle データベースのデータを Tablestore データテーブルのみに移行できます。

移行中は、Oracle の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

Kafka データを Tablestore に同期する

Kafka データを Tablestore データテーブルまたは時系列テーブルに移行できます。

重要
  • DataWorks Data Integration を使用して、Kafka データを Tablestore データテーブルのみに移行できます。 Kafka データを Tablestore 時系列テーブルに移行する場合は、Tablestore Sink Connector を使用します。詳細については、「時系列テーブルへのデータ同期」をご参照ください。

  • Tablestore は、ワイドテーブルモデル時系列モデルをサポートしています。 Kafka データを移行する前に、適切な Tablestore データモデルを選択する必要があります。

移行中は、Kafka の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

HBase データを Tablestore に同期する

HBase データベースのデータを Tablestore データテーブルのみに移行できます。

移行中は、HBase の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

MaxCompute データを Tablestore に同期する

MaxCompute データを Tablestore データテーブルのみに移行できます。

移行中は、MaxCompute の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

PolarDB-X 2.0 データを Tablestore に同期する

PolarDB-X 2.0 から Tablestore データテーブルのみにデータを移行できます。

移行中は、PolarDB-X 2.0 の Reader スクリプト構成と Tablestore の Writer スクリプト構成が使用されます。

Tablestore データテーブル間でデータを同期する

Tablestore データテーブルから別の Tablestore データテーブルのみにデータを移行できます。

移行中は、Tablestore の Reader スクリプト構成と Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、「Tablestore データソース」をご参照ください。 Tablestore の Reader スクリプト構成と Writer スクリプト構成を指定する場合は、Wide Column モデルのテーブルでデータの読み書きに使用される構成を参照してください。

Tablestore 時系列テーブル間でデータを同期する

Tablestore 時系列テーブルから別の Tablestore 時系列テーブルのみにデータを移行できます。

移行中は、Tablestore の Reader スクリプト構成と Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、「Tablestore データソース」をご参照ください。 Tablestore の Reader スクリプト構成と Writer スクリプト構成を指定する場合は、TimeSeries モデルのテーブルでデータの読み書きに使用される構成を参照してください。

データをエクスポートする

次の表に、データエクスポートソリューションを示します。

ソリューション

説明

Tablestore データを MaxCompute に同期する

MaxCompute を使用して Tablestore データをバックアップしたり、Tablestore データを MaxCompute に移行して MaxCompute で Tablestore データを使用したりできます。

移行中は、Tablestore の Reader スクリプト構成と MaxCompute の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

Tablestore データを OSS に同期する

Tablestore から OSS に同期されたオブジェクトをダウンロードし、Tablestore のデータのバックアップとして OSS に保存できます。

移行中は、Tablestore の Reader スクリプト構成と OSS の Writer スクリプト構成が使用されます。ソースとデスティネーションの構成については、以下で説明します。

前提条件

移行ソリューションを決定したら、以下の準備が整っていることを確認してください。

  • ソースと DataWorks 間、およびデスティネーションと DataWorks 間のネットワーク接続が確立されている。

  • ソースサービスで以下の操作が実行されている: バージョンの確認、アカウントの準備、必要な権限の構成、サービス固有の構成の実行。詳細については、ソースのドキュメントの構成要件をご参照ください。

  • デスティネーションサービスがアクティブ化され、必要なリソースが作成されている。詳細については、デスティネーションのドキュメントの構成要件をご参照ください。

使用上の注意

重要

問題が発生した場合は、チケットを送信

  • DataWorks Data Integration が特定のプロダクトバージョンのデータ移行をサポートしていることを確認してください。

  • デスティネーションのデータ型は、ソースのデータ型と一致する必要があります。一致しない場合、移行中にダーティデータが生成される可能性があります。

  • 移行ソリューションを決定したら、ソースとデスティネーションのドキュメントの制限と使用上の注意を必ず読んでください。

  • Kafka データを移行する前に、ビジネスシナリオに基づいてデータを保存する Tablestore データモデルを選択する必要があります。

構成プロセス

移行ソリューションを決定し、移行ソリューションに DataWorks Data Integration を使用してデータ移行を構成する方法について学習できます。

次の表に、構成手順を示します。

番号

手順

説明

1

ソースとターゲットデータソースを追加する

移行ソリューションに基づいて必要なデータソースを作成します。

  • Tablestore にデータを移行する場合、デスティネーションは Tablestore で、ソースは Tablestore または MySQL や MaxCompute などの他のサービスにすることができます。

  • Tablestore からデータを移行する場合、ソースは Tablestore で、デスティネーションは MaxCompute または OSS にすることができます。

2

コードレス UI を使用してバッチ同期タスクを構成する

DataWorks Data Integration は、コードレス UI とステップバイステップの手順を提供して、バッチ同期タスクの構成を支援します。コードレス UI は使いやすくなっていますが、提供される機能は限られています。

3

移行結果を確認する

移行ソリューションに基づいて、デスティネーションにインポートされたデータを表示します。

  • データインポート操作が完了したら、Tablestore コンソールでインポートされたデータを表示します。

  • データエクスポート操作が完了したら、MaxCompute または OSS コンソールでインポートされたデータを表示します。

データをインポートする

DataWorks Data Integration を使用すると、MySQL、Oracle、MaxCompute などのデータベースから Tablestore データテーブルにデータを同期できます。 また、アカウントまたはインスタンス間で Tablestore データを同期することもできます。例としては、あるデータテーブルから別のデータテーブルへのデータの同期

このセクションでは、コードレス UI で MaxCompute データを Tablestore データテーブルに同期する例を使用して、手順を説明します。

準備

続行する前に、以下の準備を完了してください。

重要

MaxCompute インスタンスと Tablestore インスタンスが異なるリージョンにある場合は、以下のように VPC ピアリング接続を作成して、リージョン間のネットワーク接続を確立します。

VPC ピアリング接続を作成してリージョン間のネットワーク接続を確立する

このセクションでは、DataWorks ワークスペースと MaxCompute インスタンスが中国 (杭州) リージョンにあり、Tablestore インスタンスが中国 (上海) リージョンにある例を使用します。

  1. Tablestore インスタンスに VPC をアタッチします。

    1. Tablestore コンソールにログインし、トップナビゲーションバーでリージョンを選択します。

    2. インスタンスエイリアスをクリックして、[インスタンス管理] ページを開きます。

    3. [ネットワーク管理] タブで、[VPC のアタッチ] をクリックします。 VPC と vSwitch を選択し、VPC の名前を入力して、[OK] をクリックします。

    4. VPC がアタッチされるまで待ちます。その後、ページが自動的に更新されます。アタッチされた [VPC ID][VPC エンドポイント] を VPC リストで表示できます。

      説明

      後で DataWorks コンソールで Tablestore データソースを追加するときに、この VPC エンドポイントを使用します。

      image

  2. DataWorks ワークスペースリソースグループの VPC 情報を取得します。

    1. DataWorks コンソールにログインし、トップナビゲーションバーでワークスペースリージョンを選択し、左側のナビゲーションウィンドウで [ワークスペース] メニューをクリックして、[ワークスペースリスト] ページに移動します。

    2. ワークスペース名をクリックして、[ワークスペースの詳細] ページに移動します。左側のナビゲーションウィンドウで、[リソースグループ] をクリックして、ワークスペースにアタッチされているリソースグループのリストを表示します。

    3. ターゲットリソースグループの右側にある [ネットワーク設定] をクリックし、[リソーススケジューリングとデータ統合] 領域で、アタッチされた仮想プライベートクラウドの [VPC ID] を表示します。

  3. VPC ピアリング接続を作成し、ルートを構成します。

    1. VPC コンソールにログインします。左側のナビゲーションウィンドウで、[仮想プライベートクラウド] メニューをクリックします。 Tablestore インスタンスと DataWorks ワークスペースのリージョンを選択し、対応する各 VPC の CIDR ブロックを記録します。

      image

    2. 左側のナビゲーションウィンドウで、[VPC ピアリング接続] をクリックします。 [VPC ピアリング接続] ページで、[ピアリング接続の作成] をクリックします。

    3. [ピアリング接続の作成] ページで、ピアリング接続に名前を付け、リクエスト元 VPC、リクエスト先アカウントタイプ、リクエスト先リージョン、リクエスト先 VPC を選択し、[OK] をクリックします。

    4. [VPC ピアリング接続] ページで、作成した VPC ピアリング接続を見つけます。 [リクエスト元 VPC] 列と [リクエスト先 VPC] 列で、[ルートエントリの構成] をクリックします。

      宛先 CIDR ブロックは、ピア VPC の CIDR ブロックである必要があります。つまり、リクエスト元 VPC のルートを構成する場合は、リクエスト先 VPC の CIDR ブロックを入力します。リクエスト先 VPC のルートを構成する場合は、リクエスト元 VPC の CIDR ブロックを入力します。

ステップ 1: Tablestore データソースと MaxCompute データソースを追加する

このセクションでは、Tablestore データソースの作成を例として使用します。

説明

MaxCompute データソースを追加するには、[データソースの追加] ダイアログボックスで [MaxCompute] を検索して選択し、パラメータを構成します。

  1. データ統合ページに移動します。

    DataWorks コンソールにログインします。デスティネーションリージョンに切り替えた後、左側のナビゲーションウィンドウで [データ統合] > [データ統合] をクリックします。ドロップダウンリストで、対応するワークスペースを選択し、[データ統合に移動] をクリックします。

  2. 左側のナビゲーションウィンドウで、[データソース] をクリックします。

  3. [データソースリスト] ページで、[データソースの追加] をクリックできます。

  4. [データソースの追加] ダイアログボックスで、データソースタイプとして [Tablestore] を選択します。

  5. [OTS データソースの追加] ダイアログボックスで、以下の表に示すようにデータソースパラメータを設定します。

    パラメータ

    説明

    データソース名

    データソースの名前。名前に使用できるのは、文字、数字、アンダースコア (_) のみで、文字で始める必要があります。

    データソースの説明

    データソースの説明。説明は 80 文字以内にする必要があります。

    リージョン

    Tablestore インスタンスが配置されているリージョンを選択します。

    Table Store インスタンス名

    Tablestore インスタンスの名前。

    エンドポイント

    Tablestore インスタンスのエンドポイント。VPC アドレスを使用することをお勧めします。

    AccessKey ID

    Alibaba Cloud アカウントまたは Resource Access Management (RAM) ユーザーの AccessKey ID と AccessKey シークレット。

    AccessKey シークレット

  6. リソースグループの接続性をテストします。同期タスクがデータソースに接続できることを確認するために、データソースを作成するときにこのテストを実行する必要があります。そうしないと、データ同期タスクは正しく実行されません。

    1. [接続構成] セクションで、ターゲットリソースグループの [接続ステータス] 列にある [接続性のテスト] をクリックします。

    2. 接続テストに合格すると、[接続ステータス][接続済み] に変わります。 [完了] をクリックします。新しいデータソースがデータソースリストに表示されます。

      説明

      接続テストが失敗し、ステータスが [失敗] の場合は、[接続診断ツール] を使用して問題のトラブルシューティングを行うことができます。リソースグループがまだデータソースに接続できない場合は、するか、チケットを送信してください。

ステップ 2: コードレス UI を使用してバッチ同期タスクを構成する

DataStudio (旧バージョン)

1. タスクノードを作成する
  1. [データ開発] ページに移動します。

    1. DataWorks コンソールにログインします。

    2. トップナビゲーションバーで、リソースグループとリージョンを選択します。

    3. 左側のナビゲーションウィンドウで、[データ開発と O&M] > [データ開発] をクリックします。

    4. [データ開発] ページで、ドロップダウンリストからターゲットワークスペースを選択し、[データ開発に移動] ボタンをクリックします。

  2. DataStudio コンソールの [データ開発] ページで、[ビジネスフロー] ノードの下にあるターゲットビジネスフローをクリックします。

    詳細については、「ビジネスフローを作成する」をご参照ください。

  3. [データ統合] ノードを右クリックし、[新しいノード] > [オフライン同期] を選択します。

  4. [新しいノード] ダイアログボックスで、パスを選択し、名前を入力して、[確認] をクリックします。

    新しいオフライン同期ノードが [データ統合] ノードの下に表示されます。

2. 同期タスクを構成する
  1. [データ統合] ノードの下で、新しいオフライン同期タスクノードをダブルクリックします。

  2. ネットワークとリソースを構成します。

    同期タスクを実行するためのソース、デスティネーション、およびリソースグループを選択し、接続性をテストします。

    1. [ネットワークとリソースの構成] ステップで、[データソース][MaxCompute(ODPS)] に設定します。 [データソース名] には、新しい MaxCompute データソースを選択します。

    2. リソースグループを選択します。

      リソースグループを選択すると、リソースグループのリージョンや仕様などの情報が表示され、リソースグループと選択したデータソース間の接続性が自動的にテストされます。

      説明

      サーバーレスリソースグループは、同期タスクの CU 使用量の上限を指定することをサポートしています。同期タスクでリソース不足のために OOM エラーが発生した場合は、必要に応じてリソースグループの CU 使用量の値を調整してください。

    3. [データの宛先][Tablestore] に設定し、[データソース名] には、新しい Tablestore データソースを選択します。

      リソースグループと選択したデータソース間の接続性が自動的にテストされます。

    4. 接続テストが成功したら、[次へ] をクリックします。

  3. タスクを構成して保存します。

    1. [タスクの構成] ステップで、[データソースとデスティネーションの構成] 領域でデータソースとデスティネーションを構成できます。

      ソース

      パラメータ

      説明

      データソース

      前のステップで選択した MaxCompute データソースがデフォルトで表示されます。

      トンネルリソースグループ

      これはトンネルクォータです。デフォルトでは、「パブリック転送リソース」が選択されています。これは MaxCompute の無料クォータです。

      MaxCompute データ転送リソースの選択については、「データ統合用の専用リソースグループを購入して使用する」をご参照ください。

      説明

      支払い遅延または期限切れのために専用のトンネルクォータが使用できない場合、タスクは実行時に自動的に「パブリック転送リソース」に切り替わります。

      テーブル

      ソーステーブル。

      フィルター方法

      データ同期のフィルタリングロジック。以下の 2 つの方法がサポートされています。

      • [パーティションフィルター]: パーティションフィルター式を使用して、ソースデータの同期範囲をフィルターします。この方法を選択した場合は、[パーティション情報] パラメータと [パーティションが存在しない場合] パラメータも構成する必要があります。

      • [データフィルター]: SQL WHERE 句を使用してソースデータの同期範囲を指定します (WHERE キーワードは入力しないでください)。

      パーティション情報

      説明

      これは、[フィルター方法][パーティションフィルター] に設定されている場合に構成する必要があります。

      パーティションキー列の値を指定します。

      • 値は、ds=20220101 などの静的フィールドにすることができます。

      • 値は、ds=${bizdate} などのスケジューリングシステムパラメータにすることができます。タスクの実行時に、スケジューリングシステムパラメータが自動的に置き換えられます。

      パーティションが存在しない場合

      説明

      これは、[フィルター方法][パーティションフィルター] に設定されている場合に構成する必要があります。

      パーティションが存在しない場合の同期タスクの処理ポリシー。

      • [エラー]

      • [存在しないパーティションを無視、タスクは正常に実行]

      デスティネーション

      パラメータ

      説明

      データソース

      前のステップで選択した Tablestore データソースがデフォルトで表示されます。

      テーブル

      デスティネーションデータテーブル。

      プライマリキー情報

      デスティネーションデータテーブルのプライマリキー情報。

      書き込みモード

      Tablestore にデータを書き込むためのモード。以下の 2 つのモードがサポートされています。

      • PutRow: Tablestore API PutRow に対応します。指定した行にデータを挿入します。行が存在しない場合は、新しい行が追加されます。行が存在する場合は、既存の行が上書きされます。

      • UpdateRow: Tablestore API UpdateRow に対応します。指定した行のデータを更新します。行が存在しない場合は、新しい行が追加されます。行が存在する場合は、リクエストの内容に基づいて、その行の指定された列の値を追加、変更、または削除します。

    2. フィールドマッピングを構成します。

      データソースとデスティネーションを構成したら、[ソースフィールド][デスティネーションフィールド] の間のマッピングを指定する必要があります。タスクはこのマッピングを使用して、ソーステーブルフィールドからデスティネーションテーブルの対応するフィールドにデータを書き込みます。詳細については、「ステップ 4: フィールドマッピングを構成する」をご参照ください。

      重要
      • プライマリキーデータを読み取るには、[ソースフィールド] でプライマリキー情報を指定する必要があります。

      • デスティネーションテーブルの [プライマリキー情報] は前のステップで [データの宛先] で構成されているため、[デスティネーションフィールド] で再度構成することはできません。

      • フィールドのデータ型が INTEGER の場合は、INT として構成する必要があります。DataWorks はそれを自動的に INTEGER 型に変換します。型を INTEGER として構成すると、ログにエラーが報告され、タスクが失敗します。

    3. チャネルコントロールを構成します。

      チャネルを構成して、データ同期プロセスに関連するプロパティを制御できます。パラメータの詳細については、「オフライン同期の同時実行性とレート制限の関係」をご参照ください。

    4. image.png アイコンをクリックして構成を保存します。

3. 同期タスクを実行する
  1. 1680170333627-a1e19a43-4e2a-4340-9564-f53f2fa6806e アイコンをクリックします。

  2. [パラメータ] ダイアログボックスで、タスクを実行するリソースグループを選択します。

  3. [実行] をクリックします。

DataStudio (新バージョン)

1. タスクノードを作成する
  1. [データ開発] ページに移動します。

    1. DataWorks コンソールにログインします。

    2. トップナビゲーションバーで、リソースグループとリージョンを選択します。

    3. 左側のナビゲーションウィンドウで、[データ開発と O&M] > [データ開発] をクリックします。

    4. [データ開発] ページで、ドロップダウンリストからターゲットワークスペースを選択し、[DataStudio に移動] をクリックします。

  2. DataStudio コンソールの [データ開発] ページで、[プロジェクトディレクトリ] の右側にある image アイコンをクリックし、[新規ノード] > [Data Integration] > [オフライン同期] を選択します。

    説明

    [プロジェクトフォルダ] を初めて使用する場合は、[新しいノード] ボタンをクリックすることもできます。

  3. [新しいノード] ダイアログボックスで、パスを選択し、名前を入力して、[確認] をクリックします。

    新しいオフライン同期ノードが [プロジェクトフォルダ] に表示されます。

2. 同期タスクを構成する
  1. [プロジェクトディレクトリ] の下で、新しいオフライン同期タスクノードをクリックします。

  2. ネットワークとリソースを構成します。

    同期タスクを実行するためのソース、デスティネーション、およびリソースグループを選択し、接続性をテストします。

    1. [ネットワークとリソースの構成] ステップで、[データソース][MaxCompute(ODPS)] に設定します。 [データソース名] には、新しい MaxCompute データソースを選択します。

    2. リソースグループを選択します。

      リソースグループを選択すると、リソースグループのリージョンや仕様などの情報が表示され、リソースグループと選択したデータソース間の接続性が自動的にテストされます。

      説明

      サーバーレスリソースグループは、同期タスクの CU 使用量の上限を指定することをサポートしています。同期タスクでリソース不足のために OOM エラーが発生した場合は、必要に応じてリソースグループの CU 使用量の値を調整してください。

    3. [データの宛先][Tablestore] に設定し、[データソース名] には、新しい Tablestore データソースを選択します。

      リソースグループと選択したデータソース間の接続性が自動的にテストされます。

    4. 接続テストが成功したら、[次へ] をクリックします。

  3. タスクを構成して保存します。

    1. [タスクの構成] ステップで、[データソースとデスティネーションの構成] 領域でデータソースとデスティネーションを構成できます。

      ソース

      パラメータ

      説明

      データソース

      前のステップで選択した MaxCompute データソースがデフォルトで表示されます。

      トンネルリソースグループ

      これはトンネルクォータです。デフォルトでは、「パブリック転送リソース」が選択されています。これは MaxCompute の無料クォータです。

      MaxCompute データ転送リソースの選択については、「データ統合用の専用リソースグループを購入して使用する」をご参照ください。

      説明

      支払い遅延または期限切れのために専用のトンネルクォータが使用できない場合、タスクは実行時に自動的に「パブリック転送リソース」に切り替わります。

      テーブル

      ソーステーブル。

      フィルター方法

      データ同期のフィルタリングロジック。以下の 2 つの方法がサポートされています。

      • [パーティションフィルター]: パーティションフィルター式を使用して、ソースデータの同期範囲をフィルターします。この方法を選択した場合は、[パーティション情報] パラメータと [パーティションが存在しない場合] パラメータも構成する必要があります。

      • [データフィルター]: SQL WHERE 句を使用してソースデータの同期範囲を指定します (WHERE キーワードは入力しないでください)。

      パーティション情報

      説明

      これは、[フィルター方法][パーティションフィルター] に設定されている場合に構成する必要があります。

      パーティションキー列の値を指定します。

      • 値は、ds=20220101 などの静的フィールドにすることができます。

      • 値は、ds=${bizdate} などのスケジューリングシステムパラメータにすることができます。タスクの実行時に、スケジューリングシステムパラメータが自動的に置き換えられます。

      パーティションが存在しない場合

      説明

      これは、[フィルター方法][パーティションフィルター] に設定されている場合に構成する必要があります。

      パーティションが存在しない場合の同期タスクの処理ポリシー。

      • [エラー]

      • [存在しないパーティションを無視、タスクは正常に実行]

      デスティネーション

      パラメータ

      説明

      データソース

      前のステップで選択した Tablestore データソースがデフォルトで表示されます。

      テーブル

      デスティネーションデータテーブル。

      プライマリキー情報

      デスティネーションデータテーブルのプライマリキー情報。

      書き込みモード

      Tablestore にデータを書き込むためのモード。以下の 2 つのモードがサポートされています。

      • PutRow: Tablestore API PutRow に対応します。指定した行にデータを挿入します。行が存在しない場合は、新しい行が追加されます。行が存在する場合は、既存の行が上書きされます。

      • UpdateRow: Tablestore API UpdateRow に対応します。指定した行のデータを更新します。行が存在しない場合は、新しい行が追加されます。行が存在する場合は、リクエストの内容に基づいて、その行の指定された列の値を追加、変更、または削除します。

    2. フィールドマッピングを構成します。

      データソースと宛先を設定した後、[ソースフィールド][宛先フィールド] の間のマッピングを指定する必要があります。タスクはこのマッピングを使用して、ソーステーブルのフィールドから宛先テーブルの対応するフィールドにデータを書き込みます。詳細については、「ステップ 4: フィールドマッピングを設定する」をご参照ください。

      重要
      • プライマリキーデータを読み取るには、[ソースフィールド] でプライマリキー情報を指定する必要があります。

      • デスティネーションテーブルの [プライマリキー情報] は前のステップで [データの宛先] で構成されているため、[デスティネーションフィールド] で再度構成することはできません。

      • フィールドのデータ型が INTEGER の場合は、INT として構成する必要があります。DataWorks はそれを自動的に INTEGER 型に変換します。型を INTEGER として構成すると、ログにエラーが報告され、タスクが失敗します。

    3. チャネルコントロールを構成します。

      チャネルを構成して、データ同期プロセスに関連するプロパティを制御できます。パラメータの詳細については、「オフライン同期の同時実行性とレート制限の関係」をご参照ください。

    4. [保存] をクリックします。

3. 同期タスクを実行する
  1. タスクの右側にある [デバッグ構成] をクリックし、タスクを実行するリソースグループを選択します。

  2. [実行] ボタンをクリックします。

ステップ 3: 同期結果を表示する

同期タスクが実行された後、ログで実行ステータスを表示し、Tablestore コンソールのデスティネーションデータテーブルで結果を確認できます。

  1. タスクの実行ステータスを確認します。

    1. 同期タスクの [結果] タブで、現在のタスクステータス の下のステータスを確認します。

      現在のタスクステータス の値が FINISH の場合、タスクは完了です。

    2. より詳細な実行ログを表示するには、詳細ログ URL の横にあるリンクをクリックします。

  2. デスティネーションデータテーブルの同期結果を確認します。

    1. [インスタンス管理] ページに移動します。

      1. Tablestore コンソールにログインします。

      2. トップナビゲーションバーで、リソースグループとリージョンを選択します。

      3. [概要] ページで、インスタンスエイリアスをクリックするか、インスタンスの [操作] 列にある [インスタンス管理] をクリックします。

    2. [インスタンスの詳細] ページで、[データテーブルリスト] タブをクリックします。

    3. [データテーブルリスト] タブで、デスティネーションデータテーブル名をクリックします。

    4. [データ管理] タブに、このデータテーブルに同期されたデータが表示されます。

データをエクスポートする

DataWorks Data Integration を使用して、Tablestore データを MaxCompute または OSS にエクスポートできます。

課金

  • 移行ツールを使用して Tablestore にアクセスすると、データの読み取りと書き込みに対して課金されます。データが書き込まれた後、Tablestore はデータ量に基づいてストレージ料金を請求します。課金の詳細については、「課金の概要」をご参照ください。

  • DataWorks の課金は、ソフトウェア料金とリソース料金で構成されます。詳細については、「課金」をご参照ください。

その他のソリューション

必要に応じて、Tablestore データをローカルファイルにダウンロードできます。

また、DataX や Tunnel Service などの移行ツールを使用してデータをインポートすることもできます。

移行ツール

説明

DataX

DataX は、異なるデータソース間の同期を、ソースからデータを読み取る Reader プラグインと、デスティネーションにデータを書き込む Writer プラグインに抽象化します。

トンネルサービス

トンネルサービスは、Tablestore データ API に基づいて完全データと増分データを使用するための統合サービスです。データテーブルのデータチャネルを作成することで、テーブルから履歴データと新しいデータを簡単に使用できます。このサービスは、ソーステーブルが Tablestore データテーブルである場合のデータ移行と同期に適しています。詳細については、「あるデータテーブルから別のデータテーブルにデータを同期する」をご参照ください。

Data Transmission Service (DTS)

Data Transmission Service (DTS) は、Alibaba Cloud が提供するリアルタイムデータストリーミングサービスです。リレーショナルデータベース (RDBMS)、NoSQL データベース、オンライン分析処理 (OLAP) システムなどのデータソース間のデータインタラクションをサポートしています。データ同期、移行、サブスクリプション、統合、処理を統合して、安全でスケーラブル、かつ可用性の高いデータアーキテクチャの構築を支援します。詳細については、「PolarDB-X 2.0 データを Tablestore に同期する」および「PolarDB-X 2.0 データを Tablestore に移行する」をご参照ください。

付録: フィールドタイプのマッピング

このセクションでは、一般的なサービスと Tablestore 間のフィールドタイプのマッピングについて説明します。実際のシナリオでは、フィールドタイプのマッピングに基づいてフィールドマッピングを構成します。

MaxCompute と Tablestore 間のフィールドタイプのマッピング

MaxCompute のフィールドタイプ

Tablestore のフィールドタイプ

STRING

STRING

BIGINT

INTEGER

DOUBLE

DOUBLE

BOOLEAN

BOOLEAN

BINARY

BINARY

MySQL と Tablestore 間のフィールドタイプのマッピング

MySQL のフィールドタイプ

Tablestore のフィールドタイプ

STRING

STRING

INT または INTEGER

INTEGER

DOUBLE、FLOAT、または DECIMAL

DOUBLE

BOOL または BOOLEAN

BOOLEAN

BINARY

BINARY

Kafka と Tablestore 間のフィールドタイプのマッピング

Kafka スキーマタイプ

Tablestore のフィールドタイプ

STRING

STRING

INT8、INT16、INT32、または INT64

INTEGER

FLOAT32 または FLOAT64

DOUBLE

BOOLEAN

BOOLEAN

BYTES

BINARY