全部產品
Search
文件中心

Tablestore:同步增量資料到OSS

更新時間:Nov 16, 2024

如果需要將Table Store中新增和變化的資料定期同步到OSS中備份或者使用,您可以通過在DataWorksData Integration控制台建立和配置離線同步任務來實現周期性增量資料同步。

注意事項

  • 此功能適用於Tablestore寬表模型和時序模型。

    • 寬表模型:匯出Tablestore資料表中的資料到OSS時支援使用嚮導模式或者指令碼模式。

    • 時序模型:匯出Tablestore時序表中的資料到OSS時只支援使用指令碼模式。

  • 使用Tablestore Stream增量同步處理資料時,要求每次寫入Tablestore的資料必須是整行資料。目前類似物聯網資料的時序資料寫入方式都是整行寫入,後續基本無修改。

  • 增量同步處理使用的為周期調度,每隔5分鐘調度一次,並且外掛程式有5分鐘延遲,同步總延遲為5~10分鐘。

準備工作

步驟一:建立同步任務節點

  1. 進入資料開發頁面。

    登入DataWorks控制台,切換至目標地區後,單擊左側導覽列的資料開發與治理 > 資料開發,在下拉框中選擇對應工作空間後單擊進入資料開發

  2. 在DataStudio控制台的資料開發頁面,單擊商務程序節點下的目標商務程序。

    如果需要建立商務程序,請參見建立商務程序

  3. Data Integration節點上右鍵選擇建立節點 > 離線同步

  4. 建立節點對話方塊,選擇路徑並填寫節點名稱。

  5. 單擊確認

    Data Integration節點下會顯示建立的離線同步節點。

步驟二:配置離線同步任務並啟動

配置Table Store到OSS的增量資料同步任務,請根據所用資料存放區模型選擇相應任務配置方式。

  • 如果所用的資料存放區模型是寬表模型(即使用資料表格儲存體資料),則需要同步資料表中的資料,請按照同步資料表資料的任務配置進行配置。

  • 如果所用的資料存放區模型是時序模型(即使用時序表格儲存體資料),則需要同步時序表中的資料,請按照同步時序表資料的任務配置進行配置。

同步資料表資料的任務配置

  1. Data Integration節點下,雙擊開啟建立的離線同步任務節點。

  2. 配置同步網路連結。

    選擇離線同步任務的資料來源、資料去向以及用於執行同步任務的資源群組,並測試連通性。

    重要

    資料同步任務的執行必須經過資源群組來實現,請選擇資源群組並保證資源群組與讀寫兩端的資料來源能聯通訪問。

    1. 網路與資源配置步驟,選擇資料來源Tablestore Stream,並選擇資料來源名稱為Table Store資料來源。

    2. 選擇資源群組。

      選擇資源群組後,系統會顯示資源群組的地區、規格等資訊以及自動化的測試資源群組與所選資料來源之間連通性。

      重要

      請與新增資料來源時選擇的資源群組保持一致。

    3. 選擇資料去向OSS,並選擇資料來源名稱為OSS資料來源。

      系統會自動化的測試資源群組與所選資料來源之間連通性。

    4. 測試可連通後,單擊下一步

  3. 配置任務並儲存。

    使用嚮導模式時只能按照行的列值增量變化形式匯出資料。使用指令碼模式時支援按照行的列值增量變化形式匯出資料或者按照行模式匯出變化後的資料。如果要按照行模式匯出變化後的資料請使用指令碼模式。

    (推薦)嚮導模式

    1. 配置任務步驟的配置資料來源與去向地區,根據實際配置資料來源和資料去向。

      資料來源配置

      參數

      說明

      Tablestore中的資料表名稱。

      開始時間

      增量讀取資料的開始時間和結束時間,分別配置為變數形式${startTime}${endTime},具體格式在後續調度屬性中配置。增量資料的時間範圍為左閉右開的區間。

      結束時間

      狀態表

      用於選項組的表名稱,預設值為TableStoreStreamReaderStatusTable。

      最大重試次數

      從TableStore中讀取增量資料時,每次請求的最大重試次數。

      匯出時序資訊

      是否匯出時序資訊,時序資訊包含了資料的寫入時間等。

      資料去向配置

      參數

      說明

      文本類型

      寫入OSS的檔案類型,例如csv、txt。

      說明

      不同檔案類型支援的配置有差異,請以實際介面為準。

      檔案名稱(含路徑)

      當設定文本類型textcsvorc時才能配置該參數。

      OSS中的檔案名稱,支援帶有路徑,例如tablestore/20231130/myotsdata.csv

      檔案路徑

      當設定文本類型parquet時才能配置該參數。

      檔案在OSS上的路徑,例如tablestore/20231130/

      檔案名稱

      當設定文本類型parquet時才能配置該參數。

      OSS中的檔案名稱。

      資料行分隔符號

      當設定文本類型textcsv時才能配置該參數。

      寫入OSS檔案時,列之間使用的分隔字元。

      行分隔字元

      當設定文本類型text時才能配置才參數。

      自訂的行分隔字元,用來分隔不同資料行。例如配置為 \u0001。您需要使用資料中不存在的分隔字元作為行分隔字元。

      如果要使用Linux或Windows平台的預設行分隔字元(\n\r\n)建議置空此配置,平台能自適應讀取。

      編碼

      當設定文本類型textcsv時才能配置該參數。

      寫入檔案的編碼配置。

      null值

      當設定文本類型textcsvorc時才能配置該參數。

      來源資料源中可以表示為null的字串,例如配置為null,如果來源資料是null,則系統會視作null欄位。

      時間格式

      當設定文本類型textcsv時才能配置該參數。

      日期類型的資料寫入到OSS檔案時的時間格式,例如yyyy-MM-dd

      首碼衝突

      當設定的檔案名稱與OSS中已有檔案名稱衝突時的處理方法。取值範圍如下:

      • 替換:刪除原始檔案,重建一個同名檔案。

      • 保留:保留原始檔案,重建一個新檔案,名稱為原檔案名稱加隨機尾碼。

      • 報錯:同步任務停止執行。

      切分檔案

      當設定文本類型textcsv時才能配置該參數。

      寫入OSS檔案時,單個Object檔案的最大大小。單位為MB。最大值為100 GB。當檔案大小超過指定的切分檔案大小時,系統會產生新檔案繼續寫入資料,直到完成所有資料寫入。

      寫為一個檔案

      當設定文本類型textcsv時才能配置該參數。

      寫入資料到OSS時,是否寫單個檔案。預設寫多個檔案,當讀不到任何資料時,如果配置了檔案頭,則會輸出只包含檔案頭的空檔案,否則只輸出空檔案。

      如果需要寫入到單個檔案,請選中寫為一個檔案複選框。此時當讀不到任何資料時, 不會產生空檔案。

      首行輸出表頭

      當設定文本類型textcsv時才能配置該參數。

      寫入檔案時第一行是否輸出表頭。預設不輸出表頭。如果需要在第一行輸出表頭,請選中首行輸出表頭複選框。

    2. 欄位對應地區,系統自動進列欄位映射,保持預設配置即可。

      來源欄位中包括了表主鍵和增量變更資訊,目標欄位不支援配置。

      image.png

    3. 通道控制地區,配置任務運行參數,例如任務期望最大並發數、同步速率、髒資料同步策略、分散式處理能力等。關於參數配置的更多資訊,請參見配置通道

    4. 單擊image.png表徵圖,儲存配置。

      說明

      執行後續操作時,如果未儲存配置,則系統會出現儲存確認的提示,單擊確認即可。

    指令碼模式

    增量資料的同步需要使用到OTSStream Reader和OSS Writer外掛程式。指令碼配置規則請參見Tablestore Stream資料來源OSS資料來源

    重要

    任務轉為指令碼模式後,將無法轉為嚮導模式,請謹慎操作。

    1. 配置任務步驟,單擊image.png表徵圖,然後在彈出的對話方塊中單擊確認

    2. 在指令碼配置頁面,請根據如下樣本完成配置。

      重要

      為了便於理解,在配置樣本中增加了注釋內容,實際使用指令碼時請刪除所有注釋內容。

      按照行模式匯出增量變化後的資料

      {
          "type": "job",
          "version": "2.0",
          "steps": [
              {
                  "stepType": "otsstream", //外掛程式名,不能修改。
                  "parameter": {
                      "statusTable": "TableStoreStreamReaderStatusTable", //儲存Tablestore Stream狀態的表,一般無需修改。
                      "maxRetries": 30, //最大重試次數。
                      "isExportSequenceInfo": false, //是否匯出時序資訊,時序資訊包含了資料的寫入時間等。
      				        "mode": "single_version_and_update_only", //Tablestore Stream匯出資料的格式,目前需要設定為single_version_and_update_only。如果配置模板中無此項,則需要增加。
                      "datasource": "otssource", //資料來源名稱,請根據實際填寫。
                      "envType": 1,
                      "column": [ 
      				          {
                           "name": "pk1" 
                        },
                        {
                           "name": "pk2"  
                        },
                        {
                           "name": "col1"  
                        }
                      ],
                      "startTimeString": "${startTime}", //開始匯出的時間點,由於是增量匯出,需要迴圈啟動此任務,則此處每次啟動時的時間都不同,因此需要設定一個變數,例如${startTime}。
                      "table": "mytable", //Tablestore中的資料表名稱。
                      "endTimeString": "${endTime}"  //結束匯出的時間點。此處也需要設定一個變數,例如${endTime}。
                  },
                  "name": "Reader",
                  "category": "reader"
              },
              {
                  "stepType": "oss", //Writer外掛程式的名稱,不能修改。
                  "parameter": { //此處參數配置只適用於匯出csv和text格式的檔案。如果要匯出為parquet和orc格式,請參照OSS資料來源文檔修改OSSWriter配置。
                      "fieldDelimiterOrigin": ",",
                      "nullFormat": "null", //定義null值的字串標識符方式,可以是Null 字元串。
                      "dateFormat": "yyyy-MM-dd HH:mm:ss", //時間格式。
                      "datasource": "osssource", //OSS資料來源名稱,請根據實際填寫。
                      "envType": 1,
                      "writeSingleObject": true, //是否寫單個檔案。設定此參數為true,表示寫單個檔案,當讀不到任何資料時不會產生空檔案;設定此參數為false,表示寫多個檔案,當讀不到任何資料時,如果設定檔頭會輸出空檔案只包含檔案頭,否則只輸出空檔案。
                      "writeMode": "truncate", //當同名檔案存在時系統進行的操作,可選值包括truncate、append和nonConflict。truncate表示會清理已存在的同名檔案,append表示會增加到已存在的同名檔案內容後面,nonConflict表示當同名檔案存在時會報錯。 
                      "encoding": "UTF-8", //編碼類別型。
                      "fieldDelimiter": ",", //每一列的分隔字元。
                      "fileFormat": "csv", //檔案類型,可選值包括csv、text、parquet和orc格式。
                      "object": "" //備份到OSS的檔案名稱首碼,建議使用"Tablestore執行個體名/表名/date",例如"instance/table/{date}"。
                  },
                  "name": "Writer",
                  "category": "writer" 
              },
              {
                  "copies": 1,
                  "parameter": {
                      "nodes": [],
                      "edges": [],
                      "groups": [],
                      "version": "2.0"
                  },
                  "name": "Processor",
                  "category": "processor"
              }
          ],
          "setting": {
              "errorLimit": {
                  "record": "0" //允許出錯的個數。當錯誤超過這個數目的時候同步任務會失敗。
              },
              "locale": "zh",
              "speed": {
                  "throttle": false, //當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,需要配置mbps參數,表示限流。
                  "concurrent": 3 //作業並發數。
              }
          },
          "order": {
              "hops": [
                  {
                      "from": "Reader",
                      "to": "Writer"
                  }
              ]
          }
      }

      按照行的列值增量變化形式匯出資料

      {
          "type": "job",
          "version": "2.0",
          "steps": [
              {
                  "stepType": "otsstream", //外掛程式名,不能修改。
                  "parameter": {
                      "statusTable": "TableStoreStreamReaderStatusTable", //儲存Tablestore Stream狀態的表,一般無需修改。
                      "maxRetries": 30, //最大重試次數。
                      "isExportSequenceInfo": false,  //是否匯出時序資訊,時序資訊包含了資料的寫入時間等。
                      "datasource": "otssource",
                      "envType": 1,
                      "column": [//設定資料表中需要匯出到OSS中的列,如果配置模板中無此項則需要增加,保持預設配置即可。
                          "pk1", //主鍵列名稱,如果有多個主鍵列則需要全部配置。
                          "pk2", //主鍵列名稱,如果有多個主鍵列則需要全部配置。
                          "colName", //表示有增量變化的屬性列名稱,無需修改。
                          "version", //表示增量變化後列的資料版本號碼,無需修改。格式為64位時間戳記。單位為毫秒。
                          "colValue", //表示增量變化後屬性列值,無需修改。
                          "opType", //表示增量操作類型,無需修改。
                          "sequenceInfo" //表示自增保序sequenceid,無需修改。
                      ],
                      "startTimeString": "${startTime}", //開始匯出的時間點,由於是增量匯出,需要迴圈啟動此任務,則此處每次啟動時的時間都不同,因此需要設定一個變數,例如${startTime}。
                      "table": "mytable", //Tablestore中的資料表名稱。
                      "endTimeString": "${endTime}"  //結束匯出的時間點。此處也需要設定一個變數,例如${endTime}。
                  },
                  "name": "Reader",
                  "category": "reader"
              },
              {
                  "stepType": "oss", //Writer外掛程式的名稱,不能修改。
                  "parameter": { //此處參數配置只適用於匯出csv和text格式的檔案。如果要匯出為parquet和orc格式,請參照OSS資料來源文檔修改OSSWriter配置。
                      "fieldDelimiterOrigin": ",",
                      "nullFormat": "null", //定義null值的字串標識符方式,可以是Null 字元串。
                      "dateFormat": "yyyy-MM-dd HH:mm:ss", //時間格式。
                      "datasource": "osssource", //OSS資料來源名稱,請根據實際填寫。
                      "envType": 1,
                      "writeSingleObject": true, //是否寫單個檔案。設定此參數為true,表示寫單個檔案,當讀不到任何資料時不會產生空檔案;設定此參數為false,表示寫多個檔案,當讀不到任何資料時,如果設定檔頭會輸出空檔案只包含檔案頭,否則只輸出空檔案。
                      "column": [ //匯出到OSS的列,只需要用序號表示即可,無需修改。
                          "0",
                          "1",
                          "2",
                          "3",
                          "4",
                          "5",
                          "6"
                      ],
                      "writeMode": "truncate", //當同名檔案存在時系統進行的操作,可選值包括truncate、append和nonConflict。truncate表示會清理已存在的同名檔案,append表示會增加到已存在的同名檔案內容後面,nonConflict表示當同名檔案存在時會報錯。 
                      "encoding": "UTF-8", //編碼類別型。
                      "fieldDelimiter": ",", //每一列的分隔字元。
                      "fileFormat": "csv", //檔案類型,可選值包括csv和text格式。
                      "object": "" //備份到OSS的檔案名稱首碼,建議使用"Tablestore執行個體名/表名/date",例如"instance/table/{date}"。
                  },
                  "name": "Writer",
                  "category": "writer"
              },
              {
                  "copies": 1,
                  "parameter": {
                      "nodes": [],
                      "edges": [],
                      "groups": [],
                      "version": "2.0"
                  },
                  "name": "Processor",
                  "category": "processor"
              }
          ],
          "setting": {
              "errorLimit": {
                  "record": "0" //允許出錯的個數。當錯誤超過這個數目的時候同步任務會失敗。
              },
              "locale": "zh",
              "speed": {
                  "throttle": false, //當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,需要配置mbps參數,表示限流。
                  "concurrent": 3 //作業並發數。
              }
          },
          "order": {
              "hops": [
                  {
                      "from": "Reader",
                      "to": "Writer"
                  }
              ]
          }
      }
    3. 單擊image.png表徵圖,儲存配置。

      說明

      執行後續操作時,如果未儲存指令碼,則系統會出現儲存確認的提示,單擊確認即可。

同步時序表資料的任務配置

  1. Data Integration節點下,雙擊開啟建立的離線同步任務節點。

  2. 配置同步網路連結。

    選擇離線同步任務的資料來源、資料去向以及用於執行同步任務的資源群組,並測試連通性。

    重要

    資料同步任務的執行必須經過資源群組來實現,請選擇資源群組並保證資源群組與讀寫兩端的資料來源能聯通訪問。

    1. 網路與資源配置步驟,選擇資料來源Tablestore Stream,並選擇資料來源名稱為Table Store資料來源。

    2. 選擇資源群組。

      選擇資源群組後,系統會顯示資源群組的地區、規格等資訊以及自動化的測試資源群組與所選資料來源之間連通性。

      重要

      請與新增資料來源時選擇的資源群組保持一致。

    3. 選擇資料去向OSS,並選擇資料來源名稱為OSS資料來源。

      系統會自動化的測試資源群組與所選資料來源之間連通性。

    4. 測試可連通後,單擊下一步

  3. 配置任務。

    同步時序表資料時只支援使用指令碼模式進行任務配置。增量資料的同步需要使用到OTSStream Reader和OSS Writer外掛程式。指令碼配置規則請參見Tablestore Stream資料來源OSS資料來源

    重要

    任務轉為指令碼模式後,將無法轉為嚮導模式,請謹慎操作。

    1. 配置任務步驟,單擊image.png表徵圖,然後在彈出的對話方塊中單擊確認

    2. 在指令碼配置頁面,請根據如下樣本完成配置。

      時序表只支援按照行模式匯出增量變化後的資料。

      重要

      為了便於理解,在配置樣本中增加了注釋內容,實際使用指令碼時請刪除所有注釋內容。

      {
          "type": "job",
          "version": "2.0",
          "steps": [
              {
                  "stepType": "otsstream", //外掛程式名,不能修改。
                  "parameter": {
                      "statusTable": "TableStoreStreamReaderStatusTable", //儲存Tablestore Stream狀態的表,一般無需修改。
                      "maxRetries": 30, //最大重試次數。
                      "isExportSequenceInfo": false, //是否匯出時序資訊,時序資訊包含了資料的寫入時間等。
                      "mode": "single_version_and_update_only", //Tablestore Stream匯出資料的格式,目前需要設定為single_version_and_update_only。如果配置模板中無此項,則需要增加。
                      "isTimeseriesTable":"true", //是否為時序表。當要匯出時序表資料到OSS時,您需要設定此參數為true。
                      "datasource": "otssource", //資料來源名稱,請根據實際填寫。
                      "envType": 1,
                      "column": [ //設定時序表中需要匯出到OSS中的列,如果配置模板中無此項則需要增加。
                          {
                              "name": "_m_name" //度量名稱,無需修改。如果不需要匯出,請刪除該配置。
                          },
                          {
                              "name": "_data_source", //資料來源,無需修改。如果不需要匯出,請刪除該配置。
                          },
                          {
                              "name": "_tags", //時間軸標籤,無需修改。如果不需要匯出,請刪除該配置。
                          },
                          {
                              "name": "colname", //時間軸資料中的列,請根據實際填寫。如果需要匯出多列,請添加相應列。
                          }
                       ],
                      "startTimeString": "${startTime}", //開始匯出的時間點,由於是增量匯出,需要迴圈啟動此任務,則此處每次啟動時的時間都不同,因此需要設定一個變數,例如${startTime}。
                      "table": "timeseriestable", //Tablestore中的時序表名稱。
                      "endTimeString": "${endTime}" //結束匯出的時間點。此處也需要設定一個變數,例如${endTime}。
                  },
                  "name": "Reader",
                  "category": "reader"
              },
              {
                  "stepType": "oss", //Writer外掛程式的名稱,不能修改。
                  "parameter": { //此處參數配置只適用於匯出csv和text格式的檔案。如果要匯出為parquet和orc格式,請參照OSS資料來源文檔修改OSSWriter配置。
                      "fieldDelimiterOrigin": ",", 
                      "nullFormat": "null", //定義null值的字串標識符方式,可以是Null 字元串。
                      "dateFormat": "yyyy-MM-dd HH:mm:ss", //時間格式。
                      "datasource": "osssource", //OSS資料來源名稱,請根據實際填寫。
                      "envType": 1, 
                      "writeSingleObject": false, //是否寫單個檔案。設定此參數為true,表示寫單個檔案,當讀不到任何資料時不會產生空檔案;設定此參數為false,表示寫多個檔案,當讀不到任何資料時,如果設定檔頭會輸出空檔案只包含檔案頭,否則只輸出空檔案。
                      "writeMode": "truncate", //當同名檔案存在時系統進行的操作,可選值包括truncate、append和nonConflict。truncate表示會清理已存在的同名檔案,append表示會增加到已存在的同名檔案內容後面,nonConflict表示當同名檔案存在時會報錯。 
                      "encoding": "UTF-8", //編碼類別型。
                      "fieldDelimiter": ",", //每一列的分隔字元。
                      "fileFormat": "csv", //檔案類型,可選值包括csv和text格式。
                      "object": "" //備份到OSS的檔案名稱首碼,建議使用"Tablestore執行個體名/表名/date",例如"instance/table/{date}"。
                  },
                  "name": "Writer",
                  "category": "writer"
              },
              {
                  "name": "Processor",
                  "stepType": null,
                  "category": "processor",
                  "copies": 1,
                  "parameter": {
                      "nodes": [],
                      "edges": [],
                      "groups": [],
                      "version": "2.0"
                  }
              }
          ],
          "setting": {
              "executeMode": null,
              "errorLimit": {
                  "record": "0" //允許出錯的個數。當錯誤超過這個數目的時候同步任務會失敗。
              },
              "speed": {
                  "concurrent": 2,  //作業並發數。
                  "throttle": false  //當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,需要配置mbps參數,表示限流。
              }
          },
          "order": {
              "hops": [
                  {
                      "from": "Reader",
                      "to": "Writer"
                  }
              ]
          }
      }
    3. 單擊image.png表徵圖,儲存配置。

      說明

      執行後續操作時,如果未儲存指令碼,則系統會出現儲存確認的提示,單擊確認即可。

步驟三:配置調度屬性

通過調度配置,您可以配置同步任務的執行時間、重跑屬性、調度依賴等。

  1. 單擊任務右側的調度配置

  2. 調度配置面板的參數部分,單擊新增參數,根據下表說明新增參數。更多資訊,請參見調度參數支援的格式

    參數

    參數值

    startTime

    $[yyyymmddhh24-2/24]$[miss-10/24/60]

    endTime

    $[yyyymmddhh24-1/24]$[miss-10/24/60]

    配置樣本如下圖所示。

    image..png

    假如任務運行時的時間為2023年04月23日19:00:00點,則startTime為20230423175000,endTime為20230423185000。任務將會同步17:50到18:50時段內新增的資料。

  3. 時間屬性部分,配置時間屬性。更多資訊,請參見時間屬性配置說明

    此處以任務整點每小時自動運行為例介紹配置,如下圖所示。

    image..png

  4. 調度依賴部分,選中使用工作空間根節點複選框,系統會自動產生依賴的上遊節點資訊。

    使用工作空間根節點表示該任務無上遊的依賴任務。

    image.png

  5. 配置完成後,關閉配置調度面板。

步驟四:調試代碼並提交任務

  1. (可選)根據需要調試指令碼代碼。

    通過調試指令碼代碼,確保同步任務能成功同步Table Store的增量資料到OSS中。

    重要

    調試指令碼代碼時配置的時間範圍內的資料可能會多次匯入到OSS中,相同資料行會覆蓋寫入到OSS中。

    1. 單擊1680170333627-a1e19a43-4e2a-4340-9564-f53f2fa6806e表徵圖。

    2. 參數對話方塊,選擇運行資源群組的名稱,並配置自訂參數。

      自訂參數的格式為yyyyMMddHHmmss,例如20230423175000。

      image

    3. 單擊運行

  2. 提交同步任務。

    提交同步任務後,同步任務會按照配置的調度屬性進行運行。

    1. 單擊image表徵圖。

    2. 提交對話方塊,根據需要填寫變更描述。

    3. 單擊確認

步驟五:查看任務執行結果

  1. 在DataWorks控制台查看任務運行狀態。

    1. 單擊同步任務工具列右側的營運

    2. 周期執行個體頁面的執行個體視角頁簽,查看執行個體的運行狀態。

  2. 在OSS管理主控台查看資料同步結果。

    1. 登入OSS管理主控台

    2. Bucket列表頁面,找到目標Bucket後,單擊Bucket名稱。

    3. 檔案清單頁簽,選擇相應檔案,下載後可查看內容是否符合預期。

常見問題

OTSStreamReader常見問題

相關文檔

  • 如果要下載匯出的OSS檔案到本地,您可以使用OSS控制台、命令列工具ossutil等工具直接進行下載。更多資訊,請參見簡單下載

  • 為了防止由於誤刪、惡意篡改等導致重要資料不可用,您可以使用Tablestore資料備份功能備份執行個體中寬表資料,並在資料丟失或受損時及時恢複。更多資訊,請參見資料備份概述

  • 如果要實現Tablestore資料表的冷熱資料階層式存放區、全量資料備份Tablestore資料以及大規模即時資料分析,您可以使用Tablestore的資料湖投遞功能實現。更多資訊,請參見資料湖投遞