全部產品
Search
文件中心

Data Transmission Service:自建TiDB同步至AnalyticDB MySQL 3.0

更新時間:Sep 03, 2024

本文介紹如何使用Data Transmission Service,將TiDB資料庫的資料同步至雲原生資料倉儲AnalyticDB MySQL版 3.0叢集。

前提條件

  • 已建立儲存空間大於TiDB資料庫已佔用儲存空間的目標雲原生資料倉儲AnalyticDB MySQL版 3.0叢集,詳情請參見建立叢集

  • 同步執行個體預設包含增量資料同步,您還需要執行相關準備工作以採集TiDB資料庫的增量變更資料,詳情請參見準備工作

準備工作

TiDB的增量資料變更有如下兩種採集方式,請根據實際情況選擇。

使用TiDB Binlog

說明

為減少網路延遲對資料同步的影響,Pump組件、Drainer組件和Kafka叢集所部署的伺服器需要與源庫所屬的伺服器在同一內網中。

  1. 準備Kafka叢集(二選一)。

    • 部署自建Kafka叢集,詳情請參見Apache Kafka官網

      警告

      為保障Kafka叢集可以正常接收TiDB資料庫產生的較大的Binlog資料,請適當將Broker組件中的message.max.bytesreplica.fetch.max.bytes參數以及Consumer組件中的fetch.message.max.bytes參數對應的值調大,詳情請參見Kafka配置說明

    • 使用阿里雲訊息佇列Kafka版,詳情請參見快速入門

      說明

      為保障正常通訊和減少網路延遲對增量資料同步的影響,部署阿里雲訊息佇列Kafka執行個體時,需要配置和源程式庫伺服器相同的專用網路。

  2. 在自建Kafka叢集或阿里雲訊息佇列Kafka執行個體中建立Topic。

    重要

    建立的Topic應當只包含一個分區,以確保增量資料可以被複製到ID為0的分區。

  3. 部署Pump和Drainer組件,詳情請參見TiDB Binlog叢集部署
  4. 修改Drainer組件的設定檔,設定輸出為Kafka,詳情請參見Kafka自訂開發

    說明

    請確保TiDB資料庫所在的伺服器能夠正常串連到Kafka叢集。

  5. 將DTS伺服器的IP位址區段加入至TiDB資料庫的白名單安全設定中,具體IP位址區段資訊請參見添加DTS伺服器的IP位址區段

使用TiDB CDC

  1. 準備Kafka叢集(二選一)。

    • 部署自建Kafka叢集,詳情請參見Apache Kafka官網

      警告

      為保障Kafka叢集可以正常接收TiDB資料庫產生的較大的Binlog資料,請適當將Broker組件中的message.max.bytesreplica.fetch.max.bytes參數以及Consumer組件中的fetch.message.max.bytes參數對應的值調大,詳情請參見Kafka配置說明

    • 使用阿里雲訊息佇列Kafka版,詳情請參見快速入門

      說明

      為保障正常通訊和減少網路延遲對增量資料同步的影響,部署阿里雲訊息佇列Kafka執行個體時,需要配置和源程式庫伺服器相同的專用網路。

  2. 在自建Kafka叢集或阿里雲訊息佇列Kafka執行個體中建立Topic。

    重要

    建立的Topic應當只包含一個分區,以確保增量資料可以被複製到ID為0的分區。

  3. 安裝TiCDC組件,詳情請參見部署TiCDC

    說明

    建議使用TiUP在原有TiDB叢集上新增或擴容TiCDC組件。

  4. 將增量資料複製到Kafka,詳情請參見同步資料到Kafka

    說明
    • 請確保TiDB資料庫所在的伺服器能夠正常串連到Kafka叢集。

    • 建議第一行命令使用tiup cdc cli changefeed create \

注意事項

類型

說明

源庫限制

  • 頻寬要求:源庫所屬的伺服器需具備足夠的出口頻寬,否則將影響資料同步速率。

  • 待同步的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。

  • 如同步對象為表層級,且需進行編輯(如表列名映射),則單次同步任務待同步的表數量超過1000時,建議您拆分待同步的表,分批配置為多個任務,或者配置整庫的同步任務,否則任務提交後可能會顯示請求報錯。

  • 您需要部署Kafka叢集以及TiDB資料庫的相關組件,以採集TiDB資料庫的增量變更資料。

  • 在庫表結構同步和全量同步階段,請勿執行庫或表結構變更的DDL操作,否則會導致資料同步任務失敗。

其他限制

  • 此情境屬於異構資料庫間的資料同步,資料類型無法一一對應,可能會導致任務失敗或資料丟失,請謹慎評估資料類型的映射關係對業務的影響,詳情請參見結構初始化涉及的資料類型映射關係

  • 在增量資料同步過程中,DTS僅支援從目標Topic中ID為0的分區擷取資料。

  • 在任務建立成功後,請務必及時在源端執行相應的變更或插入測試資料,以更新執行個體的位點資訊。否則,執行個體可能會因為延遲過大而失敗。

  • 暫不支援同步首碼索引,如果源庫存在首碼索引可能導致資料同步失敗。

  • 由於AnalyticDB MySQL版 3.0叢集本身的使用限制,當叢集中的節點磁碟空間使用量超過80%時,會導致DTS任務異常,產生延遲。請提前預估待同步對象所需的空間,並確保目的地組群具備充足的儲存空間。

  • 若DTS任務運行時目標AnalyticDB MySQL版 3.0叢集處於備份中的狀態,則會導致任務失敗。

  • 在進行全量資料同步時,DTS將會佔用源和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。因此建議在執行資料同步前評估源庫和目標庫的效能,並在業務低峰期執行資料同步(例如源庫和目標庫的CPU負載在30%以下)。

  • 由於全量資料同步會並發執行INSERT操作,導致目標資料庫的表產生片段,因此全量同步完成後目標資料庫的表格儲存體空間會比源執行個體的表格儲存體空間大。

  • 在DTS同步期間,若有除DTS外的資料寫入目標庫,則可能會導致源庫與目標庫的資料不一致。

  • 對於資料類型為FLOAT或DOUBLE的列,DTS會通過ROUND(COLUMN,PRECISION)來讀取這兩類列的值。如果沒有明確定義其精度,DTS預設對FLOAT的同步精度為38位,對DOUBLE的同步精度為308位,請確認同步精度是否符合業務預期。

  • DTS會嘗試自動回復七天之內同步失敗任務。因此在業務切換至目標執行個體前,請務必結束或釋放該任務,或者使用REVOKE命令回收DTS訪問目標執行個體帳號的寫入權限。避免該任務被恢複後,源端資料覆蓋目標執行個體的資料。

  • 若目標庫的DDL寫入失敗,DTS任務會繼續運行,您需要在任務日誌中查看執行失敗的DDL。查看任務日誌的方法,請參見查詢任務日誌

費用說明

同步類型鏈路配置費用
庫表結構同步和全量資料同步不收費。
增量資料同步收費,詳情請參見計費概述

支援增量同步處理的SQL操作

操作類型

SQL動作陳述式

DML

INSERT、UPDATE、DELETE

說明

在資料寫入到AnalyticDB for MySQL時,UPDATE語句會自動轉化為REPLACE INTO語句(若更新的是主鍵,則會轉化為DELETE+INSERT語句)。

DDL

CREATE TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE、ADD COLUMN、DROP COLUMN

資料庫帳號的許可權要求

資料庫

許可權要求

帳號建立及授權方法

TiDB資料庫

SHOW VIEW和待同步對象的SELECT許可權

許可權管理

雲原生資料倉儲AnalyticDB MySQL版 3.0叢集

目標庫的讀寫權限

建立資料庫帳號

操作步驟

  1. 進入同步任務的列表頁面。

    1. 登入Data Management服務

    2. 在頂部功能表列中,單擊整合與開發(DTS)

    3. 在左側導覽列,選擇資料轉送(DTS) > 資料同步

    說明
  2. 同步任務右側,選擇同步執行個體所屬地區。

    說明

    新版DTS同步工作清單頁面,需要在頁面左上方選擇同步執行個體所屬地區。

  3. 單擊創建任務,進入任務配置頁面。

  4. 可選:在頁面右上方,單擊試用新版配置頁

    說明
    • 若您已進入新版配置頁(頁面右上方的按鈕為返回舊版配置頁),則無需執行此操作。

    • 新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。

  5. 配置源庫及目標庫資訊。

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明

    資料庫類型

    選擇TiDB

    接入方式

    請根據TiDB資料庫的部署位置進行選擇,本樣本選擇ECS自建資料庫

    說明

    當自建資料庫為其他接入方式時,您還需要執行相應的準備工作。更多資訊,請參見準備工作概覽

    執行個體地區

    選擇TiDB資料庫所屬的地區。

    ECS執行個體ID

    選擇TiDB資料庫所屬的ECS執行個體ID,預設為4000

    連接埠

    填入TiDB資料庫的服務連接埠。

    資料庫帳號

    填入TiDB的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    是否做增量遷移

    預設選擇為,且無法修改。

    說明

    若您無需同步TiDB資料庫的增量資料,請建立遷移執行個體。更多資訊,請參見自建TiDB遷移至AnalyticDB MySQL 3.0

    Kafka叢集類型

    請根據Kafka叢集的部署位置進行選擇,本樣本選擇ECS自建資料庫

    說明

    若您選擇為專線/VPN網關/智能網關,還需要選擇已和源端資料庫聯通的VPC,並填寫網域名稱或IP地址

    Kafka數據來源組件

    請根據準備工作選擇使用TiDB的預設binlog格式使用TiDB CDC模式的Canal-JSON格式

    ECS執行個體ID

    選擇Kafka叢集所屬的ECS執行個體ID。

    連接埠

    填入Kafka叢集的服務連接埠。

    Kafka叢集帳號

    填入Kafka叢集的使用者名稱和密碼,若Kafka叢集未開啟驗證則無需填寫。

    Kafka叢集密碼

    Kafka版本

    根據Kafka叢集的版本,選擇對應的版本資訊。

    說明

    若Kafka叢集的版本為1.0及以上版本,請選擇1.0

    串連方式

    根據業務及安全需求,選擇非加密串連SCRAM-SHA-256

    Topic

    選擇增量資料所在的Topic。

    目標庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明

    資料庫類型

    選擇AnalyticDB MySQL 3.0

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇目標AnalyticDB MySQL 3.0叢集所屬地區。

    執行個體ID

    選擇目標AnalyticDB MySQL 3.0叢集的ID。

    資料庫帳號

    填入目標AnalyticDB MySQL 3.0叢集的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

  6. 配置完成後,單擊頁面下方的測試連接以進行下一步

    如果源或目標資料庫是阿里雲資料庫執行個體(例如RDS MySQLApsaraDB for MongoDB等),DTS會自動將對應地區DTS服務的IP地址添加到阿里雲資料庫執行個體的白名單中;如果源或目標資料庫是ECS上的自建資料庫,DTS會自動將對應地區DTS服務的IP地址添到ECS的安全規則中,您還需確保自建資料庫沒有限制ECS的訪問(若資料庫是叢集部署在多個ECS執行個體,您需要手動將DTS服務對應地區的IP地址添到其餘每個ECS的安全規則中);如果源或目標資料庫是IDC自建資料庫或其他雲資料庫,則需要您手動添加對應地區DTS服務的IP地址,以允許來自DTS伺服器的訪問。DTS服務的IP地址,請參見DTS伺服器的IP位址區段

    警告

    DTS自動添加或您手動添加DTS服務的公網IP位址區段可能會存在安全風險,一旦使用本產品代表您已理解和確認其中可能存在的安全風險,並且需要您做好基本的安全防護,包括但不限於加強帳號密碼強度防範、限制各網段開放的連接埠號碼、內部各API使用鑒權方式通訊、定期檢查並限制不需要的網段,或者使用通過內網(專線/VPN網關/智能網關)的方式接入。

  7. 配置任務對象。

    1. 對象配置頁面,配置待同步的對象。

      配置

      說明

      同步類型

      固定選中增量同步處理。預設情況下,您還需要同時選中庫表結構同步全量同步。預檢查完成後,DTS會將源執行個體中待同步對象的全量資料在目的地組群中初始化,作為後續增量同步處理資料的基準資料。

      目標已存在表的處理模式

      • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料同步任務不會被啟動。

        說明

        如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

      • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

        警告

        選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

        • 表結構一致的情況下,如在目標庫遇到與源庫主鍵或唯一鍵的值相同的記錄:

          • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會同步至目標資料庫中。

          • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

        • 表結構不一致的情況下,可能會導致無法初始化資料、只能同步部分列的資料或同步失敗,請謹慎操作。

      目標庫對象名稱大小寫策略

      您可以配置目標執行個體中同步對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略

      源庫對象

      源庫對象框中單擊待同步對象,然後單擊向右將其移動至已選擇對象框。

      說明

      同步對象的選擇粒度為庫或表。

      已選擇對象

      • 如需更改單個同步對象在目標執行個體中的名稱,請右擊已選擇對象中的同步對象,設定方式,請參見庫表列名單個映射

      • 如需批量更改同步對象在目標執行個體中的名稱,請單擊已選擇對象方框右上方的大量編輯,設定方式,請參見庫表列名批量映射

      說明
      • 如需設定WHERE條件過濾資料,請在已選擇對象中右擊待同步的表,在彈出的對話方塊中設定過濾條件。設定方法請參見設定過濾條件

      • 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象同步失敗。

    2. 單擊下一步高級配置,進行進階參數配置。

      配置

      說明

      源庫、目標庫無法串連後的重試時間

      在同步任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設持續重試時間為720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的重試時間內重新串連上源庫、目標庫,同步任務將自動回復。否則,同步任務將會失敗。

      說明
      • 針對同源或者同目標的多個DTS執行個體,如DTS執行個體A和DTS執行個體B,設定網路重試時間時A設定30分鐘,B設定60分鐘,則重試時間以低的30分鐘為準。

      • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

      源庫、目標庫出現其他問題後的重試時間

      在同步任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,同步任務將自動回復。否則,同步任務將會失敗。

      重要

      源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

      是否限制全量遷移速率

      在全量同步階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量同步任務進行限速設定(設定每秒查詢源庫的速率QPS每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當同步類型選擇了全量同步時才可以配置。

      是否限制增量同步處理速率

      您也可以根據實際情況,選擇是否對增量同步處理任務進行限速設定(設定每秒增量同步處理的行數RPS每秒增量同步處理的數據量(MB)BPS),以緩解目標庫的壓力。

      環境標籤

      您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

      配置ETL功能

      選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

      監控警示

      是否設定警示,當同步失敗或延遲超過閾值後,將通知警示連絡人。

    3. 單擊下一步資料校正,進行資料校正任務配置。

      若您需要使用資料校正功能,配置方法請參見配置資料校正

    4. 可選:單擊下一步配置庫表欄位,設定待同步的表在目標AnalyticDB MySQL 3.0叢集中的類型主鍵列分布鍵資訊。

      說明
      • 配置任務對象時同步類型勾選了庫表結構同步選項時才會有本步驟,您可以將定義狀態選擇為全部後進行修改。

      • 主鍵列可以是選擇多個列組成聯合主鍵,且需要從主鍵列中選擇1個或者多個列作為分布鍵。更多資訊,請參見CREATE TABLE

  8. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在同步作業正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動同步作業。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  9. 預檢查通過率顯示為100%時,單擊下一步購買

  10. 購買執行個體。

    1. 購買頁面,選擇資料同步執行個體的計費方式、鏈路規格,詳細說明請參見下表。

      類別

      參數

      說明

      資訊配置

      計費方式

      • 預付費(訂用帳戶):在建立執行個體時支付費用。適合長期需求,價格比隨用隨付更實惠,且購買時間長度越長,折扣越多。

      • 後付費(隨用隨付):按小時計費。適合短期需求,用完可立即釋放執行個體,節省費用。

      資源群組配置

      執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

      鏈路規格

      DTS為您提供了不同效能的同步規格,同步鏈路規格的不同會影響同步速率,您可以根據業務情境進行選擇。更多資訊,請參見資料同步鏈路規格說明

      訂購時間長度

      在預付費模式下,選擇訂用帳戶執行個體的時間長度和數量,包月可選擇1~9個月,包年可選擇1年、2年、3年和5年。

      說明

      該選項僅在付費類型為預付費時出現。

    2. 配置完成後,閱讀並勾選《資料轉送(隨用隨付)服務條款》

    3. 單擊購買並啟動,並在彈出的確認對話方塊,單擊確定

      您可在資料同步介面查看具體任務進度。