本文由簡體中文內容自動轉碼而成。阿里雲不保證此自動轉碼的準確性、完整性及時效性。本文内容請以簡體中文版本為準。

PolarDB-X 1.0遷移至阿里雲訊息佇列Kafka

更新時間:2025-03-12 20:30
重要

本文中含有需要您注意的重要提示訊息,忽略該訊息可能對您的業務造成影響,請務必仔細閱讀。

本文介紹如何使用Data Transmission Service將PolarDB-X 1.0遷移至阿里雲訊息佇列Kafka。

前提條件

  • 已建立源PolarDB-X 1.0執行個體。具體操作,請參見建立PolarDB-X 1.0執行個體

    說明

    PolarDB-X 1.0的儲存類型支援為RDS MySQL(包括私人定製RDS和單獨購買的RDS),暫不支援為PolarDB MySQL版。

  • 已建立Kafka執行個體,並已建立用於接收遷移資料的Topic,關於Kafka執行個體的更多資訊,請參見概述

    說明

    源庫和目標庫支援的版本,請參見遷移方案概覽

  • 目標Kafka執行個體的儲存空間須大於PolarDB-X 1.0執行個體佔用的儲存空間。

注意事項

類型

說明

類型

說明

源庫限制

  • 待遷移的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。

  • 若遷移對象為表層級,且需進行編輯(如表列名映射),則單次遷移任務僅支援遷移至多1000張表。當超出數量限制,任務提交後會顯示請求報錯,此時建議您拆分待遷移的表,分批配置多個任務,或者配置整庫的遷移任務。

  • 如需進行增量遷移,Binlog日誌:

    • 需開啟,並且binlog_row_image為full。否則預檢查階段提示報錯,且無法成功啟動資料移轉任務。

    • 如為增量遷移任務,DTS要求來源資料庫的本地Binlog日誌儲存24小時以上,如為全量遷移和增量遷移任務,DTS要求來源資料庫的本地Binlog日誌至少保留7天以上(您可在全量遷移完成後將Binlog儲存時間設定為24小時以上),否則DTS可能因無法擷取Binlog而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由於您所設定的Binlog日誌儲存時間低於DTS要求的時間進而導致的問題,不在DTS的SLA保障範圍內。

  • PolarDB-X 1.0隻讀執行個體不支援資料移轉。

  • 源庫的操作限制:

    • 資料移轉期間,請勿執行擴容、縮容、遷移熱點表、變更拆分鍵和變更DDL等操作,否則將導致資料移轉失敗。

    • 在全量遷移和增量遷移過程中,DTS會以Session層級暫時禁用約束檢查以及外鍵級聯操作。若任務運行時源庫存在串聯更新、刪除操作,可能會導致資料不一致。

    • 遷移期間如需切換PolarDB-X 1.0的網路類型,切換成功後,請調整遷移鏈路的網路連接資訊。

    • 如僅執行全量資料移轉,請勿向源執行個體中寫入新的資料,否則會導致源和目標資料不一致。為即時保持資料一致性,建議選擇結構遷移、全量資料移轉和增量資料移轉。

  • PolarDB-X 1.0執行個體的版本需為5.2及以上版本。

其他限制

  • 執行資料移轉前需評估源庫和目標庫的效能,同時建議業務低峰期執行資料移轉。否則全量資料移轉時DTS佔用源和目標庫一定讀寫資源,可能會導致資料庫的負載上升。

  • 由於全量資料移轉會並發執行INSERT操作,導致目標資料庫的表產生片段,因此全量遷移完成後目標資料庫的表格儲存體空間會比源執行個體的表格儲存體空間大。

  • DTS會嘗試恢複七天之內遷移失敗任務。因此業務切換至目標執行個體前,請務必結束或釋放該任務,或者將DTS訪問目標執行個體帳號的寫入權限用revoke命令回收掉。避免該任務被自動回復後,源端資料覆蓋目標執行個體的資料。

  • DTS基於源PolarDB-X 1.0執行個體中XA事務的連續性,以確保增量遷移任務資料的一致性。若XA事務的連續性遭到破壞(例如增量資料擷取模組容災等情境),則未提交的XA事務可能會丟失。

  • 在遷移期間,若目標Kafka發生了擴容或縮容,您需要重啟執行個體。

  • 若執行個體運行失敗,DTS技術支援人員將在8小時內嘗試恢複該執行個體。在恢複失敗執行個體的過程中,可能會對該執行個體進行重啟、調整參數等操作。

    說明

    在調整參數時,僅會修改執行個體的參數,不會對資料庫中的參數進行修改。可能修改的參數,包括但不限於修改執行個體參數中的參數。

其他注意事項

  • DTS會在源庫定時更新`dts_health_check`.`ha_health_check`表以推進Binlog位點。

  • 在遷移期間,若目標Kafka發生了擴容或縮容,您需要重啟執行個體。

費用說明

遷移類型

鏈路配置費用

公網流量費用

遷移類型

鏈路配置費用

公網流量費用

結構遷移和全量資料移轉

不收費。

不收費。

增量遷移

收費,詳情請參見計費概述

遷移類型說明

  • 庫表結構遷移

    DTS將源庫中遷移對象的結構定義遷移到目標庫。

  • 全量遷移

    DTS將源庫中遷移對象的存量資料,全部遷移到目標庫中。

  • 增量遷移

    DTS在全量遷移的基礎上,將源庫的累加式更新資料移轉到目標庫中。通過增量資料移轉可以實現在自建應用不停機的情況下,平滑地完成資料移轉。

支援增量遷移的SQL操作

操作類型

SQL動作陳述式

操作類型

SQL動作陳述式

DML

INSERT、UPDATE、DELETE

資料庫帳號的許可權要求

資料庫

庫表結構遷移

全量遷移

增量遷移

資料庫

庫表結構遷移

全量遷移

增量遷移

PolarDB分布式版執行個體

SELECT許可權

SELECT許可權

REPLICATION SLAVE、REPLICATION CLIENT及待遷移對象的SELECT許可權。

說明

Kafka

讀寫權限

資料類型映射關係

詳情請參見結構初始化涉及的資料類型映射關係

操作步驟

  1. 進入目標地區的遷移工作清單頁面(二選一)。

    通過DTS控制台進入
    通過DMS控制台進入
    1. 登入Data Transmission Service控制台

    2. 在左側導覽列,單擊資料移轉

    3. 在頁面左上方,選擇遷移執行個體所屬地區。

    說明

    實際操作可能會因DMS的模式和布局不同,而有所差異。更多資訊。請參見極簡模式控制台自訂DMS介面布局與樣式

    1. 登入Data Management服務

    2. 在頂部功能表列中,選擇整合與開發 > 資料轉送(DTS) > 資料移轉

    3. 遷移任務右側,選擇遷移執行個體所屬地區。

  2. 單擊創建任務,進入任務配置頁面。

  3. 配置源庫及目標庫資訊。

    警告

    選擇源和目標執行個體後,建議您仔細閱讀頁面上方顯示的使用限制,以成功建立並執行遷移任務。

    類別

    配置

    說明

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇已有串連資訊

    您可以按實際需求,選擇是否使用已有資料庫執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明
    • 您可以在資料連線管理頁面或新版配置頁面,將資料庫錄入DTS。更多資訊,請參見資料連線管理

    • DMS控制台的配置項為選擇DMS資料庫執行個體,您可以單擊新增DMS資料庫執行個體或在控制台首頁將資料庫錄入DMS。更多資訊,請參見雲資料庫錄入他雲/自建資料庫錄入

    資料庫類型

    選擇PolarDB-X 1.0

    接入方式

    選擇為雲執行個體

    執行個體地區

    選擇源PolarDB-X 1.0執行個體所屬地區。

    是否跨阿里雲帳號

    本案例為同一阿里雲帳號間遷移,選擇不跨帳號

    執行個體ID

    選擇源PolarDB-X 1.0執行個體ID。

    資料庫帳號

    填入源PolarDB-X 1.0執行個體的資料庫帳號,許可權要求請參見根據需求選擇遷移到Kafka執行個體中的資料存放區格式。

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    目標庫資訊

    選擇已有串連資訊

    您可以按實際需求,選擇是否使用已有資料庫執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明
    • 您可以在資料連線管理頁面或新版配置頁面,將資料庫錄入DTS。更多資訊,請參見資料連線管理

    • DMS控制台的配置項為選擇DMS資料庫執行個體,您可以單擊新增DMS資料庫執行個體或在控制台首頁將資料庫錄入DMS。更多資訊,請參見雲資料庫錄入他雲/自建資料庫錄入

    資料庫類型

    選擇Kafka

    接入方式

    選擇專線/VPN網關/智能網關

    說明

    此處將阿里雲訊息佇列Kafka版執行個體作為自建Kafka資料庫來配置遷移執行個體。

    執行個體地區

    選擇目標Kafka專案所屬地區。

    已和目標端資料庫聯通的VPC

    選擇目標Kafka執行個體所屬的專用網路ID。您可以在Kafka執行個體的基本資料頁面中查看到專用網路ID。

    網域名稱或IP地址

    填入Kafka執行個體預設存取點中的任意一個IP地址。

    說明

    您可以在Kafka執行個體的基本資料頁面中,擷取預設存取點對應的IP地址。

    連接埠

    Kafka執行個體的服務連接埠,預設為9092。

    資料庫帳號

    填入目標Kafka執行個體的資料庫帳號和對應的密碼。

    說明

    僅開啟ACL的阿里雲訊息佇列Kafka版執行個體才需要填寫資料庫帳號與資料庫密碼,關於開啟ACL的資訊,請參見SASL使用者授權

    資料庫密碼

    Kafka版本

    根據Kafka執行個體版本,選擇對應的版本資訊。

    串連方式

    根據業務及安全需求,選擇非加密串連SCRAM-SHA-256

    Topic

    在下拉框中選擇具體的Topic。

    儲存DDL的Topic

    在下拉框中選擇具體的Topic,用於儲存DDL資訊。如果未指定,DDL資訊預設儲存在Topic選擇的Topic中。

    是否使用Kafka Schema Registry

    Kafka Schema Registry是中繼資料提供服務層,提供了一個RESTful介面,用於儲存和檢索Avro Schema。

    • :不使用Kafka Schema Registry。

    • :使用Kafka Schema Registry。您需要輸入Avro Schema在Kafka Schema Registry註冊的URL或IP。

  4. 配置完成後,在頁面下方單擊測試連接以進行下一步

    說明
    • 請確保DTS服務的IP位址區段能夠被自動或手動添加至源庫和目標庫的安全設定中,以允許DTS伺服器的訪問。更多資訊,請參見添加DTS伺服器的IP位址區段

    • 若源庫或目標庫為自建資料庫(接入方式不是雲執行個體),則還需要在彈出的DTS伺服器訪問授權對話方塊單擊測試連接

  5. 配置任務對象。

    1. 對象配置頁面,配置待遷移的對象。

      配置

      說明

      配置

      說明

      遷移類型

      根據需求及各引擎對遷移類型的支援情況,選擇遷移類型。

      • 如果只需要進行全量遷移,建議同時選中庫表結構遷移全量遷移

      • 如果需要進行不停機遷移,建議同時選中庫表結構遷移全量遷移增量遷移

      說明
      • 若未選中庫表結構遷移,請確保目標庫中存在接收資料的資料庫和表,並根據實際情況,在已選擇對象框中使用庫表列名映射功能。

      • 若未選中增量遷移,為保障資料一致性,資料移轉期間請勿在源執行個體中寫入新的資料。

      目標已存在表的處理模式

      • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料移轉任務不會被啟動。

        說明

        如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

      • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

        警告

        選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

        • 表結構一致的情況下,在目標庫遇到與源庫主鍵的值相同的記錄:

          • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會遷移至目標資料庫中。

          • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

        • 表結構不一致的情況下,可能導致只能遷移部分列的資料或遷移失敗,請謹慎操作。

      投遞到Kafka的資料格式

      根據需求選擇遷移到Kafka執行個體中的資料存放區格式。

      • 如果您選擇DTS Avro,根據DTS Avro的schema定義進行資料解析,schema定義詳情請參見DTS Avro的schema定義

      • 如果您選擇Canal Json,Canal Json的參數說明和樣本請參見Canal Json說明

      說明

      PolarDB-X 1.0暫不支援選擇Canal Json,預設選擇DTS Avro

      Kafka壓縮格式

      根據需求選擇Kafka壓縮訊息的壓縮格式。

      • LZ4(預設):壓縮率較低,壓縮速率較高。

      • GZIP:壓縮率較高,壓縮速率較低。

        說明

        對CPU的消耗較高。

      • Snappy:壓縮率中等,壓縮速率中等。

      投遞到Kafka Partition策略

      暫不支援此功能。

      目標庫對象名稱大小寫策略

      您可以配置目標執行個體中遷移對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略

      源庫對象

      源庫對象框中單擊待遷移的對象,然後單擊向右小箭頭將其移動到已選擇對象框。

      說明

      遷移對象選擇的粒度為表。

      已選擇對象

      本樣本無需額外配置。您可以使用映射功能,設定源表在目標Kafka執行個體中的Topic名稱、Topic的Partition數量、Partition Key等資訊。更多資訊,請參見映射資訊

      說明
      • 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。

      • 如需選擇增量遷移的SQL操作,請在已選擇對象中右擊待遷移對象,並在彈出的對話方塊中選擇所需遷移的SQL操作。

    2. 單擊下一步高級配置,進行進階參數配置。

      配置

      說明

      配置

      說明

      選擇調度該任務的專屬叢集

      本案例不需要選擇,關於專屬叢集的詳情介紹,請參見什麼是DTS專屬叢集

      源庫、目標庫無法串連後的重試時間

      在遷移任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設重試720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的時間內重新串連上源、目標庫,遷移任務將自動回復。否則,遷移任務將失敗。

      說明
      • 針對同源或者同目標的多個DTS執行個體,網路重試時間以後建立任務的設定為準。

      • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

      源庫、目標庫出現其他問題後的重試時間

      在遷移任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,遷移任務將自動回復。否則,遷移任務將會失敗。

      重要

      源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

      是否限制全量遷移速率

      在全量遷移階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設定(設定每秒查詢源庫的速率QPS每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當遷移類型選擇了全量遷移時才可以配置。

      是否限制增量遷移速率

      您也可以根據實際情況,選擇是否對增量遷移任務進行限速設定(設定每秒增量遷移的行數RPS每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當遷移類型選擇了增量遷移時才可以配置。

      環境標籤

      您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

      配置ETL功能

      選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

      監控警示

      是否設定警示,當遷移失敗或延遲超過閾值後,將通知警示連絡人。

  6. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在遷移任務正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動遷移任務。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  7. 購買執行個體。

    1. 預檢查通過率顯示為100%時,單擊下一步購買

    2. 購買頁面,選擇資料移轉執行個體的鏈路規格,詳細說明請參見下表。

      類別

      參數

      說明

      類別

      參數

      說明

      資訊配置

      資源群組配置

      選擇執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

      鏈路規格

      DTS為您提供了不同效能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務情境進行選擇。更多資訊,請參見資料移轉鏈路規格說明

    3. 配置完成後,閱讀並選中《資料轉送(隨用隨付)服務條款》

    4. 單擊購買並啟動,並在彈出的確認對話方塊,單擊確定

      您可在資料移轉介面查看具體進度。

映射資訊

  1. 已選擇對象地區框中,將滑鼠指標放置在目標Topic名(表層級)上。

  2. 單擊目標Topic名後出現的編輯

  3. 在彈出的編輯表對話方塊中,配置映射資訊。

    配置

    說明

    配置

    說明

    表名稱

    源表遷移到的目標Topic名稱,預設為源庫及目標庫配置階段在目標庫資訊選擇的Topic

    重要
    • 目標庫為阿里雲訊息佇列Kafka版執行個體時,填寫的Topic名稱必須在目標Kafka執行個體中真實存在,否則將會導致資料移轉失敗。目標庫為自建Kafka資料庫,且遷移執行個體包含庫表結構任務時,DTS會嘗試在目標庫中建立您填寫的Topic。

    • 若您修改了表名稱,資料將會被寫入到您填寫的Topic中。

    過濾條件

    詳情請參見設定過濾條件

    設定建立Topic的Partition數量

    資料寫入到目標Topic時的分區數。

    Partition Key

    投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。

    說明

    取消選中全表同步後,才可以勾選Partition Key

  4. 單擊確定

  • 本頁導讀 (1, M)
  • 前提條件
  • 注意事項
  • 費用說明
  • 遷移類型說明
  • 支援增量遷移的SQL操作
  • 資料庫帳號的許可權要求
  • 資料類型映射關係
  • 操作步驟
  • 映射資訊
文檔反饋