全部產品
Search
文件中心

Data Transmission Service:PolarDB PostgreSQL版(相容Oracle)同步至阿里雲訊息佇列Kafka版

更新時間:Aug 16, 2024

本文介紹如何使用Data Transmission Service,將PolarDB PostgreSQL版(相容Oracle)叢集的資料同步至阿里雲訊息佇列Kafka版

前提條件

  • PolarDB PostgreSQL版(相容Oracle)叢集中wal_level參數的值需設定為logical,即在預寫式日誌WAL(Write-ahead logging)中增加支援邏輯編碼所需的資訊。設定方法,請參見設定叢集參數

  • 已建立儲存空間大於源PolarDB PostgreSQL版(相容Oracle)執行個體已佔用儲存空間的目標阿里雲訊息佇列Kafka版執行個體。

  • 目標阿里雲訊息佇列Kafka版執行個體中已建立用於接收同步資料的Topic,請參見步驟一:建立Topic

注意事項

類型

說明

源庫限制

  • 頻寬要求:源庫所屬的伺服器需具備足夠出口頻寬,否則將影響資料同步速率。

  • 待同步的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。

  • 如同步對象為表層級,且需進行編輯(如表列名映射),則單次同步任務待同步的表數量超過1000時,建議您拆分待同步的表,分批配置為多個任務,或者配置整庫的同步任務,否則任務提交後可能會顯示請求報錯。

  • 需開啟WAL日誌。如為增量同步處理任務,DTS要求來源資料庫的WAL日誌儲存24小時以上,如為全量同步和增量同步處理任務,DTS要求來源資料庫的WAL日誌至少保留7天以上(您可在全量同步完成後將WAL日誌儲存時間設定為24小時以上),否則DTS可能因無法擷取WAL日誌而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由於您所設定的WAL日誌儲存時間低於DTS要求的時間進而導致的問題,不在DTS的SLA保障範圍內。

  • 若源庫有長事務,在增量同步處理任務運行時可能會導致源庫長事務提交前的預寫記錄檔WAL(Write-Ahead Logging)無法清理而堆積,從而造成源庫磁碟空間不足。

  • 源庫的操作限制:

    • 在庫表結構同步和全量同步階段,請勿執行庫或表結構變更的DDL操作,否則資料同步任務會失敗。

    • 如僅執行全量資料同步,請勿向源執行個體中寫入新的資料,否則會導致源和目標資料不一致。為即時保持資料一致性,建議選擇結構同步、全量資料同步和增量資料同步。

    • 為保障同步任務的正常進行,避免主備切換導致的邏輯訂閱中斷,需要PolarDB PostgreSQL版(相容Oracle)支援並開啟Logical Replication Slot Failover。設定方式,請參見邏輯複製槽容錯移轉(Logical Replication Slot Failover)

其他限制

  • 單個資料同步任務只能同步一個資料庫,如需同步多個資料庫,您需要為每個資料庫配置資料同步任務。

  • 增量資料同步期間,DTS會在源庫中建立首碼為dts_sync_的replication slot用於複製資料。通過該replication slot,DTS可以擷取源庫15分鐘內的增量日誌。

    說明

    當釋放同步任務或同步失敗時,DTS會主動清理該replication slot;如果源庫發生了主備切換,則需要您登入備庫來手動清理。

  • 在資料同步期間,若目標Kafka發生了擴容或縮容,您需要重啟遷移執行個體。

  • 為保障增量資料同步延遲時間展示的準確性,DTS會在源庫中新增一個表,表名為dts_postgres_heartbeat,結構及內容如下圖所示。表結構

  • 執行資料同步前需評估源庫和目標庫的效能,同時建議在業務低峰期執行資料同步(例如源庫和目標庫的CPU負載在30%以下)。否則全量資料同步時DTS佔用源和目標庫一定讀寫資源,可能會導致資料庫的負載上升。

  • DTS會嘗試恢複七天之內同步失敗的任務。因此業務切換至目標執行個體前,請務必結束或釋放該任務,或者回收DTS訪問目標執行個體帳號的寫入權限。避免該任務被自動回復後,源端資料覆蓋目標執行個體的資料。

費用說明

同步類型

鏈路配置費用

庫表結構同步

不收費。

增量資料同步

收費,詳情請參見計費概述

支援增量同步處理的SQL操作

操作類型

SQL動作陳述式

DML

INSERT、UPDATE、DELETE

DDL

  • CREATE TABLE、ALTER TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE

  • CREATE VIEW、ALTER VIEW、DROP VIEW

  • CREATE PROCEDURE、ALTER PROCEDURE、DROP PROCEDURE

  • CREATE FUNCTION、DROP FUNCTION

  • CREATE INDEX、DROP INDEX

說明

不支援DDL同步的有以下情境:

  • DDL中CASCADE和RESTRICT等附加資訊不會被同步。

  • 一個事務中包含DML和DDL,則該DDL不會被同步。

  • 一個事務中同時包含在同步對象的DDL和不在同步對象的DDL。

  • 通過設定SET session_replication_role = replica會話下執行的DDL不支援同步。

  • 通過調用FUNCTION等方式執行的DDL。

  • 省略schema的DDL(會使用 show search_path 預設為public)。

  • DDL語句中包含if not exist的情境。

資料庫帳號的許可權要求

資料庫

許可權要求

帳號建立及授權方法

PolarDB PostgreSQL版(相容Oracle)叢集

高許可權帳號

建立和管理資料庫帳號

操作步驟

  1. 進入同步任務的列表頁面。

    1. 登入Data Management服務

    2. 在頂部功能表列中,單擊整合與開發(DTS)

    3. 在左側導覽列,選擇資料轉送(DTS) > 資料同步

    說明
  2. 同步任務右側,選擇同步執行個體所屬地區。

    說明

    新版DTS同步工作清單頁面,需要在頁面左上方選擇同步執行個體所屬地區。

  3. 單擊創建任務,進入任務配置頁面。

  4. 可選:在頁面右上方,單擊試用新版配置頁

    說明
    • 若您已進入新版配置頁(頁面右上方的按鈕為返回舊版配置頁),則無需執行此操作。

    • 新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。

  5. 配置源庫及目標庫資訊。

    說明

    目標阿里雲訊息佇列Kafka版執行個體的參數擷取方式,請參見配置訊息佇列Kafka版執行個體的參數

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要輸入下方的資料庫資訊。

    說明

    資料庫類型

    選擇PolarDB(相容Oracle)

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇源PolarDB PostgreSQL版(相容Oracle)叢集所屬的地區。

    是否跨阿里雲帳號

    本樣本使用當前阿里雲帳號下的資料庫執行個體,需選擇不跨帳號

    執行個體ID

    選擇源PolarDB PostgreSQL版(相容Oracle)叢集的ID。

    資料庫名稱

    填入源PolarDB PostgreSQL版(相容Oracle)叢集中待同步對象所屬資料庫的名稱。

    資料庫帳號

    填入源PolarDB PostgreSQL版(相容Oracle)叢集的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    目標庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要輸入下方的資料庫資訊。

    說明

    資料庫類型

    選擇Kafka

    接入方式

    選擇專線/VPN網關/智能網關

    說明

    此同步執行個體中的阿里雲訊息佇列Kafka版暫不支援以雲執行個體的方式接入到DTS,需要將其作為自建Kafka進行配置。

    執行個體地區

    選擇目標阿里雲訊息佇列Kafka版執行個體所屬地區。

    已和目標端資料庫聯通的VPC

    選擇目標阿里雲訊息佇列Kafka版執行個體所屬的專用網路ID。

    網域名稱或IP地址

    填入目標阿里雲訊息佇列Kafka版執行個體預設存取點中的任意一個IP地址。

    連接埠

    填入目標阿里雲訊息佇列Kafka版執行個體的服務連接埠,預設為9092

    資料庫帳號

    本樣本無需填寫。

    資料庫密碼

    Kafka版本

    請根據Kafka執行個體版本,選擇對應的版本資訊。

    串連方式

    請根據業務及安全需求,選擇非加密串連SCRAM-SHA-256

    Topic

    在下拉框中選擇接收資料的Topic。

    儲存DDL的Topic

    在下拉框中選擇用於儲存DDL資訊的Topic。如果未指定,DDL資訊預設儲存在Topic選擇的Topic中。

    是否使用Kafka Schema Registry

    Kafka Schema Registry是中繼資料提供服務層,提供了一個RESTful介面,用於儲存和檢索Avro Schema。

    • :不使用Kafka Schema Registry。

    • :使用Kafka Schema Registry。您需要在Schema Registry URI或IP文字框輸入Avro Schema在Kafka Schema Registry註冊的URL或IP。

  6. 配置完成後,單擊頁面下方的測試連接以進行下一步

    如果源或目標資料庫是阿里雲資料庫執行個體(例如RDS MySQLApsaraDB for MongoDB等),DTS會自動將對應地區DTS服務的IP地址添加到阿里雲資料庫執行個體的白名單中;如果源或目標資料庫是ECS上的自建資料庫,DTS會自動將對應地區DTS服務的IP地址添到ECS的安全規則中,您還需確保自建資料庫沒有限制ECS的訪問(若資料庫是叢集部署在多個ECS執行個體,您需要手動將DTS服務對應地區的IP地址添到其餘每個ECS的安全規則中);如果源或目標資料庫是IDC自建資料庫或其他雲資料庫,則需要您手動添加對應地區DTS服務的IP地址,以允許來自DTS伺服器的訪問。DTS服務的IP地址,請參見DTS伺服器的IP位址區段

    警告

    DTS自動添加或您手動添加DTS服務的公網IP位址區段可能會存在安全風險,一旦使用本產品代表您已理解和確認其中可能存在的安全風險,並且需要您做好基本的安全防護,包括但不限於加強帳號密碼強度防範、限制各網段開放的連接埠號碼、內部各API使用鑒權方式通訊、定期檢查並限制不需要的網段,或者使用通過內網(專線/VPN網關/智能網關)的方式接入。

  7. 配置任務對象。

    1. 對象配置頁面,配置待同步的對象。

      配置

      說明

      同步類型

      建議同時選中庫表結構同步增量同步處理

      說明

      不支援全量同步

      目標已存在表的處理模式

      • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料同步任務不會被啟動。

        說明

        如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

      • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

        警告

        選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

        • 表結構一致的情況下,如在目標庫遇到與源庫主鍵或唯一鍵的值相同的記錄:

          • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會同步至目標資料庫中。

          • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

        • 表結構不一致的情況下,可能會導致無法初始化資料、只能同步部分列的資料或同步失敗,請謹慎操作。

      投遞到Kafka的資料格式

      請根據業務需求選擇同步到Kafka執行個體中的資料存放區格式。

      • 如果您選擇DTS Avro,根據DTS Avro的Schema定義進行資料解析,Schema定義詳情請參見DTS Avro的schema定義

      • 如果您選擇Shareplex Json,Shareplex Json的參數說明和樣本請參見Shareplex Json

      投遞到Kafka Partition策略

      請根據業務需求選擇同步的策略,策略資訊請參見Kafka Partition遷移策略說明

      目標庫對象名稱大小寫策略

      您可以配置目標執行個體中同步對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略

      源庫對象

      源庫對象框中單擊待同步對象,然後單擊向右將其移動至已選擇對象框。

      說明

      同步對象的選擇粒度為表。

      已選擇對象

      本樣本無需額外配置。您可以使用映射功能,設定源表在目標Kafka執行個體中的Topic名稱、Topic的Partition數量、Partition Key等資訊。更多資訊,請參見映射資訊

      說明
      • 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象同步失敗。

      • 如需選擇增量同步處理的SQL操作,請在已選擇對象中右擊待同步對象,並在彈出的對話方塊中選擇所需同步的SQL操作。支援的操作,請參見支援增量同步處理的SQL操作

    2. 單擊下一步高級配置,進行進階參數配置。

      配置

      說明

      選擇調度該任務的專屬叢集

      DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS同步任務。更多資訊,請參見什麼是DTS專屬叢集

      源庫、目標庫無法串連後的重試時間

      在同步任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設持續重試時間為720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的重試時間內重新串連上源庫、目標庫,同步任務將自動回復。否則,同步任務將會失敗。

      說明
      • 針對同源或者同目標的多個DTS執行個體,如DTS執行個體A和DTS執行個體B,設定網路重試時間時A設定30分鐘,B設定60分鐘,則重試時間以低的30分鐘為準。

      • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

      源庫、目標庫出現其他問題後的重試時間

      在同步任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,同步任務將自動回復。否則,同步任務將會失敗。

      重要

      源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

      是否限制增量同步處理速率

      您也可以根據實際情況,選擇是否對增量同步處理任務進行限速設定(設定每秒增量同步處理的行數RPS每秒增量同步處理的數據量(MB)BPS),以緩解目標庫的壓力。

      環境標籤

      您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

      配置ETL功能

      選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

      監控警示

      是否設定警示,當同步失敗或延遲超過閾值後,將通知警示連絡人。

  8. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在同步作業正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動同步作業。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  9. 預檢查通過率顯示為100%時,單擊下一步購買

  10. 購買執行個體。

    1. 購買頁面,選擇資料同步執行個體的計費方式、鏈路規格,詳細說明請參見下表。

      類別

      參數

      說明

      資訊配置

      計費方式

      • 預付費(訂用帳戶):在建立執行個體時支付費用。適合長期需求,價格比隨用隨付更實惠,且購買時間長度越長,折扣越多。

      • 後付費(隨用隨付):按小時計費。適合短期需求,用完可立即釋放執行個體,節省費用。

      資源群組配置

      執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

      鏈路規格

      DTS為您提供了不同效能的同步規格,同步鏈路規格的不同會影響同步速率,您可以根據業務情境進行選擇。更多資訊,請參見資料同步鏈路規格說明

      訂購時間長度

      在預付費模式下,選擇訂用帳戶執行個體的時間長度和數量,包月可選擇1~9個月,包年可選擇1年、2年、3年和5年。

      說明

      該選項僅在付費類型為預付費時出現。

    2. 配置完成後,閱讀並勾選《資料轉送(隨用隨付)服務條款》

    3. 單擊購買並啟動,同步任務正式開始,您可在資料同步介面查看具體任務進度。

映射資訊

  1. 已選擇對象地區框中,將滑鼠指標放置在目標Topic名(表層級)上。

  2. 單擊目標Topic名後出現的編輯

  3. 在彈出的編輯表對話方塊中,配置映射資訊。

    配置

    說明

    表名稱

    源表同步到的目標Topic名稱,預設為源庫及目標庫配置階段在目標庫資訊選擇的Topic

    重要
    • 目標庫為阿里雲訊息佇列Kafka版執行個體時,設定的Topic名稱必須在目標Kafka執行個體中真實存在,否則將導致資料同步失敗。

    • 若您修改了表名稱,資料將會被寫入到您填寫的Topic中。

    過濾條件

    詳情請參見設定過濾條件

    設定建立Topic的Partition數量

    資料寫入到目標Topic時的分區數。

    Partition Key

    投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。

    說明

    取消選中全表同步後,才可以勾選Partition Key

  4. 單擊確定