Data Transmission Service支援RDS MySQL執行個體同步至阿里雲訊息佇列Kafka版。
前提條件
已建立源執行個體RDS MySQL和目標執行個體阿里雲訊息佇列Kafka版。
說明源執行個體RDS MySQL的建立方式,請參見建立RDS MySQL執行個體。
源庫和目標庫支援的版本,請參見同步方案概覽。
目標執行個體阿里雲訊息佇列Kafka版中已建立用於接收同步資料的Topic,請參見步驟一:建立Topic。
目標執行個體阿里雲訊息佇列Kafka版的儲存空間須大於源執行個體RDS MySQL佔用的儲存空間。
注意事項
DTS不會將來源資料庫中的外鍵同步到目標資料庫,因此來源資料庫的級聯、刪除等操作不會同步到目標資料庫。
類型 | 說明 |
源庫限制 |
|
其他限制 |
|
特殊情況 |
|
費用說明
同步類型 | 鏈路配置費用 |
庫表結構同步和全量資料同步 | 不收費。 |
增量資料同步 | 收費,詳情請參見計費概述。 |
單條記錄大小限制
由於寫入Kafka單條記錄的大小是10MB,因此當源端一行資料超過10MB時,DTS由於無法成功寫入Kafka會導致任務中斷。在該情境下建議您不要同步該表,如果一定要同步,也只能同步部分列,即配置DTS任務時,過濾掉這些大欄位的記錄。如果已經是在同步中的任務,則需要修改同步對象,將該表移出,再次點擊修改同步對象,加入該表,並將該表的大欄位列過濾,不做同步。
支援的同步架構
一對一單向同步。
一對多單向同步。
多對一單向同步。
關於各類同步架構的介紹及注意事項,請參見資料同步拓撲介紹。
支援同步的SQL操作
操作類型 | SQL動作陳述式 |
DML | INSERT、UPDATE、DELETE |
DDL |
|
操作步驟
進入目標地區的同步工作清單頁面(二選一)。
通過DTS控制台進入
在左側導覽列,單擊資料同步。
在頁面左上方,選擇同步執行個體所屬地區。
通過DMS控制台進入
說明實際操作可能會因DMS的模式和布局不同,而有所差異。更多資訊,請參見極簡模式控制台和自訂DMS介面布局與樣式。
在頂部功能表列中,選擇
。在同步任務右側,選擇同步執行個體所屬地區。
單擊創建任務,進入任務配置頁面。
可選:在頁面右上方,單擊試用新版配置頁。
說明若您已進入新版配置頁(頁面右上方的按鈕為返回舊版配置頁),則無需執行此操作。
新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。
配置源庫及目標庫資訊。
警告選擇源和目標執行個體後,建議您仔細閱讀頁面上方顯示的使用限制,否則可能會導致任務失敗或資料不一致。
類別
配置
說明
無
任務名稱
DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。
源庫資訊
選擇已有的DMS資料庫執行個體(可選,如未建立可忽略此處選擇,直接在下方設定資料庫資訊即可)
您可以按實際需求,選擇是否使用已有執行個體。
如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。
如不使用已有執行個體,您需要輸入下方的資料庫資訊。
資料庫類型
選擇MySQL。
接入方式
選擇雲執行個體。
執行個體地區
選擇源RDS MySQL執行個體所屬地區。
是否跨阿里雲帳號
本樣本為同一阿里雲帳號間的同步,選擇不跨帳號。
RDS執行個體ID
選擇源RDS MySQL執行個體ID。
資料庫帳號
填入源RDS MySQL執行個體的資料庫帳號,需具備待同步對象的讀許可權。
資料庫密碼
填入該資料庫帳號對應的密碼。
串連方式
根據需求選擇非加密串連或SSL安全連線。如果設定為SSL安全連線,您需要提前開啟RDS MySQL執行個體的SSL加密功能,詳情請參見使用雲端認證快速開啟SSL鏈路加密。
目標庫資訊
選擇已有的DMS資料庫執行個體(可選,如未建立可忽略此處選擇,直接在下方設定資料庫資訊即可)
您可以按實際需求,選擇是否使用已有執行個體。
如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。
如不使用已有執行個體,您需要輸入下方的資料庫資訊。
資料庫類型
選擇Kafka。
接入方式
選擇雲執行個體。
執行個體地區
選擇目標阿里雲訊息佇列Kafka版執行個體所屬地區。
Kafka執行個體ID
選擇目標阿里雲訊息佇列Kafka版執行個體的ID。
串連方式
根據業務及安全需求,選擇非加密串連或SCRAM-SHA-256。
Topic
在下拉框中選擇具體的Topic。
儲存DDL的Topic
在下拉框中選擇具體的Topic,用於儲存DDL資訊。如果未指定,DDL資訊預設儲存在Topic選擇的Topic中。
是否使用Kafka Schema Registry
Kafka Schema Registry是中繼資料提供服務層,提供了一個RESTful介面,用於儲存和檢索Avro Schema。
否:不使用Kafka Schema Registry。
是:使用Kafka Schema Registry。您需要輸入Avro Schema在Kafka Schema Registry註冊的URL或IP。
配置完成後,在頁面下方單擊測試連接以進行下一步。
說明請確保DTS服務的IP位址區段能夠被自動或手動添加至源庫和目標庫的安全設定中,以允許DTS伺服器的訪問。更多資訊,請參見添加DTS伺服器的IP位址區段。
若源庫或目標庫為自建資料庫(接入方式不是雲執行個體),則還需要在彈出的DTS伺服器訪問授權對話方塊單擊測試連接。
配置任務對象及進階配置。
配置
說明
同步類型
固定選中增量同步處理。預設情況下,您還需要同時選中庫表結構同步和全量同步。預檢查完成後,DTS會將源執行個體中待同步對象的全量資料在目的地組群中初始化,作為後續增量同步處理資料的基準資料。
說明目標庫為阿里雲訊息佇列Kafka版執行個體時,不支援庫表結構同步。
目標已存在表的處理模式
預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料同步任務不會被啟動。
說明如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射。
忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。
警告選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:
表結構一致的情況下,如在目標庫遇到與源庫主鍵或唯一鍵的值相同的記錄:
全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會同步至目標資料庫中。
增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。
表結構不一致的情況下,可能會導致無法初始化資料、只能同步部分列的資料或同步失敗,請謹慎操作。
投遞到Kafka的資料格式
根據需求選擇同步到Kafka執行個體中的資料存放區格式。
如果您選擇DTS Avro,根據DTS Avro的schema定義進行資料解析,schema定義詳情請參見DTS Avro的schema定義。
如果您選擇Canal Json,Canal Json的參數說明和樣本請參見Canal Json說明。
Kafka壓縮格式
根據需求選擇Kafka壓縮訊息的壓縮格式。
LZ4(預設):壓縮率較低,壓縮速率較高。
GZIP:壓縮率較高,壓縮速率較低。
說明對CPU的消耗較高。
Snappy:壓縮率中等,壓縮速率中等。
投遞到Kafka Partition策略
根據業務需求選擇同步的策略,詳細介紹請參見Kafka Partition遷移策略說明。
目標庫對象名稱大小寫策略
您可以配置目標執行個體中同步對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略。
源庫對象
在源庫對象框中單擊待同步對象,然後單擊將其移動至已選擇對象框。
說明同步對象的選擇粒度為表。
已選擇對象
本樣本無需額外配置。您可以使用映射功能,設定源表在目標Kafka執行個體中的Topic名稱、Topic的Partition數量、Partition Key等資訊。更多資訊,請參見映射資訊。
說明如需按庫或表層級選擇同步的SQL操作,請在已選擇對象中右擊待同步對象,並在彈出的對話方塊中選擇所需同步的SQL操作。支援的操作,請參見支援同步的SQL操作。
如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象同步失敗。
單擊下一步高級配置,進行進階配置。
配置
說明
選擇調度該任務的專屬叢集
DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS同步任務。更多資訊,請參見什麼是DTS專屬叢集。
設定警示
是否設定警示,當同步失敗或延遲超過閾值後,將通知警示連絡人。
不設定:不設定警示。
設定:設定警示,您還需要設定警示閾值和警示通知。更多資訊,請參見在配置任務過程中配置監控警示。
源庫、目標庫無法串連後的重試時間
在同步任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設持續重試時間為720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的重試時間內重新串連上源庫、目標庫,同步任務將自動回復。否則,同步任務將會失敗。
說明針對同源或者同目標的多個DTS執行個體,如DTS執行個體A和DTS執行個體B,設定網路重試時間時A設定30分鐘,B設定60分鐘,則重試時間以低的30分鐘為準。
由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。
源庫、目標庫出現其他問題後的重試時間
在同步任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,同步任務將自動回復。否則,同步任務將會失敗。
重要源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。
是否限制全量遷移速率
在全量同步階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量同步任務進行限速設定(設定每秒查詢源庫的速率QPS、每秒全量遷移的行數RPS和每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。
說明僅當同步類型選擇了全量同步時才可以配置。
是否限制增量同步處理速率
您也可以根據實際情況,選擇是否對增量同步處理任務進行限速設定(設定每秒增量同步處理的行數RPS和每秒增量同步處理的數據量(MB)BPS),以緩解目標庫的壓力。
環境標籤
您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。
配置ETL功能
選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL。
是:配置ETL功能,並在文字框中填寫資料處理語句,詳情請參見在DTS遷移或同步任務中配置ETL。
否:不配置ETL功能。
是否去除正反向任務的心跳錶sql
根據業務需求選擇是否在DTS執行個體運行時,在源庫中寫入心跳SQL資訊。
是:不在源庫中寫入心跳SQL資訊,DTS執行個體可能會顯示有延遲。
否:在源庫中寫入心跳SQL資訊,可能會影響源庫的物理備份和複製等功能。
儲存任務並進行預檢查。
若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數。
若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查。
說明在同步作業正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動同步作業。
如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。
如果預檢查產生警告:
對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。
對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情、確認屏蔽、確定、重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。
預檢查通過率顯示為100%時,單擊下一步購買。
在購買頁面,選擇資料同步執行個體的計費方式、鏈路規格,詳細說明請參見下表。
類別
參數
說明
資訊配置
計費方式
預付費(訂用帳戶):在建立執行個體時支付費用。適合長期需求,價格比隨用隨付更實惠,且購買時間長度越長,折扣越多。
後付費(隨用隨付):按小時計費。適合短期需求,用完可立即釋放執行個體,節省費用。
資源群組配置
執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理。
鏈路規格
DTS為您提供了不同效能的同步規格,同步鏈路規格的不同會影響同步速率,您可以根據業務情境進行選擇。更多資訊,請參見資料同步鏈路規格說明。
訂購時間長度
在預付費模式下,選擇訂用帳戶執行個體的時間長度和數量,包月可選擇1~9個月,包年可選擇1年、2年、3年和5年。
說明該選項僅在付費類型為預付費時出現。
配置完成後,閱讀並勾選《資料轉送(隨用隨付)服務條款》。
單擊購買並啟動,並在彈出的確認對話方塊,單擊確定。
您可在資料同步介面查看具體任務進度。
映射資訊
在已選擇對象地區框中,將滑鼠指標放置在目標Topic名(表層級)上。
單擊目標Topic名後出現的編輯。
在彈出的編輯表對話方塊中,配置映射資訊。
配置
說明
表名稱
源表同步到的目標Topic名稱,預設為源庫及目標庫配置階段在目標庫資訊選擇的Topic。
重要目標庫為阿里雲訊息佇列Kafka版執行個體時,設定的Topic名稱必須在目標Kafka執行個體中真實存在,否則將導致資料同步失敗。
若您修改了表名稱,資料將會被寫入到您填寫的Topic中。
過濾條件
詳情請參見設定過濾條件。
設定建立Topic的Partition數量
資料寫入到目標Topic時的分區數。
Partition Key
當投遞到Kafka Partition策略選擇為按主鍵的hash值投遞到不同Partition時,您可以配置本參數,指定單個或多個列作為Partition Key來計算Hash值,DTS將根據計算得到的Hash值將不同的行投遞到目標Topic的各Partition中。
說明取消選中全表同步後,才可以勾選Partition Key。
單擊確定。