本文介紹如何使用Data Transmission Service,將TiDB資料庫的資料移轉至雲原生資料倉儲AnalyticDB MySQL版 3.0叢集。
前提條件
準備工作(可選)
TiDB的增量資料變更有如下兩種採集方式,請根據實際情況選擇。
使用TiDB Binlog
為減少網路延遲對資料移轉的影響,Pump組件、Drainer組件和Kafka叢集所部署的伺服器需要與源庫所屬的伺服器在同一內網中。
準備Kafka叢集(二選一)。
部署自建Kafka叢集,詳情請參見Apache Kafka官網。
警告為保障Kafka叢集可以正常接收TiDB資料庫產生的較大的Binlog資料,請適當將Broker組件中的
message.max.bytes
、replica.fetch.max.bytes
參數以及Consumer組件中的fetch.message.max.bytes
參數對應的值調大,詳情請參見Kafka配置說明。使用阿里雲訊息佇列Kafka版,詳情請參見快速入門。
說明為保障正常通訊和減少網路延遲對增量資料移轉的影響,部署阿里雲訊息佇列Kafka執行個體時,需要配置和源程式庫伺服器相同的專用網路。
在自建Kafka叢集或阿里雲訊息佇列Kafka執行個體中建立Topic。
重要建立的Topic應當只包含一個分區,以確保增量資料可以被複製到ID為0的分區。
部署Pump和Drainer組件,詳情請參見TiDB Binlog叢集部署。
修改Drainer組件的設定檔,設定輸出為Kafka,詳情請參見Kafka自訂開發。
說明請確保TiDB資料庫所在的伺服器能夠正常串連到Kafka叢集。
將DTS伺服器的IP位址區段加入至TiDB資料庫的白名單安全設定中,具體IP位址區段資訊請參見添加DTS伺服器的IP位址區段。
使用TiDB CDC
準備Kafka叢集(二選一)。
部署自建Kafka叢集,詳情請參見Apache Kafka官網。
警告為保障Kafka叢集可以正常接收TiDB資料庫產生的較大的Binlog資料,請適當將Broker組件中的
message.max.bytes
、replica.fetch.max.bytes
參數以及Consumer組件中的fetch.message.max.bytes
參數對應的值調大,詳情請參見Kafka配置說明。使用阿里雲訊息佇列Kafka版,詳情請參見快速入門。
說明為保障正常通訊和減少網路延遲對增量資料移轉的影響,部署阿里雲訊息佇列Kafka執行個體時,需要配置和源程式庫伺服器相同的專用網路。
在自建Kafka叢集或阿里雲訊息佇列Kafka執行個體中建立Topic。
重要建立的Topic應當只包含一個分區,以確保增量資料可以被複製到ID為0的分區。
安裝TiCDC組件,詳情請參見部署TiCDC。
說明建議使用TiUP在原有TiDB叢集上新增或擴容TiCDC組件。
將增量資料複製到Kafka,詳情請參見同步資料到Kafka。
說明請確保TiDB資料庫所在的伺服器能夠正常串連到Kafka叢集。
建議第一行命令使用
tiup cdc cli changefeed create \
。
注意事項
類型 | 說明 |
源庫限制 |
|
其他限制 |
|
資料類型映射關係
詳情請參見異構資料庫間的資料類型映射關係。
費用說明
遷移類型 | 鏈路配置費用 | 公網流量費用 |
結構遷移和全量資料移轉 | 不收費。 | 通過公網將資料移轉出阿里雲時將收費,詳情請參見計費概述。 |
增量資料移轉 | 收費,詳情請參見計費概述。 |
支援增量遷移的SQL操作
操作類型 | SQL動作陳述式 |
DML | INSERT、UPDATE、DELETE 說明 在資料寫入到AnalyticDB for MySQL時,UPDATE語句會自動轉化為REPLACE INTO語句(若更新的是主鍵,則會轉化為DELETE+INSERT語句)。 |
DDL | CREATE TABLE、DROP TABLE、RENAME TABLE、TRUNCATE TABLE、ADD COLUMN、DROP COLUMN |
資料庫帳號的許可權要求
資料庫 | 許可權要求 | 帳號建立及授權方法 |
TiDB資料庫 | SHOW VIEW和待遷移對象的SELECT許可權 | |
雲原生資料倉儲AnalyticDB MySQL版 3.0叢集 | 目標庫的讀寫權限 |
操作步驟
進入目標地區的遷移工作清單頁面(二選一)。
通過DTS控制台進入
在左側導覽列,單擊資料移轉。
在頁面左上方,選擇遷移執行個體所屬地區。
通過DMS控制台進入
說明實際操作可能會因DMS的模式和布局不同,而有所差異。更多資訊。請參見極簡模式控制台和自訂DMS介面布局與樣式。
在頂部功能表列中,選擇
。在遷移任務右側,選擇遷移執行個體所屬地區。
單擊創建任務,進入任務配置頁面。
可選:在頁面右上方,單擊試用新版配置頁。
說明若您已進入新版配置頁(頁面右上方的按鈕為返回舊版配置頁),則無需執行此操作。
新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。
配置源庫及目標庫資訊。
類別
配置
說明
無
任務名稱
DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。
源庫資訊
選擇已有串連資訊
您可以按實際需求,選擇是否使用已有資料庫執行個體。
如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。
如不使用已有執行個體,您需要配置下方的資料庫資訊。
說明您可以在資料連線管理頁面或新版配置頁面,將資料庫錄入DTS。更多資訊,請參見資料連線管理。
DMS控制台的配置項為選擇DMS資料庫執行個體,您可以單擊新增DMS資料庫執行個體或在控制台首頁將資料庫錄入DMS。更多資訊,請參見雲資料庫錄入和他雲/自建資料庫錄入。
資料庫類型
選擇TiDB。
接入方式
請根據TiDB資料庫的部署位置進行選擇,本樣本選擇ECS自建資料庫。
說明當自建資料庫為其他接入方式時,您還需要執行相應的準備工作,詳情請參見準備工作概覽。
執行個體地區
選擇TiDB資料庫所屬的地區。
ECS執行個體ID
選擇TiDB資料庫所屬的ECS執行個體ID。
連接埠
填入TiDB資料庫的服務連接埠,預設為4000。
資料庫帳號
填入TiDB資料庫的帳號,許可權要求請參見資料庫帳號的許可權要求。
資料庫密碼
填入該資料庫帳號對應的密碼。
是否做增量遷移
請根據需求選擇是否遷移TiDB資料庫的增量資料。
說明若您需要遷移TiDB資料庫的增量資料,請選擇為是,同時需要填寫Kafka叢集資訊。更多資訊,請參見Kafka叢集資訊。
目標庫資訊
選擇已有串連資訊
您可以按實際需求,選擇是否使用已有資料庫執行個體。
如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。
如不使用已有執行個體,您需要配置下方的資料庫資訊。
說明您可以在資料連線管理頁面或新版配置頁面,將資料庫錄入DTS。更多資訊,請參見資料連線管理。
DMS控制台的配置項為選擇DMS資料庫執行個體,您可以單擊新增DMS資料庫執行個體或在控制台首頁將資料庫錄入DMS。更多資訊,請參見雲資料庫錄入和他雲/自建資料庫錄入。
資料庫類型
選擇AnalyticDB MySQL 3.0。
接入方式
選擇雲執行個體。
執行個體地區
選擇目標AnalyticDB MySQL 3.0叢集所屬地區。
執行個體ID
選擇目標AnalyticDB MySQL 3.0叢集的ID。
資料庫帳號
填入目標AnalyticDB MySQL 3.0叢集的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求。
資料庫密碼
填入該資料庫帳號對應的密碼。
配置完成後,單擊頁面下方的測試連接以進行下一步。
如果源或目標資料庫是阿里雲資料庫執行個體(例如RDS MySQL、ApsaraDB for MongoDB等),DTS會自動將對應地區DTS服務的IP地址添加到阿里雲資料庫執行個體的白名單;如果源或目標資料庫是ECS上的自建資料庫,DTS會自動將對應地區DTS服務的IP地址添到ECS的安全規則中,您還需確保自建資料庫沒有限制ECS的訪問(若資料庫是叢集部署在多個ECS執行個體,您需要手動將DTS服務對應地區的IP地址添到其餘每個ECS的安全規則中);如果源或目標資料庫是IDC自建資料庫或其他雲資料庫,則需要您手動添加對應地區DTS服務的IP地址,以允許來自DTS伺服器的訪問。DTS服務的IP地址,請參見DTS伺服器的IP位址區段。
警告DTS自動添加或您手動添加DTS服務的公網IP位址區段可能會存在安全風險,一旦使用本產品代表您已理解和確認其中可能存在的安全風險,並且需要您做好基本的安全防護,包括但不限於加強帳號密碼強度防範、限制各網段開放的連接埠號碼、內部各API使用鑒權方式通訊、定期檢查並限制不需要的網段,或者使用通過內網(專線/VPN網關/智能網關)的方式接入。
配置任務對象。
在對象配置頁面,配置待遷移的對象。
配置
說明
遷移類型
如果只需要進行全量遷移,請同時選中庫表結構遷移和全量遷移。
如果需要進行不停機遷移,請同時選中庫表結構遷移、全量遷移和增量遷移。
說明如果未選擇增量遷移,為保障資料一致性,資料移轉期間請勿在源執行個體中寫入新的資料。
多表歸併
選擇為是:DTS將在每個表中增加
__dts_data_source
列來儲存資料來源。具體操作,請參見開啟多表歸併。選擇為否:預設選項。
說明多表歸併功能基於任務層級,即不支援基於表層級執行多表歸併。如果需要讓部分表執行多表歸併,另一部分不執行多表歸併,您可以建立兩個資料移轉任務。
警告源庫請勿執行庫或表結構變更的DDL操作,否則會導致資料不一致或者遷移任務失敗。
目標已存在表的處理模式
預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料移轉任務不會被啟動。
說明如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射。
忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。
警告選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:
表結構一致的情況下,在目標庫遇到與源庫主鍵的值相同的記錄:
全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會遷移至目標資料庫中。
增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。
表結構不一致的情況下,可能導致只能遷移部分列的資料或遷移失敗,請謹慎操作。
目標庫對象名稱大小寫策略
您可以配置目標執行個體中遷移對象的庫名、表名和列名的英文大小寫策略。預設情況下選擇DTS預設策略,您也可以選擇與源庫、目標庫預設策略保持一致。更多資訊,請參見目標庫對象名稱大小寫策略。
源庫對象
在源庫對象框中單擊待遷移的對象,然後單擊將其移動到已選擇對象框。
說明遷移對象選擇的粒度為庫或表。
已選擇對象
如需更改單個遷移對象在目標執行個體中的名稱,請右擊已選擇對象中的遷移對象,設定方式,請參見庫表列名單個映射。
如需批量更改遷移對象在目標執行個體中的名稱,請單擊已選擇對象方框右上方的大量編輯,設定方式,請參見庫表列名批量映射。
說明如需設定WHERE條件過濾資料,請在已選擇對象中右擊待遷移的表,在彈出的對話方塊中設定過濾條件。設定方法請參見設定過濾條件。
如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。
單擊下一步高級配置,進行進階參數配置。
配置
說明
源庫、目標庫無法串連後的重試時間
在遷移任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設重試720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的時間內重新串連上源、目標庫,遷移任務將自動回復。否則,遷移任務將失敗。
說明針對同源或者同目標的多個DTS執行個體,網路重試時間以後建立任務的設定為準。
由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。
源庫、目標庫出現其他問題後的重試時間
在遷移任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,遷移任務將自動回復。否則,遷移任務將會失敗。
重要源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。
是否限制全量遷移速率
在全量遷移階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設定(設定每秒查詢源庫的速率QPS、每秒全量遷移的行數RPS和每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。
說明僅當遷移類型選擇了全量遷移時才可以配置。
是否限制增量遷移速率
您也可以根據實際情況,選擇是否對增量遷移任務進行限速設定(設定每秒增量遷移的行數RPS和每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。
說明僅當遷移類型選擇了增量遷移時才可以配置。
環境標籤
您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。
配置ETL功能
選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL。
是:配置ETL功能,並在文字框中填寫資料處理語句,詳情請參見在DTS遷移或同步任務中配置ETL。
否:不配置ETL功能。
監控警示
是否設定警示,當遷移失敗或延遲超過閾值後,將通知警示連絡人。
不設定:不設定警示。
設定:設定警示,您還需要設定警示閾值和警示通知。更多資訊,請參見在配置任務過程中配置監控警示。
單擊下一步資料校正,進行資料校正任務配置。
若您需要使用資料校正功能,配置方法請參見配置資料校正。
可選:單擊下一步配置庫表欄位,設定待遷移的表在目標AnalyticDB MySQL 3.0叢集中的類型、主鍵列、分布鍵和分區鍵資訊(分區鍵、分區規則和分區生命週期)。
說明配置任務對象時遷移類型勾選了庫表結構遷移選項時才會有本步驟,您可以將定義狀態選擇為全部後進行修改。
主鍵列可以是選擇多個列組成聯合主鍵,且需要從主鍵列中選擇1個或者多個列作為分布鍵和分區鍵。更多資訊,請參見CREATE TABLE。
儲存任務並進行預檢查。
若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數。
若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查。
說明在遷移任務正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動遷移任務。
如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。
如果預檢查產生警告:
對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。
對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情、確認屏蔽、確定、重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。
購買執行個體。
預檢查通過率顯示為100%時,單擊下一步購買。
在購買頁面,選擇資料移轉執行個體的鏈路規格,詳細說明請參見下表。
類別
參數
說明
資訊配置
資源群組配置
選擇執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理。
鏈路規格
DTS為您提供了不同效能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務情境進行選擇。更多資訊,請參見資料移轉鏈路規格說明。
配置完成後,閱讀並選中《資料轉送(隨用隨付)服務條款》。
單擊購買並啟動,並在彈出的確認對話方塊,單擊確定。
您可在資料移轉介面查看具體進度。
Kafka叢集資訊
配置 | 說明 |
Kafka叢集類型 | 請根據Kafka叢集的部署位置進行選擇,本樣本選擇ECS自建資料庫。 說明 若您選擇為專線/VPN網關/智能網關,還需要選擇已和源端資料庫聯通的VPC,並填寫網域名稱或IP地址。 |
Kafka數據來源組件 | 請根據準備工作選擇使用TiDB的預設binlog格式或使用TiDB CDC模式的Canal-JSON格式。 |
ECS執行個體ID | 選擇Kafka叢集所屬的ECS執行個體ID。 |
連接埠 | 填入Kafka叢集的服務連接埠。 |
Kafka叢集帳號 | 填入Kafka叢集的使用者名稱和密碼,若Kafka叢集未開啟驗證則無需填寫。 |
Kafka叢集密碼 | |
Kafka版本 | 根據Kafka叢集的版本,選擇對應的版本資訊。 說明 若Kafka叢集的版本為1.0及以上版本,請選擇1.0。 |
串連方式 | 根據業務及安全需求,選擇非加密串連或SCRAM-SHA-256。 |
Topic | 選擇增量資料所在的Topic。 |