支援的來源資料庫
SQL Server遷移至雲原生資料倉儲AnalyticDB MySQL版支援以下來源資料庫。本文以RDS SQL Server執行個體為來源資料庫介紹配置流程,其他資料來源配置流程與本案例類似。
RDS SQL Server執行個體。
以下類型的自建資料庫:
- 有公網IP的自建資料庫。
- ECS上的自建資料庫。
- 通過專線、VPN網關或智能網關接入的自建資料庫。
- 通過資料庫網關接入的自建資料庫。
前提條件
該遷移任務僅支援在新版控制台配置。
已建立源RDS SQL Server執行個體,支援的版本,請參見遷移方案概覽。建立方式,請參見快速建立並使用RDS SQL Server執行個體。
重要
如RDS SQL Server的版本為2008、2008R2,則不支援增量遷移。
已建立目標雲原生資料倉儲AnalyticDB MySQL版叢集,請參見建立叢集。
目標雲原生資料倉儲AnalyticDB MySQL版叢集的儲存空間須大於源RDS SQL Server執行個體的儲存空間。
若源執行個體存在如下任一情況,建議拆分為多個遷移任務。
注意事項
類型 | 說明 |
源庫限制 | 頻寬要求:源庫所屬的伺服器需具備足夠出口頻寬,否則將影響資料移轉速率。 待遷移的表需具備主鍵或唯一約束,且欄位具有唯一性,否則可能會導致目標資料庫中出現重複資料。 如遷移對象為表層級,且需進行編輯(如表列名映射),則單次遷移任務僅支援遷移至多1000張表。當超出數量限制,任務提交後會顯示請求報錯,此時建議您拆分待遷移的表,分批配置多個任務,或者配置整庫的遷移任務。 單次遷移任務僅支援遷移至多10個資料庫。當超出數量限制,會出現穩定性和效能問題的風險,此時建議您拆分待遷移的表,分批配置任務。 如需進行增量遷移,資料日誌: 需開啟,備份模式設定為Full,且已成功執行過全量物理備份。 如為增量遷移任務,DTS要求來源資料庫的資料日誌儲存24小時以上,如為全量遷移和增量遷移任務,DTS要求來源資料庫的資料日誌至少保留7天以上(您可在全量遷移完成後將資料日誌儲存時間設定為24小時以上),否則DTS可能因無法擷取資料日誌而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由於您所設定的資料日誌儲存時間低於DTS要求的時間進而導致的問題,不在DTS的SLA保障範圍內。
若源庫待遷移的表需要開啟CDC,則需滿足以下條件,否則預檢查將會失敗。 sys.sysservers視圖的srvname欄位與SERVERPROPERTY函數傳回值保持一致。 若源庫是自建SQL Server,則資料庫擁有者需是sa;若源庫是RDS SQL Server,則資料庫擁有者需是sqlsa。 若源庫是企業版,則需為2008及以上版本。 若源庫是標準版,則需為2016SP1及以上版本。 若源庫為SQL Server 2017版(包括標準版和企業版),建議升級版本。
DTS使用fn_log函數擷取源庫日誌,而該函數有一定的效能瓶頸,請不要過早清理源庫日誌,否則可能會導致DTS任務失敗。 源庫的操作限制: 若源庫為唯讀執行個體,則不支援遷移DDL操作。 若源庫為Azure SQL Database,則一個遷移執行個體僅支援遷移一個資料庫。 若源庫為RDS SQL Server,且遷移執行個體包含增量遷移任務,為保障遷移執行個體穩定運行,請確保已關閉透明資料加密TDE(Transparent Data Encryption)功能。更多資訊,請參見關閉TDE。 在混合式日誌解析模式下,源庫不支援連續執行(時間間隔小於10分鐘)多個加減列操作。例如,連續執行如下SQL會導致任務報錯。
ALTER TABLE test_table DROP COLUMN Flag;
ALTER TABLE test_table ADD Remark nvarchar(50) not null default('');
若源庫為Web版的RDS SQL Server,則在配置任務時SQLServer增量同步處理模式需選擇為解析源庫日誌做增量同步處理(不支援堆表)。 建議在全量資料移轉任務運行期間,確保源庫的交易處理模式參數READ_COMMITTED_SNAPSHOT 為啟用狀態,以避免因共用鎖定(Shared Lock)對資料寫入產生影響。否則,可能會導致資料不一致、執行個體運行失敗等異常情況。由此引發的異常情況,不在DTS的SLA保障範圍內。
|
其他限制 | 僅支援遷移基礎資料型別 (Elementary Data Type)的資料,不支援遷移TIMESTAMP、CURSOR、ROWVERSION、SQL_VARIANT、HIERARCHYID、POLYGON、GEOMETRY和GEOGRAPHY類型的資料。 若目標庫的DDL寫入失敗,DTS任務會繼續運行,您需要在任務日誌中查看執行失敗的DDL。查看任務日誌的方法,請參見查詢任務日誌。 目標庫中需存在自訂主鍵,或者在庫表列配置階段配置主鍵列,否則可能會導致資料移轉失敗。 若在對象配置階段將SQLServer增量同步處理模式選擇為解析源庫日誌做增量同步處理(不支援堆表),則待遷移的表需具備叢集索引,且叢集索引中需包含主鍵列;待遷移的表不支援堆表、無主鍵表、壓縮表、含計算資料行表。在混合式日誌解析模式下,沒有如上限制。 若在對象配置階段將SQLServer增量同步處理模式選擇為非堆表用日誌解析增量同步處理,堆表用CDC增量同步處理(混合式日誌解析),則還有如下限制: DTS的增量遷移依賴CDC組件,因此請確保源庫CDC作業正常運行,否則會導致DTS任務失敗。 CDC組件儲存的增量資料預設保留3天,建議您使用exec console.sys.sp_cdc_change_job @job_type = 'cleanup', @retention= <time>; 命令對儲存時間進行合理調整。 單次遷移任務中,開啟CDC的表數量不建議超過1000,否則可能會導致任務延遲或不穩定。 DTS增量遷移任務的前置模組將會開啟源庫的CDC。在此過程中,由於SQL Server資料庫核心自身的限制,源庫將會出現短暫的鎖表現象。
若在對象配置階段將SQLServer增量同步處理模式選擇為輪詢查詢CDC執行個體做增量同步處理,則還有如下限制: DTS執行個體使用的源庫帳號需具備開啟CDC的許可權。開啟庫層級CDC需要使用sysadmin角色許可權的帳號,開啟表層級CDC需要高許可權帳號。 說明 Azure SQL Database控制台提供的最高許可權帳號(伺服器管理員)滿足要求。其中基於vCore購買模型的資料庫,所有規格均支援開啟CDC;基於DTU購買模型的資料庫,規格需要為S3及以上才支援開啟CDC。 Amazon RDS for SQL Server的高許可權帳號滿足要求,支援為預存程序開啟庫層級的CDC。 聚集資料行存放區索引表不支援開啟CDC。 DTS增量遷移任務的前置模組將會開啟源庫的CDC。在此過程中,由於SQL Server資料庫核心自身的限制,源庫將會出現短暫的鎖表現象。
DTS是通過輪詢方式去源庫查詢每張表的CDC執行個體(CDC Instance)以擷取增量資料,因此源庫待遷移表的數量不建議超過1000,否則可能會導致任務延遲或不穩定。 CDC組件儲存的增量資料預設保留3天,建議您使用exec console.sys.sp_cdc_change_job @job_type = 'cleanup', @retention= <time>; 命令對儲存時間進行合理調整。 不支援連續執行加減列操作(一分鐘內執行超過兩次加列或減列的DDL),否則可能會導致任務失敗。 不支援對源庫CDC執行個體(CDC Instance)做變更操作,否則可能會導致任務失敗或資料丟失。
為保障增量資料移轉延遲的準確性,解析源端日誌做增量同步處理模式,DTS會在源庫中建立觸發器dts_cdc_sync_ddl、心跳錶dts_sync_progress、DDL儲存表dts_cdc_ddl_history;混合式增量同步處理模式,DTS會在源庫中建立觸發器dts_cdc_sync_ddl、心跳錶dts_sync_progress、DDL儲存表dts_cdc_ddl_history以及會開啟庫層級CDC和部分表CDC,建議源端開啟CDC的表資料變更量不超過1000 RPS。 由於雲原生資料倉儲AnalyticDB MySQL版本身的使用限制,當雲原生資料倉儲AnalyticDB MySQL版中的節點磁碟空間使用量超過80%,資料寫入目標庫的效能變慢,導致DTS任務延遲;當使用量超過90%,資料無法寫入目標庫,導致DTS任務異常。請提前根據待遷移的對象預估所需空間,確保目的地組群具備充足的儲存空間。 若DTS任務運行時目標AnalyticDB MySQL版 3.0叢集處於備份中的狀態,則會導致任務失敗。 執行資料移轉前需評估源庫和目標庫的效能,同時建議業務低峰期執行資料移轉。否則全量資料移轉時DTS佔用源和目標庫一定讀寫資源,可能會導致資料庫的負載上升。 由於全量資料移轉會並發執行INSERT操作,導致目標資料庫的表產生片段,因此全量遷移完成後目標資料庫的表格儲存體空間會比源執行個體的表格儲存體空間大。 請確認DTS對資料類型為FLOAT或DOUBLE的列的遷移精度是否符合業務預期。DTS會通過ROUND(COLUMN,PRECISION) 來讀取這兩類列的值。如果沒有明確定義其精度,DTS對FLOAT的遷移精度為38位,對DOUBLE的遷移精度為308位。 DTS會嘗試恢複七天之內遷移失敗任務。因此業務切換至目標執行個體前,請務必結束或釋放該任務,或者將DTS訪問目標執行個體帳號的寫入權限用revoke 命令回收掉。避免該任務被自動回復後,源端資料覆蓋目標執行個體的資料。 若遷移任務包含增量資料移轉,則不支援重建索引操作,否則可能造成任務失敗,甚至資料丟失。 若單次遷移任務中開啟CDC的表數量大於DTS支援開啟CDC的表最大數量限制中設定的數量,則預檢查會失敗。 若執行個體包含增量任務,且開啟CDC的表需要寫入的單欄位資料超過64 KB,則必須提前使用exec sp_configure 'max text repl size', -1; 命令調整源庫的配置。 說明 CDC作業預設最大能處理的單欄位長度為64 KB。 若執行個體運行失敗,DTS技術支援人員將在8小時內嘗試恢複該執行個體。在恢複失敗執行個體的過程中,可能會對該執行個體進行重啟、調整參數等操作。 說明 在調整參數時,僅會修改執行個體的參數,不會對資料庫中的參數進行修改。可能修改的參數,包括但不限於修改執行個體參數中的參數。
|
特殊情況 | 源執行個體為RDS SQL Server時,DTS會在源RDS SQL Server執行個體中建立一個rdsdt_dtsacct 帳號用於資料移轉,請勿在任務運行過程中對該帳號進行刪除或密碼修改操作,否則可能會導致任務失敗。具體詳情,請參見系統帳號說明。 |
費用說明
遷移類型 | 鏈路配置費用 | 公網流量費用 |
結構遷移和全量資料移轉 | 不收費。 | 通過公網將資料移轉出阿里雲時將收費,詳情請參見計費概述。 |
增量資料移轉 | 收費,詳情請參見計費概述。 |
支援增量遷移的SQL操作
操作類型 | SQL動作陳述式 |
DML | INSERT、UPDATE、DELETE |
DDL | |
資料庫帳號的許可權要求
資料庫 | 結構遷移 | 全量遷移 | 增量遷移 |
RDS SQL Server執行個體 | 待遷移對象的讀許可權 | 待遷移對象的讀許可權 | 待遷移對象的所有者許可權 |
雲原生資料倉儲AnalyticDB MySQL版叢集 | 讀寫權限 |
資料庫帳號建立及授權方法:
操作步驟
進入目標地區的遷移工作清單頁面(二選一)。
單擊創建任務,進入任務配置頁面。
可選:在頁面右上方,單擊試用新版配置頁。
配置源庫及目標庫資訊。
警告
選擇源和目標執行個體後,建議您仔細閱讀頁面上方顯示的使用限制,否則可能會導致任務失敗或資料不一致。
類別 | 配置 | 說明 |
無 | 任務名稱 | DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。 |
源庫資訊 | 選擇已有串連資訊 | 您可以按實際需求,選擇是否使用已有資料庫執行個體。 |
資料庫類型 | 選擇SQL Server。 |
接入方式 | 選擇為雲執行個體。 |
執行個體地區 | 選擇源RDS SQL Server執行個體所屬地區。 |
是否跨阿里雲帳號 | 本樣本為同一阿里雲帳號間的遷移,選擇不跨帳號。 |
RDS執行個體ID | 選擇源RDS SQL Server執行個體ID。 |
資料庫帳號 | 填入源RDS SQL Server執行個體的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求。 |
資料庫密碼 | 填入該資料庫帳號對應的密碼。 |
串連方式 | |
目標庫資訊 | 選擇已有串連資訊 | 您可以按實際需求,選擇是否使用已有資料庫執行個體。 |
資料庫類型 | 選擇AnalyticDB MySQL 3.0。 |
接入方式 | 選擇雲執行個體。 |
執行個體地區 | 選擇目標雲原生資料倉儲AnalyticDB MySQL版 3.0所屬地區。 |
執行個體ID | 選擇目標雲原生資料倉儲AnalyticDB MySQL版 3.0叢集的ID。 |
資料庫帳號 | 填入目標雲原生資料倉儲AnalyticDB MySQL版 3.0的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求。 |
資料庫密碼 | 填入該資料庫帳號對應的密碼。 |
配置完成後,在頁面下方單擊測試連接以進行下一步。
配置任務對象。
在對象配置頁面,配置待遷移的對象。
配置 | 說明 |
遷移類型 | |
目標已存在表的處理模式 | |
源庫和目標庫結構映射模式 | 根據業務需求,選擇結構映射模式,以實現源庫和目標庫之間的結構映射。 警告 如您選擇不使用源庫的Schema名稱,則源庫多個Schema中不允許有名稱相同的table,否則可能會導致資料不一致或任務失敗。 |
SQLServer增量同步處理模式 | 說明 僅當遷移類型的選擇結果包含增量遷移時,才有此配置項。 |
DTS支援開啟CDC的表最大數量限制 | 您可以根據實際情況,合理設定當前遷移執行個體允許開啟CDC的表數量,預設為1000。 說明 當SQLServer增量同步處理模式選擇解析源庫日誌做增量同步處理(不支援堆表)時,不會有此配置項。 |
執行個體層級選擇所需同步的DDL和DML | 按執行個體層級選擇增量遷移的SQL操作,支援的操作,請參見支援增量遷移的SQL操作。 說明 如需按庫或表層級選擇增量遷移的SQL操作,請在已選擇對象中右擊遷移對象,在彈跳框中選中所需增量遷移的SQL操作。 |
源庫對象 | 在源庫對象框中單擊待遷移的對象,然後單擊 將其移動到已選擇對象框。 說明 本情境為異構資料庫間遷移,因此遷移對象選擇的粒度為表,且其他對象(如視圖、觸發器、預存程序)不會被遷移至目標庫。 |
已選擇對象 | 說明 如果使用了對象名映射功能,可能會導致依賴這個對象的其他對象遷移失敗。 如需設定WHERE條件過濾資料,請在已選擇對象中右擊待遷移的表,在彈出的對話方塊中設定過濾條件。設定方法請參見設定過濾條件。 如需按庫或表層級選擇遷移的SQL操作,請在已選擇對象中右擊待遷移對象,並在彈出的對話方塊中選擇所需遷移的SQL操作。
|
單擊下一步高級配置,進行進階參數配置。
配置 | 說明 |
選擇調度該任務的專屬叢集 | DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS遷移任務。更多資訊,請參見什麼是DTS專屬叢集。 |
源庫、目標庫無法串連後的重試時間 | 在遷移任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設重試720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的時間內重新串連上源、目標庫,遷移任務將自動回復。否則,遷移任務將失敗。 |
源庫、目標庫出現其他問題後的重試時間 | 在遷移任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,遷移任務將自動回復。否則,遷移任務將會失敗。 重要 源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。 |
是否限制全量遷移速率 | 在全量遷移階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量遷移任務進行限速設定(設定每秒查詢源庫的速率QPS、每秒全量遷移的行數RPS和每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。 |
是否限制增量遷移速率 | 您也可以根據實際情況,選擇是否對增量遷移任務進行限速設定(設定每秒增量遷移的行數RPS和每秒增量遷移的數據量(MB)BPS),以緩解目標庫的壓力。 |
環境標籤 | 您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。 |
配置ETL功能 | 選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL。 |
監控警示 | 是否設定警示,當遷移失敗或延遲超過閾值後,將通知警示連絡人。 |
單擊下一步資料校正,進行資料校正任務配置。
若您需要使用資料校正功能,配置方法請參見配置資料校正。
可選:上述配置完成後,單擊下一步配置庫表欄位,設定待遷移的表在目標庫中的類型、主鍵列、分布鍵和分區鍵資訊(分區鍵、分區規則和分區生命週期)。
儲存任務並進行預檢查。
購買執行個體。
預檢查通過率顯示為100%時,單擊下一步購買。
在購買頁面,選擇資料移轉執行個體的鏈路規格,詳細說明請參見下表。
類別 | 參數 | 說明 |
資訊配置 | 資源群組配置 | 選擇執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理。 |
鏈路規格 | DTS為您提供了不同效能的遷移規格,遷移鏈路規格的不同會影響遷移速率,您可以根據業務情境進行選擇。更多資訊,請參見資料移轉鏈路規格說明。 |
配置完成後,閱讀並選中《資料轉送(隨用隨付)服務條款》。
單擊購買並啟動,並在彈出的確認對話方塊,單擊確定。
您可在資料移轉介面查看具體進度。