全部產品
Search
文件中心

Data Transmission Service:ApsaraDB for MongoDB同步至雲原生資料倉儲AnalyticDB MySQL 3.0

更新時間:Nov 13, 2024

Data Transmission Service支援將MongoDB的資料同步到雲原生資料倉儲AnalyticDB MySQL版 3.0叢集中。本文以ApsaraDB for MongoDB(複本集架構)為源,為您介紹同步操作的步驟。

前提條件

  • 若源為分區叢集架構的ApsaraDB for MongoDB,則還需為所有Shard節點申請串連地址,且各Shard的帳號和密碼需保持一致。申請方法,請參見申請Shard或ConfigServer節點串連地址

  • 已建立儲存空間大於源ApsaraDB for MongoDB執行個體已佔用儲存空間的目標AnalyticDB MySQL版 3.0叢集。建立方法,請參見建立叢集

    說明

    建議目標執行個體的儲存空間比來源資料庫已使用的儲存空間大10%。

  • 已在目標AnalyticDB MySQL版 3.0叢集中建立用於接收資料的資料庫、具有主鍵列的表。建立方法,請參見CREATE DATABASECREATE TABLE

    重要
    • 請務必確保目標表的資料類型與源MongoDB的資料相容。例如,若MongoDB中的_id為ObjectId類型,則對應雲原生資料倉儲AnalyticDB MySQL版 3.0叢集中資料類型需為varchar

    • AnalyticDB MySQL版 3.0叢集中目標表的列名不能為_id_value。

  • 請在目標AnalyticDB MySQL版 3.0叢集中執行SET ADB_CONFIG ALLOW_MULTI_QUERIES=true;命令,手動開啟Multi-Statement功能。

    說明

    僅3.1.9.3及以上核心版本的叢集支援Multi-Statement功能。查看和升級叢集核心版本的方法,請參見升級版本

注意事項

類型

說明

源庫限制

  • 頻寬要求:源庫所屬的伺服器需具備足夠的出口頻寬,否則將影響資料同步速率。

  • 若需要進行編輯(如集合的名稱映射),則單次同步任務最多支援同步1000個集合。當超出數量限制,任務提交後會顯示請求報錯,此時建議您拆分待同步的集合,分批配置多個任務,或者配置整庫的同步任務。

  • 若源MongoDB為分區叢集架構的執行個體,則待同步集合中的_id欄位需具有唯一性,否則可能會導致資料不一致。

  • 若源MongoDB為分區叢集架構的執行個體,則源Mongos節點的數量不能超過10個。同時,請確保分區叢集架構的MongoDB執行個體中沒有孤立文檔,否則可能會導致資料不一致甚至任務失敗。更多資訊,請參見孤立文檔如何清理MongoDB(分區叢集架構)的孤立文檔

  • 源庫不支援Azure Cosmos DB for MongoDB和彈性叢集的Amazon DocumentDB。

  • 源庫需開啟Oplog日誌,並確保Oplog日誌至少保留7天以上;或者開啟變更流(Change Streams),並確保DTS能夠通過Change Streams訂閱到源庫最近7天內的資料變更。否則可能會因無法擷取源庫的資料變更而導致任務失敗,極端情況下甚至可能會導致資料不一致或丟失。由此導致的問題,不在DTS的SLA保障範圍內。

    重要
    • 建議通過Oplog日誌擷取源庫的資料變更。

    • 僅4.0及以上版本的MongoDB支援通過Change Streams擷取資料變更,使用Change Streams擷取源庫的資料變更不支援雙向同步。

    • 源庫為Amazon DocumentDB(非彈性叢集)時,需要手動開啟Change Streams,並在配置任務時將遷移方式選擇為ChangeStream,將架構類型選擇為分區叢集架構

  • 源庫的操作限制:

    • 在全量同步階段,請勿執行庫或集合的結構變更(包含數群組類型資料的更新),否則會導致資料移轉任務失敗或源庫與目標庫的資料不一致。

    • 如僅執行全量資料同步,請勿向源執行個體中寫入新的資料,否則會導致源庫與目標庫的資料不一致。為即時保持資料一致性,建議選擇全量資料同步和增量資料同步。

其他限制

  • 僅支援集合層級的同步。

  • 目標AnalyticDB MySQL版 3.0叢集中不能有名稱為_id_value的欄位,否則會導致同步失敗。

  • AnalyticDB MySQL版 3.0叢集中資料類型不相容MongoDB的資料,則會導致任務失敗。

  • 由於AnalyticDB MySQL版 3.0叢集本身的使用限制,當叢集中的節點磁碟空間使用量超過80%時,會導致DTS任務異常,產生延遲。請提前根據待同步的對象預估所需空間,確保目的地組群具備充足的儲存空間。

  • 若DTS任務運行時目標AnalyticDB MySQL版 3.0叢集處於備份中的狀態,則會導致任務失敗。

  • 不支援同步admin和local庫中的資料。

  • 不保留事務資訊,即源庫中的事務同步到目標庫時會轉變為單條的記錄。

  • 執行資料同步前需評估源庫和目標庫的效能,同時建議在業務低峰期執行資料同步。否則全量資料同步時DTS佔用源和目標庫一定讀寫資源,可能會導致資料庫的負載上升。

  • 由於全量資料同步會並發執行INSERT操作,導致目標資料庫的集合產生片段,因此全量同步完成後目標資料庫的集合儲存空間會大於源執行個體的集合儲存空間。

  • 請確認DTS對資料類型為FLOAT或DOUBLE的列的同步精度是否符合業務預期。DTS會通過ROUND(COLUMN,PRECISION)來讀取這兩類列的值。如果沒有明確定義其精度,DTS對FLOAT的同步精度為38位,對DOUBLE的同步精度為308位。

  • DTS會嘗試恢複七天之內同步失敗任務。因此在業務切換至目標執行個體前,請務必結束或釋放該任務,或者用revoke命令回收DTS訪問目標執行個體帳號的寫入權限。避免該任務被自動回復後,源端資料覆蓋目標執行個體的資料。

  • 由於DTS增量同步處理的延遲時間是根據同步到目標庫最後一條資料的時間戳記和目前時間戳對比得出,源庫長時間未執行更新操作可能導致延遲資訊不準確。如果任務顯示的延遲時間過大,您可以在源庫執行一個更新操作來更新延遲資訊。

  • 若執行個體運行失敗,DTS技術支援人員將在8小時內嘗試恢複該執行個體。在恢複失敗執行個體的過程中,可能會對該執行個體進行重啟、調整參數等操作。

    說明

    在調整參數時,僅會修改執行個體的參數,不會對資料庫中的參數進行修改。可能修改的參數,包括但不限於修改執行個體參數中的參數。

費用說明

同步類型

鏈路配置費用

全量資料同步

不收費。

增量資料同步

收費,詳情請參見計費概述

同步類型說明

同步類型

說明

全量同步

將源ApsaraDB for MongoDB同步對象的存量資料全部同步到目標AnalyticDB MySQL版 3.0叢集中。

增量同步處理

在全量同步的基礎上,將源ApsaraDB for MongoDB的累加式更新同步到目標AnalyticDB MySQL版 3.0叢集中。

說明

僅支援增量同步處理在集合中插入、更新、刪除文檔的操作。

資料庫帳號的許可權要求

資料庫

要求的權限

帳號建立及授權方式

ApsaraDB for MongoDB

待同步庫、admin庫和local庫的read許可權。

帳號管理

目標AnalyticDB MySQL版 3.0叢集

目標庫的讀寫權限。

建立資料庫帳號

操作步驟

  1. 進入目標地區的同步工作清單頁面(二選一)。

    通過DTS控制台進入

    1. 登入Data Transmission Service控制台

    2. 在左側導覽列,單擊資料同步

    3. 在頁面左上方,選擇同步執行個體所屬地區。

    通過DMS控制台進入

    說明

    實際操作可能會因DMS的模式和布局不同,而有所差異。更多資訊,請參見極簡模式控制台自訂DMS介面布局與樣式

    1. 登入Data Management服務

    2. 在頂部功能表列中,選擇整合與開發 > 資料轉送(DTS) > 資料同步

    3. 同步任務右側,選擇同步執行個體所屬地區。

  2. 單擊創建任務,進入任務配置頁面。

  3. 可選:在頁面右上方,單擊試用新版配置頁

    說明
    • 若您已進入新版配置頁(頁面右上方的按鈕為返回舊版配置頁),則無需執行此操作。

    • 新版配置頁和舊版配置頁部分參數有差異,建議使用新版配置頁。

  4. 配置源庫及目標庫資訊。

    類別

    配置

    說明

    任務名稱

    DTS會自動產生一個任務名稱,建議配置具有業務意義的名稱(無唯一性要求),便於後續識別。

    源庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明

    資料庫類型

    選擇MongoDB

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇源ApsaraDB for MongoDB所屬的地區。

    是否跨阿里雲帳號

    本樣本使用當前阿里雲帳號下的資料庫執行個體,需選擇不跨帳號

    架構類型

    本樣本選擇複本集架構

    說明

    若您的源ApsaraDB for MongoDB分區叢集架構,您還需要填寫Shard賬號Shard密碼

    遷移方式

    請根據實際情況,選擇增量資料同步的方式。

    • Oplog(推薦):

      若源庫已開啟Oplog日誌,則支援此選項。

      說明

      本地自建MongoDB和ApsaraDB for MongoDB預設已開啟Oplog日誌,且使用此方式同步增量資料時增量同步處理任務的延遲較小(拉取日誌的速度較快),因此推薦選擇Oplog

    • ChangeStream

      若源庫已開啟變更流(Change Streams),則支援此選項。

      說明
      • 源庫為Amazon DocumentDB(非彈性叢集)時,僅支援選擇ChangeStream

      • 源庫架構類型選擇為分區叢集架構,無需填寫Shard賬號Shard密碼

    執行個體ID

    選擇源ApsaraDB for MongoDB的執行個體ID。

    鑒權資料庫名稱

    填入源ApsaraDB for MongoDB執行個體中資料庫帳號所屬的資料庫名稱,若未修改過則為預設的admin

    資料庫帳號

    填入源ApsaraDB for MongoDB的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

    串連方式

    DTS支援非加密串連SSL安全連線Mongo Atlas SSL三種串連方式。串連方式的選項與接入方式架構類型有關,請以控制台為準。

    說明
    • 接入方式雲執行個體時,僅複本集架構的MongoDB資料庫支援此配置項。

    • 若源庫為自建(接入方式不為雲執行個體複本集架構的MongoDB資料庫,並且選擇了SSL安全連線,DTS還支援上傳CA認證對串連進行校正。

    目標庫資訊

    選擇DMS資料庫執行個體

    您可以按實際需求,選擇是否使用已有執行個體。

    • 如使用已有執行個體,下方資料庫資訊將自動填入,您無需重複輸入。

    • 如不使用已有執行個體,您需要配置下方的資料庫資訊。

    說明

    資料庫類型

    選擇AnalyticDB MySQL 3.0

    接入方式

    選擇雲執行個體

    執行個體地區

    選擇目標AnalyticDB MySQL版 3.0叢集所屬的地區。

    執行個體ID

    選擇目標AnalyticDB MySQL版 3.0叢集的ID。

    資料庫帳號

    填入目標AnalyticDB MySQL版 3.0叢集的資料庫帳號,許可權要求請參見資料庫帳號的許可權要求

    資料庫密碼

    填入該資料庫帳號對應的密碼。

  5. 配置完成後,單擊頁面下方的測試連接以進行下一步

    如果源或目標資料庫是阿里雲資料庫執行個體(例如RDS MySQLApsaraDB for MongoDB等),DTS會自動將對應地區DTS服務的IP地址添加到阿里雲資料庫執行個體的白名單中;如果源或目標資料庫是ECS上的自建資料庫,DTS會自動將對應地區DTS服務的IP地址添加到ECS的安全規則中,您還需確保自建資料庫沒有限制ECS的訪問(若資料庫是叢集部署在多個ECS執行個體,您需要手動將DTS服務對應地區的IP地址添到其餘每個ECS的安全規則中);如果源或目標資料庫是IDC自建資料庫或其他雲資料庫,則需要您手動添加對應地區DTS服務的IP地址,以允許來自DTS伺服器的訪問。DTS服務的IP地址,請參見DTS伺服器的IP位址區段

    警告

    DTS自動添加或您手動添加DTS服務的公網IP位址區段可能會存在安全風險,一旦使用本產品代表您已理解和確認其中可能存在的安全風險,並且需要您做好基本的安全防護,包括但不限於加強帳號密碼強度防範、限制各網段開放的連接埠號碼、內部各API使用鑒權方式通訊、定期檢查並限制不需要的網段,或者使用通過內網(專線/VPN網關/智能網關)的方式接入。

  6. 配置任務對象。

    1. 對象配置頁面,配置待同步的對象。

      配置

      說明

      同步類型

      固定選中增量同步處理。僅支援選中全量同步,不支援庫表結構同步。預檢查完成後,DTS會將源執行個體中待同步對象的資料在目的地組群中初始化,作為後續增量同步處理資料的基準資料。

      執行個體層級選擇所需同步的DDL和DML

      按執行個體層級選擇需要增量同步處理的操作。

      說明

      如需按集合層級選擇需要增量同步處理的操作,請在已選擇對象中按右鍵同步對象,然後在彈跳框中勾選。

      多表歸併

      • 選擇為:通常在OLTP情境中,為提高業務表響應速度,通常會做分庫分表處理。而在OLAP情境(如該目標庫)中單個資料表可儲存海量資料,使用單表查詢更加便捷。此類情境中,您可以藉助DTS的多表歸併功能將源庫中多個表結構相同的表(即各分表)同步至目標庫中的同一個表中。 具體操作,請參見開啟多表歸併

        說明
        • 選擇源庫的多個表後,您需要通過對象名映射功能,將其改為目標庫中的同一個表名。關於對象名映射功能的介紹,請參見庫表列名映射

        • DTS會在目標庫的同步目標表中增加__dts_data_source列(類型為text)來儲存資料來源,並且將以DTS執行個體ID:資料庫名稱:schema名稱:表名的格式寫入列值用於區分表的來源,例如dts********:dtstestdata:testschema:customer1

        • 多表歸併功能基於任務層級,即不支援基於表層級執行多表歸併。如果需要讓部分表執行多表歸併,另一部分不執行多表歸併,您需要建立兩個資料同步任務。

        警告

        源庫請勿執行庫或表結構變更的DDL操作,否則會導致資料不一致或者同步任務失敗。

      • 選擇為:預設選項。

      目標已存在表的處理模式

      • 預檢查並報錯攔截:檢查目標資料庫中是否有同名的表。如果目標資料庫中沒有同名的表,則通過該檢查專案;如果目標資料庫中有同名的表,則在預檢查階段提示錯誤,資料同步任務不會被啟動。

        說明

        如果目標庫中同名的表不方便刪除或重新命名,您可以更改該表在目標庫中的名稱,請參見庫表列名映射

      • 忽略報錯並繼續執行:跳過目標資料庫中是否有同名表的檢查項。

        警告

        選擇為忽略報錯並繼續執行,可能導致資料不一致,給業務帶來風險,例如:

        • 表結構一致的情況下,如在目標庫遇到與源庫主鍵或唯一鍵的值相同的記錄:

          • 全量期間,DTS會保留目的地組群中的該條記錄,即源庫中的該條記錄不會同步至目標資料庫中。

          • 增量期間,DTS不會保留目的地組群中的該條記錄,即源庫中的該條記錄會覆蓋至目標資料庫中。

        • 表結構不一致的情況下,可能會導致無法初始化資料、只能同步部分列的資料或同步失敗,請謹慎操作。

      源庫對象

      源庫對象框中單擊待同步對象,然後單擊向右將其移動至已選擇對象框。

      說明

      同步對象的選擇粒度為集合。

      已選擇對象

      1. 編輯庫名映射。

        1. 按右鍵已選擇對象中的待同步集合所屬的資料庫。

          image

        2. Schema名稱修改為目標AnalyticDB MySQL版 3.0叢集中接收資料的資料庫名稱。

          image

        3. 可選:勾選所需同步的DML&DDL操作地區選取項目所需增量同步處理的操作。

          image

        4. 單擊確定

      2. 編輯表名映射。

        1. 按右鍵已選擇對象中的待同步的集合。

          image

        2. 表名稱修改為目標AnalyticDB MySQL版 3.0叢集中接收資料的表名稱。

          image

        3. 可選:為全量同步設定過濾條件,設定方法請參見設定過濾條件

          image

        4. 可選:勾選所需同步的DML&DDL操作地區選取項目所需增量同步處理的操作。

          image

      3. 配置MongoDB中需要同步的欄位(Field)。

        1. 單擊+ 新增列

          image

        2. 填寫列名稱

          image

          說明

          此處填寫的是目標AnalyticDB MySQL版 3.0叢集中接收資料表的列名。

        3. 選擇列資料的類型

          重要

          請務必確保目標表的資料類型與源MongoDB的資料相容。

        4. 可選:配置列資料的長度精度

        5. 賦值下方的文字框中填寫bson_value()運算式,詳情請參見賦值配置樣本

          image

          重要
          • 目標表的主鍵列必須賦值為bson_value("_id")

          • 在配置bson_value()運算式時,需要按照層級關係配置到最小子欄位,否則可能會導致資料丟失或任務失敗。

        6. 重複操作(步驟1~步驟5),將待同步的欄位與目標表的欄位進行逐一映射。

          image

        7. 單擊確定

    2. 單擊下一步高級配置,進行進階參數配置。

      配置

      說明

      選擇調度該任務的專屬叢集

      DTS預設將任務調度到共用叢集上,您無需選擇。若您希望任務更加穩定,可以購買專屬叢集來運行DTS同步任務。更多資訊,請參見什麼是DTS專屬叢集

      源庫、目標庫無法串連後的重試時間

      在同步任務啟動後,若源庫或目標庫串連失敗則DTS會報錯,並會立即進行持續的重試串連,預設持續重試時間為720分鐘,您也可以在取值範圍(10~1440分鐘)內自訂重試時間,建議設定30分鐘以上。如果DTS在設定的重試時間內重新串連上源庫、目標庫,同步任務將自動回復。否則,同步任務將會失敗。

      說明
      • 針對同源或者同目標的多個DTS執行個體,如DTS執行個體A和DTS執行個體B,設定網路重試時間時A設定30分鐘,B設定60分鐘,則重試時間以低的30分鐘為準。

      • 由於串連重試期間,DTS將收取任務運行費用,建議您根據業務需要自訂重試時間,或者在源和目標庫執行個體釋放後儘快釋放DTS執行個體。

      源庫、目標庫出現其他問題後的重試時間

      在同步任務啟動後,若源庫或目標庫出現非串連性的其他問題(如DDL或DML執行異常),則DTS會報錯並會立即進行持續的重試操作,預設持續重試時間為10分鐘,您也可以在取值範圍(1~1440分鐘)內自訂重試時間,建議設定10分鐘以上。如果DTS在設定的重試時間內相關操作執行成功,同步任務將自動回復。否則,同步任務將會失敗。

      重要

      源庫、目標庫出現其他問題後的重試時間的值需要小於源庫、目標庫無法串連後的重試時間的值。

      是否限制全量遷移速率

      在全量同步階段,DTS將佔用源庫和目標庫一定的讀寫資源,可能會導致資料庫的負載上升。您可以根據實際情況,選擇是否對全量同步任務進行限速設定(設定每秒查詢源庫的速率QPS每秒全量遷移的行數RPS每秒全量遷移的數據量(MB)BPS),以緩解目標庫的壓力。

      說明

      僅當同步類型選擇了全量同步時才可以配置。

      是否限制增量同步處理速率

      您也可以根據實際情況,選擇是否對增量同步處理任務進行限速設定(設定每秒增量同步處理的行數RPS每秒增量同步處理的數據量(MB)BPS),以緩解目標庫的壓力。

      環境標籤

      您可以根據實際情況,選擇用於標識執行個體的環境標籤。本樣本無需選擇。

      配置ETL功能

      選擇是否配置ETL功能。關於ETL的更多資訊,請參見什麼是ETL

      監控警示

      是否設定警示,當同步失敗或延遲超過閾值後,將通知警示連絡人。

  7. 儲存任務並進行預檢查。

    • 若您需要查看調用API介面配置該執行個體時的參數資訊,請將滑鼠游標移動至下一步儲存任務並預檢查按鈕上,然後單擊氣泡中的預覽OpenAPI參數

    • 若您無需查看或已完成查看API參數,請單擊頁面下方的下一步儲存任務並預檢查

    說明
    • 在同步作業正式啟動之前,會先進行預檢查。只有預檢查通過後,才能成功啟動同步作業。

    • 如果預檢查失敗,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

    • 如果預檢查產生警告:

      • 對於不可以忽略的檢查項,請單擊失敗檢查項後的查看詳情,並根據提示修複後重新進行預檢查。

      • 對於可以忽略無需修複的檢查項,您可以依次單擊點擊確認警示詳情確認屏蔽確定重新進行預檢查,跳過警示檢查項重新進行預檢查。如果選擇屏蔽警示檢查項,可能會導致資料不一致等問題,給業務帶來風險。

  8. 預檢查通過率顯示為100%時,單擊下一步購買

  9. 購買執行個體。

    1. 購買頁面,選擇資料同步執行個體的計費方式、鏈路規格,詳細說明請參見下表。

      類別

      參數

      說明

      資訊配置

      計費方式

      • 預付費(訂用帳戶):在建立執行個體時支付費用。適合長期需求,價格比隨用隨付更實惠,且購買時間長度越長,折扣越多。

      • 後付費(隨用隨付):按小時計費。適合短期需求,用完可立即釋放執行個體,節省費用。

      資源群組配置

      執行個體所屬的資源群組,預設為default resource group。更多資訊,請參見什麼是資源管理

      鏈路規格

      DTS為您提供了不同效能的同步規格,同步鏈路規格的不同會影響同步速率,您可以根據業務情境進行選擇。更多資訊,請參見資料同步鏈路規格說明

      訂購時間長度

      在預付費模式下,選擇訂用帳戶執行個體的時間長度和數量,包月可選擇1~9個月,包年可選擇1年、2年、3年和5年。

      說明

      該選項僅在付費類型為預付費時出現。

    2. 配置完成後,閱讀並勾選《資料轉送(隨用隨付)服務條款》

    3. 單擊購買並啟動,並在彈出的確認對話方塊,單擊確定

      您可在資料同步介面查看具體任務進度。

賦值配置樣本

源MongoDB的資料結構

{
  "_id":"62cd344c85c1ea6a2a9f****",
  "person":{
    "name":"neo",
    "age":26,
    "sex":"male"
  }
}

目標AnalyticDB MySQL版 3.0叢集的表結構

列名稱

類型

mongo_id

varchar

說明

主鍵列。

person_name

varchar

person_age

decimal

新增列的配置

重要

請按照層級關係正確配置bson_value()運算式,否則可能會導致資料丟失或任務失敗。例如,若您配置的運算式為bson_value("person"),DTS將無法把源端person的子欄位(name、age、sex)的增量變更資料寫入到目標端。

列名稱

類型

賦值

mongo_id

STRING

bson_value("_id")

person_name

STRING

bson_value("person","name")

person_age

DECIMAL

bson_value("person","age")