雲訊息佇列 Kafka 版提供全託管、免營運的Connector,用於雲訊息佇列 Kafka 版和其他阿里雲服務之間的資料同步。本文介紹Connector支援的資料同步任務的類型、使用流程、使用限制以及跨地區資料同步。
雲訊息佇列 Kafka 版的Connector組件處於公測階段,且獨立於雲訊息佇列 Kafka 版執行個體,因此不會在雲訊息佇列 Kafka 版側產生費用。同時,阿里雲不承諾Connector的SLA,使用Connector所依賴的其他產品的SLA和費用說明請以對應產品為準。
Connector類型
雲訊息佇列 Kafka 版支援以下兩大類的Connector:
Sink Connector:Sink代表資料向外流轉,即雲訊息佇列 Kafka 版為資料來源,其他產品為資料目標。
Connector
描述
文檔
FC Sink Connector
將資料從雲訊息佇列 Kafka 版匯出,同步至Function Compute。
MaxCompute Sink Connector
將資料從雲訊息佇列 Kafka 版匯出,同步至MaxCompute。
OSS Sink Connector
將資料從雲訊息佇列 Kafka 版匯出,同步至Object Storage Service。
Elasticsearch Sink Connector
將資料從雲訊息佇列 Kafka 版匯出,同步至Elasticsearch。
DLA Sink Connector
將資料從雲訊息佇列 Kafka 版匯出,同步至雲原生資料湖分析DLA(Data Lake Analytics)。
Tablestore Sink Connector
將資料從雲訊息佇列 Kafka 版執行個體的資料來源Topic匯出,同步至Table Store(Tablestore)。
AnalyticDB Sink Connector
將資料從雲訊息佇列 Kafka 版執行個體的資料來源Topic匯出,同步至AnalyticDB for MySQL或AnalyticDB for PostgreSQL。
Source Connector:Source代表資料向內流轉,即雲訊息佇列 Kafka 版為資料目標,其他產品為資料來源。
Connector
描述
文檔
MySQL Source Connector
將資料從阿里雲資料庫RDS MySQL版匯出,同步至雲訊息佇列 Kafka 版。
使用流程
Connector的使用流程如下:
使用限制
雲訊息佇列 Kafka 版對Connector的限制如下:
專案 | 限制值 |
數量 | 單一實例最多建立20個。您可以建立多個Connector任務將同一執行個體的資料匯出到不同的服務中。 |
地區 | 該功能目前有個別地區未開通。具體資訊,請參見開服地區。 |
跨地區資料同步
如果您需要將某個地區的資料,通過Connector同步到另一個地區的阿里雲服務,您需要為該Connector開啟公網訪問,然後在公網進行資料同步。具體操作步驟,請參見為Connector開啟公網訪問。
MySQL Source Connector的跨地區資料同步比較特殊,需要您自行開通企業網。更多資訊,請參見建立MySQL Source Connector。