全部產品
Search
文件中心

ApsaraMQ for Kafka:Connector概述

更新時間:Jul 06, 2024

雲訊息佇列 Kafka 版提供全託管、免營運的Connector,用於雲訊息佇列 Kafka 版和其他阿里雲服務之間的資料同步。本文介紹Connector支援的資料同步任務的類型、使用流程、使用限制以及跨地區資料同步。

重要

雲訊息佇列 Kafka 版的Connector組件處於公測階段,且獨立於雲訊息佇列 Kafka 版執行個體,因此不會在雲訊息佇列 Kafka 版側產生費用。同時,阿里雲不承諾Connector的SLA,使用Connector所依賴的其他產品的SLA和費用說明請以對應產品為準。

Connector類型

雲訊息佇列 Kafka 版支援以下兩大類的Connector:

  • Sink Connector:Sink代表資料向外流轉,即雲訊息佇列 Kafka 版為資料來源,其他產品為資料目標。

    Connector

    描述

    文檔

    FC Sink Connector

    將資料從雲訊息佇列 Kafka 版匯出,同步至Function Compute。

    建立FC Sink Connector

    MaxCompute Sink Connector

    將資料從雲訊息佇列 Kafka 版匯出,同步至MaxCompute。

    建立MaxCompute Sink Connector

    OSS Sink Connector

    將資料從雲訊息佇列 Kafka 版匯出,同步至Object Storage Service。

    建立OSS Sink Connector

    Elasticsearch Sink Connector

    將資料從雲訊息佇列 Kafka 版匯出,同步至Elasticsearch。

    建立Elasticsearch Sink Connector

    DLA Sink Connector

    將資料從雲訊息佇列 Kafka 版匯出,同步至雲原生資料湖分析DLA(Data Lake Analytics)。

    建立DLA Sink Connector

    Tablestore Sink Connector

    將資料從雲訊息佇列 Kafka 版執行個體的資料來源Topic匯出,同步至Table Store(Tablestore)。

    建立Tablestore Sink Connector

    AnalyticDB Sink Connector

    將資料從雲訊息佇列 Kafka 版執行個體的資料來源Topic匯出,同步至AnalyticDB for MySQLAnalyticDB for PostgreSQL

    建立AnalyticDB Sink Connector

  • Source Connector:Source代表資料向內流轉,即雲訊息佇列 Kafka 版為資料目標,其他產品為資料來源。

    Connector

    描述

    文檔

    MySQL Source Connector

    將資料從阿里雲資料庫RDS MySQL版匯出,同步至雲訊息佇列 Kafka 版

    建立MySQL Source Connector

使用流程

Connector的使用流程如下:

  1. 開啟Connector

  2. 建立Connector

  3. Connector相關操作

使用限制

雲訊息佇列 Kafka 版對Connector的限制如下:

專案

限制值

數量

單一實例最多建立20個。您可以建立多個Connector任務將同一執行個體的資料匯出到不同的服務中。

地區

該功能目前有個別地區未開通。具體資訊,請參見開服地區

跨地區資料同步

如果您需要將某個地區的資料,通過Connector同步到另一個地區的阿里雲服務,您需要為該Connector開啟公網訪問,然後在公網進行資料同步。具體操作步驟,請參見為Connector開啟公網訪問

說明

MySQL Source Connector的跨地區資料同步比較特殊,需要您自行開通企業網。更多資訊,請參見建立MySQL Source Connector