本文说明如何创建FC Sink Connector,您可以通过FC Sink Connector将数据从云消息队列 Kafka 版实例的数据源Topic导出至函数计算的函数。
前提条件
在创建FC Sink Connector前,请确保您已完成以下操作:
云消息队列 Kafka 版
为云消息队列 Kafka 版实例开启Connector。更多信息,请参见开启Connector。
为云消息队列 Kafka 版实例创建数据源Topic。更多信息,请参见步骤一:创建Topic。
本文以名称为fc-test-input的Topic为例。
函数计算
在函数计算创建函数。更多信息,请参见快速创建函数。
重要函数类型必须为事件函数。
本文以服务名称为guide-hello_world、函数名称为hello_world、运行环境为Python的事件函数为例。该示例函数的代码如下:
# -*- coding: utf-8 -*- import logging # To enable the initializer feature # please implement the initializer function as below: # def initializer(context): # logger = logging.getLogger() # logger.info('initializing') def handler(event, context): logger = logging.getLogger() logger.info('hello world:' + bytes.decode(event)) return 'hello world:' + bytes.decode(event)
可选:事件总线EventBridge
说明仅在您创建的Connector任务所属实例的地域为华东1(杭州)或西南1(成都)时,需要完成该操作。
注意事项
仅支持在同地域内,将数据从云消息队列 Kafka 版实例的数据源Topic导出至函数计算。Connector的限制说明,请参见使用限制。
如果Connector所属实例的地域为华东1(杭州)或西南1(成都),该功能会部署至事件总线EventBridge。
事件总线EventBridge目前免费供您使用。更多信息,请参见计费说明。
创建Connector时,事件总线EventBridge会为您自动创建服务关联角色AliyunServiceRoleForEventBridgeSourceKafka和AliyunServiceRoleForEventBridgeConnectVPC。
如果未创建服务关联角色,事件总线EventBridge会为您自动创建对应的服务关联角色,以便允许事件总线EventBridge使用此角色访问云消息队列 Kafka 版和专有网络VPC。
如果已创建服务关联角色,事件总线EventBridge不会重复创建。
关于服务关联角色的更多信息,请参见服务关联角色。
部署到事件总线EventBridge的任务暂时不支持查看任务运行日志。Connector任务执行完成后,您可以在订阅数据源Topic的Group中,通过消费情况查看任务进度。具体操作,请参见查看消费状态。
操作流程
使用FC Sink Connector将数据从云消息队列 Kafka 版实例的数据源Topic导出至函数计算的函数的操作流程如下:
可选:使FC Sink Connector跨地域访问函数计算
重要如果您不需要使FC Sink Connector跨地域访问函数计算,您可以直接跳过该步骤。
可选:使FC Sink Connector跨账号访问函数计算
重要如果您不需要使FC Sink Connector跨账号访问函数计算,您可以直接跳过该步骤。
可选:创建FC Sink Connector依赖的Topic和Group
重要如果您不需要自定义Topic和Group的名称,您可以直接跳过该步骤。
部分FC Sink Connector依赖的Topic的存储引擎必须为Local存储,大版本为0.10.2版本的云消息队列 Kafka 版实例不支持手动创建Local存储的Topic,只支持自动创建。
结果验证
为FC Sink Connector开启公网访问
如需使FC Sink Connector跨地域访问其他阿里云服务,您需要为FC Sink Connector开启公网访问。具体操作,请参见为Connector开启公网访问。
创建自定义权限策略
在目标账号下创建访问函数计算的自定义权限策略。
登录访问控制控制台。
在左侧导航栏,选择 。
在权限策略页面,单击创建权限策略。
在新建自定义权限策略页面,创建自定义权限策略。
在脚本编辑页签,策略脚本输入框中自定义权限策略脚本,单击下一步。
访问函数计算的自定义权限策略脚本示例如下:
{ "Version": "1", "Statement": [ { "Action": [ "fc:InvokeFunction", "fc:GetFunction" ], "Resource": "*", "Effect": "Allow" } ] }
在基本信息区域名称文本框,输入KafkaConnectorFcAccess。
单击确定。
创建RAM角色
在目标账号下创建RAM角色。由于RAM角色不支持直接选择云消息队列 Kafka 版作为受信服务,您在创建RAM角色时,需要选择任意支持的服务作为受信服务。RAM角色创建后,手动修改信任策略。
在左侧导航栏,选择 。
在角色页面,单击创建角色。
在创建角色面板,创建RAM角色。
选择可信实体类型为阿里云服务,单击下一步。
在角色类型区域,选择普通服务角色,在角色名称文本框,输入AliyunKafkaConnectorRole,从选择受信服务列表,选择函数计算,然后单击完成。
在角色页面,找到AliyunKafkaConnectorRole,单击AliyunKafkaConnectorRole。
在AliyunKafkaConnectorRole页面,单击信任策略管理页签,单击修改信任策略。
在修改信任策略面板,将脚本中fc替换为alikafka,单击确定。
添加权限
在目标账号下为创建的RAM角色授予访问函数计算的权限。
在左侧导航栏,选择 。
在角色页面,找到AliyunKafkaConnectorRole,在其右侧操作列,单击添加权限。
在添加权限面板,添加KafkaConnectorFcAccess权限。
在选择权限区域,选择自定义策略。
在权限策略名称列表,找到KafkaConnectorFcAccess,单击KafkaConnectorFcAccess。
单击确定。
单击完成。
创建FC Sink Connector依赖的Topic
您可以在云消息队列 Kafka 版控制台手动创建FC Sink Connector依赖的5个Topic,包括:任务位点Topic、任务配置Topic、任务状态Topic、死信队列Topic以及异常数据Topic。每个Topic所需要满足的分区数与存储引擎会有差异,具体信息,请参见配置源服务参数列表。
在概览页面的资源分布区域,选择地域。
重要Topic需要在应用程序所在的地域(即所部署的ECS的所在地域)进行创建。Topic不能跨地域使用。例如Topic创建在华北2(北京)这个地域,那么消息生产端和消费端也必须运行在华北2(北京)的ECS。
在实例列表页面,单击目标实例名称。
在左侧导航栏,单击Topic 管理。
在Topic 管理页面,单击创建 Topic。
在创建 Topic面板,设置Topic属性,然后单击确定。
参数
说明
示例
名称
Topic名称。
demo
描述
Topic的简单描述。
demo test
分区数
Topic的分区数量。
12
存储引擎
说明当前仅专业版实例支持选择存储引擎类型,标准版暂不支持,默认选择为云存储类型。
Topic消息的存储引擎。
云消息队列 Kafka 版支持以下两种存储引擎。
云存储:底层接入阿里云云盘,具有低时延、高性能、持久性、高可靠等特点,采用分布式3副本机制。实例的规格类型为标准版(高写版)时,存储引擎只能为云存储。
Local 存储:使用原生Kafka的ISR复制算法,采用分布式3副本机制。
云存储
消息类型
Topic消息的类型。
普通消息:默认情况下,保证相同Key的消息分布在同一个分区中,且分区内消息按照发送顺序存储。集群中出现机器宕机时,可能会造成消息乱序。当存储引擎选择云存储时,默认选择普通消息。
分区顺序消息:默认情况下,保证相同Key的消息分布在同一个分区中,且分区内消息按照发送顺序存储。集群中出现机器宕机时,仍然保证分区内按照发送顺序存储。但是会出现部分分区发送消息失败,等到分区恢复后即可恢复正常。当存储引擎选择Local 存储时,默认选择分区顺序消息。
普通消息
日志清理策略
Topic日志的清理策略。
当存储引擎选择Local 存储(当前仅专业版实例支持选择存储引擎类型为Local存储,标准版暂不支持)时,需要配置日志清理策略。
云消息队列 Kafka 版支持以下两种日志清理策略。
Delete:默认的消息清理策略。在磁盘容量充足的情况下,保留在最长保留时间范围内的消息;在磁盘容量不足时(一般磁盘使用率超过85%视为不足),将提前删除旧消息,以保证服务可用性。
Compact:使用Kafka Log Compaction日志清理策略。Log Compaction清理策略保证相同Key的消息,最新的value值一定会被保留。主要适用于系统宕机后恢复状态,系统重启后重新加载缓存等场景。例如,在使用Kafka Connect或Confluent Schema Registry时,需要使用Kafka Compact Topic存储系统状态信息或配置信息。
重要Compact Topic一般只用在某些生态组件中,例如Kafka Connect或Confluent Schema Registry,其他情况的消息收发请勿为Topic设置该属性。具体信息,请参见云消息队列 Kafka 版Demo库。
Compact
标签
Topic的标签。
demo
创建完成后,在Topic 管理页面的列表中显示已创建的Topic。
创建FC Sink Connector依赖的Group
您可以在云消息队列 Kafka 版控制台手动创建FC Sink Connector数据同步任务使用的Group。该Group的名称必须为connect-任务名称,具体信息,请参见配置源服务参数列表。
在概览页面的资源分布区域,选择地域。
在实例列表页面,单击目标实例名称。
在左侧导航栏,单击Group 管理。
在Group 管理页面,单击创建 Group。
在创建 Group面板的Group ID文本框输入Group的名称,在描述文本框简要描述Group,并给Group添加标签,单击确定。
创建完成后,在Group 管理页面的列表中显示已创建的Group。
创建并部署FC Sink Connector
创建并部署用于将数据从云消息队列 Kafka 版同步至函数计算的FC Sink Connector。
在概览页面的资源分布区域,选择地域。
在左侧导航栏,单击Connector 任务列表。
在Connector 任务列表页面,从选择实例的下拉列表选择Connector所属的实例,然后单击创建 Connector。
在创建 Connector配置向导页面,完成以下操作。
在配置基本信息页签,按需配置以下参数,然后单击下一步。
参数
描述
示例值
名称
Connector的名称。命名规则:
可以包含数字、小写英文字母和短划线(-),但不能以短划线(-)开头,长度限制为48个字符。
同一个云消息队列 Kafka 版实例内保持唯一。
Connector的数据同步任务必须使用名称为connect-任务名称的Group。如果您未手动创建该Group,系统将为您自动创建。
kafka-fc-sink
实例
默认配置为实例的名称与实例ID。
demo alikafka_post-cn-st21p8vj****
在配置源服务页签,选择数据源为消息队列Kafka版,并配置以下参数,然后单击下一步。
说明如果您已创建好Topic和Group,那么请选择手动创建资源,并填写已创建的资源信息。否则,请选择自动创建资源。
表 1. 配置源服务参数列表
参数
描述
示例值
数据源 Topic
需要同步数据的Topic。
fc-test-input
消费线程并发数
数据源Topic的消费线程并发数。默认值为6。取值说明如下:
1
2
3
6
12
6
消费初始位置
开始消费的位置。取值说明如下:
最早位点:从最初位点开始消费。
最近位点:从最新位点开始消费。
最早位点
VPC ID
数据同步任务所在的VPC。单击配置运行环境显示该参数。默认为云消息队列 Kafka 版实例所在的VPC,您无需填写。
vpc-bp1xpdnd3l***
vSwitch ID
数据同步任务所在的交换机。单击配置运行环境显示该参数。该交换机必须与云消息队列 Kafka 版实例处于同一VPC。默认为部署云消息队列 Kafka 版实例时填写的交换机。
vsw-bp1d2jgg81***
失败处理
消息发送失败后,是否继续订阅出现错误的Topic的分区。单击配置运行环境显示该参数。取值说明如下。
继续订阅:继续订阅出现错误的Topic的分区,并打印错误日志。
停止订阅:停止订阅出现错误的Topic的分区,并打印错误日志
说明如何查看日志,请参见Connector相关操作。
如何根据错误码查找解决方案,请参见错误码。
继续订阅
创建资源方式
选择创建Connector所依赖的Topic与Group的方式。单击配置运行环境显示该参数。
自动创建
手动创建
自动创建
Connector 消费组
Connector的数据同步任务使用的Group。单击配置运行环境显示该参数。该Group的名称必须为connect-任务名称。
connect-kafka-fc-sink
任务位点 Topic
用于存储消费位点的Topic。单击配置运行环境显示该参数。
Topic:建议以connect-offset开头。
分区数:Topic的分区数量必须大于1。
存储引擎:Topic的存储引擎必须为Local存储。
cleanup.policy:Topic的日志清理策略必须为compact。
connect-offset-kafka-fc-sink
任务配置 Topic
用于存储任务配置的Topic。单击配置运行环境显示该参数。
Topic:建议以connect-config开头。
分区数:Topic的分区数量必须为1。
存储引擎:Topic的存储引擎必须为Local存储。
cleanup.policy:Topic的日志清理策略必须为compact。
connect-config-kafka-fc-sink
任务状态 Topic
用于存储任务状态的Topic。单击配置运行环境显示该参数。
Topic:建议以connect-status开头。
分区数:Topic的分区数量建议为6。
存储引擎:Topic的存储引擎必须为Local存储。
cleanup.policy:Topic的日志清理策略必须为compact。
connect-status-kafka-fc-sink
死信队列 Topic
用于存储Connect框架的异常数据的Topic。单击配置运行环境显示该参数。该Topic可以和异常数据Topic为同一个Topic,以节省Topic资源。
Topic:建议以connect-error开头。
分区数:Topic的分区数量建议为6。
存储引擎:Topic的存储引擎可以为Local存储或云存储。
connect-error-kafka-fc-sink
异常数据 Topic
用于存储Sink的异常数据的Topic。单击配置运行环境显示该参数。该Topic可以和死信队列Topic为同一个Topic,以节省Topic资源。
Topic:建议以connect-error开头。
分区数:Topic的分区数量建议为6。
存储引擎:Topic的存储引擎可以为Local存储或云存储。
connect-error-kafka-fc-sink
在配置目标服务页签,选择目标服务为函数计算,并配置以下参数,然后单击创建。
说明如果Connector所属实例的地域为华东1(杭州)或西南1(成都),选择目标服务为函数计算时, 会分别弹出创建服务关联角色AliyunServiceRoleForEventBridgeSourceKafka和AliyunServiceRoleForEventBridgeConnectVPC的服务授权对话框,在弹出的服务授权对话框中单击确认,然后再配置以下参数并单击创建。如果服务关联角色已创建,则不再重复创建,即不会再弹出服务授权对话框。
参数
描述
示例值
是否跨账号/地域
FC Sink Connector是否跨账号/地域向函数计算服务同步数据。默认为否。取值:
否:同地域同账号模式。
是:跨地域同账号模式、同地域跨账号模式或跨地域跨账号模式。
否
服务地域
函数计算服务的地域。默认为FC Sink Connector所在地域。如需跨地域,您需要为Connector开启公网访问,然后选择目标地域。更多信息,请参见为FC Sink Connector开启公网访问。
重要是否跨账号/地域为是时,显示服务地域。
cn-hangzhou
服务接入点
函数计算服务的接入点。在函数计算控制台的概览页的常用信息区域获取。
内网Endpoint:低延迟,推荐。适用于云消息队列 Kafka 版实例和函数计算处于同一地域场景。
公网Endpoint:高延迟,不推荐。适用于云消息队列 Kafka 版实例和函数计算处于不同地域的场景。如需使用公网Endpoint,您需要为Connector开启公网访问。更多信息,请参见为FC Sink Connector开启公网访问。
重要是否跨账号/地域general.no为是时,显示服务接入点。
http://188***.cn-hangzhou.fc.aliyuncs.com
服务账号
函数计算服务的阿里云账号ID。在函数计算控制台的概览页的常用信息区域获取。
重要是否跨账号/地域为是时,显示服务账号。
188***
授权角色名
云消息队列 Kafka 版访问函数计算服务的RAM角色。
如不需跨账号,您需要在本账号下创建RAM角色并为其授权,然后输入该授权角色名。操作步骤,请参见创建自定义权限策略、创建RAM角色和添加权限。
如需跨账号,您需要在目标账号下创建RAM角色并为其授权,然后输入该授权角色名。操作步骤,请参见创建自定义权限策略、创建RAM角色和添加权限。
重要是否跨账号/地域为是时,显示授权角色名。
AliyunKafkaConnectorRole
服务名
函数计算服务的名称。
guide-hello_world
函数名
函数计算服务的函数名称。
hello_world
版本或别名
函数计算服务的版本或别名。
重要是否跨账号/地域为否时,您需选择指定版本还是指定别名。
是否跨账号/地域为是时,您需手动输入函数计算服务的版本或别名。
LATEST
服务版本
函数计算的服务版本。
重要是否跨账号/地域为否且版本或别名选择指定版本时,显示服务版本。
LATEST
服务别名
函数计算的服务别名。
重要是否跨账号/地域为否且版本或别名选择指定别名时,显示服务别名。
jy
发送模式
消息发送模式。取值说明如下:
异步:推荐。
同步:不推荐。同步发送模式下,如果函数计算的处理时间较长,云消息队列 Kafka 版的处理时间也会较长。当同一批次消息的处理时间超过5分钟时,会触发云消息队列 Kafka 版客户端Rebalance。
异步
发送批大小
批量发送的消息条数。默认为20。Connector根据发送批次大小和请求大小限制(同步请求大小限制为6 MB,异步请求大小限制为128 KB)将多条消息聚合后发送。例如,发送模式为异步,发送批次大小为20,如果要发送18条消息,其中有17条消息的总大小为127 KB,有1条消息的大小为200 KB,Connector会将总大小不超过128 KB的17条消息聚合后发送,将大小超过128 KB的1条消息单独发送。
说明如果您在发送消息时将key设置为null,则请求中不包含key。如果将value设置为null,则请求中不包含value。
如果批量发送的多条消息的大小不超过请求大小限制,则请求中包含消息内容。请求示例如下:
[ { "key":"this is the message's key2", "offset":8, "overflowFlag":false, "partition":4, "timestamp":1603785325438, "topic":"Test", "value":"this is the message's value2", "valueSize":28 }, { "key":"this is the message's key9", "offset":9, "overflowFlag":false, "partition":4, "timestamp":1603785325440, "topic":"Test", "value":"this is the message's value9", "valueSize":28 }, { "key":"this is the message's key12", "offset":10, "overflowFlag":false, "partition":4, "timestamp":1603785325442, "topic":"Test", "value":"this is the message's value12", "valueSize":29 }, { "key":"this is the message's key38", "offset":11, "overflowFlag":false, "partition":4, "timestamp":1603785325464, "topic":"Test", "value":"this is the message's value38", "valueSize":29 } ]
如果发送的单条消息的大小超过请求大小限制,则请求中不包含消息内容。请求示例如下:
[ { "key":"123", "offset":4, "overflowFlag":true, "partition":0, "timestamp":1603779578478, "topic":"Test", "value":"1", "valueSize":272687 } ]
说明如需获取消息内容,您需要根据位点主动拉取消息。
50
重试次数
消息发送失败后的重试次数。默认为2。取值范围为1~3。部分导致消息发送失败的错误不支持重试。错误码与是否支持重试的对应关系如下:
4XX:除429支持重试外,其余错误码不支持重试。
5XX:支持重试。
说明Connector调用InvokeFunction向函数计算发送消息。
重试次数超出取值范围之后,消息会进入死信队列Topic。死信队列Topic的消息不会再次触发函数计算Connector任务,建议您给死信队列Topic资源配置监控告警,实时监控资源状态,及时发现并处理异常。
2
创建完成后,在Connector 任务列表页面,查看创建的Connector 。
创建完成后,在Connector 任务列表页面,找到创建的Connector ,单击其操作列的部署。
如需配置函数计算资源,单击其操作列的
,跳转至函数计算控制台完成操作。
发送测试消息
部署FC Sink Connector后,您可以向云消息队列 Kafka 版的数据源Topic发送消息,测试数据能否被同步至函数计算。
在Connector 任务列表页面,找到目标Connector,在其右侧操作列,单击测试。
在发送消息面板,发送测试消息。
发送方式选择控制台。
在消息 Key文本框中输入消息的Key值,例如demo。
在消息内容文本框输入测试的消息内容,例如 {"key": "test"}。
设置发送到指定分区,选择是否指定分区。
单击是,在分区 ID文本框中输入分区的ID,例如0。如果您需查询分区的ID,请参见查看分区状态。
单击否,不指定分区。
发送方式选择Docker,执行运行 Docker 容器生产示例消息区域的Docker命令,发送消息。
发送方式选择SDK,根据您的业务需求,选择需要的语言或者框架的SDK以及接入方式,通过SDK发送消息。
查看函数日志
向云消息队列 Kafka 版的数据源Topic发送消息后,查看函数日志,验证是否收到消息。更多信息,请参见配置日志。
日志中显示发送的测试消息。