数据传输服务DTS(Data Transmission Service)提供的数据投递功能,用户可以通过SDK将各种类型的数据源投递到DTS,再由DTS同步至目标数据库,从而支持更多类型的数据源。
应用场景
数据投递功能适用于以下任一场景:
源端为DTS同步方案暂不支持的数据库类型,例如国产数据库。
源端为日志数据、特殊数据类型等。
出于安全等原因,源端不能直接连接DTS,例如源库账号密码不能暴露。
前提条件
已创建用于接收数据的目标库实例,当前仅支持AnalyticDB PostgreSQL版。创建方法,请参见创建实例。
目标AnalyticDB PostgreSQL版实例中需已创建好用于接收数据的数据库和Schema(本示例创建的Schema为dts_deliver_test)。创建方法,请参见导入数据。
若源库的接入方式需选择为专线/VPN网关/智能网关,您需要允许DTS通过VPN网关访问您的数据库。操作方法,请参见通过VPN网关实现本地IDC与DTS云服务互通。
注意事项
使用SDK将源端数据投递到DTS需要有一定的编码能力。
AnalyticDB PostgreSQL版实例中的Schema名称、投递数据对象配置阶段输入的数据库名称和SDK中配置的dbName需保持一致,否则目标端可能接收不到数据。
实例创建后不支持修改分片数。
数据投递实例创建成功后请及时使用SDK进行数据投递,否则实例会因采集不到增量数据而失败。
若实例运行失败,DTS技术支持人员将在8小时内尝试恢复该实例。在恢复失败实例的过程中,可能会对该实例进行重启、调整参数等操作。
说明在调整参数时,仅会修改实例的参数,不会对数据库中的参数进行修改。可能修改的参数,包括但不限于修改实例参数中的参数。
费用说明
详情请参见计费概述。
创建数据投递实例
进入同步任务的列表页面。
登录DMS数据管理服务。
在顶部菜单栏中,单击集成与开发。
在左侧导航栏,选择 。
说明实际操作可能会因DMS的模式和布局不同,而有所差异。更多信息,请参见极简模式和自定义DMS界面布局与样式。
您也可以登录新版DTS同步任务列表页面。
在同步任务右侧,选择同步实例所属地域。
说明新版DTS同步任务列表页面,需要在页面左上角选择同步实例所属地域。
单击创建任务,配置源库及目标库信息。
类别
配置
说明
无
任务名称
DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
源库信息
选择DMS数据库实例
请勿选择数据库实例,数据投递任务仅支持手动在下方填入数据库信息。
数据库类型
选择数据投递。
接入方式
请根据实际情况进行选择,本示例选择公网IP。
说明若您选择为专线/VPN网关/智能网关,则还需选择VPN网关所属专有网络和虚拟交换机。
实例地区
选择客户端所在的地域。
说明若选项中没有您数据库所属的地域,您可以选择一个该数据库距离最近的地域。
目标库信息
选择DMS数据库实例
您可以按实际需求,选择是否使用已有实例。
如使用已有实例,下方数据库信息将自动填入,您无需重复输入。
如不使用已有实例,您需要输入下方的数据库信息。
数据库类型
选择AnalyticDB PostgreSQL。
接入方式
选择云实例。
实例地区
选择目标AnalyticDB PostgreSQL版实例所属地域。
实例ID
选择目标AnalyticDB PostgreSQL版实例ID。
数据库名称
填入目标AnalyticDB PostgreSQL版实例中用于接收数据的数据库名称。
数据库账号
填入目标AnalyticDB PostgreSQL版实例的数据库账号,需要具有读写权限。创建账号的方法,请参见创建数据库账号。
数据库密码
填入该数据库账号对应的密码。
配置完成后,单击页面下方的测试连接以进行下一步。
如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单中;如果源或目标数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到ECS的安全规则中,您还需确保自建数据库没有限制ECS的访问(若数据库是集群部署在多个ECS实例,您需要手动将DTS服务对应地区的IP地址添到其余每个ECS的安全规则中);如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。DTS服务的IP地址,请参见DTS服务器的IP地址段。
警告DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
配置任务对象及高级配置。
配置
说明
目标已存在表的处理模式
预检查并报错拦截:检查目标数据库中是否有同名的表。如果目标数据库中没有同名的表,则通过该检查项目;如果目标数据库中有同名的表,则在预检查阶段提示错误,数据同步任务不会被启动。
说明如果目标库中同名的表不方便删除或重命名,您可以更改该表在目标库中的名称,请参见库表列名映射。
忽略报错并继续执行:跳过目标数据库中是否有同名表的检查项。
警告选择为忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如:
表结构一致的情况下,如在目标库遇到与源库主键或唯一键的值相同的记录:
全量期间,DTS会保留目标集群中的该条记录,即源库中的该条记录不会同步至目标数据库中。
增量期间,DTS不会保留目标集群中的该条记录,即源库中的该条记录会覆盖至目标数据库中。
表结构不一致的情况下,可能会导致无法初始化数据、只能同步部分列的数据或同步失败,请谨慎操作。
目标库对象名称大小写策略
您可以配置目标实例中同步对象的库名、表名和列名的英文大小写策略。默认情况下选择DTS默认策略,您也可以选择与源库、目标库默认策略保持一致。更多信息,请参见目标库对象名称大小写策略。
投递数据对象配置
单击添加库,并在弹出的新增数据库对话框中,输入源库名称。
重要源库名称需要与AnalyticDB PostgreSQL实例中的Schema名一致,本示例输入dts_deliver_test。
若列表中已有数据库且需要新增数据库,您可以单击已有库后的添加按钮。
单击确定。
单击刚添加的数据库前的,展开数据库列表。
单击Table后的新增表,并在弹出的添加表对话框中,输入源库的表名称。
重要源库的表名需要与SDK中配置的tableName保持一致,本示例输入tab1,tab2,tab3。更多信息,请参加见参数说明。
单击确定。
(可选)配置表名和列名映射。
单击刚创建的表后的编辑按钮。
配置表名映射。
修改表名称。
配置列名映射。
取消选中全表同步,然后修改列名称和映射列名称。
重要列名称和映射列名称需要配合SDK使用,其中列名称为SDK中的源列名(即FakeSource.java文件中createField的name),映射列名称为目标AnalyticDB PostgreSQL版实例中的列名。
单击按钮可以添加更多列。
配置完成后,单击确定。
说明您可以根据实际情况重复操作添加、编辑、批量编辑、删除数据库或表。
单击下一步高级配置,进行高级配置。
配置
说明
选择调度该任务的专属集群
DTS默认将任务调度到共享集群上,您无需选择。您可以购买指定规格的专属集群来运行DTS任务,详情请参见什么是DTS专属集群。
设置告警
是否设置告警,当同步失败或延迟超过阈值后,将通知告警联系人。
不设置:不设置告警。
设置:设置告警,您还需要设置告警阈值和告警通知。更多信息,请参见在配置任务过程中配置监控告警。
源库、目标库无法连接后的重试时间
在同步任务启动后,若源库或目标库连接失败则DTS会报错,并会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的重试时间内重新连接上源库、目标库,同步任务将自动恢复。否则,同步任务将会失败。
说明针对同源或者同目标的多个DTS实例,如DTS实例A和DTS实例B,设置网络重试时间时A设置30分钟,B设置60分钟,则重试时间以低的30分钟为准。
由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
源库、目标库出现其他问题后的重试时间
在同步任务启动后,若源库或目标库出现非连接性的其他问题(如DDL或DML执行异常),则DTS会报错并会立即进行持续的重试操作,默认持续重试时间为10分钟,您也可以在取值范围(1~1440分钟)内自定义重试时间,建议设置10分钟以上。如果DTS在设置的重试时间内相关操作执行成功,同步任务将自动恢复。否则,同步任务将会失败。
重要源库、目标库出现其他问题后的重试时间的值需要小于源库、目标库无法连接后的重试时间的值。
是否限制增量同步速率
您也可以根据实际情况,选择是否对增量同步任务进行限速设置(设置每秒增量迁移的行数RPS和每秒增量迁移的数据量MB),以缓解目标库的压力。
环境标签
请根据实际情况,选择用于标识实例的环境标签。
配置ETL功能
选择是否配置ETL功能。关于ETL的更多信息,请参见什么是ETL。
是:配置ETL功能,并在文本框中填写数据处理语句,详情请参见在DTS迁移或同步任务中配置ETL。
否:不配置ETL功能。
保存任务并进行预检查。
若您需要查看调用API接口配置该实例时的参数信息,请将鼠标光标移动至下一步保存任务并预检查按钮上,然后单击气泡中的预览OpenAPI参数。
若您无需查看或已完成查看API参数,请单击页面下方的下一步保存任务并预检查。
说明在同步作业正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动同步作业。
如果预检查失败,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。
如果预检查产生警告:
对于不可以忽略的检查项,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。
对于可以忽略无需修复的检查项,您可以依次单击点击确认告警详情、确认屏蔽、确定、重新进行预检查,跳过告警检查项重新进行预检查。如果选择屏蔽告警检查项,可能会导致数据不一致等问题,给业务带来风险。
预检查通过率显示为100%时,单击下一步购买。
在购买页面,选择数据同步实例的计费方式、链路规格,详细说明请参见下表。
类别
参数
说明
信息配置
计费方式
预付费(包年包月):在新建实例时支付费用。适合长期需求,价格比按量付费更实惠,且购买时长越长,折扣越多。
后付费(按量付费):按小时扣费。适合短期需求,用完可立即释放实例,节省费用。
分片数
即目标Topic的Partition(分区)数量。
重要实例创建后不支持修改分片数,请谨慎选择。
资源组配置
实例所属的资源组,默认为default resource group。更多信息,请参见什么是资源管理。
链路规格
DTS为您提供了不同性能的同步规格,同步链路规格的不同会影响同步速率,您可以根据业务场景进行选择。更多信息,请参见数据同步链路规格说明。
订购时长
在预付费模式下,选择包年包月实例的时长和数量,包月可选择1~9个月,包年可选择1年、2年、3年和5年。
说明该选项仅在付费类型为预付费时出现。
配置完成后,阅读并勾选《数据传输(按量付费)服务条款》。
单击购买并启动,并在弹出的确认对话框,单击确定。
您可在数据同步界面查看具体任务进度。
使用SDK将源端数据投递到DTS
配置DTS投递的SDK。
打开IntelliJ IDEA等类似软件,新建一个业务Project。
在新建的业务Project中,找到项目对象模型文件:pom.xml。
在pom.xml中添加如下依赖:
<dependency> <groupId>com.aliyun.dts.deliver</groupId> <artifactId>dts-deliver-client</artifactId> <version>1.0.0</version> </dependency>
说明您可以在dts-deliver-client页面查看最新Maven依赖。
下载示例代码,参考dts-deliver-test文件夹中的DtsDeliverTest.java文件进行投递。示例代码,参见使用示例代码。
说明FakeSource.java文件中:read方法是数据来源的示例,createField中的name是源列名,您需要根据实际情况进行编码。
在同步任务列表单击目标数据投递实例ID,并在左侧导航栏单击基本信息,获取SDK示例代码中使用的参数。
参数
说明
获取方式
ip:port
数据投递通道的地址。
在投递通道信息区域,单击公网地址或VPC网络地址后的复制。
重要客户端所属的网络在当前实例专有网络VPC时,才可以使用VPC网络地址。
ak
DTS数据投递实例所属账号的AccessKey ID和AccessKey Secret。
secret
dts_job_id
说明即DTS_JOB_ID.getKey()后需要填入的信息。
DTS数据投递实例的任务ID。
重要请勿填写为实例ID。
您可以调用DescribeDtsJobs接口查询。
说明投递Topic中_vpc_与_data_delivery_间的信息即为您需要填入的dts_job_id。例如投递Topic为cn_hangzhou_vpc_cxti86dc11z***_data_delivery_version2时,则dts_job_id需填入cxti86dc11z***。
topic
投递的目标Topic。
在投递通道信息区域,单击投递Topic后的复制。
partition
目标Topic的Partition(分区)数量。
在投递通道信息区域,查看分片数。
region
DTS数据投递实例的地域。
在投递通道信息区域,查看实例地域。
dbName
源端数据库名称,需要与AnalyticDB PostgreSQL实例中的Schema名一致。
请根据实际情况填写,本示例为dts_deliver_test。
tableName
源端表名称,需要与投递数据对象配置阶段输入的表名一致。
请根据实际情况填写,本示例为tab1、tab2、tab3。
参数配置完后,记录当前时间并启动SDK。
修改数据投递实例的位点,详情请参见修改同步或迁移实例的当前位点。
说明数据投递实例的当前位点默认为增量写入模块开始运行的时间,您需要修改为SDK启动的时间。
在目标端查看数据。