数据传输服务DTS(Data Transmission Service)支持Tair(企业版)实例间的双向同步,适用于异地多活、数据容灾等多种应用场景,本文介绍数据同步作业的配置流程。
功能概述
双向同步功能需要您依次配置两条同步链路,分别为正向数据同步任务、反向数据同步任务。在正向数据同步任务中会执行全量迁移和增量同步,但反向数据同步任务仅执行增量数据同步。
全量迁移:DTS将源库的存量数据全部迁移到目标库中,全量迁移不收费。
增量同步:在全量迁移的基础上,DTS将源库的增量更新实时地同步到目标库中。增量迁移会根据使用时长产生费用(与迁移的数据量无关),更多信息请参见计费项。
双向数据同步任务运行期间,请勿在两端数据库同时对同一个Key执行修改或写入操作,否则可能会导致数据不一致。
前提条件
源和目标实例为Tair(企业版)实例。
Tair(企业版)磁盘型不支持双向同步。
当Tair持久内存型为源数据库时,请手动开启appendonly参数。
注意事项
迁移期间,请勿对源库和目标库进行扩缩容、变配规格、变更连接地址等操作,否则会导致任务失败,您需重新配置任务。同时,执行迁移操作会占用源库和目标库资源,建议您在业务低峰期执行。
如双向同步任务的源实例或目标实例位于海外地域,则仅支持同地域的双向同步,不支持跨地域的双向同步。例如,支持日本地域间的双向同步,不支持日本地域与法兰克福地域间的双向同步。
双向同步实例包含正向和反向同步任务,在配置或重置双向同步实例时,若其中一个任务的目标对象是另一个任务待同步的对象:
仅允许其中一个任务同步全量和增量数据,另一个任务仅支持同步增量数据。
当前任务的源数据仅支持同步到当前任务的目标端,同步过来的数据不会作为另一个任务的源数据继续同步。
操作步骤
进入数据同步任务的列表页面。
登录DMS数据管理服务。
在顶部菜单栏中,单击集成与开发。
在左侧导航栏,选择 。
单击创建任务。
配置源库及目标库信息,并单击页面下方的测试连接以进行下一步。
类别
配置
说明
无
任务名称
DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
源库信息
选择DMS数据库实例
若您已将源库录入至DMS中,可在此选择,选择后无需填写下方的源库信息。若未录入,请忽略该选项。
数据库类型
选择Tair/Redis。
接入方式
选择云实例。
实例地区
选择实例所属的地域。
是否跨阿里云账号
本示例为同一阿里云账号间的迁移,选择不跨账号。
实例ID
选择源实例ID。
认证方式
请根据实际情况选择密码登录或免密登录,本示例选择密码登录。
说明若实例没有开启专有网络免密访问功能,请选择密码登录。
数据库密码
填入用于连接源实例的账号密码。
说明非必填项,若没有设置密码可以不填。
若使用自定义账号,该账号需要具有读权限,账号、密码的格式为<user>:<password>。例如,实例自定义的账号为admin,密码为Rp829dlwa,则此处填入的数据库密码为admin:Rp829dlwa。
目标库信息
选择DMS数据库实例
若您已将目标库录入至DMS中,可在此选择,选择后无需填写下方的目标库信息。若未录入,请忽略该选项。
数据库类型
将默认选择Tair/Redis。
接入方式
选择云实例。
实例地区
选择目标实例的所属地域。
实例ID
选择目标实例ID。
认证方式
请根据实际情况选择密码登录或免密登录,本示例选择密码登录。
说明若实例没有开启专有网络免密访问功能,请选择密码登录。
数据库密码
填入连接目标数据库的密码。
说明若使用自定义账号,该账号需要具有写权限,账号、密码格式为<user>:<password>。例如,实例自定义的账号为admin,密码为Rp829dlwa,则此处填入的数据库密码为admin:Rp829dlwa。
配置任务对象,并单击页面下方的下一步高级配置。
配置
说明
同步类型
请按需选择是否开启全量同步,但固定选中增量同步。
同步拓扑
选择双向同步。
目标已存在表的处理模式
预检查并报错拦截(默认):检查目标库中是否存在数据(Key)。
若存在,则在预检查阶段提示错误,且不会启动迁移任务;若不存在,则通过。
忽略报错并继续执行:跳过目标库对象数据存在性检查项,若目标库中已存在名称相同的Key,则会被覆盖。
源库对象与已选择对象
在源库对象框中勾选待同步的对象,然后单击将其移动至已选择对象框。若您需要移除已选择的对象,可以在已选择对象框中单击目标对象,然后单击将其移动至源库对象。
说明迁移对象的选择粒度为库(DB 0 ~ DB 255)。
进行高级配置,并单击页面下方的下一步数据校验。
通常情况下,该配置项保持默认即可,更多信息请参见附录:高级设置说明。
进行校验配置,并单击页面下方的下一步保存任务并预检查。
通常情况下,该配置项保持默认即可,更多信息请参见在DTS同步或迁移实例中配置数据校验。
进行预检查,完成后单击下一步购买。
若预检查产生警告或失败项,请逐条确认。您可以单击查看详情,根据提示进行修复;您也可以单击点击确认告警详情,忽略检查项,但可能会产生数据不一致等问题,给业务带来风险,更多信息请参见预检查问题。完成上述操作后,请重新进行预检查。
在购买页配置信息,并单击购买并启动。
(可选)选择DTS迁移链路所属的资源组配置,默认为default resource group。
(可选)选择DTS迁移链路的规格,规格越高,迁移速率越大,费用也越高,默认为large,更多信息请参见数据同步链路规格说明。
阅读并勾选服务条款。
购买后,迁移任务正式开始,您可以在数据迁移界面查看具体进度。
等待正向同步任务的运行状态为运行中,单击下方反向任务的配置任务。
参考上述步骤,配置反向任务。
当预检查通过率显示为100%时,表示配置完成,此时您可以单击返回列表。
在数据同步列表中,当正向、反向同步任务的运行状态均处于运行中时,表示双向数据同步配置成功。
常见问题
为什么测试连接失败?
请排查以下几方面:
账号密码错误,Redis的密码格式为
user:password
,更多信息请参见实例的登录方式。若源库为IDC自建数据库或其他云数据库,可能存在网络防火墙,请您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问,更多信息请参见添加DTS服务器的IP地址段。
为什么会运行失败?
迁移期间,若对源库和目标库进行扩缩容、变配规格、变更连接地址等操作,会导致任务失败,您需重新配置任务。
若目标实例内存空间不足,或目标实例为集群架构且某分片达到了内存上限,DTS任务会因内存溢出(Out of Memory)而失败。
若目标实例已开启透明数据加密TDE功能,则暂不支持通过DTS迁移数据。
为什么数据量不一致?
若源库中的某些Key使用了过期(Expire)策略,由于可能存在Key已过期但未被及时删除的情况,所以目标库中的Key数量可能会比源库少。
对于List列表,由于DTS在调用PSYNC或SYNC传输数据时,不会对目标端已有的数据执行FLUSH操作,所以可能出现重复的数据。
若在执行全量迁移过程中网络中断,DTS可能会执行多次全量迁移(会自动覆盖同名Key),若在此时对源库执行删除操作,则该命令不会被同步到目标库。可能会造成目标库大于源库的情况。
为什么会检查Redis逐出策略是否为noeviction?
由于云数据库 Tair(兼容 Redis)的默认数据逐出策略(maxmemory-policy)为volatile-lru,若目标数据库内存不足,触发数据逐出会导致目标库与源库数据不一致的情况,但不会影响任务的正常运行。为避免该情况发生,建议将目标库的数据逐出策略设置为noeviction,当目标库内存不足时,数据会写入失败,同时任务也会失败,但目标库不会因为数据逐出而丢失数据。关于数据逐出策略详情,请参见Redis数据逐出策略介绍。
为什么会报错
CROSSSLOT Keys in request don't hash to the same slot
?若目标为集群架构实例,Redis存在限制:不支持在单个命令中执行跨Slot的操作。建议在DTS同步过程中仅执行单Key操作,以免导致链路中断。
支持同步哪些命令?
支持如下命令:
APPEND
BITOP、BLPOP、BRPOP、BRPOPLPUSH
DECR、DECRBY、DEL
EVAL、EVALSHA、EXEC、EXPIRE、EXPIREAT
GEOADD、GETSET
HDEL、HINCRBY、HINCRBYFLOAT、HMSET、HSET、HSETNX
INCR、INCRBY、INCRBYFLOAT
LINSERT、LPOP、LPUSH、LPUSHX、LREM、LSET、LTRIM
MOVE、MSET、MSETNX、MULTI
PERSIST、PEXPIRE、PEXPIREAT、PFADD、PFMERGE、PSETEX
RENAME、RENAMENX、RESTORE、RPOP、RPOPLPUSH、RPUSH、RPUSHX
SADD、SDIFFSTORE、SELECT、SET、SETBIT、SETEX、SETNX、SETRANGE、SINTERSTORE、SMOVE、SPOP、SREM、SUNIONSTORE
ZADD、ZINCRBY、ZINTERSTORE、ZREM、ZREMRANGEBYLEX、ZUNIONSTORE、ZREMRANGEBYRANK、ZREMRANGEBYSCORE
SWAPDB、UNLINK(仅当源端Redis实例的版本为4.0时支持)
XADD、XCLAIM、XDEL、XAUTOCLAIM、XGROUP CREATECONSUMER、XTRIM
不支持同步PUBLISH命令。
对于通过EVAL或者EVALSHA调用Lua脚本,在增量数据同步时,由于目标端在执行脚本时不会明确返回执行结果,DTS无法确保该类型脚本能够执行成功。