借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供全面统一的云原生防护平台(CNAPP)能力
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
基于生成式AI的一体化平台,助您在同一个工作空间内高效创作多样化内容
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。
如果数据迁移任务长期处于非活跃状态(任务状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,任务可能无法恢复。数据传输将主动释放处于非活跃状态超过 3 天的数据迁移任务,以回收相关资源,建议您为任务配置告警并及时处理任务相关异常。
数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。
已为源端 Oracle 数据库和目标端 OceanBase 数据库 Oracle 租户创建专用于数据迁移的数据库用户,并为其赋予相关权限。详情请参见 创建数据库用户。
已在目标端 OceanBase 数据库 Oracle 租户创建对应的数据库。OceanBase 数据迁移功能支持迁移表和列,不支持迁移库,您需要提前在目标端创建对应的数据库。
Oracle 源实例必须开启 Archive Log,并且在数据传输增量复制前已经切换过 LogFile。
Oracle 源实例必须已经安装并可正常使用 LogMiner 工具。
您可以通过 LogMiner 工具获取 Oracle 归档日志文件中的具体内容。
确认 Oracle 实例已开启数据库级别或者表级别的补偿日志。
开启数据库级别的 PK 和 UK 补偿日志,当无需同步的表产生较多不必要的日志时,会增加 LogMiner Reader 拉取日志的压力和 Oracle 自身的压力。所以,数据传输支持 Oracle 数据库仅开启表级别的 PK 和 UK 补偿日志。但是,如果在创建迁移任务时,针对非 PK 列或 UK 列设置了 ETL 过滤,请开启对应列的补偿日志,或者直接开启所有列的补偿日志。
Oracle 机器和数据传输机器之间需要进行时钟同步(例如配置 NTP 服务),否则会存在数据风险。如果是 Oracle RAC,则多个 Oracle 实例之间也需要进行时钟同步。
源端数据库的操作限制
请勿在结构迁移和全量迁移阶段执行库或表结构变更的 DDL 操作,否则可能造成数据迁移任务中断。
数据传输支持的 Oracle 数据库版本为 10G/11G/12C/18C/19C,12C 及之后版本包含数据库容器(Container Database,CDB)和可插拔数据库(Pluggable Database,PDB)。
数据传输仅支持迁移普通表和视图。
数据传输仅支持迁移库名、表名和列名为 ASCII 码且不包含特殊字符(包括换行、空格,以及 .|"'`()=;/&\)的对象。
目标端是数据库的情况下,数据传输不支持目标端存在触发器(Trigger)。如果存在,可能导致数据迁移失败。
数据传输不支持迁移 Oracle 数据库中的索引组织表(IOT,Index-Organized Table),否则会出现数据迁移任务中断的问题。
数据类型的限制
不支持表中全部列均为 LOB 类型(BLOB/CLOB/NCLOB)的增量数据同步。
对于无主键且包含 LOB 类型字段的表,反向增量会出现数据质量问题。
数据源标识和用户账号等,在数据传输系统内是全局唯一的。
Oracle 数据库的增量日志解析最大支持 5T/天。
Oracle 数据库 11G 及之前版本不支持创建超过 30 个字节的数据库对象。在反向增量步骤中,请注意不能在 OceanBase 数据库 Oracle 租户中创建大于本限制的数据库对象。
数据传输不支持迁移 Oracle 数据库 12C 及之后版本中超过 30 个字节的数据库对象(包括 Schema、表和列等)。如果您需要迁移超过 30 个字节的数据库对象,请联系技术支持人员。
数据传输不支持源端 Oracle 数据库执行某些 UPDATE
命令。以下示例为一个不支持的 UPDATE
命令。
UPDATE TABLE_NAME SET KEY=KEY+1;
上述示例中,TABLE_NAME
是表名,KEY
是定义为主键的 NUMERIC 类型的列。
自建数据库所在的 VPC 必须和 OceanBase 数据库位于同一个地域。
当需要进行 Oracle 数据库的增量同步时,Oracle 数据库单个归档文件的大小建议小于 2GB。
Oracle 数据库的归档文件保存 2 天以上,否则由于某个时间段归档量陡增等情况,准备恢复时没有了归档文件,将无法恢复。
如果源端 Oracle 数据库存在交换主键的 DML 语句,将导致数据传输解析日志异常,迁移至目标端时存在数据丢失的问题。交换主键的 DML 语句示例如下:
update test set c1=(case when c1=1 then 2 when c1=2 then 1 end) where c1 in (1,2);
Oracle 实例的字符集配置可以为 AL32UTF8、AL16UTF16、ZHS16GBK 和 GB18030。
如果源端字符集为 UTF-8,建议目标端使用兼容源端的字符集(例如,UTF-8、UTF-16 等),避免因字符集不兼容导致目标端出现乱码等问题。
迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户时,禁止所有表进行导入、导出、Alter Table、Flashback Table、分区分裂或合并等会导致 ROWID 变更的操作。
当源端 Oracle 数据库存在更新分区键、合并分区等影响 RowID 行为的操作时,目标端 OceanBase 数据库 Oracle 租户增加了隐藏列依赖 RowID,可能导致数据丢失的风险。
节点之间的时钟不同步,或者电脑终端和服务器之间的时钟不同步,均可能导致延迟时间(增量同步/反向增量)不准确。
例如,如果时钟早于标准时间,可能导致延迟时间为负数。如果时钟晚于标准时间,可能导致延迟。
由于中国曾经实行夏令时的历史原因,导致 Oracle 数据库至 OceanBase 数据库 Oracle 租户的增量同步中,1986 年~1991 年的夏令时开始和结束的日期,以及 1988 年 4 月 10 日~ 4 月 17 日,TIMESTAMP(6) WITH TIME ZONE
类型,源端和目标端可能存在 1 小时的时间差。
在未开启同步 DDL 的情况下,如果您变更目标端的唯一索引,需要重启数据迁移任务,否则可能存在数据不一致的问题。
如果数据迁移任务没有启用正向切换,请删除目标端数据库对应的唯一索引和伪列。如果不删除唯一索引和伪列,会导致无法写入数据,并且在往下游导入数据时,会重新生成伪列,导致与源端数据库的伪列发生冲突。
如果数据迁移任务已启用正向切换,数据传输会根据数据迁移任务的类型,自动删除隐藏列和唯一索引。详情请参见 数据迁移服务隐藏列机制说明。
对于 Oracle 数据库至 OceanBase 数据库 Oracle 租户的增量同步,如果有新增的无主键表迁移,数据传输不会自动删除在 OceanBase 数据库 Oracle 租户目标端添加的隐藏列和唯一索引。在进行反向迁移前,请您手动删除。
您可以查看 logs/msg/manual_table.log
文件,确认增量同步阶段添加的无主键表。
当源端和目标端的字符编码配置不同时,结构迁移会提供字段长度定义扩大的策略。例如,字段长度扩大 1.5 倍,长度单位从 BYTE 转为 CHAR 等。
转换后可以确保源端不同字符集中的数据能成功迁移至目标端,但割接后反向增量可能会出现数据超长无法写回源端的问题。
如果源端存在包含时区信息的数据类型(例如 TIMESTAMP WITH TIME ZONE),请您确保目标端数据库支持并存在源端对应的时区,否则将导致数据迁移过程中产生数据不一致的问题。
库表汇聚场景下:
建议您使用匹配规则的方式映射源端和目标端的关系。
建议您自行在目标端创建表结构。如果使用数据传输创建,请在结构迁移步骤中跳过部分失败对象。
请检查 Oracle 数据库回收站内的对象。当对象数量大于 100 时,容易造成内部表查询超时,请进行回收站的对象清理工作。
检查回收站是否打开。
SELECT Value FROM V$parameter WHERE Name = 'recyclebin';
检查回收站内对象的数量。
SELECT COUNT(*) FROM RECYCLEBIN;
如果在创建数据迁移任务时,您仅配置了 增量同步,数据传输要求源端数据库的归档日志保存 48 小时以上。
如果在创建数据迁移任务时,您配置了 全量迁移+增量同步,数据传输要求源端数据库的归档日志至少保留 7 天以上。否则数据传输可能因无法获取增量日志而导致数据迁移任务失败,甚至导致源端和目标端数据不一致。
如果源端或目标端存在仅大小写不同的表对象,可能会因为源端或目标端大小写不敏感导致数据迁移的结果不符合预期。
目标端为 OceanBase 数据库 MySQL 租户 V4.1.0 及之后版本时,支持 Latin1 字符集的迁移。
下表中,OceanBase 数据库 Oracle 租户简称为 OB_Oracle。
源端 | 目标端 |
源端 | 目标端 |
Oracle(VPC 内自建数据库) | OB_Oracle(OceanBase 集群实例) |
Oracle(公网 IP 自建数据库) | OB_Oracle(OceanBase 集群实例) |
CLOB 和 BLOB 类型的数据必须小于 48 MB。
不支持迁移 ROWID、BFILE、XMLType、UROWID、UNDEFINED 和 UDT 类型的数据。
不支持 LONG 或 LONG RAW 类型的表进行增量同步。
Oracle 数据库 | OceanBase 数据库 Oracle 租户 |
Oracle 数据库 | OceanBase 数据库 Oracle 租户 |
CHAR(n CHAR) | CHAR(n CHAR) |
CHAR(n BYTE) | CHAR(n BYTE) |
NCHAR(n) | NCHAR(n) |
VARCHAR2(n) | VARCHAR2(n) |
NVARCHAR2(n) | NVARCHAR2(n) |
NUMBER(n) | NUMBER(n) |
NUMBER (p, s) | NUMBER(p,s) |
RAW | RAW |
CLOB | CLOB |
NCLOB | NVARCHAR2 说明 OceanBase 数据库 Oracle 租户中,NVARCHAR2 类型的字段不支持空值。如果源端存在空值,则以字符串 NULL 表示。 |
BLOB | BLOB |
REAL | FLOAT |
FLOAT(n) | FLOAT |
BINARY_FLOAT | BINARY_FLOAT |
BINARY_DOUBLE | BINARY_DOUBLE |
DATE | DATE |
TIMESTAMP | TIMESTAMP |
TIMESTAMP WITH TIME ZONE | TIMESTAMP WITH TIME ZONE |
TIMESTAMP WITH LOCAL TIME ZONE | TIMESTAMP WITH LOCAL TIME ZONE |
INTERVAL YEAR(p) TO MONTH | INTERVAL YEAR(p) TO MONTH |
INTERVAL DAY(p) TO SECOND | INTERVAL DAY(p) TO SECOND |
LONG | CLOB 重要 该类型不支持增量同步。 |
LONG RAW | BLOB 重要 该类型不支持增量同步。 |
SDO_GEOMETRY | SDO_GEOMETRY |
您需要进行下述操作:
在源端 Oracle 数据库开启归档模式
在源端 Oracle 数据库开启补偿日志
(可选)设置 Oracle 数据库的系统参数
SELECT log_mode FROM v$database;
log_mode
字段需要是 archivelog
。否则,您需要根据下述方法进行修改。
执行下述命令,开启归档模式。
SHUTDOWN IMMEDIATE;
STARTUP MOUNT;
ALTER DATABASE ARCHIVELOG;
ALTER DATABASE OPEN;
执行下述命令,查看归档日志的路径和配额。
检查recovery file
的路径和配额,建议 db_recovery_file_dest_size
的配置值尽量大一些。另外,开启归档后,需要用 RMAN 等方法定期清理归档日志。
SHOW PARAMETER db_recovery_file_dest;
根据业务需要更改归档日志的配额。
ALTER SYSTEM SET db_recovery_file_dest_size =50G SCOPE = BOTH;
LogMiner Reader 支持 Oracle 系统配置仅开启表级别的补偿日志。如果在迁移过程中,源端 Oracle 数据库新创建了表并需要迁移,则您需要在执行 DML 操作前,打开 PK、UK 的补偿日志。否则,数据传输会报日志不全的异常。
对于源端和目标端索引不一致、ETL 不符合预期和分区表迁移性能降低等问题,您需要添加以下补偿日志:
添加 DataBase 级别或 Table 级别的 supplemental_log_data_pk
和 supplemental_log_data_ui
。
添加具体列到补偿日志
添加源端和目标端中所有 PK 和 UK 涉及的列,以解决源端和目标端索引不一致的问题。
如果有 ETL,请添加 ETL 的列。解决 ETL 不符合预期的问题。
如果目标端是分区表,请添加分区列,以解决无法进行分区裁剪,导致降低写入性能的问题。
您可以执行下述语句,检查添加结果。
SELECT log_group_type FROM all_log_groups WHERE OWNER = '<schema_name>' AND table_name = '<table_name>';
查询结果中包含 ALL COLUMN LOGGING,则检查通过。如果未包含,请查看ALL_LOG_GROUP_COLUMNS
表中,是否包含上述并集的所有列。
添加具体列至补偿日志的方式,示例如下:
ALTER TABLE <table_name> ADD SUPPLEMENTAL LOG GROUP <table_name_group> (c1, c2) ALWAYS;
下表为数据迁移任务在运行过程中,如果进行 DDL 操作,可能会遇到的风险及解决方式。
操作 | 风险 | 解决方式 |
操作 | 风险 | 解决方式 |
CREATE TABLE(且该表需要同步) | 如果该表存在目标端是分区表,源和目标端的索引不一致,需要进行 ETL 等情况,可能会影响数据迁移性能,导致 ETL 不符合预期。 | 必须开启 DataBase 级别的 PK、UK 补偿日志。手动添加涉及的列至补偿日志。 |
增加、删除和修改 PK/UK/分区列,或修改 ETL 列 | 会不满足启动时要求添加补偿日志的规则,可能导致数据不一致或数据迁移性能降低的问题。 | 根据上述补偿日志的规则进行相应的添加。 |
LogMiner Reader 根据以下两种方式进行检查。如果检查到补偿日志未打开,则退出。
DataBase 级别打开 supplemental_log_data_pk
和 supplemental_log_data_ui
。
执行下述命令,检查是否已打开补偿日志。如果查询结果均为 YES
,表示已打开补偿日志。
SELECT supplemental_log_data_pk, supplemental_log_data_ui FROM v$database;
如果未打开,请执行下述操作:
执行下述语句,打开补偿日志。
ALTER DATABASE ADD supplemental log DATA(PRIMARY KEY, UNIQUE) columns;
打开后,切换 2 次归档日志,并且启动任务前需要等待 5 分钟以上。如果是 Oracle RAC,多个实例交替切换。
ALTER SYSTEM SWITCH LOGFILE;
Oracle RAC 的情况下,如果一个实例切换多次后,再切换到另外的实例,而非交替切换,则在定位起始拉取文件时,后切换的实例可能定位到开启补偿日志前的日志。
Table 级别打开 supplemental_log_data_pk
和 supplemental_log_data_ui
。
执行下述语句,确认 DataBase 级别的 supplemental_log_data_min
是否已打开。
SELECT supplemental_log_data_min FROM v$database;
查询结果为 YES
或 IMPLICIT
,表示已打开。
执行下述语句,确认待同步表的表级别补偿日志是否打开。
SELECT log_group_type FROM all_log_groups WHERE OWNER = '<schema_name>' AND table_name = '<table_name>';
每种补偿日志返回一行,结果中需要包含 ALL COLUMN LOGGING
,或者 PRIMARY KEY LOGGING
和 UNIQUE KEY LOGGING
。
如果未打开表级别的补偿日志,请执行下述语句。
ALTER TABLE table_name ADD SUPPLEMENTAL LOG DATA (PRIMARY KEY, UNIQUE) COLUMNS;
打开后,切换 2 次归档日志,并且启动任务前需要等待 5 分钟以上。如果是 Oracle RAC,多个实例交替切换。
ALTER SYSTEM SWITCH LOGFILE;
建议您将 Oracle 数据库的系统参数 _log_parallelism_max
设置为 1,通常该系统参数默认为 2。
查询_log_parallelism_max
的值。您可以通过以下两种方式进行查询:
方式一
SELECT NAM.KSPPINM,VAL.KSPPSTVL,NAM.KSPPDESC FROM SYS.X$KSPPI NAM,SYS.X$KSPPSV VAL WHERE NAM.INDX= VAL.INDX AND NAM.KSPPINM LIKE '_%' AND UPPER(NAM.KSPPINM) LIKE '%LOG_PARALLEL%';
方式二
SELECT VALUE FROM v$parameter WHERE name = '_log_parallelism_max';
修改 _log_parallelism_max
的值。进行修改时,分为以下两种情况:
Oracle RAC 修改
ALTER SYSTEM SET "_log_parallelism_max" = 1 SID = '*' SCOPE = spfile;
非 Oracle RAC 修改
ALTER SYSTEM SET "_log_parallelism_max" = 1 SCOPE = spfile;
Oracle 数据库 10G 版本修改 _log_parallelism_max
参数时,如果报错 write to SPFILE requested but no SPFILE specified at startup
,请执行下述操作:
CREATE SPFILE FROM PFILE;
SHUTDOWN IMMEDIATE;
STARTUP;
SHOW PARAMETER SPFILE;
修改系统参数 _log_parallelism_max
后,请重启实例,切换 2 次归档日志,并且启动任务前需要等待 5 分钟以上。
登录 OceanBase 管理控制台,购买数据迁移任务。
详情请参见 购买数据迁移任务。
在 数据传输 > 数据迁移 页面,单击新购买的数据迁移任务后的 配置。
如果您需要引用已有的任务配置信息,可以单击 引用配置。详情请参见 引用数据迁移任务配置。
在 选择源和目标 页面,配置各项参数。
参数 | 描述 |
参数 | 描述 |
迁移任务名称 | 建议使用中文、数字和字母的组合。名称中不能包含空格,长度不能超过 64 个字符。 |
源端 | 如果您已新建 Oracle 数据源,请从下拉列表中进行选择。如果未新建,请单击下拉列表中的 新建数据源,在右侧对话框进行新建。参数详情请参见 新建 Oracle 数据源。 |
目标端 | 如果您已新建 OceanBase 数据库 Oracle 租户数据源,请从下拉列表中进行选择。如果未新建,请单击下拉列表中的 新建数据源,在右侧对话框进行新建。参数详情请参见 新建 OceanBase 数据源。 |
标签(可选) | 单击文本框,在下拉列表中选择目标标签。您也可以单击 管理标签 进行新建、修改和删除。详情请参见 通过标签管理数据迁移任务。 |
单击 下一步。在 选择迁移类型 页面,选择 同步拓扑 为 单向同步。
数据传输支持 单向同步 和 双向同步。本文为您介绍单向同步的操作,双向同步的详情请参见 配置双向同步任务。
选择当前数据迁移任务的迁移类型。
同步拓扑为单向同步时,支持的迁移类型包括 结构迁移、全量迁移、增量同步、全量校验 和 反向增量。
迁移类型 | 描述 |
迁移类型 | 描述 |
结构迁移 | 结构迁移任务开始后,数据传输会将源库中的数据对象定义(表、索引、约束、注释和视图等)迁移到目标数据库中,并自动过滤临时表。 |
全量迁移 | 全量迁移任务开始后,数据传输会将源端库表的存量数据迁移至目标端数据库对应的表中。如果选择 全量迁移,建议您在迁移数据前,使用 |
增量同步 | 增量同步任务开始后,数据传输会同步源端数据库发生变化的数据(新增、修改或删除)至目标端数据库对应的表中。 增量同步 包括 DML 同步 和 DDL 同步,您可以根据需求进行自定义配置。详情请参见 自定义配置 DDL/DML。增量同步 的使用限制如下:
|
全量校验 | 在全量迁移完成、增量数据同步至目标端并与源端基本追平后,数据传输会自动发起一轮针对源端数据库配置的数据表和目标表的全量数据校验任务。
|
反向增量 | 反向增量任务开始后,可以实时将业务切换后在目标端数据库产生的变更数据回流至源端数据库。 通常反向增量会复用增量同步的配置,您也可以根据实际需求进行自定义配置。 |
单击 下一步。在 选择迁移对象 页面,选择当前数据迁移任务的迁移对象。
您可以通过 指定对象 和 匹配规则 两个入口选择迁移对象。本文为您介绍通过 指定对象 方式选择迁移对象的具体操作,配置匹配规则的详情请参见 配置和修改匹配规则 中库到库的通配规则说明和配置方式。
待迁移的表名和其中的列名不能包含中文字符。
当数据库的库名或表名存在“$$”字符时,会影响数据迁移任务的创建。
如果您在 选择迁移类型 步骤已勾选 DDL 同步,建议通过匹配规则方式选择迁移对象,以确保所有符合迁移对象规则的新增对象都将被同步。如果您通过指定对象方式选择迁移对象,则新增对象或重命名后的对象将不会被同步。
在 选择迁移对象 区域,选中 指定对象。
在 选择迁移范围 区域的 源端对象 列表选中需要迁移的对象。您可以选择一个或多个库的表、视图作为迁移对象。
单击 >,将其添加至 目标端对象 列表中。
数据传输支持通过文本导入对象,并支持对目标端对象进行重命名、设置行过滤、查看列信息,以及移除单个或全部迁移对象等操作。
通过 匹配规则 方式选择迁移对象时,重命名能力由匹配规则语法覆盖,操作处仅支持设置过滤条件。详情请参见 配置和修改匹配规则。
操作 | 步骤 |
操作 | 步骤 |
导入对象 |
|
重命名 | 数据传输支持重命名迁移对象的名称,详情请参见 数据库库表重命名。 |
设置 | 数据传输支持 您还可以在 查看列 区域,查看迁移对象的列信息。 |
移除/全部移除 | 数据传输支持在数据映射时,对暂时选中到目标端的单个或多个对象进行移除操作。
|
单击 下一步。在 迁移选项 页面,配置各项参数。
全量迁移
在 选择迁移类型 页面,选中 单向同步 > 全量迁移,才会显示下述参数。
参数 | 描述 |
参数 | 描述 |
读取并发配置 | 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512 并发数过高可能会造成源端压力过大,影响业务。 |
写入并发配置 | 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过高可能会造成目标端压力过大,影响业务。 |
全量迁移速率限制 | 您可以根据实际需求决定是否开启全量迁移速率限制。如果开启,请设置 RPS(全量迁移阶段每秒最多可以迁移至目标端的数据行数的最大值限制)和 BPS(全量迁移阶段每秒最多可以迁移至目标端的数据量的最大值限制)。 说明 此处设置的 RPS 和 BPS 仅作为限速限流能力,全量迁移实际可以达到的性能受限于源端、目标端、实例规格配置等因素的影响。 |
目标端表对象存在记录时处理策略 | 处理策略包括 忽略 和 停止迁移:
|
是否允许索引后置 | 您可以设置是否允许全量数据迁移完成后再创建索引,索引后置功能能够缩短全量迁移耗时。选择索引后置的注意事项,请参见表格下方的说明。 重要
当目标端为 OceanBase 数据库,并且此处选择 允许 后,请进行下述配置:
|
允许索引后置的情况下,建议您根据 OceanBase 数据库的硬件条件和当前业务流量情况,通过黑屏客户端工具调整以下业务租户参数。
// 文件内存缓冲区限制
alter system set _temporary_file_io_area_size = '10' tenant = 'xxx';
// V4.x 关闭限流
alter system set sys_bkgd_net_percentage = 100;
增量同步
在 选择迁移类型 页面,选中 单向同步 > 增量同步,才会显示下述参数。
参数 | 描述 |
参数 | 描述 |
写入并发配置 | 该参数用于配置增量同步阶段往目标端写入数据的并发数,最大限制为 512。并发数过高可能会造成目标端压力过大,影响业务。 |
增量同步速率限制 | 您可以根据实际需求决定是否开启增量同步速率限制。如果开启,请设置 RPS(增量同步阶段每秒最多可以同步至目标端的数据行数的最大值限制)和 BPS(增量同步阶段每秒最多可以同步至目标端的数据量的最大值限制)。 说明 此处设置的 RPS 和 BPS 仅作为限速限流能力,增量同步实际可以达到的性能受限于源端、目标端、实例规格配置等因素的影响。 |
增量同步起始位点 |
|
反向增量
在 选择迁移类型 页面,选中 单向同步 > 反向增量,才会显示该区域的参数。反向增量的配置参数默认 复用增量同步配置。
您也可以取消复用增量同步配置,根据实际需求进行配置。
参数 | 描述 |
参数 | 描述 |
写入并发配置 | 该参数用于配置反向增量阶段往源端写入数据的并发数,最大限制为 512。并发数过高可能会造成源端压力过大,影响业务。 |
反向增量速率限制 | 您可以根据实际需求决定是否开启反向增量速率限制。如果开启,请设置 RPS(反向增量同步阶段每秒最多可以同步至源端的数据行数的最大值限制)和 BPS(反向增量同步阶段每秒最多可以同步至源端的数据量的最大值限制)。 说明 此处设置的 RPS 和 BPS 仅作为限速限流能力,反向增量同步实际可以达到的性能受限于源端、目标端、实例规格配置等因素的影响。 |
增量同步起始位点 |
|
高级选项
参数 | 描述 |
参数 | 描述 |
字符编码与长度定义选项 | 在 选择迁移类型 页面选中 结构迁移,且源端和目标端的字符集不一致时,才会显示该参数。 说明 源端和目标端的字符集不一致(例如,源端为 GBK,目标端为 UTF-8)时,可能会发生字段截断,数据不一致的情况。 当您选择 自动放大目标端字段长度,即 N BYTE → 1.5N BYTE 时,如果转换后的长度超过最大长度限制,则转换后的长度为最大长度限制。 |
无非空唯一键表增加隐藏列 | 迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户时,您需要配置是否为无非空唯一键表增加隐藏列。详情请参见 数据迁移服务隐藏列机制说明。 |
目标端表对象存储类型 | 当目标端 OceanBase 数据库 Oracle 租户为 V4.3.0 及之后版本,并且在 选择迁移类型 页面,选中 结构迁移 或 增量同步 > DDL 同步,才会显示该区域的参数。 目标端表对象存储类型包括 默认、行存、列存 和 行列混存,该配置用于确定结构迁移或增量同步时目标端表对象的存储类型,详情请参见 default_table_store_format。 说明 默认 选项是根据目标端参数配置自适应其他选项,是结构迁移的表对象或增量 DDL 的新增表对象根据设置的存储类型写入对应的结构。 |
单击 预检查,系统对数据迁移任务进行预检查。
在 预检查 环节,数据传输会检查数据库用户的读写权限、数据库的网络连接等是否符合要求。全部检查任务均通过后才能启动数据迁移任务。如果预检查报错:
您可以在排查并处理问题后,重新执行预检查,直至预检查成功。
您也可以单击错误预检查项操作列中的 跳过,会弹出对话框提示您跳过本操作的具体影响,确认可以跳过后,请单击对话框中的 确定。
预检查成功后,单击 启动任务。
如果您暂时无需启动任务,请单击 保存。后续您只能在 迁移任务列表 页面手动启动任务或通过批量操作启动任务。批量操作的详情请参见 批量操作数据迁移任务。
数据传输支持在数据迁移任务运行过程中修改迁移对象及其行过滤条件,详情请参见 查看和修改迁移对象及其过滤条件。数据迁移任务启动后,会根据所选择的迁移类型依次执行,详情请参见 查看迁移详情。