获取单个MMA迁移计划详情
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
调试
授权信息
|
操作 |
访问级别 |
资源类型 |
条件关键字 |
关联操作 |
|
odps:GetMmsJob |
get |
*project
|
无 | 无 |
请求语法
GET /api/v1/mms/datasources/{sourceId}/jobs/{jobId} HTTP/1.1
路径参数
|
名称 |
类型 |
必填 |
描述 |
示例值 |
| sourceId |
integer |
是 |
数据源 ID |
2000015 |
| jobId |
integer |
是 |
作业 ID |
10 |
请求参数
|
名称 |
类型 |
必填 |
描述 |
示例值 |
当前API无需请求参数
返回参数
|
名称 |
类型 |
描述 |
示例值 |
|
object |
ApiRes |
||
| requestId |
string |
请求 ID |
D9F872FD-5DDE-30A6-8C8A-1B8C6A81059F |
| data |
object |
迁移作业对象 |
|
| id |
integer |
迁移作业 ID |
10 |
| name |
string |
迁移作业名字 |
migrate_db_1 |
| sourceId |
integer |
数据源 ID |
2 |
| dbId |
integer |
源库 ID |
23 |
| sourceName |
string |
数据源名 |
demo |
| srcDbName |
string |
源库名 |
mms_test |
| srcSchemaName |
string |
源 schema name-三层命名空间中的 schema |
default |
| dstDbName |
string |
目标 MaxCompute 项目 |
mms_target |
| dstSchemaName |
string |
目标 MaxCompute Schema |
default |
| status |
string |
迁移任务状态 枚举值:
|
DOING |
| type |
string |
迁移范围:Database, Tables, Partitions 枚举值:
|
Tables |
| taskNum |
integer |
包含的迁移任务数量 |
100 |
| stopped |
boolean |
被停止 |
false |
| createTime |
string |
创建时间。 |
2024-12-17 15:44:17 |
| taskDone |
integer |
完成的迁移任务数量 |
100 |
| config |
object |
迁移作业的配置 |
|
| partitions |
array |
当 type=Partitions 时, 通过该参数指定要迁移表的分区 ID 列表 |
|
|
integer |
要迁移表的分区 ID |
[123, 132] |
|
| tables |
array |
当 type=Tables 时, 通过该参数指定要迁移的表的名称列表 |
|
|
string |
要迁移的表的名称 |
["student", "scores"] |
|
| taskType |
string |
Depcreated; 可以指定的值有 MOCK, HIVE: hive udtf task, HIVE_DATAX: hive datax task, COPY_TASK: odps Copy Task, ODPS_INSERT_OVERWRITE: odps simple insert overwrite task, MC2MC_VERIFY, OSS, HIVE_OSS, HIVE_SPARK, BIGQUERY |
BIGQUERY |
| tableBlackList |
array |
当 type=Database 时, 通过 tableBlackList 指定排除哪些表不迁移 |
|
|
string |
当 type=Database 时, 要排查的表 |
["student", "scores"] |
|
| tableWhiteList |
array |
当 type=Database 时, 指定的要迁移的表列表。如果没有指定 tableWhiteList,则迁移对应 Database 下的所有表 |
|
|
string |
当 type=Database 时, 指定的要迁移的表。 |
["student", "scores"] |
|
| partitionFilters |
object |
分区过滤表达式。 配置指定"表"对应的"分区过滤表达式" |
|
|
string |
分区过滤表达式。例如:p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde'),介绍如下: p1、p2 和 p3 均为分区名。 分区值仅包含字符串和数字,字符串被双引号或单引号包裹。 除 INT 和 BIGINT 类型的分区列值外,其他类型的分区值都只能取字符串值。 比较操作符包括:>、>=、= 、<、<=、<>。 分区过滤表达式支持 IN 操作符。 逻辑操作符包括:AND 和 OR。 支持使用括号。 |
{ "student": "p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')" } |
|
| schemaOnly |
boolean |
Depcreated |
false |
| tableMapping |
object |
源表名->目标名 映射 |
|
|
string |
源表名->目标名 映射 |
{'a': 'a1'} |
|
| increment |
boolean |
增量迁移:只迁移新分区或有变动的分区,注意有变动的分区会被重迁 |
true |
| enableVerification |
boolean |
开启校验,目前校验方式是在源和目标端执行 select count,对比行数 |
true |
| tunnelQuota |
string |
Depcreated |
Depcreated |
| columnMapping |
object |
{源列名:目标列名} |
|
|
string |
{源列名:目标列名} |
{"c-1": "c_1"} |
|
| others |
object |
其他配置信息 |
{"spark.executor.mem": "2g"} |
| eta |
string |
期望的迁移完成时间. 注意:eta 值越小,迁移任务的优先级会越高 |
2025-05-06 |
示例
正常返回示例
JSON格式
{
"requestId": "D9F872FD-5DDE-30A6-8C8A-1B8C6A81059F",
"data": {
"id": 10,
"name": "migrate_db_1",
"sourceId": 2,
"dbId": 23,
"sourceName": "demo",
"srcDbName": "mms_test",
"srcSchemaName": "default",
"dstDbName": "mms_target",
"dstSchemaName": "default",
"status": "DOING",
"type": "Tables",
"taskNum": 100,
"stopped": true,
"createTime": "2024-12-17 15:44:17",
"taskDone": 100,
"config": {
"partitions": [
0
],
"tables": [
"[\"student\", \"scores\"]"
],
"taskType": "BIGQUERY",
"tableBlackList": [
"[\"student\", \"scores\"]"
],
"tableWhiteList": [
"[\"student\", \"scores\"]"
],
"partitionFilters": {
"key": "{\n\"student\": \"p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')\" \n}\n"
},
"schemaOnly": false,
"tableMapping": {
"key": "{'a': 'a1'}"
},
"increment": true,
"enableVerification": true,
"tunnelQuota": "Depcreated",
"columnMapping": {
"key": "{\"c-1\": \"c_1\"}"
},
"others": {
"spark.executor.mem": "2g"
}
},
"eta": "2025-05-06"
}
}
错误码
访问错误中心查看更多错误码。
变更历史
更多信息,参考变更详情。