获取迁移作业列表
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
调试
授权信息
|
操作 |
访问级别 |
资源类型 |
条件关键字 |
关联操作 |
|
odps:ListMmsJobs |
list |
*project
|
无 | 无 |
请求语法
GET /api/v1/mms/datasources/{sourceId}/jobs HTTP/1.1
路径参数
|
名称 |
类型 |
必填 |
描述 |
示例值 |
| sourceId |
integer |
是 |
数据源 ID |
2000002 |
请求参数
|
名称 |
类型 |
必填 |
描述 |
示例值 |
| name |
string |
否 |
数据源名称 |
demo |
| srcDbName |
string |
否 |
源库名 |
test_db_1 |
| srcTableName |
string |
否 |
源表名 |
test_table_1 |
| dstDbName |
string |
否 |
目标 MaxCompute 项目 |
mms_test |
| dstTableName |
string |
否 |
目标 MaxcCompute 表 |
test_table_1 |
| status |
string |
否 |
迁移计划状态 枚举值:
|
DOING |
| stopped |
integer |
否 |
作业是否被停止 |
false |
| timerId |
integer |
否 |
timer id |
1 |
| pageNum |
integer |
否 |
页码 |
1 |
| pageSize |
integer |
否 |
分页大小 |
10 |
| sorter.status |
string |
否 |
按照状态排序 枚举值:
|
desc |
返回参数
|
名称 |
类型 |
描述 |
示例值 |
|
object |
返回数据 |
||
| requestId |
string |
请求 ID。 |
1112E7C7-C65F-57A2-A7C7-3B178AA257B6 |
| data |
object |
返回数据详细信息 |
|
| total |
integer |
总记录数。 |
100 |
| objectList |
array<object> |
迁移作业列表 |
|
|
array<object> |
迁移作业对象 |
||
| id |
integer |
迁移作业 ID |
18 |
| name |
string |
迁移作业名字 |
migrate_db_1 |
| sourceId |
integer |
数据源 ID |
2000015 |
| dbId |
integer |
源库 ID |
196 |
| sourceName |
string |
数据源名 |
demo |
| srcDbName |
string |
源库名 |
test_db_1 |
| srcSchemaName |
string |
源 schema name-三层命名空间中的 schema |
test_table_1 |
| dstDbName |
string |
目标 MaxCompute 项目 |
mms_test |
| dstSchemaName |
string |
目标 MaxCompute Schema |
test_table_1 |
| status |
string |
迁移作业状态 枚举值:
|
DONE |
| type |
string |
迁移范围:Database, Tables, Partitions 枚举值:
|
Tables |
| taskNum |
integer |
包含的迁移任务数量 |
10 |
| stopped |
boolean |
迁移作业是否被停止 |
false |
| createTime |
string |
迁移作业是否被停止 |
2024-12-17 15:44:17 |
| taskDone |
integer |
迁移任务完成数 |
10 |
| config |
object |
迁移作业的配置 |
|
| partitions |
array |
当 type=Partitions 时, 通过该参数指定要迁移表的分区 ID 列表 |
|
|
integer |
要迁移表的分区 ID |
[123, 132] |
|
| tables |
array |
当 type=Tables 时, 通过该参数指定要迁移的表的名称列表 |
|
|
string |
要迁移的表的名称 |
["student", "scores"] |
|
| taskType |
string |
Depcreated; 可以指定的值有 MOCK, HIVE: hive udtf task, HIVE_DATAX: hive datax task, COPY_TASK: odps Copy Task, ODPS_INSERT_OVERWRITE: odps simple insert overwrite task, MC2MC_VERIFY, OSS, HIVE_OSS, HIVE_SPARK, BIGQUERY |
BIGQUERY |
| tableBlackList |
array |
当 type=Database 时, 通过 tableBlackList 指定排除哪些表不迁移 |
|
|
string |
当 type=Database 时, 要排查的表 |
["student", "scores"] |
|
| tableWhiteList |
array |
当 type=Database 时, 指定的要迁移的表列表。如果没有指定 tableWhiteList,则迁移对应 Database 下的所有表 |
|
|
string |
当 type=Database 时, 指定的要迁移的表。 |
["student", "scores"] |
|
| partitionFilters |
object |
分区过滤表达式。 配置指定"表"对应的"分区过滤表达式" |
|
|
string |
分区过滤表达式。例如:p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde'),介绍如下: p1、p2 和 p3 均为分区名。 分区值仅包含字符串和数字,字符串被双引号或单引号包裹。 除 INT 和 BIGINT 类型的分区列值外,其他类型的分区值都只能取字符串值。 比较操作符包括:>、>=、= 、<、<=、<>。 分区过滤表达式支持 IN 操作符。 逻辑操作符包括:AND 和 OR。 支持使用括号。 |
{ "student": "p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')" } |
|
| schemaOnly |
boolean |
Depcreated |
false |
| tableMapping |
object |
源表名->目标名 映射 |
|
|
string |
源表名->目标名 映射 |
{'a': 'a1'} |
|
| increment |
boolean |
增量迁移:只迁移新分区或有变动的分区,注意有变动的分区会被重迁 |
true |
| enableVerification |
boolean |
开启校验,目前校验方式是在源和目标端执行 select count,对比行数 |
true |
| tunnelQuota |
string |
Depcreated |
Depcreated |
| columnMapping |
object |
{源列名:目标列名} |
|
|
string |
{源列名:目标列名} |
{"c-1": "c_1"} |
|
| others |
object |
其他配置信息 |
{"spark.executor.mem": "2g"} |
| eta |
string |
期望的迁移完成时间. 注意:eta 值越小,迁移任务的优先级会越高 |
2025-05-06 |
| pageNum |
integer |
页码 |
1 |
| pageSize |
integer |
分页大小 |
10 |
示例
正常返回示例
JSON格式
{
"requestId": "1112E7C7-C65F-57A2-A7C7-3B178AA257B6",
"data": {
"total": 100,
"objectList": [
{
"id": 18,
"name": "migrate_db_1",
"sourceId": 2000015,
"dbId": 196,
"sourceName": "demo",
"srcDbName": "test_db_1",
"srcSchemaName": "test_table_1",
"dstDbName": "mms_test",
"dstSchemaName": "test_table_1",
"status": "DONE",
"type": "Tables",
"taskNum": 10,
"stopped": false,
"createTime": "2024-12-17 15:44:17\n",
"taskDone": 10,
"config": {
"partitions": [
0
],
"tables": [
"[\"student\", \"scores\"]"
],
"taskType": "BIGQUERY",
"tableBlackList": [
"[\"student\", \"scores\"]"
],
"tableWhiteList": [
"[\"student\", \"scores\"]"
],
"partitionFilters": {
"key": "{\n\"student\": \"p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')\" \n}"
},
"schemaOnly": false,
"tableMapping": {
"key": "{'a': 'a1'}"
},
"increment": true,
"enableVerification": true,
"tunnelQuota": "Depcreated",
"columnMapping": {
"key": "{\"c-1\": \"c_1\"}"
},
"others": {
"spark.executor.mem": "2g"
}
},
"eta": "2025-05-06"
}
],
"pageNum": 1,
"pageSize": 10
}
}
错误码
访问错误中心查看更多错误码。
变更历史
更多信息,参考变更详情。