全部产品
Search
文档中心

云原生大数据计算服务 MaxCompute:ListMmsJobs - 获取迁移作业列表

更新时间:Feb 04, 2026

获取迁移作业列表

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

调试

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。

  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。

  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:

    • 对于必选的资源类型,用前面加 * 表示。

    • 对于不支持资源级授权的操作,用全部资源表示。

  • 条件关键字:是指云产品自身定义的条件关键字。

  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。

操作

访问级别

资源类型

条件关键字

关联操作

odps:ListMmsJobs

list

*project

acs:odps:{#regionId}:{#accountId}:mmsdatasource/{#sourceId}

请求语法

GET /api/v1/mms/datasources/{sourceId}/jobs HTTP/1.1

路径参数

名称

类型

必填

描述

示例值

sourceId

integer

数据源 ID

2000002

请求参数

名称

类型

必填

描述

示例值

name

string

数据源名称

demo

srcDbName

string

源库名

test_db_1

srcTableName

string

源表名

test_table_1

dstDbName

string

目标 MaxCompute 项目

mms_test

dstTableName

string

目标 MaxcCompute 表

test_table_1

status

string

迁移计划状态

枚举值:

  • INIT :

    未运行

  • DONE :

    成功

  • DOING :

    正在运行

  • FAILED :

    运行失败

DOING

stopped

integer

作业是否被停止

false

timerId

integer

timer id

1

pageNum

integer

页码

1

pageSize

integer

分页大小

10

sorter.status

string

按照状态排序

枚举值:

  • asc :

    升序

  • desc :

    降序

desc

返回参数

名称

类型

描述

示例值

object

返回数据

requestId

string

请求 ID。

1112E7C7-C65F-57A2-A7C7-3B178AA257B6

data

object

返回数据详细信息

total

integer

总记录数。

100

objectList

array<object>

迁移作业列表

array<object>

迁移作业对象

id

integer

迁移作业 ID

18

name

string

迁移作业名字

migrate_db_1

sourceId

integer

数据源 ID

2000015

dbId

integer

源库 ID

196

sourceName

string

数据源名

demo

srcDbName

string

源库名

test_db_1

srcSchemaName

string

源 schema name-三层命名空间中的 schema

test_table_1

dstDbName

string

目标 MaxCompute 项目

mms_test

dstSchemaName

string

目标 MaxCompute Schema

test_table_1

status

string

迁移作业状态

枚举值:

  • INIT :

    未开始运行

  • DONE :

    完成

  • DOING :

    运行中

  • FAILED :

    运行失败

DONE

type

string

迁移范围:Database, Tables, Partitions

枚举值:

  • Partitions :

    多个分区

  • Database :

    单库

  • Tables :

    多个表

Tables

taskNum

integer

包含的迁移任务数量

10

stopped

boolean

迁移作业是否被停止

false

createTime

string

迁移作业是否被停止

2024-12-17 15:44:17

taskDone

integer

迁移任务完成数

10

config

object

迁移作业的配置

partitions

array

当 type=Partitions 时, 通过该参数指定要迁移表的分区 ID 列表

integer

要迁移表的分区 ID

[123, 132]

tables

array

当 type=Tables 时, 通过该参数指定要迁移的表的名称列表

string

要迁移的表的名称

["student", "scores"]

taskType

string

Depcreated; 可以指定的值有 MOCK, HIVE: hive udtf task, HIVE_DATAX: hive datax task, COPY_TASK: odps Copy Task, ODPS_INSERT_OVERWRITE: odps simple insert overwrite task, MC2MC_VERIFY, OSS, HIVE_OSS, HIVE_SPARK, BIGQUERY

BIGQUERY

tableBlackList

array

当 type=Database 时, 通过 tableBlackList 指定排除哪些表不迁移

string

当 type=Database 时, 要排查的表

["student", "scores"]

tableWhiteList

array

当 type=Database 时, 指定的要迁移的表列表。如果没有指定 tableWhiteList,则迁移对应 Database 下的所有表

string

当 type=Database 时, 指定的要迁移的表。

["student", "scores"]

partitionFilters

object

分区过滤表达式。 配置指定"表"对应的"分区过滤表达式"

string

分区过滤表达式。例如:p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde'),介绍如下:

p1、p2 和 p3 均为分区名。

分区值仅包含字符串和数字,字符串被双引号或单引号包裹。

除 INT 和 BIGINT 类型的分区列值外,其他类型的分区值都只能取字符串值。

比较操作符包括:>、>=、= 、<、<=、<>。

分区过滤表达式支持 IN 操作符。

逻辑操作符包括:AND 和 OR。

支持使用括号。

{ "student": "p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')" }

schemaOnly

boolean

Depcreated

false

tableMapping

object

源表名->目标名 映射

string

源表名->目标名 映射

{'a': 'a1'}

increment

boolean

增量迁移:只迁移新分区或有变动的分区,注意有变动的分区会被重迁

true

enableVerification

boolean

开启校验,目前校验方式是在源和目标端执行 select count,对比行数

true

tunnelQuota

string

Depcreated

Depcreated

columnMapping

object

{源列名:目标列名}

string

{源列名:目标列名}

{"c-1": "c_1"}

others

object

其他配置信息

{"spark.executor.mem": "2g"}

eta

string

期望的迁移完成时间. 注意:eta 值越小,迁移任务的优先级会越高

2025-05-06

pageNum

integer

页码

1

pageSize

integer

分页大小

10

示例

正常返回示例

JSON格式

{
  "requestId": "1112E7C7-C65F-57A2-A7C7-3B178AA257B6",
  "data": {
    "total": 100,
    "objectList": [
      {
        "id": 18,
        "name": "migrate_db_1",
        "sourceId": 2000015,
        "dbId": 196,
        "sourceName": "demo",
        "srcDbName": "test_db_1",
        "srcSchemaName": "test_table_1",
        "dstDbName": "mms_test",
        "dstSchemaName": "test_table_1",
        "status": "DONE",
        "type": "Tables",
        "taskNum": 10,
        "stopped": false,
        "createTime": "2024-12-17 15:44:17\n",
        "taskDone": 10,
        "config": {
          "partitions": [
            0
          ],
          "tables": [
            "[\"student\", \"scores\"]"
          ],
          "taskType": "BIGQUERY",
          "tableBlackList": [
            "[\"student\", \"scores\"]"
          ],
          "tableWhiteList": [
            "[\"student\", \"scores\"]"
          ],
          "partitionFilters": {
            "key": "{\n\"student\": \"p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')\" \n}"
          },
          "schemaOnly": false,
          "tableMapping": {
            "key": "{'a': 'a1'}"
          },
          "increment": true,
          "enableVerification": true,
          "tunnelQuota": "Depcreated",
          "columnMapping": {
            "key": "{\"c-1\": \"c_1\"}"
          },
          "others": {
            "spark.executor.mem": "2g"
          }
        },
        "eta": "2025-05-06"
      }
    ],
    "pageNum": 1,
    "pageSize": 10
  }
}

错误码

访问错误中心查看更多错误码。

变更历史

更多信息,参考变更详情