全部产品
Search
文档中心

云原生大数据计算服务 MaxCompute:GetMmsJob - 获取单个迁移作业详情

更新时间:Feb 04, 2026

获取单个MMA迁移计划详情

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

调试

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。

  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。

  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:

    • 对于必选的资源类型,用前面加 * 表示。

    • 对于不支持资源级授权的操作,用全部资源表示。

  • 条件关键字:是指云产品自身定义的条件关键字。

  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。

操作

访问级别

资源类型

条件关键字

关联操作

odps:GetMmsJob

get

*project

acs:odps:{#regionId}:{#accountId}:mmsdatasource/{#sourceId}

请求语法

GET /api/v1/mms/datasources/{sourceId}/jobs/{jobId} HTTP/1.1

路径参数

名称

类型

必填

描述

示例值

sourceId

integer

数据源 ID

2000015

jobId

integer

作业 ID

10

请求参数

名称

类型

必填

描述

示例值

当前API无需请求参数

返回参数

名称

类型

描述

示例值

object

ApiRes

requestId

string

请求 ID

D9F872FD-5DDE-30A6-8C8A-1B8C6A81059F

data

object

迁移作业对象

id

integer

迁移作业 ID

10

name

string

迁移作业名字

migrate_db_1

sourceId

integer

数据源 ID

2

dbId

integer

源库 ID

23

sourceName

string

数据源名

demo

srcDbName

string

源库名

mms_test

srcSchemaName

string

源 schema name-三层命名空间中的 schema

default

dstDbName

string

目标 MaxCompute 项目

mms_target

dstSchemaName

string

目标 MaxCompute Schema

default

status

string

迁移任务状态

枚举值:

  • INIT :

    未运行

  • DONE :

    成功

  • DOING :

    运行中

  • FAILED :

    运行失败

DOING

type

string

迁移范围:Database, Tables, Partitions

枚举值:

  • Partitions :

    多分区

  • Database :

    单库

  • Tables :

    多表

Tables

taskNum

integer

包含的迁移任务数量

100

stopped

boolean

被停止

false

createTime

string

创建时间。

2024-12-17 15:44:17

taskDone

integer

完成的迁移任务数量

100

config

object

迁移作业的配置

partitions

array

当 type=Partitions 时, 通过该参数指定要迁移表的分区 ID 列表

integer

要迁移表的分区 ID

[123, 132]

tables

array

当 type=Tables 时, 通过该参数指定要迁移的表的名称列表

string

要迁移的表的名称

["student", "scores"]

taskType

string

Depcreated; 可以指定的值有 MOCK, HIVE: hive udtf task, HIVE_DATAX: hive datax task, COPY_TASK: odps Copy Task, ODPS_INSERT_OVERWRITE: odps simple insert overwrite task, MC2MC_VERIFY, OSS, HIVE_OSS, HIVE_SPARK, BIGQUERY

BIGQUERY

tableBlackList

array

当 type=Database 时, 通过 tableBlackList 指定排除哪些表不迁移

string

当 type=Database 时, 要排查的表

["student", "scores"]

tableWhiteList

array

当 type=Database 时, 指定的要迁移的表列表。如果没有指定 tableWhiteList,则迁移对应 Database 下的所有表

string

当 type=Database 时, 指定的要迁移的表。

["student", "scores"]

partitionFilters

object

分区过滤表达式。 配置指定"表"对应的"分区过滤表达式"

string

分区过滤表达式。例如:p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde'),介绍如下:

p1、p2 和 p3 均为分区名。

分区值仅包含字符串和数字,字符串被双引号或单引号包裹。

除 INT 和 BIGINT 类型的分区列值外,其他类型的分区值都只能取字符串值。

比较操作符包括:>、>=、= 、<、<=、<>。

分区过滤表达式支持 IN 操作符。

逻辑操作符包括:AND 和 OR。

支持使用括号。

{ "student": "p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')" }

schemaOnly

boolean

Depcreated

false

tableMapping

object

源表名->目标名 映射

string

源表名->目标名 映射

{'a': 'a1'}

increment

boolean

增量迁移:只迁移新分区或有变动的分区,注意有变动的分区会被重迁

true

enableVerification

boolean

开启校验,目前校验方式是在源和目标端执行 select count,对比行数

true

tunnelQuota

string

Depcreated

Depcreated

columnMapping

object

{源列名:目标列名}

string

{源列名:目标列名}

{"c-1": "c_1"}

others

object

其他配置信息

{"spark.executor.mem": "2g"}

eta

string

期望的迁移完成时间. 注意:eta 值越小,迁移任务的优先级会越高

2025-05-06

示例

正常返回示例

JSON格式

{
  "requestId": "D9F872FD-5DDE-30A6-8C8A-1B8C6A81059F",
  "data": {
    "id": 10,
    "name": "migrate_db_1",
    "sourceId": 2,
    "dbId": 23,
    "sourceName": "demo",
    "srcDbName": "mms_test",
    "srcSchemaName": "default",
    "dstDbName": "mms_target",
    "dstSchemaName": "default",
    "status": "DOING",
    "type": "Tables",
    "taskNum": 100,
    "stopped": true,
    "createTime": "2024-12-17 15:44:17",
    "taskDone": 100,
    "config": {
      "partitions": [
        0
      ],
      "tables": [
        "[\"student\", \"scores\"]"
      ],
      "taskType": "BIGQUERY",
      "tableBlackList": [
        "[\"student\", \"scores\"]"
      ],
      "tableWhiteList": [
        "[\"student\", \"scores\"]"
      ],
      "partitionFilters": {
        "key": "{\n\"student\": \"p1 >= '2022-03-04' and (p2 = 10 or p3 > 20) and p4 in ('abc', 'cde')\" \n}\n"
      },
      "schemaOnly": false,
      "tableMapping": {
        "key": "{'a': 'a1'}"
      },
      "increment": true,
      "enableVerification": true,
      "tunnelQuota": "Depcreated",
      "columnMapping": {
        "key": "{\"c-1\": \"c_1\"}"
      },
      "others": {
        "spark.executor.mem": "2g"
      }
    },
    "eta": "2025-05-06"
  }
}

错误码

访问错误中心查看更多错误码。

变更历史

更多信息,参考变更详情