借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供全面统一的云原生防护平台(CNAPP)能力
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
基于生成式AI的一体化平台,助您在同一个工作空间内高效创作多样化内容
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
修改表操作。
修改表的所有人,即表Owner。
命令格式
alter table <table_name> changeowner to <new_owner>;
参数说明
table_name:必填。待修改Owner的表名。
new_owner:必填。修改后的Owner账号。
使用示例
--将表test1的所有人修改为ALIYUN$xxx@aliyun.com。
alter table test1 changeowner to 'ALIYUN$xxx@aliyun.com';
修改表的注释内容。
命令格式
alter table <table_name> set comment '<new_comment>';
参数说明
table_name:必填。待修改注释的表的名称。
new_comment:必填。修改后的注释名称。
使用示例
alter table sale_detail set comment 'new coments for table sale_detail';
您可以通过MaxCompute的desc table_name
命令查看表中comment
的修改结果。
MaxCompute SQL提供touch
操作用来修改表的LastModifiedTime
,可将表的LastModifiedTime
修改为当前时间。此操作会改变表的LastModifiedTime
的值,MaxCompute会认为表的数据有变动,生命周期的计算会重新开始。
命令格式
alter table <table_name> touch;
参数说明
table_name:必填。待修改表的修改时间的表名称。
使用示例
alter table sale_detail touch;
对于分区表,MaxCompute支持通过alter table
语句增加或者去除聚簇属性。
命令格式
增加表的Hash聚簇属性的语法格式如下:
alter table <table_name> [clustered by (<col_name> [, <col_name>, ...]) [sorted by (<col_name> [asc | desc] [, <col_name> [asc | desc] ...])] into <number_of_buckets> buckets];
去除表的Hash聚簇属性的语法格式如下:
alter table <table_name> not clustered;
增加表的Range聚簇属性,Bucket数不是必须的,可以省略,此时系统会根据数据量自动决定最佳的Bucket数目。语法格式如下:
alter table <table_name> [range clustered by (<col_name> [, <col_name>, ...]) [sorted by (<col_name> [asc | desc] [, <col_name> [asc | desc] ...])] into <number_of_buckets> buckets];
去除表或分区的Range聚簇属性的语法格式如下:
alter table <table_name> not clustered;
alter table <table_name> partition [<pt_spec>] not clustered;
通过alter table
改变聚簇属性,只对分区表有效,非分区表一旦建立聚簇属性就无法改变。alter table
语句适用于存量表,在增加了新的聚簇属性后,新的分区将按设置的聚簇属性存储。
alter table
只会影响分区表的新建分区(包括insert overwrite
生成的),新分区将按新的聚簇属性存储,老数据分区的聚簇属性和存储保持不变。即在一张曾经做过聚簇属性设置的表上,关闭了聚簇属性,再增加聚簇设置,可以在新分区设置不同于之前的聚簇列、排序列及分桶数。
由于alter table
只影响新分区,所以该语句不可以再指定分区。
参数说明
详情请参见CREATE TABLE。
使用示例
-- 创建一个分区表
create table if not exists sale_detail(
shop_name STRING,
customer_id STRING,
total_price DOUBLE)
partitioned by (sale_date STRING, region STRING);
-- 修改表格的cluster属性
alter table sale_detail clustered by (customer_id) sorted by (customer_id) into 10 buckets;
更多关于cluster属性的介绍请参见Hash Clustering、Range Clustering。
重命名表的名称。仅修改表的名字,不改动表中的数据。
命令格式
alter table <table_name> rename to <new_table_name>;
参数说明
table_name:必填。待修改名称的表。
new_table_name:必填。修改后的表名称。如果已存在与new_table_name同名的表,会返回报错。
使用示例
alter table sale_detail rename to sale_detail_rename;
修改已存在的分区表或非分区表的生命周期。
命令格式
alter table <table_name> set lifecycle <days>;
参数说明
table_name:必填。需要修改生命周期的表名。
days:必填。修改后的生命周期时间,只能为正整数,单位为天。
使用示例
--修改test_lifecycle表,将生命周期设为50天。
alter table test_lifecycle set lifecycle 50;
禁止或恢复指定表或分区的生命周期。
命令格式
alter table <table_name> partition [<pt_spec>] {enable|disable} lifecycle;
参数说明
table_name:必填。待禁止或恢复生命周期的表的名称。
pt_spec:可选。待禁止或恢复生命周期的表的分区信息。格式为partition_col1=col1_value1, partition_col2=col2_value1...
。对于有多级分区的表,必须指明全部的分区值。
enable:恢复表或指定分区的生命周期功能。
表及其分区重新参与生命周期回收,默认使用当前表及分区上的生命周期配置。
开启表生命周期前可以修改表及分区的生命周期配置,防止开启表生命周期后因使用之前的配置导致数据被误回收。
disable:禁止表或指定分区的生命周期功能。
禁止表本身及其所有分区被生命周期回收,优先级高于恢复表分区生命周期。即当使用table disable lifecycle
时,pt_spec enable lifecycle
设置无效。
禁止表的生命周期功能后,表的生命周期配置及其分区的enable和disable标记会被保留。
禁止表的生命周期功能后,仍然可以修改表及分区的生命周期配置。
使用示例
示例1:禁止表trans的生命周期功能。
alter table trans disable lifecycle;
示例2:禁止表trans中时间为20141111分区的生命周期功能。
alter table trans partition (dt='20141111') disable lifecycle;
为已存在的分区表新增分区。
限制条件
MaxCompute单表支持的分区数量上限为6万个。
对于有多级分区的表,如果需要添加新的分区值,必须指明全部的分区。
仅支持新增分区值,不支持新增分区字段。
命令格式
alter table <table_name> add [if not exists] partition <pt_spec> [partition <pt_spec> partition <pt_spec>...];
参数说明
table_name:必填。待新增分区的分区表名称。
if not exists:可选。如果未指定if not exists而同名的分区已存在,会执行失败并返回报错。
pt_spec:必填。新增的分区,格式为(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。partition_col是分区字段,partition_col_value是分区值。分区字段不区分大小写,分区值区分大小写。
使用示例
示例1:给表sale_detail添加一个分区,用来存储2013年12月杭州地区的销售记录。
alter table sale_detail add if not exists partition (sale_date='201312', region='hangzhou');
示例2:给表sale_detail同时添加两个分区,用来存储2013年12月北京和上海地区的销售记录。
alter table sale_detail add if not exists partition (sale_date='201312', region='beijing') partition (sale_date='201312', region='shanghai');
示例3:给表sale_detail添加分区,仅指定一个分区字段sale_date,返回报错,需要同时指定2个分区字段sale_date和region。
alter table sale_detail add if not exists partition (sale_date='20111011');
为已存在的分区表删除分区。
MaxCompute支持通过条件筛选方式删除分区。如果您希望一次性删除符合某个规则条件的多个分区,可以使用表达式指定筛选条件,通过筛选条件匹配分区并批量删除分区。
限制条件
每个分区过滤子句只能访问一个分区列。
表达式用到的函数必须是内建的Scalar函数。
注意事项
删除分区之后,MaxCompute项目的存储量会降低。
您可以结合MaxCompute提供的生命周期功能,实现自动回收旧分区的能力。更多生命周期信息,请参见生命周期。
命令格式
未指定筛选条件
--一次删除一个分区。
alter table <table_name> drop [if exists] partition <pt_spec>;
--一次删除多个分区。
alter table <table_name> drop [if exists] partition <pt_spec>,partition <pt_spec>[,partition <pt_spec>....];
指定筛选条件
alter table <table_name> drop [if exists] partition <partition_filtercondition>;
参数说明
table_name:必填。待删除分区的分区表名称。
if exists:可选。如果未指定if exists且分区不存在,则返回报错。
pt_spec:必填。删除的分区。格式为(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。partition_col是分区字段,partition_col_value是分区值。分区字段不区分大小写,分区值区分大小写。
partition_filtercondition:指定筛选条件时必填。分区筛选条件,不区分大小写。格式为:
partition_filtercondition
: partition (<partition_col> <relational_operators> <partition_col_value>)
| partition (scalar(<partition_col>) <relational_operators> <partition_col_value>)
| partition (<partition_filtercondition1> AND|OR <partition_filtercondition2>)
| partition (NOT <partition_filtercondition>)
| partition (<partition_filtercondition1>)[,partition (<partition_filtercondition2>), ...]
partition_col:分区名称。
relational_operators:关系运算符,详情请参见运算符。
partition_col_value:分区列比较值或正则表达式,与分区列数据类型保持一致。
scalar():Scalar函数。Scalar函数基于输入值生成对应的标量,对分区列的值(partition_col)进行处理后再按照指定的关系运算符relational_operators与partition_col_value做比较。
分区过滤条件支持逻辑运算符NOT、AND和OR。支持通过NOT过滤条件子句,取过滤规则的补集。支持多个过滤条件子句以AND或OR的关系组成整体分区匹配规则。
支持多个分区过滤子句,当多个分区过滤子句以英文逗号(,)分隔时,每个过滤子句的逻辑以OR的关系组成整体分区匹配规则。
使用示例
未指定筛选条件
--从表sale_detail中删除一个分区,2013年12月杭州分区的销售记录。
alter table sale_detail drop if exists partition(sale_date='201312',region='hangzhou');
--从表sale_detail中同时删除两个分区,2013年12月杭州和上海分区的销售记录。
alter table sale_detail drop if exists partition(sale_date='201312',region='hangzhou'),partition(sale_date='201312',region='shanghai');
指定筛选条件
--创建分区表。
create table if not exists sale_detail(
shop_name STRING,
customer_id STRING,
total_price DOUBLE)
partitioned by (sale_date STRING);
--添加分区。
alter table sale_detail add if not exists
partition (sale_date= '201910')
partition (sale_date= '201911')
partition (sale_date= '201912')
partition (sale_date= '202001')
partition (sale_date= '202002')
partition (sale_date= '202003')
partition (sale_date= '202004')
partition (sale_date= '202005')
partition (sale_date= '202006')
partition (sale_date= '202007');
--批量删除分区。
alter table sale_detail drop if exists partition(sale_date < '201911');
alter table sale_detail drop if exists partition(sale_date >= '202007');
alter table sale_detail drop if exists partition(sale_date LIKE '20191%');
alter table sale_detail drop if exists partition(sale_date IN ('202002','202004','202006'));
alter table sale_detail drop if exists partition(sale_date BETWEEN '202001' AND '202007');
alter table sale_detail drop if exists partition(substr(sale_date, 1, 4) = '2020');
alter table sale_detail drop if exists partition(sale_date < '201912' OR sale_date >= '202006');
alter table sale_detail drop if exists partition(sale_date > '201912' AND sale_date <= '202004');
alter table sale_detail drop if exists partition(NOT sale_date > '202004');
--支持多个分区过滤表达式,表达式之间是OR的关系。
alter table sale_detail drop if exists partition(sale_date < '201911'), partition(sale_date >= '202007');
--添加其他格式分区。
alter table sale_detail add IF NOT EXISTS
partition (sale_date= '2019-10-05')
partition (sale_date= '2019-10-06')
partition (sale_date= '2019-10-07');
--批量删除分区,使用正则表达式匹配分区。
alter table sale_detail drop if exists partition(sale_date RLIKE '2019-\\d+-\\d+');
--创建多级分区表。
create table if not exists region_sale_detail(
shop_name STRING,
customer_id STRING,
total_price DOUBLE)
partitioned by (sale_date STRING , region STRING );
--添加分区。
alter table region_sale_detail add IF NOT EXISTS
partition (sale_date= '201910',region = 'shanghai')
partition (sale_date= '201911',region = 'shanghai')
partition (sale_date= '201912',region = 'shanghai')
partition (sale_date= '202001',region = 'shanghai')
partition (sale_date= '202002',region = 'shanghai')
partition (sale_date= '201910',region = 'beijing')
partition (sale_date= '201911',region = 'beijing')
partition (sale_date= '201912',region = 'beijing')
partition (sale_date= '202001',region = 'beijing')
partition (sale_date= '202002',region = 'beijing');
--执行如下语句批量删除多级分区,两个匹配条件是或的关系,会将sale_date小于201911或region等于beijing的分区都删除掉。
alter table region_sale_detail drop if exists partition(sale_date < '201911'),partition(region = 'beijing');
--如果删除sale_date小于201911且region等于beijing的分区,可以使用如下方法。
alter table region_sale_detail drop if exists partition(sale_date < '201911', region = 'beijing');
批量删除多级分区时,在一个partition
过滤子句中,不能根据多个分区列编写组合条件匹配分区,如下语句会报错FAILED: ODPS-0130071:[1,82] Semantic analysis exception - invalid column reference region, partition expression must have one and only one column reference
。
--分区过滤子句只能访问一个分区列,如下语句报错。
alter table region_sale_detail drop if exists partition(sale_date < '201911' AND region = 'beijing');
MaxCompute SQL提供touch
操作,用于修改分区表中分区的LastModifiedTime
。此操作会将LastModifiedTime
修改为当前时间。此时,MaxCompute会认为数据有变动,重新计算生命周期。
使用限制
对于有多级分区的表,必须指明全部的分区。
命令格式
alter table <table_name> touch partition (<pt_spec>);
参数说明
table_name:必填。待修改分区更新时间的分区表名称。如果表不存在,则返回报错。
pt_spec:必填。需要修改更新时间的分区信息。格式为(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。partition_col是分区字段,partition_col_value是分区值。如果指定的分区字段或分区值不存在,则返回报错。
使用示例
--修改表sale_detail的分区sale_date='201312', region='shanghai'的LastModifiedTime。
alter table sale_detail touch partition (sale_date='201312', region='shanghai');
MaxCompute SQL支持通过rename
操作更改分区表的分区值。
使用限制
不支持修改分区列的列名,只能修改分区列对应的值。
对于有多级分区的表,必须指明全部的分区。
命令格式
alter table <table_name> partition (<pt_spec>) rename to partition (<new_pt_spec>);
参数说明
table_name:必填。待修改分区值的表名称。
pt_spec:必填。需要修改分区值的分区信息。格式为(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。partition_col是分区字段,partition_col_value是分区值。如果指定的分区字段或分区值不存在,则返回报错。
new_pt_spec:必填。修改后的分区信息。格式为(partition_col1 = new_partition_col_value1, partition_col2 = new_partition_col_value2, ...)
。partition_col是分区字段,new_partition_col_value是新分区值。
使用示例
--修改表sale_detail的分区值。
alter table sale_detail partition (sale_date = '201312', region = 'hangzhou') rename to partition (sale_date = '201310', region = 'beijing');
MaxCompute SQL提供merge partition
对分区表的分区进行合并,即将同一个分区表下的多个分区合并成一个分区,同时删除被合并的分区维度的信息,把数据移动到指定分区。
使用限制
不支持外部表,聚簇表合并后的分区会消除聚簇属性。
一次性合并分区数量限制为4000个。
命令格式
alter table <table_name> merge [if exists] partition (<predicate>) [, partition(<predicate2>) ...] overwrite partition (<fullpartitionSpec>) [purge];
参数说明
table_name:必填。待合并分区的分区表名称。
if exists:可选。如果未指定if exists,且分区不存在,会执行失败并返回报错。如果指定if exists后不存在满足merge
条件的分区,则不生成新分区。如果运行过程中出现源数据被并发修改(包括insert
、rename
或drop
)时,即使指定if exists也会报错。
predicate:必填。筛选待合并分区需要满足的条件。
fullpartitionSpec:必填。目标分区信息。
purge:可选关键字。选择该字段,则会清理session目录,默认清理3天内的日志。详情请参见Purge。
使用示例
示例1:合并满足指定条件的分区到目标分区。
--查看分区表的分区。
show partitions intpstringstringstring;
ds=20181101/hh=00/mm=00
ds=20181101/hh=00/mm=10
ds=20181101/hh=10/mm=00
ds=20181101/hh=10/mm=10
--合并所有满足hh='00'的分区到hh='00',mm='00'中。
alter table intpstringstringstring merge partition(hh='00') overwrite partition(ds='20181101', hh='00', mm='00');
--查看合并后的分区。
show partitions intpstringstringstring;
ds=20181101/hh=00/mm=00
ds=20181101/hh=10/mm=00
ds=20181101/hh=10/mm=10
示例2:合并指定的多个分区到目标分区。
--合并多个指定分区。
alter table intpstringstringstring merge if exists partition(ds='20181101', hh='00', mm='00'), partition(ds='20181101', hh='10', mm='00'), partition(ds='20181101', hh='10', mm='10') overwrite partition(ds='20181101', hh='00', mm='00') purge;
--查看分区表的分区。
show partitions intpstringstringstring;
ds=20181101/hh=00/mm=00
为已存在的非分区表或分区表添加列或注释。
MaxCompute已支持添加STRUCT类型的列,例如struct<x: string, y: bigint>
、map<string, struct<x: double, y: double>>
。
命令格式
alter table <table_name> add columns (<col_name1> <type1> comment ['<col_comment>'][, <col_name2> <type2> comment '<col_comment>'...]);
参数说明
table_name:必填。待新增列的表名称。添加的新列不支持指定顺序,默认在最后一列。
col_name:必填。新增列的名称。
type:必填。新增列的数据类型。
col_comment:可选。新增列的注释。
使用示例
示例1:给表sale_detail添加两个列。
alter table sale_detail add columns (customer_name STRING, education BIGINT);
示例2:给表sale_detail添加两个列并同时添加列注释。
alter table sale_detail add columns (customer_name STRING comment '客户', education BIGINT comment '教育' );
示例3:给表sale_detail添加一个复杂数据类型列。
alter table sale_detail add columns (region struct<province:string, area:string>);
为已存在的非分区表或分区表删除指定的单个或多个列。
在下列场景中,如果执行了删除列操作,会使表的读写行为发生变化:
作业类型是MapReduce 1.0时,Graph任务无法读写修改的表。
CUPID作业只有Spark以下版本可以读表,但是不可以写表:
Spark-2.3.0-odps0.34.0
Spark-3.1.1-odps0.34.0
PAI作业可以读表,但不可以写表。
Hologres作业在1.3版本之前,Hologres引用修改的表作为外部表时,无法读写该表。
表做过删除列操作后,不支持CLONE TABLE
。
此外,Streaming Tunnel在写入表时,不可以修改表结构。
命令格式
alter table <table_name> drop columns <col_name1>[, <col_name2>...];
参数说明
table_name:必填。待删除列的表名称。
col_name:必填。待删除的列名称。
使用示例
--删除表sale_detail的列customer_id。输入yes确认后,即可删除列。
alter table sale_detail drop columns customer_id;
--删除表sale_detail的列shop_name和customer_id。输入yes确认后,即可删除列。
alter table sale_detail drop columns shop_name, customer_id;
为已存在的列更改数据类型。
在下列场景中,如果执行了更改列数据类型操作,会使表的读写行为发生变化:
作业类型是MapReduce 1.0时,Graph任务无法读写修改的表。
CUPID作业只有Spark以下版本可以读表,但是不可以写表:
Spark-2.3.0-odps0.34.0
Spark-3.1.1-odps0.34.0
PAI作业可以读表,但不可以写表。
Hologres作业在1.3版本之前,Hologres引用修改的表作为外部表时,无法读写该表。
表做过更改列数据类型操作后,不支持CLONE TABLE
。
此外,Streaming Tunnel在写入表时,不可以修改表结构。
命令格式。
alter table <table_name> change [column] <old_column_name> <new_column_name> <new_data_type>;
参数说明。
table_name:必填。待修改列数据类型的表名称。
old_column_name:必填。待修改列数据类型的列名称。
new_column_name:必填。修改列数据类型后的列名称。old_column_name可以与new_column_name保持一致,表示不修改列名称。但是new_column_name不能与除old_column_name之外的列名称相同。
new_data_type:必填。待修改的列修改后的数据类型。
使用示例。
--将mf_evol_t3表的id字段由int转化为bigint
alter table mf_evol_t3 change id id bigint;
--将mf_evol_t3表的id字段类型由bigint转化为string
alter table mf_evol_t3 change column id id string;
数据类型支持转换表。
Y表示支持转换;N表示不支持转换;-表示不涉及;Y()表示满足括号内的条件支持转换。
为已存在的非分区表或分区表修改列顺序。
在下列场景中,如果执行了更改表的列顺序、添加新列并修改列顺序操作,会使表的读写行为发生变化:
作业类型是MapReduce 1.0时,Graph任务无法读写修改的表。
CUPID作业只有Spark以下版本可以读表,但是不可以写表:
Spark-2.3.0-odps0.34.0
Spark-3.1.1-odps0.34.0
PAI作业可以读表,但不可以写表。
Hologres作业在1.3版本之前,Hologres引用修改的表作为外部表时,无法读写该表。
表做过更改表的列顺序操作后,不支持CLONE TABLE
。
此外,Streaming Tunnel在写入表时,不可以修改表结构。
命令格式
alter table <table_name> change <old_column_name> <new_column_name> <column_type> after <column_name>;
参数说明
table_name:必填。待修改列顺序的表名称。
old_column_name:必填。待修改顺序的列的原始名称。
new_col_name:必填。修改后的列名称。new_col_name可以与old_column_name保持一致,表示不修改列名称。但new_col_name不能与除old_column_name的之外的列名称相同。
column_type:必填。待修改的列的原始数据类型。不可修改。
column_name:必填。将待调整顺序的列调整至column_name之后。
使用示例
--修改表sale_detail的列customer_id为customer并位于total_price之后。
alter table sale_detail change customer_id customer string after total_price;
--修改表sale_detail的列customer_id位于total_price之后,不修改列名称。
alter table sale_detail change customer_id customer_id string after total_price;
为已存在的非分区表或分区表修改列名称。
命令格式
alter table <table_name> change column <old_col_name> rename to <new_col_name>;
参数说明
table_name:必填。待修改列名的表名称。
old_col_name:必填。待修改的列名称。old_col_name必须是已存在的列。
new_col_name:必填。修改后的列名称。表中不能有名为new_col_name的列。
使用示例
--修改表sale_detail的列名customer_name为customer。
alter table sale_detail change column customer_name rename to customer;
为已存在的非分区表或分区表修改列注释。
语法格式
alter table <table_name> change column <col_name> comment '<col_comment>';
参数说明
table_name:必填。待修改列注释的表名称。
col_name:必填。待修改注释的列名称。col_name必须是已存在的列。
col_comment:必填。修改后的注释信息。注释内容为长度不超过1024字节的有效字符串,否则报错。
使用示例
--修改表sale_detail的列customer的注释。
alter table sale_detail change column customer comment 'customer';
修改非分区表或分区表的列名或注释。
命令格式
alter table <table_name> change column <old_col_name> <new_col_name> <column_type> comment '<col_comment>';
参数说明
table_name:必填。需要修改列名以及注释的表名称。
old_col_name:必填。需要修改的列名称。old_col_name
必须是已存在的列。
new_col_name:必填。新的列名称。表中不能有名为new_col_name
的列。
column_type:必填。列的数据类型。
col_comment:可选。修改后的注释信息。内容最长为1024字节。
使用示例
--修改表sale_detail的列名customer_name为customer_newname,注释“客户”为“customer”。
alter table sale_detail change column customer_name customer_newname STRING comment 'customer';
修改表的非分区列的非空属性。即如果表的非分区列值禁止为NULL,您可以通过本命令修改分区列值允许为NULL。
您可以通过desc extended table_name;
命令查看Nullable
属性值,判断列的非空属性。如果Nullable
为true
,表示允许为NULL;如果Nullable
为false
,表示禁止为NULL。
使用限制
修改分区列值允许为NULL后,不可回退,不支持再修改分区列值禁止为NULL,请谨慎操作。
命令格式
alter table <table_name> change column <old_col_name> null;
参数说明
table_name:必填。待修改列非空属性的表名称。
old_col_name:必填。待修改的非分区列的名称。old_col_name必须是已存在的非分区列。
使用示例
--创建一张分区表,id列禁止为NULL。
create table null_test(id int not null, name string) partitioned by (ds string);
--修改id列允许为NULL。
alter table null_test change column id null;
Transactional表底层物理存储为不支持直接读取的Base文件和Delta文件。对Transactional表执行update
或delete
操作,不会修改Base文件,只会追加Delta文件,所以会出现更新或删除次数越多,表实际占用存储越大的情况,多次累积的Delta文件会产生较高的存储和后续查询费用。
对同一表或分区,执行多次update
或delete
操作,会生成较多Delta文件。系统读数据时,需要加载这些Delta文件来确定哪些行被更新或删除,较多的Delta文件会影响数据读取效率。此时您可以将Base文件和Delta合并,减少存储以便提升数据读取效率。
命令格式
alter table <table_name> [partition (<partition_key> = '<partition_value>' [, ...])] compact {minor|major};
参数说明
table_name:必填。待合并文件的Transactional表名称。
partition_key:可选。当Transactional表为分区表时,指定分区列名。
partition_value:可选。当Transactional表为分区表时,指定分区列名对应的列值。
major|minor:至少选择其中一个。二者的区别是:
minor
:只将Base文件及其下所有的Delta文件合并,消除Delta文件。
major
:不仅将Base文件及其下所有的Delta文件合并,消除Delta文件,还会把表对应的Base文件中的小文件进行合并。当Base文件较小(小于32 MB)或有Delta文件的情况下,等价于重新对表执行insert overwrite
操作,但当Base文件足够大(大于等于32 MB ),且不存在Delta文件的情况下,不会重写。
使用示例
示例1:基于Transactional表acid_delete,合并表文件。命令示例如下:
alter table acid_delete compact minor;
返回结果如下:
Summary:
Nothing found to merge, set odps.merge.cross.paths=true if cross path merge is permitted.
OK
示例2:基于Transactional表acid_update_pt,合并表文件。命令示例如下:
alter table acid_update_pt partition (ds = '2019') compact major;
返回结果如下:
Summary:
table name: acid_update_pt /ds=2019 instance count: 2 run time: 6
before merge, file count: 8 file size: 2613 file physical size: 7839
after merge, file count: 2 file size: 679 file physical size: 2037
OK
分布式文件系统按块Block存放,文件大小比块大小(64 M)小的文件称之为小文件。分布式系统不可避免会产生小文件,比如SQL或其他分布式引擎计算结果,tunnel数据采集都会产生小文件,小文件合并可以提高计算性能。
命令格式
ALTER TABLE <tablename> [PARTITION(<partition_key>=<partition_value>)] MERGE SMALLFILES;
参数说明
table_name:必填。待合并文件的表名称。
partition_key:可选。当表为分区表时,指定分区列名。
partition_value:可选。当表为分区表时,指定分区列名对应的列值。
使用示例
set odps.merge.cross.paths=true;
set odps.merge.smallfile.filesize.threshold=128;
set odps.merge.max.filenumber.per.instance = 2000;
alter table tbcdm.dwd_tb_log_pv_di partition (ds='20151116') merge smallfiles;
使用合并小文件功能需要用到计算资源,如果您购买的实例是按量计费,会产生相关费用,具体计费规则与SQL按量计费保持一致,详情请参见计算费用。
更多详情,请参见合并小文件。
CREATE TABLE:创建非分区表、分区表、外部表或聚簇表。
TRUNCATE:将指定表中的数据清空。
DROP TABLE:删除分区表或非分区表。
DESC TABLE/VIEW:查看MaxCompute内部表、视图、物化视图、外部表、聚簇表或Transactional表的信息。
SHOW:查看表的SQL DDL语句、列出项目下所有的表和视图或列出一张表中的所有分区。