阿里云助力您在中国加快取得成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供7X24小时安全运维平台
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
企业级全托管实时数据流平台
全托管,开箱即用的Apache Kafka全托管服务
提供物联网移动端和云交互的消息队列
开箱即用的全托管 RabbitMQ 服务
提供基于消息的可靠异步通信机制
应用之间的消息队列和通知
无服务器事件总线服务
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
本文为您介绍表创建和删除的相关操作命令。
类型 | 功能 | 角色 | 操作入口 |
类型 | 功能 | 角色 | 操作入口 |
创建非分区表、分区表、外部表或聚簇表。 | 具备项目创建表权限(CreateTable)的用户。 | 本文中的命令您可以在如下工具平台执行: | |
删除分区表或非分区表。 | 具备删除表权限(Drop)的用户。 |
创建非分区表、分区表、外部表或聚簇表。
分区表的分区层级不能超过6级。例如某张表以日期为分区列,分区层级为年/月/周/日/时/分
。
一张表允许的分区个数支持按照具体的项目配置,默认为6万个。
更多表的限制条件,请参见SQL使用限制项。
创建内部表。
CREATE [OR REPLACE] TABLE [IF NOT EXISTS] <table_name> (
<col_name> <data_type>, ... )
[comment <table_comment>]
[PARTITIONED BY (<col_name> <data_type> [comment <col_comment>], ...)];
创建聚簇表。
CREATE TABLE [IF NOT EXISTS] <table_name> (
<col_name> <data_type>, ... )
[CLUSTERED BY | RANGE CLUSTERED BY (<col_name> [, <col_name>, ...])
[SORTED BY (<col_name> [ASC | DESC] [, <col_name> [ASC | DESC] ...])]
INTO <number_of_buckets> buckets];
创建外部表。
以OSS外部表为例,通过内置文本数据解析器创建外部表。详情请参见创建OSS外部表。
CREATE EXTERNAL TABLE [IF NOT EXISTS] <mc_oss_extable_name> (
<col_name> <data_type>, ... )
STORED AS '<file_format>'
[WITH SERDEPROPERTIES (options)]
LOCATION '<oss_location>';
创建表并指定表类型。
指定表为Transactional表。后续可以对该表执行更新或删除表数据操作,但是Transactional表有部分使用限制,请根据需求创建。
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] <table_name> (
<col_name <data_type> [NOT NULL] [DEFAULT <default_value>] [comment <col_comment>], ...
[comment <table_comment>]
[TBLPROPERTIES ("transactional"="true")];
指定表为Delta Table表。结合PRIMARY KEY,后续可以做upsert、增量查询和Time Travel等操作。
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] <table_name> (
<col_name <data_type> [NOT NULL] [DEFAULT <default_value>] [comment <col_comment>], ...
[PRIMARY KEY (<pk_col_name>[, <pk_col_name2>, ...] )])
[comment <table_comment>]
[TBLPROPERTIES ("transactional"="true"
[, "write.bucket.num" = "N", "acid.data.retain.hours"="hours"...])] [lifecycle <days>];
基于已存在表创建新表。
基于已存在的表创建新表并复制数据,但不复制分区属性。支持外部表和湖仓一体外部项目中的表。
CREATE TABLE [IF NOT EXISTS] <table_name> [LIFECYCLE <days>] AS <select_statement>;
基于已存在的表创建具备相同结构的新表,但不复制数据。支持外部表和湖仓一体外部项目中的表。
CREATE TABLE [IF NOT EXISTS] <table_name> [LIFECYCLE <days>] LIKE <existing_table_name>;
参数 | 是否必填 | 说明 | 备注 |
参数 | 是否必填 | 说明 | 备注 |
OR REPLACE | 否 | 若<table_name>已经存在,则对现有表使用DROP TABLE,然后创建具有相同名称的新表进行替换。 | 等效于执行如下两条命令:
说明 使用限制:CREATE OR REPLACE TABLE暂不支持和以下语法共用。
|
EXTERNAL | 否 | 创建的表为外部表。 | 无 |
IF NOT EXISTS | 否 | 确认库中是否已存在创建表名。 | 如果不指定IF NOT EXISTS选项而存在同名表,会报错。如果指定IF NOT EXISTS,只要存在同名表,即使原表结构与要创建的目标表结构不一致,均返回成功。已存在的同名表的元数据信息不会被改动。 |
table_name | 是 | 表名。 | 表名大小写不敏感,不能有特殊字符,只能包含a~z、A~Z、数字和下划线(_)。建议以字母开头,名称的长度不超过128字节,否则报错。 |
PRIMARY KEY(pk) | 否 | 表的主键。 | 可以定义一个或多个列作为主键,表示这些列的组合在表中必须唯一,语法遵循标准SQL primary key语法,pk列必须设置NOT NULL,不允许修改。 重要 该参数仅适用于Delta Table。 |
col_name | 是 | 表的列名。 | 列名大小写不敏感,不能有特殊字符,只能包含a~z、A~Z、数字、下划线(_)或中文。建议以字母开头,名称的长度不超过128字节,否则报错。 |
col_comment | 否 | 列名的注释。 | 注释内容为长度不超过1024字节的有效字符串,否则报错。 |
data_type | 是 | 列的数据类型。 | 包含BIGINT、DOUBLE、BOOLEAN、DATETIME、DECIMAL和STRING等多种数据类型,详情请参见数据类型版本说明。 |
NOT NULL | 否 | 禁止该列的值为NULL。 | 更多修改非空属性信息,请参见分区操作。 |
default_value | 否 | 列的默认值。 | 当 说明 当前默认值不支持函数,例如 |
table_comment | 否 | 表注释。 | 注释内容为长度不超过1024字节的有效字符串,否则报错。 |
LIFECYCLE | 否 | 表的生命周期。 | 仅支持正整数。单位为天。
|
参数 | 是否必填 | 说明 | 备注 |
参数 | 是否必填 | 说明 | 备注 |
PARTITIONED BY | 是 | 指定分区表的分区字段。 | 无 |
col_name | 是 | 表的分区列名 | 列名大小写不敏感,不能有特殊字符,只能包含a~z、A~Z、数字、下划线(_)或中文。建议以字母开头,名称的长度不超过128字节,否则报错。 |
data_type | 是 | 分区列的数据类型 | MaxCompute 1.0版本仅支持STRING类型。MaxCompute 2.0版本扩充了分区类型,包含TINYINT、SMALLINT、INT、BIGINT、VARCHAR和STRING类型。详情请参见数据类型版本说明。当使用分区字段对表进行分区时,新增分区、更新分区内数据和读取分区数据均不需要做全表扫描,提高处理效率。 |
col_comment | 否 | 分区列的注释内容 | 注释内容为长度不超过1024字节的有效字符串,否则报错。 |
分区值不能包含双字节字符(如中文),必须以字母开头,包含字母、数字和允许的字符,长度不超过255字节。允许的字符包括空格、冒号(:)、下划线(_)、美元符号($)、井号(#)、英文句点(.)、感叹号(!)和at(@),其他字符的行为未定义,例如转义字符\t
、\n
和/
。
聚簇表分为Hash聚簇表和Range聚簇表两种。
参数 | 是否必填 | 说明 | 备注 |
CLUSTERED BY | 是 | 指定Hash Key。 | MaxCompute将对指定列进行Hash运算,按照Hash值分散到各个Bucket中。为避免数据倾斜和热点,并取得较好的并行执行效果, |
SORTED BY | 是 | 指定Bucket内字段的排序方式。 | 建议SORTED BY和CLUSTERED BY保持一致,以取得较好的性能。此外,当指定SORTED BY子句后,MaxCompute将自动生成索引,并且在查询时利用索引来加快执行。 |
number_of_buckets | 是 | 指定哈希桶的数量。 | 该值必须填写,且由数据量大小决定。此外,MaxCompute默认支持最多1111个Reducer,所以此处最多只支持1111个哈希桶。您可以使用 |
选择哈希桶数目时,请您遵循以下两个原则:
哈希桶大小适中:建议每个Bucket的大小为500 MB左右。例如,分区大小估计为500 GB,粗略估算Bucket数目应该设为1000,这样平均每个Bucket大小约为500 MB。对于特别大的表,500 MB的限制可以突破,每个Bucket在2 GB~3 GB左右比较合适。同时,可以结合set odps.stage.reducer.num=<并发数>;
来突破1111个桶的限制。
对于join
优化场景,去除Shuffle和Sort步骤能显著提升性能。因此要求两个表的哈希桶数目成倍数关系,例如256和512。建议哈希桶的数量统一使用2n,例如512、1024、2048或4096,这样系统可以自动进行哈希桶的分裂和合并,也可以去除Shuffle和Sort的步骤,提升执行效率。
参数 | 是否必填 | 说明 | 备注 |
RANGE CLUSTERED BY | 是 | 指定范围聚簇列。 | MaxCompute将对指定列进行分桶运算,按照分桶编号分散到各个Bucket中。 |
SORTED BY | 是 | 指定Bucket内字段排序方式。 | 使用方法与Hash聚簇表相同。 |
number_of_buckets | 是 | 指定哈希桶的数量。 | Range聚簇表的Bucket桶数没有Hash聚簇表的2n最佳实践,在数据量分布合理的情况下,任何桶数都可以。Range聚簇表的Bucket数不是必须的,可以省略,此时系统会根据数据量自动决定最佳的Bucket数目。 |
当Join或Aggregation的对象是Range聚簇表,且Join Key或Group Key是Range Clustering Key或其前缀时,可以通过控制Flag消除数据的重分布,即Shuffle Remove,提升执行效率。您可以通过set odps.optimizer.enable.range.partial.repartitioning=true/false;
进行设置,默认关闭。
聚簇表的优点:
优化Bucket Pruning。
优化Aggregation。
优化存储。
聚簇表的限制:
不支持INSERT INTO
,只能通过INSERT OVERWRITE
来添加数据。
不支持Tunnel直接Upload到Range聚簇表,因为Tunnel上传数据是无序的。
不支持备份恢复功能。
本示例以OSS外部表创建参数为例。更多外部表创建,详情请参见外部数据源。
参数 | 是否必填 | 说明 |
参数 | 是否必填 | 说明 |
| 是 | 按照外部表数据格式指定file_format。 |
| 否 | 外部表的授权、压缩、字符解析等相关参数。 |
oss_location | 是 | 外部表数据OSS存储位置,详情请参见创建OSS外部表。 |
Delta Table是一种可支持近实时读写,增量存储和读写,实时更新等能力的表格式,目前只支持主键表。
参数 | 是否必填 | 说明 | 备注 |
PRIMARY KEY(PK) | 是 | 创建Delta Table主键表时必填,可包含多列。 | 语法遵循标准SQL primary key语法,PK列必须设置not null,不允许修改。 设置后,后续表数据会根据PK列进行去重,Unique约束在单个partition范围内有效,或非分区表内有效。 |
transactional | 是 | 创建Delta Table类型表时必填,必须设置为true。 | 表示符合MaxCompute的ACID表的事务特性,采用MVCC事务管理模式,保证快照隔离级别。 |
write.bucket.num | 否 | 默认取值为16,取值范围为 | 表示每个partition或者非分区表的分桶数量,也表示数据写入的并发节点数量。分区表支持修改,新分区默认生效,非分区表不支持修改。该参数用法可参考如下建议:
|
acid.data.retain.hours | 否 | 默认取值为24,取值范围为 | 表示TimeTravel可查询数据历史状态的时间范围(单位为小时)。若需要超过168小时(7天)的长时间TimeTravel历史回溯,可联系MaxCompute技术支持。
|
acid.incremental.query.out.of.time.range.enabled | 否 | 默认 | True表示增量查询指定的endTimestamp可大于表最大的数据Commit Time,在endTimestamp大于当前时间场景下,用户多次查询可能得到不同的结果,因为可能有新的数据插入。支持修改表的此参数取值。 |
acid.write.precombine.field | 否 | 可以指定一个列的名称,且只能指定一个。 | 如果指定了列名,在同一提交的文件处理中,系统会结合主键(PK)列对数据进行去重处理,确保数据的唯一性和一致性。 说明 当一次性提交的数据量超过128 M时,会导致生成多个文件,该参数对多个文件不适用。 |
Delta Table其他通用参数的设置要求。
LIFECYCLE: 表生命周期必须大于等于Time Travel可查询的生命周期,即lifecycle >= acid.data.retain.hours / 24
。创建表时会做检查,不符合会报错。
其他不支持的特性:不支持设置CLUSTER BY、EXTERNAL外表和CREATE TABLE AS。
其他使用限制:
当前不支持除MaxCompute SQL外的其他引擎直接操作Delta Table。
存量普通表不支持修改为Delta Table。
不支持对Delta Table主键表的PK列做表结构变更。
参数 | 是否必填 | 说明 |
TBLPROPERTIES(transactional"="true") | 是 | 设置表为Transactional表。后续可以对Transactional表执行 |
Transactional表的使用限制如下:
MaxCompute只允许在创建表时设置Transactional属性。已创建的表不允许通过ALTER TABLE
方式修改Transactional属性,执行如下语句会报错:
ALTER TABLE not_txn_tbl SET tblproperties("transactional"="true");
--报错。
FAILED: Catalog Service Failed, ErrorCode: 151, Error Message: Set transactional is not supported
在创建表时,不支持将聚簇表、外部表设置为Transactional表。
不支持MaxCompute内部表、外部表、聚簇表与Transactional表互转。
不支持自动合并Transactional表文件,需要手动执行合并操作,详情请参见合并Transactional表文件。
不支持merge partition
操作。
其他系统的作业访问Transactional表有一些限制,例如Graph不支持读写;Spark、PAI只支持读,不支持写。
在对Transactional表的重要数据执行update
、delete
或insert overwrite
操作前需要手动通过select
+insert
操作将数据备份至其他表中。
通过CREATE TABLE [IF NOT EXISTS] <table_name> [LIFECYCLE <days>] AS <select_statement>;
语句可以再创建一个表,并在建表的同时将数据复制到新表中。
但通过该语句创建的表不会复制分区属性,只会把源表的分区列作为目标表的一般列处理,也不会复制源表的生命周期属性。
您还可以通过lifecycle参数回收表。同时也支持创建内部表复制外部表的数据。
通过CREATE TABLE [IF NOT EXISTS] <table_name> [LIFECYCLE <days>] LIKE <existing_table_name>;
语句可以再创建一个表,使目标表和源表具有相同的表结构。
但通过该语句创建的表不复制数据,也不会复制源表的生命周期属性。
您还可以通过lifecycle参数回收表。同时也支持创建内部表复制外部表的结构。
创建非分区表。
CREATE TABLE test1 (key STRING);
创建分区表。
CREATE TABLE IF NOT EXISTS sale_detail(
shop_name STRING,
customer_id STRING,
total_price DOUBLE)
PARTITIONED BY (sale_date STRING, region STRING);
创建新表,替换原有表。
创建原有表mytable
,并写入数据。
CREATE OR REPLACE TABLE my_table(a bigint);
INSERT INTO my_table(a) VALUES (1),(2),(3);
使用OR REPLACE创建新的同名表,并修改字段。
CREATE OR REPLACE TABLE my_table(b string);
查询my_table
表,返回结果如下。
+------------+
| b |
+------------+
+------------+
以下为非法的SQL语句:
CREATE OR REPLACE TABLE IF NOT EXISTS my_table(b STRING);
CREATE OR REPLACE TABLE my_table AS SELECT;
CREATE OR REPLACE TABLE my_table LIKE newtable;
创建新表,将已有表数据复制到新表,并设置生命周期。
-- 创建一个新表sale_detail_ctas1,将sale_detail的数据复制到sale_detail_ctas1中,并设置生命周期。
SET odps.sql.allow.fullscan=true;
CREATE TABLE sale_detail_ctas1 LIFECYCLE 10 AS SELECT * FROM sale_detail;
您可以通过DESC EXTENDED sale_detail_ctas1;
命令查看到表的结构及生命周期等详细信息。
此处sale_detail
是一张分区表,而通过CREATE TABLE ... AS select_statement ...
语句创建的表sale_detail_ctas1
不会复制分区属性,只会把源表的分区列作为目标表的一般列处理。即sale_detail_ctas1
是一个含有5列的非分区表。
创建新表,在SELECT语句中使用常量作为列的值。
如果在SELECT
子句中使用常量作为列的值,建议您指定列的名字。创建的表sale_detail_ctas3的第四、五列类似于_c4
、_c5
。
指定列的名字。
SET odps.sql.allow.fullscan=true;
CREATE TABLE sale_detail_ctas2
AS
SELECT shop_name, customer_id, total_price, '2013' AS sale_date, 'China' AS region
FROM sale_detail;
不指定列的名字。
SET odps.sql.allow.fullscan=true;
CREATE TABLE sale_detail_ctas3
AS
SELECT shop_name, customer_id, total_price, '2013', 'China'
FROM sale_detail;
创建新表,与已有表的结构相同,并设置生命周期。
CREATE TABLE sale_detail_like LIKE sale_detail LIFECYCLE 10;
您可以通过DESC EXTENDED sale_detail_like;
命令查看到表的结构及生命周期等详细信息。
sale_detail_like的表结构与sale_detail完全相同。除生命周期属性外,列名、列注释以及表注释等均相同。但sale_detail中的数据不会被复制到sale_detail_like表中。
创建新表,与外部表具有相同的表结构。
-- 创建一个新表mc_oss_extable_orc_like,与外部表mc_oss_extable_orc具有相同的表结构。
CREATE TABLE mc_oss_extable_orc_like LIKE mc_oss_extable_orc;
您可以通过DESC mc_oss_extable_orc_like;
命令查看表结构等详细信息。
+------------------------------------------------------------------------------------+
| Owner: ALIYUN$****@***.aliyunid.com | Project: max_compute_7u************yoq |
| TableComment: |
+------------------------------------------------------------------------------------+
| CreateTime: 2022-08-11 11:10:47 |
| LastDDLTime: 2022-08-11 11:10:47 |
| LastModifiedTime: 2022-08-11 11:10:47 |
+------------------------------------------------------------------------------------+
| InternalTable: YES | Size: 0 |
+------------------------------------------------------------------------------------+
| Native Columns: |
+------------------------------------------------------------------------------------+
| Field | Type | Label | Comment |
+------------------------------------------------------------------------------------+
| id | string | | |
| name | string | | |
+------------------------------------------------------------------------------------+
创建使用新数据类型的表。
SET odps.sql.type.system.odps2=true;
CREATE TABLE test_newtype (
c1 TINYINT,
c2 SMALLINT,
c3 INT,
c4 BIGINT,
c5 FLOAT,
c6 DOUBLE,
c7 DECIMAL,
c8 BINARY,
c9 TIMESTAMP,
c10 ARRAY<MAP<BIGINT,BIGINT>>,
c11 MAP<STRING,ARRAY<BIGINT>>,
c12 STRUCT<s1:STRING,s2:BIGINT>,
c13 VARCHAR(20))
LIFECYCLE 1;
创建Hash聚簇非分区表。
CREATE TABLE t1 (a STRING, b STRING, c BIGINT) CLUSTERED BY (c) SORTED BY (c) INTO 1024 buckets;
创建Hash聚簇分区表。
CREATE TABLE t2 (a STRING, b STRING, c BIGINT)
PARTITIONED BY (dt STRING) CLUSTERED BY (c) SORTED BY (c) into 1024 buckets;
创建Range聚簇非分区表。
CREATE TABLE t3 (a STRING, b STRING, c BIGINT) RANGE CLUSTERED BY (c) SORTED BY (c) INTO 1024 buckets;
创建Range聚簇分区表。
CREATE TABLE t4 (a STRING, b STRING, c BIGINT)
PARTITIONED BY (dt STRING) RANGE CLUSTERED BY (c) SORTED BY (c);
创建Transactional非分区表。
CREATE TABLE t5(id bigint) tblproperties("transactional"="true");
创建Transactional分区表。
CREATE TABLE IF NOT EXISTS t6(id bigint)
PARTITIONED BY (ds string) tblproperties ("transactional"="true");
创建非分区表,并为字段指定默认值。
CREATE TABLE test_default(
tinyint_name tinyint NOT NULL default 1Y,
smallint_name SMALLINT NOT NULL DEFAULT 1S,
int_name INT NOT NULL DEFAULT 1,
bigint_name BIGINT NOT NULL DEFAULT 1,
binary_name BINARY ,
float_name FLOAT ,
double_name DOUBLE NOT NULL DEFAULT 0.1,
decimal_name DECIMAL(2, 1) NOT NULL DEFAULT 0.0BD,
varchar_name VARCHAR(10) ,
char_name CHAR(2) ,
string_name STRING NOT NULL DEFAULT 'N',
boolean_name BOOLEAN NOT NULL DEFAULT TRUE
);
创建内部表复制外部分区表数据,内部表不包含分区属性。
创建OSS外部表和MaxCompute内部表。
-- 创建oss外部表并插入数据。
CREATE EXTERNAL table max_oss_test(a int, b int, c int)
stored AS TEXTFILE
location "oss://oss-cn-hangzhou-internal.aliyuncs.com/<bucket_name>";
INSERT INTO max_oss_test VALUES
(101, 1, 20241108),
(102, 2, 20241109),
(103, 3, 20241110);
SELECT * FROM max_oss_test;
-- 结果
a b c
101 1 20241108
102 2 20241109
103 3 20241110
-- 使用create table as创建内部表
CREATE TABLE from_exetbl_oss AS SELECT * FROM max_oss_test;
-- 查询新建内部表
SELECT * FROM from_exetbl_oss;
-- 返回结果,全表数据都有
a b c
101 1 20241108
102 2 20241109
103 3 20241110
执行DESC from_exetbl_as_par;
查询内部表结构。返回结果如下。
+------------------------------------------------------------------------------------+
| Owner: ALIYUN$*********** |
| Project: ***_*****_*** |
| TableComment: |
+------------------------------------------------------------------------------------+
| CreateTime: 2023-01-10 15:16:33 |
| LastDDLTime: 2023-01-10 15:16:33 |
| LastModifiedTime: 2023-01-10 15:16:33 |
+------------------------------------------------------------------------------------+
| InternalTable: YES | Size: 919 |
+------------------------------------------------------------------------------------+
| Native Columns: |
+------------------------------------------------------------------------------------+
| Field | Type | Label | Comment |
+------------------------------------------------------------------------------------+
| a | string | | |
| b | string | | |
| c | string | | |
+------------------------------------------------------------------------------------+
创建内部表复制外部分区表数据,内部表包含分区属性。
创建内部表from_exetbl_like
。
-- MaxCompute侧查询湖仓一体外部表
SELECT * FROM max_oss_test;
-- 返回结果
a b c
101 1 20241108
102 2 20241109
103 3 20241110
-- 使用create table like创建内部表
CREATE TABLE from_exetbl_like LIKE max_oss_test;
-- 查询新建内部表
SELECT * FROM from_exetbl_like;
-- 返回结果,只有表结构出现
a b c
执行DESC from_exetbl_like;
查询内部表结构。返回结果如下。
+------------------------------------------------------------------------------------+
| Owner: ALIYUN$************ |
| Project: ***_*****_*** |
| TableComment: |
+------------------------------------------------------------------------------------+
| CreateTime: 2023-01-10 15:09:47 |
| LastDDLTime: 2023-01-10 15:09:47 |
| LastModifiedTime: 2023-01-10 15:09:47 |
+------------------------------------------------------------------------------------+
| InternalTable: YES | Size: 0 |
+------------------------------------------------------------------------------------+
| Native Columns: |
+------------------------------------------------------------------------------------+
| Field | Type | Label | Comment |
+------------------------------------------------------------------------------------+
| a | string | | |
| b | string | | |
+------------------------------------------------------------------------------------+
| Partition Columns: |
+------------------------------------------------------------------------------------+
| c | string | |
+------------------------------------------------------------------------------------+
创建Delta Table。
CREATE TABLE mf_tt (pk bigint NOT NULL PRIMARY KEY, val bigint)
tblproperties ("transactional"="true");
创建Delta Table表,设置主要表属性。
CREATE TABLE mf_tt2 (
pk bigint NOT NULL,
pk2 bigint NOT NULL,
val bigint,
val2 bigint,
PRIMARY KEY (pk, pk2)
)
tblproperties (
"transactional"="true",
"write.bucket.num" = "64",
"acid.data.retain.hours"="120"
) lifecycle 7;
删除非分区表或分区表。
请谨慎操作,确认表可以删除后,再执行删除操作。如果误删了表,当项目开启了备份恢复功能,且删除操作未超过项目设置的备份数据保留天数时,则可以恢复表。更多备份恢复信息,请参见备份与恢复。
删除表之后,MaxCompute项目的存储量会降低。
DROP TABLE [IF EXISTS] <table_name>;
参数 | 是否必填 | 说明 |
参数 | 是否必填 | 说明 |
IF EXISTS | 否 | 如果不指定IF EXISTS且表不存在,则返回异常。如果指定IF EXISTS,无论表是否存在,均返回成功。 |
table_name | 是 | 待删除的表名。 |
--删除表sale_detail。无论sale_detail表是否存在,均返回成功。
DROP TABLE IF EXISTS sale_detail;
复制表数据至另一张表中,详情请参见CLONE TABLE。
修改和查看表信息,详情请参见修改和查看表。
对已有表分区执行操作,详情请参见分区操作。
对已有表的列执行操作,详情请参见列操作。