借助阿里云在亚洲加速迈向成功
一站式安全合规咨询服务
MLPS 2.0 一站式合规解决方案
依托我们的网络进军中国市场
提升面向互联网应用的性能和安全性
保障您的中国业务安全无忧
通过强大的数据安全框架保护您的数据资产
申请 ICP 备案的流程解读和咨询服务
面向大数据建设、管理及应用的全域解决方案
企业内大数据建设、管理和应用的一站式解决方案
将您的采购和销售置于同一企业级全渠道数字平台上
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
快速搭建在线教育平台
提供域名注册、分析和保护服务
云原生 Kubernetes 容器化应用运行环境
以 Kubernetes 为使用界面的容器服务产品,提供符合容器规范的算力资源
安全的镜像托管服务,支持全生命周期管理
多集群环境下微服务应用流量统一管理
提供任意基础设施上容器集群的统一管控,助您轻松管控分布式云场景
高弹性、高可靠的企业级无服务器 Kubernetes 容器产品
敏捷安全的 Serverless 容器运行服务
为虚拟机和容器提供高可靠性、高性能、低时延的块存储服务
一款海量、安全、低成本、高可靠的云存储服务
可靠、弹性、高性能、多共享的文件存储服务
全托管、可扩展的并行文件系统服务。
全托管的 NoSQL 结构化数据实时存储服务
可抵扣多种存储产品的容量包,兼具灵活性和长期成本优化
让您的应用跨不同可用区资源自动分配访问量
随时绑定和解绑 VPC ECS
云网络公网、跨域流量统一计费
高性价比,可抵扣按流量计费的流量费用
创建云上隔离的网络,在专有环境中运行资源
在 VPC 环境下构建公网流量的出入口
具备网络状态可视化、故障智能诊断能力的自助式网络运维服务。
安全便捷的云上服务专属连接
基于阿里云专有网络的私有 DNS 解析服务
保障在线业务不受大流量 DDoS 攻击影响
系统运维和安全审计管控平台
业务上云的第一个网络安全基础设施
集零信任内网访问、办公数据保护、终端管理等多功能于一体的办公安全管控平台
提供7X24小时安全运维平台
防御常见 Web 攻击,缓解 HTTP 泛洪攻击
实现全站 HTTPS,呈现可信的 WEB 访问
为云上应用提供符合行业标准和密码算法等级的数据加解密、签名验签和数据认证能力
一款发现、分类和保护敏感数据的安全服务
创建、控制和管理您的加密密钥
快速提高应用高可用能力服务
围绕应用和微服务的 PaaS 平台
兼容主流开源微服务生态的一站式平台
多集群环境下微服务应用流量统一管理
Super MySQL 和 PostgreSQL,高度兼容 Oracle 语法
全托管 MySQL、PostgreSQL、SQL Server、MariaDB
兼容 Redis® 的缓存和KV数据库
兼容Apache Cassandra、Apache HBase、Elasticsearch、OpenTSDB 等多种开源接口
文档型数据库,支持副本集和分片架构
100%兼容 Apache HBase 并深度扩展,稳定、易用、低成本的NoSQL数据库。
低成本、高可用、可弹性伸缩的在线时序数据库服务
专为搜索和分析而设计,成本效益达到开源的两倍,采用最新的企业级AI搜索和AI助手功能。
一款兼容PostgreSQL协议的实时交互式分析产品
一种快速、完全托管的 TB/PB 级数据仓库
基于 Flink 为大数据行业提供解决方案
基于Qwen和其他热门模型的一站式生成式AI平台,可构建了解您业务的智能应用程
一站式机器学习平台,满足数据挖掘分析需求
高性能向量检索服务,提供低代码API和高成本效益
帮助您的应用快速构建高质量的个性化推荐服务能力
提供定制化的高品质机器翻译服务
全面的AI计算平台,满足大模型训练等高性能AI计算的算力和性能需求
具备智能会话能力的会话机器人
基于机器学习的智能图像搜索产品
基于阿里云深度学习技术,为用户提供图像分割、视频分割、文字识别等离线SDK能力,支持Android、iOS不同的适用终端。
语音识别、语音合成服务以及自学习平台
一站式智能搜索业务开发平台
助力金融企业快速搭建超低时延、高质量、稳定的行情数据服务
帮助企业快速测算和分析企业的碳排放和产品碳足迹
企业工作流程自动化,全面提高效率
金融级云原生分布式架构的一站式高可用应用研发、运维平台
eKYC 数字远程在线解决方案
可智能检测、大数据驱动的综合性反洗钱 (AML) 解决方案
阿里云APM类监控产品
实时云监控服务,确保应用及服务器平稳运行
为系统运维人员管理云基础架构提供全方位服务的云上自动化运维平台
面向您的云资源的风险检测服务
提升分布式环境下的诊断效率
日志类数据一站式服务,无需开发就能部署
ECS 预留实例
让弹性计算产品的成本和灵活性达到最佳平衡的付费方式。云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势自带IP上云
自带公网 IP 地址上云全球网络互联
端到端的软件定义网络解决方案,可推动跨国企业的业务发展全球应用加速
提升面向互联网应用的性能和安全性全球互联网接入
将IDC网关迁移到云端云原生 AI 套件
加速AI平台构建,提高资源效率和交付速度FinOps
实时分析您的云消耗并实现节约SecOps
实施细粒度安全控制DevOps
快速、安全地最大限度提高您的DevOps优势金融科技云数据库解决方案
利用专为金融科技而设的云原生数据库解决方案游戏行业云数据库解决方案
提供多种成熟架构,解决所有数据问题Oracle 数据库迁移
将 Oracle 数据库顺利迁移到云原生数据库数据库迁移
加速迁移您的数据到阿里云阿里云上的数据湖
实时存储、管理和分析各种规模和类型的数据数码信贷
利用大数据和 AI 降低信贷和黑灰产风险面向企业数据技术的大数据咨询服务
帮助企业实现数据现代化并规划其数字化未来人工智能对话服务
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人EasyDispatch 现场服务管理
为现场服务调度提供实时AI决策支持在线教育
快速搭建在线教育平台窄带高清 (HD) 转码
带宽成本降低高达 30%广电级大型赛事直播
为全球观众实时直播大型赛事,视频播放流畅不卡顿直播电商
快速轻松地搭建一站式直播购物平台用于供应链规划的Alibaba Dchain
构建和管理敏捷、智能且经济高效的供应链云胸牌
针对赛事运营的创新型凭证数字服务数字门店中的云 POS 解决方案
将所有操作整合到一个云 POS 系统中元宇宙
元宇宙是下一代互联网人工智能 (AI) 加速
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速DevOps
快速、安全地最大限度提高您的DevOps优势数据迁移解决方案
加速迁移您的数据到阿里云企业 IT 治理
在阿里云上构建高效可控的云环境基于日志管理的AIOps
登录到带有智能化日志管理解决方案的 AIOps 环境备份与存档
数据备份、数据存档和灾难恢复用阿里云金融服务加快创新
在云端开展业务,提升客户满意度
为全球资本市场提供安全、准确和数字化的客户体验
利用专为金融科技而设的云原生数据库解决方案
利用大数据和 AI 降低信贷和黑灰产风险
建立快速、安全的全球外汇交易平台
新零售时代下,实现传统零售业转型
利用云服务处理流量波动问题,扩展业务运营、降低成本
快速轻松地搭建一站式直播购物平台
面向大数据建设、管理及应用的全域解决方案
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
以数字化媒体旅程为当今的媒体市场准备就绪您的内容
带宽成本降低高达 30%
快速轻松地搭建一站式直播购物平台
为全球观众实时直播大型赛事,视频播放流畅不卡顿
使用阿里云弹性高性能计算 E-HPC 将本地渲染农场连接到云端
构建发现服务,帮助客户找到最合适的内容
保护您的媒体存档安全
通过统一的数据驱动平台提供一致的全生命周期客户服务
在钉钉上打造一个多功能的电信和数字生活平台
在线存储、共享和管理照片与文件
提供全渠道的无缝客户体验
面向中小型企业,为独立软件供应商提供可靠的IT服务
打造最快途径,助力您的新云业务扬帆起航
先进的SD-WAN平台,可实现WAN连接、实时优化并降低WAN成本
通过自动化和流程标准化实现快速事件响应
针对关键网络安全威胁提供集中可见性并进行智能安全分析
提供大容量、可靠且高度安全的企业文件传输
用智能技术数字化体育赛事
基于人工智能的低成本体育广播服务
专业的广播转码及信号分配管理服务
基于云的音视频内容引入、编辑和分发服务
在虚拟场馆中模拟关键运营任务
针对赛事运营的创新型凭证数字服务
智能和交互式赛事指南
轻松管理云端背包单元的绑定直播流
通过数据加强您的营销工作
元宇宙是下一代互联网
利用生成式 AI 加速创新,创造新的业务佳绩
阿里云高性能开源大模型
借助AI轻松解锁和提炼文档中的知识
通过AI驱动的语音转文本服务获取洞察
探索阿里云人工智能和数据智能的所有功能、新优惠和最新产品
该体验中心提供广泛的用例和产品帮助文档,助您开始使用阿里云 AI 产品和浏览您的业务数据。
利用阿里云 GPU 技术,为 AI 驱动型业务以及 AI 模型训练和推理加速
元宇宙是下一代互联网
构建发现服务,帮助客户找到最合适的内容
全渠道内置 AI 驱动、拟人化、多语言对话的聊天机器人
加速迁移您的数据到阿里云
在阿里云上建立一个安全且易扩容的环境,助力高效率且高成本效益的上云旅程
迁移到完全托管的云数据库
将 Oracle 数据库顺利迁移到云原生数据库
自带公网 IP 地址上云
利用阿里云强大的安全工具集,保障业务安全、应用程序安全、数据安全、基础设施安全和帐户安全
保护、备份和还原您的云端数据资产
MLPS 2.0 一站式合规解决方案
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
实现对 CloudOps、DevOps、SecOps、AIOps 和 FinOps 的高效、安全和透明的管理
构建您的原生云环境并高效管理集群
快速、安全地最大限度提高您的DevOps优势
实施细粒度安全控制
提供运维效率和总体系统安全性
实时分析您的云消耗并实现节约
实时存储、管理和分析各种规模和类型的数据
登录到带有智能化日志管理解决方案的 AIOps 环境
帮助企业实现数据现代化并规划其数字化未来
帮助零售商快速规划数字化之旅
将全球知名的 CRM 平台引入中国
在线存储、共享和管理照片与文件
构建、部署和管理高可用、高可靠、高弹性的应用程序
快速、安全地最大限度提高您的DevOps优势
将您的采购和销售置于同一企业级全渠道数字平台上
企业内大数据建设、管理和应用的一站式解决方案
帮助企业简化 IT 架构、实现商业价值、加速数字化转型的步伐
快速高效地将您的业务扩展到中国,同时遵守适用的当地法规
快速搜集、处理、分析联网设备产生的数据
0.0.201
如果您习惯使用命令行工具或者需要快速执行任务且不需要图形界面,建议您使用MaxCompute客户端访问MaxCompute项目并执行命令。MaxCompute客户端直接在您的本地计算机上运行,提供了一个简单且高效的方式来执行命令和管理MaxCompute服务。本文为您介绍下载、安装、配置和运行客户端并提供客户端相关使用说明信息。
在使用MaxCompute客户端前,请您确认已满足如下条件:
待安装MaxCompute客户端的设备已安装Java 8或以上版本。
已创建MaxCompute项目。
更多创建MaxCompute项目操作,请参见创建MaxCompute项目。
使用MaxCompute客户端的RAM用户已被添加至MaxCompute项目所属的DataWorks工作空间。
更多添加工作空间成员操作,请参见授权给其他用户。
MaxCompute客户端从v0.28.0版开始支持JDK 1.9,v0.28.0以下版本只支持JDK 1.8。您可以启动MaxCompute客户端后,在命令行界面查看客户端版本号。更多启动客户端操作,请参见运行MaxCompute客户端。
使用MaxCompute客户端连接项目不收费,但是通过客户端执行的操作可能会触发MaxCompute计费。例如,当您使用客户端提交一个SQL查询和写入命令,此SQL命令在MaxCompute上运行会消耗计算资源,同时写入数据会占用存储空间,将产生计算费用和存储费用。MaxCompute计费详情请参见计费项与计费方式。
MaxCompute客户端的输出格式不承诺向前兼容,不同版本间的客户端命令格式及行为有差异,请勿依赖客户端的输出格式执行任何解析工作。更多客户端版本,请参见aliyun-odps-console。
当您通过MaxCompute客户端首次执行tunnel download
命令时,MaxCompute客户端会为您在当前设备的客户端安装目录plugins/dship
下创建一个session文件夹,用于存放日志。如果多名用户共用同一设备执行tunnel download
命令时,为确保数据安全,可以通过如下方式解决该问题:
通过设备自身的文件夹权限管理功能,管控session文件夹权限。
在tunnel download
命令中添加-sd <新session文件夹名称>
或-session-dir <新session文件夹名称>
参数,将数据下载至其他session文件夹。更多tunnel download
命令信息,请参见Download。
MaxCompute客户端的命令行使用两个减号(--)作为注释。
客户端默认编码为UTF-8,因此您需要注意您本机的环境编码。若本机环境编码不是UTF-8,则当您通过客户端查询MaxCompute表数据返回值有中文可能会出现乱码或者您通过客户端执行Tunnel命令上传本地数据文件到MaxCompute,也可能会出现中文乱码。
客户端从v0.27.0版本开始支持MaxCompute 2.0新数据类型,推荐使用新数据类型。支持的数据类型列表,请参见2.0数据类型版本。
安装并配置MaxCompute客户端的操作流程如下:
您可以通过上方链接进入客户端发布界面,下载最新版本的MaxCompute客户端安装包(odpscmd_public.zip)。
如果上方链接无法下载,您可以尝试单击此处的odpscmd_public_0.51.1进行下载。更多关于GitHub链接访问失败的问题,推荐您直接在搜索引擎中查找相关解决方案。
解压下载的安装包文件,得到bin、conf、lib和plugins文件夹。
进入conf文件夹,配置odps_config.ini文件。
odps_config.ini文件中使用井号(#)作为注释。参数说明如下。
参数 | 是否必填 | 描述 | 示例 |
参数 | 是否必填 | 描述 | 示例 |
project_name | 是 | 访问的目标MaxCompute项目名称。 如果您在DataWorks中创建了标准模式的工作空间,在配置project_name时,请注意区分生产环境与开发环境的项目名称,请参见必读:简单模式和标准模式的区别。 您可以登录MaxCompute控制台,在工作区> 项目管理页面获取MaxCompute项目名称。 | doc_test |
access_id | 是 | 阿里云账号或RAM用户的AccessKey ID。 您可以进入AccessKey管理页面获取AccessKey ID。 | 无 |
access_key | 是 | AccessKey ID对应的AccessKey Secret。 | 无 |
end_point | 是 | MaxCompute服务的连接地址。 您需要根据创建MaxCompute项目时选择的地域以及网络连接方式配置Endpoint。各地域及网络对应的Endpoint值,请参见Endpoint。 重要
| http://service.cn-hangzhou.maxcompute.aliyun.com/api |
log_view_host | 否 | Logview地址。您可以通过该地址查看作业的详细运行信息,并为报错处理提供依据。固定取值为:http://logview.odps.aliyun.com。 说明 推荐您配置该参数,如果不配置该参数,在作业报错时无法快速定位问题。 | http://logview.odps.aliyun.com |
https_check | 否 | 是否开启HTTPS访问机制,对访问MaxCompute项目的请求进行加密。取值范围如下:
默认值为False。 | True |
data_size_confirm | 否 | 输入数据量的最大值,单位为GB。取值范围无限制。推荐设置为100 GB。 | 100 |
update_url | 否 | 预留参数,暂无需关注。 | 无 |
use_instance_tunnel | 否 | 是否使用InstanceTunnel下载SQL执行结果。取值范围如下:
默认值为False。 | True |
instance_tunnel_max_record | 否 | 客户端返回的SQL执行结果的最大记录数。如果use_instance_tunnel值为True,需要配置该参数。最大值为10000。 | 10000 |
tunnel_endpoint | 否 | Tunnel服务的公网访问链接。如果您未配置Tunnel Endpoint,Tunnel会自动路由到MaxCompute服务所在网络对应的Tunnel Endpoint。如果您配置了Tunnel Endpoint,则以配置为准,不进行自动路由。 各地域及网络对应的Tunnel Endpoint值,请参见Endpoint。 | http://dt.cn-hangzhou.maxcompute.aliyun.com |
set.<key> | 否 | 设置MaxCompute项目的属性。 更多属性信息,请参见属性列表。 | set.odps.sql.decimal.odps2=true |
请确保上述信息配置正确,若信息配置错误,会导致项目连接失败。
MaxCompute客户端可通过如下方式启动,您可以任选其中一种:
在MaxCompute客户端安装路径下的bin文件夹中,双击odpscmd.bat
文件(Windows系统)或者双击odpscmd
文件(macOS系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。
在系统的命令行执行窗口,进入MaxCompute客户端安装路径下的bin目录,执行odpscmd
命令(Windows系统)或sh odpscmd
(Linux系统或Mac系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。
在Ubuntu执行sh odpscmd
会提示报错,请您使用./odpscmd
命令尝试启动。
如果您通过系统的命令行窗口启动MaxCompute客户端,可以指定参数来执行命令,更多参数信息,请参见参考:启动参数。
您可以通过如下方式快速获取MaxCompute客户端的命令帮助,您可以任选其中一种:
查看全部命令的帮助信息。
odps@project_name>help;
--等价于如下命令。
odps@project_name>h;
通过指定关键字查看相关命令帮助信息。
例如获取与表操作相关的命令帮助。
odps@project_name>help table;
--返回结果如下。
Usage: alter table <tablename> merge smallfiles
Usage: export table <tablename>
Usage: show tables [in <project_name>] [like '<prefix>']
list|ls tables [-p,-project <project_name>]
Usage: describe|desc [<projectname>.]<tablename> [partition(<spec>)]
Usage: read [<project_name>.]<table_name> [(<col_name>[,..])] [PARTITION (<partition_spec>)] [line_num]
read
命令属于SQL语法,涉及收费详细说明请参考SQL收费标准。
在系统的命令行执行窗口,切换到MaxCompute客户端安装路径下的bin目录,执行如下命令查看全部命令的帮助信息。在命令行执行窗口启动MaxCompute客户端时,您可以指定一系列参数,参数信息请参见参考:启动参数。
...\odpscmd\bin>odpscmd -h
您可以在运行MaxCompute客户端后执行如下命令获取当前登录用户的信息。
odps@project_name>whoami;
返回结果说明如下。
Name:当前登录的账号信息。
Source IP:MaxCompute客户端所在设备的IP地址。
End_Point:MaxCompute服务的连接地址。
Project:MaxCompute项目的名称。
Schema:MaxCompute项目下的Schema。
您可以在运行MaxCompute客户端后执行如下命令退出。
odps@project_name>quit;
--等价于如下命令。
odps@project_name>q;
登录MaxCompute客户端后,即可在MaxCompute项目内执行SQL命令,请参见通过客户端使用MaxCompute。
配置完odps_config.ini文件后启动MaxCompute客户端,常见报错如下:
报错:no java found
。
可能原因:
您运行MaxCompute客户端的机器未安装Java。
解决方法:
请您在运行MaxCompute客户端的机器安装Java,并配环境变量。
MaxCompute客户端从v0.28.0版本起开始支持JDK 1.9,之前版本只支持JDK 1.8。
报错:找不到或无法加载主类 com.aliyun.openservices.odps.console.ODPSConsole
。
可能原因:
您可能下载了两次客户端安装包,第二次的时候目录被自动重命名为odpscmd_public (1)
,目录名称里包含了空格等字符,导致路径识别错误。
解决方法:
删除目录名称中的空格等字符。
报错:Accessing project '<projectname>' failed: ODPS-0420111: Project not found - '<projectname>'.
。
可能原因:
odps_config.ini配置文件中的项目名称填写错误。
解决方法:
请您登录MaxCompute控制台,在工作区>项目管理页面获取已创建正确的MaxCompute项目名称后,修改odps_config.ini配置文件。
报错:Accessing project '<projectname>' failed: ODPS-0420095: Access Denied - Authorization Failed [4002], You don't exist in project <projectname>.
。
可能原因:
当前使用的AccessKey对应的阿里云账号或RAM用户未添加到目标项目中。
解决方法:
需要您联系项目所有者将对应的阿里云账号或RAM用户添加到目标项目中,操作详情请参见添加阿里云账号用户(项目级别)或添加RAM用户(项目级别)。
报错:Accessing project '<projectname>' failed: { "Code": "InvalidProjectTable", "Message": "The specified project or table name is not valid or missing."}
或Accessing project '<projectname>' failed: connect timed out
。
可能原因:
end_point
参数值填写错误。例如您在本地计算机上使用MaxCompute客户端连接项目,您却使用了阿里云产品互联方式下的Endpoint(公网环境使用了内网Endpoint)或填入了Tunnel Endpoint。
解决方法:
请您参照Endpoint文档,选择与您要连接项目所属区域和网络环境相符的Endpoint。
Endpoint用于MaxCompute服务,Tunnel Endpoint用于MaxCompute的Tunnel服务,end_point
参数值应填写Endpoint,请不要填入Tunnel Endpoint。
报错:Accessing project '<projectname>' failed: <endpoint>
。
可能原因:
end_point
参数值填写错误。例如您需要填写华东1(杭州)地域的公网Endpoint(http://service.cn-hangzhou.maxcompute.aliyun.com/api
),您却输入了http://service.ch-hangzhou.maxcompute.aliyun.com/api
。
解决方法:
请您参照Endpoint文档,复制您要连接项目所属区域和网络环境相符的Endpoint,建议不要手动输入。
在系统的命令行执行窗口,您可以通过指定一系列参数快速执行命令,命令使用方法如下。
Usage: odpscmd [OPTION]...
where options include:
--help (-h)for help
--config=<config_file> specify another config file
--project=<prj_name> use project
--endpoint=<http://host:port> set endpoint
-k <n> will skip begining queries and start from specified position
-r <n> set retry times
-f <"file_path;"> execute command in file
-e <"command;[command;]..."> execute command, include sql command
启动参数说明如下。
命令 | 说明 | 命令示例 |
命令 | 说明 | 命令示例 |
| 获取MaxCompute客户端的全部命令帮助信息。 |
|
| 指定配置文件odps_config.ini的路径。默认配置文件的路径是 |
|
| 指定访问的MaxCompute项目名称。 |
|
| 指定连接MaxCompute服务的Endpoint信息。更多Endpoint信息,请参见Endpoint。 |
|
| 运行从指定位置开始的语句。当 | 忽略前两条语句,直接从第三条语句开始执行。 |
| 设置作业运行失败时的重试次数。 |
|
| 指定读取的文件。 |
|
| 指定执行的命令。 |
|
在Shell(或Windows命令行)执行窗口,用户可能需要使用odpscmd -e <SQL语句>
执行得到的动态返回值,Shell的变量会获取这个动态返回值,然后在Shell中执行后续作业。此场景需要返回值不包含运行信息、表头等额外信息。为便于Shell调用,您需要配置odps_config.ini文件中的use_instance_tunnel参数值为false,关闭Instance Tunnel服务。然后执行set odps.sql.select.output.format={"needHeader":false,"fieldDelim":" "};
命令,关闭表头显示。
例如表noheader中有一列三行数据,为1、2、3。执行如下命令,将计算结果重定向stdout到目标句柄,计算结果仅包含具体数据,不包含其他额外信息:
--Windows命令行执行窗口运行命令如下。
...\odpscmd\bin>odpscmd -e "set odps.sql.select.output.format={""needHeader"":false,""fieldDelim"":"" ""};select * from noheader;" >D:\test.txt
--返回结果会保存在D:\test.txt中。
--Shell执行窗口运行命令如下。
/Users/.../odpscmd/bin/odpscmd -e "set odps.sql.select.output.format={\"needHeader\":false,\"fieldDelim\":\"\"};select * from noheader;" >/Users/A/temp/test.txt
--返回结果会保存在/Users/A/temp/test.txt中。
--返回结果如下。
1
2
3
MaxCompute客户端近期版本的更新说明如下,详细信息请单击对应版本链接获取。
版本 | 变更类型 | 描述 |
版本 | 变更类型 | 描述 |
新功能 |
| |
新功能 | ||
新功能 | ||
新功能 |
| |
缺陷修复 | 删除Log4j依赖。 | |
新功能 | 支持项目按Schema存储。更多信息请参见Schema操作。 | |
新功能 | 支持复杂数据类型通过Tunnel上传、下载。 | |
功能增强 |
| |
新功能 | 支持创建External Project连接DLF(Data Lake Formation),实现湖仓一体功能。 | |
缺陷修复 | 修复下载TIMESTAMP类型数据时,纳秒(nano)部分处理不正确的问题。 |