本文为您介绍如何通过Hadoop Shell命令访问OSS和OSS-HDFS。
环境准备
- EMR环境中,默认已安装JindoSDK,可以直接使用。
说明 访问OSS-HDFS,需创建EMR-3.42.0及以上版本或EMR-5.8.0及以上版本的集群。
- 非EMR环境,请先安装部署JindoSDK,详情请参见在非EMR集群中部署JindoSDK。
说明 访问OSS-HDFS,需部署JindoSDK 4.x及以上版本。
相关命令及示例
通过Hadoop Shell命令访问OSS和OSS-HDFS的方式基本相同,仅路径中的Endpoint略有不同,根路径示例请参见路径说明。
- 上传文件
将本地根目录下的examplefile.txt文件上传至examplebucket,访问OSS-HDFS示例如下:
hadoop fs -put examplefile.txt oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/
- 新建目录
在examplebucket下创建名为dir/的目录,访问OSS-HDFS示例如下:
hadoop fs -mkdir oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/dir/
- 查看文件或目录信息
查看examplebucket下的文件或目录信息,访问OSS-HDFS示例如下:
hadoop fs -ls oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/
- 获取文件或目录大小
获取examplebucket下所有文件或目录的大小,访问OSS-HDFS示例如下:
hadoop fs -du oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/
- 查看文件内容
查看examplebucket下名为localfile.txt的文件内容,访问OSS-HDFS示例如下:
hadoop fs -cat oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/localfile.txt
重要 查看文件内容时,文件内容将以纯文本形式显示。如果文件内容进行了特定格式的编码,请使用HDFS的Java API读取并解码文件内容。 - 拷贝目录或文件
例如,将examplebucket下根目录subdir1拷贝到目录subdir2下,且根目录subdir1所在的位置、根目录下的文件和子目录结构和内容保持不变,访问OSS-HDFS示例如下:
hadoop fs -cp oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/subdir1 oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/subdir2/subdir1
- 移动目录或文件
例如,将examplebucket根目录srcdir及其包含的文件或者子目录移动至另一个根目录destdir下,访问OSS-HDFS示例如下:
hadoop fs -mv oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/srcdir oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/destdir
- 下载文件
将examplebucket下的exampleobject.txt下载到本地根目录文件夹/tmp,访问OSS-HDFS示例如下:
hadoop fs -get oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt /tmp/
- 删除目录或文件
删除examplebucket下destfolder/目录及其目录下的所有文件,访问OSS-HDFS示例如下:
hadoop fs -rm oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/destfolder/