全部產品
Search
文件中心

:Spark使用JindoSDK查詢OSS-HDFS服務中的資料

更新時間:Jun 19, 2024

JindoSDK是一個面向Hadoop、Spark生態且簡單易用的OSS用戶端,為OSS提供高度最佳化的Hadoop FileSystem實現。相對於Hadoop社區OSS用戶端,Spark使用JindoSDK查詢OSS-HDFS服務中的資料時,可以獲得更好的效能。

前提條件

操作步驟

  1. 串連ECS執行個體。具體操作,請參見串連ECS執行個體

  2. 配置JindoSDK。

    1. 下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub

    2. 解壓JindoSDK JAR包。

      以下以解壓jindosdk-x.x.x-linux.tar.gz為例,如使用其他版本的JindoSDK,請替換為對應的JAR包名稱。

      tar zxvf jindosdk-x.x.x-linux.tar.gz
      說明

      x.x.x表示JindoSDK JAR包版本號碼。

    3. 可選:如果您的環境中未包含Kerberos和SASL相關依賴,則需要在部署JindoSDK的所有節點安裝以下依賴。

      • Ubuntu或Debian

        sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
      • Red Hat Enterprise Linux或CentOS

        sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
      • macOS

        brew install krb5
    4. 將已下載的JindoSDK JAR包拷貝至Spark的classpath路徑下。

      cp jindosdk-x.x.x-linux/lib/*.jar  $SPARK_HOME/jars/
  3. 配置OSS-HDFS服務實作類別及AccessKey。

    • core-site.xml檔案中配置

      1. 將OSS-HDFS服務實作類別配置到Spark的core-site.xml設定檔中。

        <configuration>
            <property>
                <name>fs.AbstractFileSystem.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOSS</value>
            </property>
        
            <property>
                <name>fs.oss.impl</name>
                <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
            </property>
        </configuration>
      2. 將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret配置在Spark的core-site.xml設定檔中。

        <configuration>
            <property>
                <name>fs.oss.accessKeyId</name>
                <value>LTAI********</value>
            </property>
        
            <property>
                <name>fs.oss.accessKeySecret</name>
                <value>KZo1********</value>
            </property>
        </configuration>
    • 在提交任務時配置

      在提交Spark任務時配置OSS-HDFS服務實作類別及AccessKey,樣本如下:

      spark-submit --conf spark.hadoop.fs.AbstractFileSystem.oss.impl=com.aliyun.jindodata.oss.OSS --conf spark.hadoop.fs.oss.impl=com.aliyun.jindodata.oss.JindoOssFileSystem --conf spark.hadoop.fs.oss.accessKeyId=LTAI********  --conf spark.hadoop.fs.oss.accessKeySecret=KZo149BD9GLPNiDIEmdQ7d****
  4. 配置OSS-HDFS服務Endpoint。

    使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成後,JindoSDK會根據訪問路徑中的Endpoint訪問對應的OSS-HDFS服務介面。

    您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優先順序。更多資訊,請參見附錄一:配置Endpoint的其他方式

  5. 使用Spark訪問OSS-HDFS。

    1. 建立表。

      create table test_oss (c1 string) location "oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/dir/";
    2. 往表中插入資料。

      insert into table test_oss values ("testdata");
    3. 查詢表。

      select * from test_oss;