全部產品
Search
文件中心

:Hive使用JindoSDK處理OSS-HDFS服務中的資料

更新時間:Jun 19, 2024

使用Hive搭建離線數倉時,隨著資料量的不斷增長,傳統的基於HDFS儲存的數倉可能無法以較低成本滿足使用者的需求。在這種情況下,您可以使用OSS-HDFS服務作為Hive數倉的底層儲存,並通過JindoSDK獲得更好的讀寫效能。

前提條件

操作步驟

  1. 串連ECS執行個體。具體操作,請參見串連ECS執行個體

  2. 配置JindoSDK。

    1. 下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub

    2. 解壓JindoSDK JAR包。

      以下以解壓jindosdk-x.x.x-linux.tar.gz為例,如使用其他版本的JindoSDK,請替換為對應的JAR包名稱。

      tar zxvf jindosdk-x.x.x-linux.tar.gz
      說明

      x.x.x表示JindoSDK JAR包版本號碼。

    3. 可選:如果您的環境中未包含Kerberos和SASL相關依賴,則需要在部署JindoSDK的所有節點安裝以下依賴。

      • Ubuntu或Debian

        sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
      • Red Hat Enterprise Linux或CentOS

        sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
      • macOS

        brew install krb5
    4. 將已下載的JindoSDK JAR包拷貝至Hive的classpath路徑下。

      cp jindosdk-x.x.x-linux/lib/*.jar  $HIVE_HOME/lib/
  3. 配置OSS-HDFS服務實作類別及AccessKey。

    1. 將OSS-HDFS服務實作類別配置到Hive的core-site.xml檔案中。

      <configuration>
          <property>
              <name>fs.AbstractFileSystem.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOSS</value>
          </property>
      
          <property>
              <name>fs.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
          </property>
      </configuration>
    2. 將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret預先配置在Hive的core-site.xml檔案中。

      <configuration>
          <property>
              <name>fs.oss.accessKeyId</name>
              <value>LTAI******** </value>
          </property>
      
          <property>
              <name>fs.oss.accessKeySecret</name>
              <value>KZo1********</value>
          </property>
      </configuration>
  4. 配置OSS-HDFS服務Endpoint。

    使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成後,JindoSDK會根據訪問路徑中的Endpoint訪問對應的OSS-HDFS服務介面。

    您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優先順序。更多資訊,請參見附錄一:配置Endpoint的其他方式

    重要

    完成以上配置後,您需要重啟Hive服務,使配置生效。

  5. 在終端使用以下命令串連Hive。

    更多串連方式,請參見Hive串連方式

    hive
  6. 通過OSS-HDFS服務儲存資料。

    建立資料庫和表時,您可以通過以下兩種方式指定OSS-HDFS服務路徑,將資料庫或表的資料儲存到OSS-HDFS服務中。

    • 方式一:在命令樣本中指定OSS-HDFS服務路徑

      • 建立資料庫時指定OSS-HDFS服務路徑

        CREATE DATABASE db_on_oss1 LOCATION 'oss://bucket_name.endpoint_name/path/to/db1';
      • 建立表時指定OSS-HDFS服務路徑

        CREATE TABLE db2.table_on_oss (
            id INT,
            name STRING,
            age INT
        ) LOCATION 'oss://bucket_name.endpoint_name/path/to/db2/tablepath';
    • 方式二:在設定檔中指定OSS-HDFS服務路徑

      您可以在Hive Metastore的hive-site.xml設定檔中設定hive.metastore.warehouse.dir到OSS-HDFS服務路徑,然後重啟Hive Metastore,後續建立的資料庫和資料庫下的表均預設儲存於OSS-HDFS服務路徑中。

      配置樣本如下:

      <configuration>
      
          <property>
              <name>hive.metastore.warehouse.dir</name>
              <value>oss://bucket_name.endpoint_name/path/to/warehouse</value>
          </property>
      
      </configuration>
  7. 為已有表添加分區。

    您可以為已建立的表添加分區,從而將其分成較小的儲存單元。根據查詢條件,只掃描滿足條件的分區而避免全表掃描,從而顯著提升查詢效能。

    • 命令格式

      ALTER TABLE <table_name> ADD [IF NOT EXISTS] PARTITION <pt_spec> [PARTITION <pt_spec> PARTITION <pt_spec>...] LOCATION 'location';

      參數說明如下:

      參數

      是否可選

      說明

      table_name

      必選

      待添加分區的表名稱。

      IF NOT EXISTS

      可選

      未指定IF NOT EXISTS時,如果同名的分區已存在,會執行失敗並返回報錯。

      pt_spec

      必選

      新增的分區,格式為(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)。其中,partition_col表示分區欄位,partition_col_value表示分區值。分區欄位不區分大小寫,分區值區分大小寫。

      location

      必選

      指定儲存分區的OSS路徑。

    • 使用樣本

      以下樣本用於為表sale_detail添加一個分區,用於儲存2021年12月華東1(杭州)地區的銷售記錄,並將分區儲存於指定的OSS路徑。

      ALTER TABLE sale_detail ADD IF NOT EXISTS PARTITION (sale_date='202112', region='hangzhou') LOCATION 'oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/path/2021/';