使用Hive搭建離線數倉時,隨著資料量的不斷增長,傳統的基於HDFS儲存的數倉可能無法以較低成本滿足使用者的需求。在這種情況下,您可以使用OSS-HDFS服務作為Hive數倉的底層儲存,並通過JindoSDK獲得更好的讀寫效能。
前提條件
已建立ECS執行個體。具體步驟,請參見選購ECS執行個體。
已開通並授權訪問OSS-HDFS服務。具體操作,請參見開通並授權訪問OSS-HDFS服務。
已自行部署Hive用戶端。
操作步驟
串連ECS執行個體。具體操作,請參見串連ECS執行個體。
配置JindoSDK。
下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub。
解壓JindoSDK JAR包。
以下以解壓
jindosdk-x.x.x-linux.tar.gz
為例,如使用其他版本的JindoSDK,請替換為對應的JAR包名稱。tar zxvf jindosdk-x.x.x-linux.tar.gz
說明x.x.x表示JindoSDK JAR包版本號碼。
可選:如果您的環境中未包含Kerberos和SASL相關依賴,則需要在部署JindoSDK的所有節點安裝以下依賴。
Ubuntu或Debian
sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
Red Hat Enterprise Linux或CentOS
sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
macOS
brew install krb5
將已下載的JindoSDK JAR包拷貝至Hive的classpath路徑下。
cp jindosdk-x.x.x-linux/lib/*.jar $HIVE_HOME/lib/
配置OSS-HDFS服務實作類別及AccessKey。
將OSS-HDFS服務實作類別配置到Hive的core-site.xml檔案中。
<configuration> <property> <name>fs.AbstractFileSystem.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOSS</value> </property> <property> <name>fs.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value> </property> </configuration>
將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret預先配置在Hive的core-site.xml檔案中。
<configuration> <property> <name>fs.oss.accessKeyId</name> <value>LTAI******** </value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>KZo1********</value> </property> </configuration>
配置OSS-HDFS服務Endpoint。
使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為
oss://<Bucket>.<Endpoint>/<Object>
,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt
。配置完成後,JindoSDK會根據訪問路徑中的Endpoint訪問對應的OSS-HDFS服務介面。您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優先順序。更多資訊,請參見附錄一:配置Endpoint的其他方式。
重要完成以上配置後,您需要重啟Hive服務,使配置生效。
在終端使用以下命令串連Hive。
更多串連方式,請參見Hive串連方式。
hive
通過OSS-HDFS服務儲存資料。
建立資料庫和表時,您可以通過以下兩種方式指定OSS-HDFS服務路徑,將資料庫或表的資料儲存到OSS-HDFS服務中。
方式一:在命令樣本中指定OSS-HDFS服務路徑
建立資料庫時指定OSS-HDFS服務路徑
CREATE DATABASE db_on_oss1 LOCATION 'oss://bucket_name.endpoint_name/path/to/db1';
建立表時指定OSS-HDFS服務路徑
CREATE TABLE db2.table_on_oss ( id INT, name STRING, age INT ) LOCATION 'oss://bucket_name.endpoint_name/path/to/db2/tablepath';
方式二:在設定檔中指定OSS-HDFS服務路徑
您可以在Hive Metastore的hive-site.xml設定檔中設定hive.metastore.warehouse.dir到OSS-HDFS服務路徑,然後重啟Hive Metastore,後續建立的資料庫和資料庫下的表均預設儲存於OSS-HDFS服務路徑中。
配置樣本如下:
<configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>oss://bucket_name.endpoint_name/path/to/warehouse</value> </property> </configuration>
為已有表添加分區。
您可以為已建立的表添加分區,從而將其分成較小的儲存單元。根據查詢條件,只掃描滿足條件的分區而避免全表掃描,從而顯著提升查詢效能。
命令格式
ALTER TABLE <table_name> ADD [IF NOT EXISTS] PARTITION <pt_spec> [PARTITION <pt_spec> PARTITION <pt_spec>...] LOCATION 'location';
參數說明如下:
參數
是否可選
說明
table_name
必選
待添加分區的表名稱。
IF NOT EXISTS
可選
未指定IF NOT EXISTS時,如果同名的分區已存在,會執行失敗並返回報錯。
pt_spec
必選
新增的分區,格式為
(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。其中,partition_col
表示分區欄位,partition_col_value
表示分區值。分區欄位不區分大小寫,分區值區分大小寫。location
必選
指定儲存分區的OSS路徑。
使用樣本
以下樣本用於為表sale_detail添加一個分區,用於儲存2021年12月華東1(杭州)地區的銷售記錄,並將分區儲存於指定的OSS路徑。
ALTER TABLE sale_detail ADD IF NOT EXISTS PARTITION (sale_date='202112', region='hangzhou') LOCATION 'oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/path/2021/';