全部產品
Search
文件中心

DataWorks:HBase資料來源

更新時間:Oct 25, 2024

HBase資料來源為您提供讀取和寫入HBase的雙向通道,本文為您介紹DataWorks的HBase資料同步的能力支援情況。

支援的版本

  • 支援HBase0.94.x、HBase1.1.x、HBase2.x和Phoenix5.x版本。

    • 如果您的HBase版本為HBase0.94.x,Reader和Writer端的外掛程式請選擇094x

      "reader": {
              "plugin": "094x"
          }
      "writer": {
              "hbaseVersion": "094x"
          }
    • 如果您的HBase版本為HBase1.1.x或HBase2.x,Reader和Writer端的外掛程式請選擇11x

      "reader": {
              "plugin": "11x"
          }
      "writer": {
              "hbaseVersion": "11x"
          }
      說明

      HBase1.1.x外掛程式當前可以相容HBase 2.0。

  • HBase11xsql Writer外掛程式實現了向Hbase中的SQL表(phoenix)大量匯入資料。因為Phoenix對rowkey進行了資料編碼,如果您直接使用HBaseAPI寫入,需要手動轉換資料,麻煩且易錯。HBase11xsql Writer外掛程式為您提供了單間的SQL表的資料匯入方式。

    說明

    通過Phoenix的JDBC驅動,執行UPSERT語句向表中批量寫入資料。因為使用上層介面,所以可以同步更新索引表。

使用限制

HBase Reader

HBase20xsql Reader

HBase11xsql Writer

  • 切分表時僅支援對單個列進行切分,且該列必須是表主鍵。

  • 按照作業的並發個數平均切分表時,僅支援以整型和字串類型作為切分列。

  • 表名、schema名及列名大小寫敏感,需要與Phoenix表實際大小寫保持一致。

  • 僅支援通過Phoenix QueryServer讀取資料,因此您的Phoenix必須啟動QueryServer服務才能使用HBase20xsql Reader外掛程式。

  • 僅支援使用Severless資源群組(推薦)獨享Data Integration資源群組

  • 不支援帶時間戳記的資料匯入。

  • 僅支援通過phoenix建立的表,不支援原生HBase表。

  • Writer中的列的定義順序必須與Reader的列順序匹配,Reader中的列順序定義了輸出的每一行中,列的組織順序。而Writer的列順序,定義的是在收到的資料中,Writer期待的列的順序。樣本如下:

    • Reader的列順序為c1,c2,c3,c4。

    • Writer的列順序為x1,x2,x3,x4。

    則Reader輸出的列c1就會賦值給Writer的列x1。如果Writer的列順序是x1,x2,x4,x3,則c3會賦值給x4,c4會賦值給x3。

  • 支援帶索引的表的資料匯入,可以同步更新所有的索引表。

支援的功能

HBase Reader

支援normal和multiVersionFixedColumn模式

  • normal模式:把HBase中的表當成普通二維表(橫表)進行讀取,擷取最新版本資料。

    hbase(main):017:0> scan 'users'
    ROW                                   COLUMN+CELL
    lisi                                 column=address:city, timestamp=1457101972764, value=beijing
    lisi                                 column=address:contry, timestamp=1457102773908, value=china
    lisi                                 column=address:province, timestamp=1457101972736, value=beijing
    lisi                                 column=info:age, timestamp=1457101972548, value=27
    lisi                                 column=info:birthday, timestamp=1457101972604, value=1987-06-17
    lisi                                 column=info:company, timestamp=1457101972653, value=baidu
    xiaoming                             column=address:city, timestamp=1457082196082, value=hangzhou
    xiaoming                             column=address:contry, timestamp=1457082195729, value=china
    xiaoming                             column=address:province, timestamp=1457082195773, value=zhejiang
    xiaoming                             column=info:age, timestamp=1457082218735, value=29
    xiaoming                             column=info:birthday, timestamp=1457082186830, value=1987-06-17
    xiaoming                             column=info:company, timestamp=1457082189826, value=alibaba
    2 row(s) in 0.0580 seconds }

    讀取後的資料如下所示。

    rowKey

    address:city

    address:contry

    address:province

    info:age

    info:birthday

    info:company

    lisi

    beijing

    china

    beijing

    27

    1987-06-17

    baidu

    xiaoming

    hangzhou

    china

    zhejiang

    29

    1987-06-17

    alibaba

  • multiVersionFixedColumn模式:把HBase中的表當成豎表進行讀取。讀出的每條記錄是四列形式,依次為rowKeyfamily:qualifiertimestampvalue。讀取時需要明確指定要讀取的列,把每一個cell中的值,作為一條記錄(record),若有多個版本則存在多條記錄。

    hbase(main):018:0> scan 'users',{VERSIONS=>5}
    ROW                                   COLUMN+CELL
    lisi                                 column=address:city, timestamp=1457101972764, value=beijing
    lisi                                 column=address:contry, timestamp=1457102773908, value=china
    lisi                                 column=address:province, timestamp=1457101972736, value=beijing
    lisi                                 column=info:age, timestamp=1457101972548, value=27
    lisi                                 column=info:birthday, timestamp=1457101972604, value=1987-06-17
    lisi                                 column=info:company, timestamp=1457101972653, value=baidu
    xiaoming                             column=address:city, timestamp=1457082196082, value=hangzhou
    xiaoming                             column=address:contry, timestamp=1457082195729, value=china
    xiaoming                             column=address:province, timestamp=1457082195773, value=zhejiang
    xiaoming                             column=info:age, timestamp=1457082218735, value=29
    xiaoming                             column=info:age, timestamp=1457082178630, value=24
    xiaoming                             column=info:birthday, timestamp=1457082186830, value=1987-06-17
    xiaoming                             column=info:company, timestamp=1457082189826, value=alibaba
    2 row(s) in 0.0260 seconds }

    讀取後的資料(4列) 如下所示。

    rowKey

    column:qualifier

    timestamp

    value

    lisi

    address:city

    1457101972764

    beijing

    lisi

    address:contry

    1457102773908

    china

    lisi

    address:province

    1457101972736

    beijing

    lisi

    info:age

    1457101972548

    27

    lisi

    info:birthday

    1457101972604

    1987-06-17

    lisi

    info:company

    1457101972653

    beijing

    xiaoming

    address:city

    1457082196082

    hangzhou

    xiaoming

    address:contry

    1457082195729

    china

    xiaoming

    address:province

    1457082195773

    zhejiang

    xiaoming

    info:age

    1457082218735

    29

    xiaoming

    info:age

    1457082178630

    24

    xiaoming

    info:birthday

    1457082186830

    1987-06-17

    xiaoming

    info:company

    1457082189826

    alibaba

HBase Writer

  • 支援源端多個欄位拼接作為rowkey

    目前HBase Writer支援源端多個欄位拼接作為HBase表的rowkey。

  • 寫入HBase的版本支援

    寫入HBase的時間戳記(版本)支援:

    • 目前時間作為版本。

    • 指定源端列作為版本。

    • 指定一個時間作為版本。

支援的欄位類型

離線讀

支援讀取HBase資料類型及HBase Reader針對HBase類型的轉換列表如下表所示。

類型分類

Data Integrationcolumn配置類型

資料庫資料類型

整數類

long

short、int和long

浮點類

double

float和double

字串類

string

binary_string和string

日期時間類

date

date

位元組類

bytes

bytes

布爾類

boolean

boolean

HBase20xsql Reader支援大部分Phoenix類型,但也存在個別類型沒有支援的情況,請注意檢查你的類型。

HBase20xsql Reader針對Phoenix類型的轉換列表,如下所示。

DataX內部類型

Phoenix資料類型

long

INTEGER、TINYINT、SMALLINT、BIGINT

double

FLOAT、DECIMAL、DOUBLE

string

CHAR、VARCHAR

date

DATE、TIME、TIMESTAMP

bytes

BINARY、VARBINARY

boolean

BOOLEAN

離線寫

支援讀取HBase資料類型,HBase Writer針對HBase類型的轉換列表,如下表所示。

說明
  • column的配置需要和HBase表對應的列類型保持一致。

  • 除下表中羅列的欄位類型外,其它類型均不支援。

類型分類

資料庫資料類型

整數類

INT、LONG和SHORT

浮點類

FLOAT和DOUBLE

布爾類

BOOLEAN

字串類

STRING

注意事項

如果您在測試連通性時遇到 "tried to access method com.google.common.base.Stopwatch" 的錯誤資訊,請在新增資料來源頁面的JSON配置項內添加 "hbaseVersion": "" 欄位,指定您的hbase版本,例如, "hbaseVersion:"2.0.14"。

建立資料來源

在進行資料同步任務開發時,您需要在DataWorks上建立一個對應的資料來源,操作流程請參見建立並管理資料來源詳細的配置參數解釋可在配置介面查看對應參數的文案提示

資料同步任務開發

資料同步任務的配置入口和通用配置流程可參見下文的配置指導。

單表離線同步任務配置指導

常見問題

Q:並發設定多少比較合適?速度慢時增加並發有用嗎?

A:資料匯入進程預設JVM的堆大小是2GB,並發(channel數)是通過多線程實現的,開過多的線程有時並不能提高匯入速度,反而可能因為過於頻繁的GC導致效能下降。一般建議並發數(channel)為5-10。

Q:batchSize設定多少比較合適?

A:預設是256,但應根據每行的大小來計算最合適的batchSize。通常一次操作的資料量在2MB~4MB左右,用該值除以行大小,即可得到batchSize

附錄:指令碼Demo與參數說明

離線任務指令碼配置方式

如果您配置離線任務時使用指令碼模式的方式進行配置,您需要按照統一的指令碼格式要求,在任務指令碼中編寫相應的參數,詳情請參見通過指令碼模式配置離線同步任務,以下為您介紹指令碼模式下資料來源的參數配置詳情。

HBase Reader指令碼Demo

{
    "type":"job",
    "version":"2.0",//版本號碼。
    "steps":[
        {
            "stepType":"hbase",//外掛程式名。
            "parameter":{
                "mode":"normal",//讀取HBase的模式,支援normal模式、multiVersionFixedColumn模式。
                "scanCacheSize":"256",//HBase client每次RPC從伺服器端讀取的行數。
                "scanBatchSize":"100",//HBase client每次RPC從伺服器端讀取的列數。 
                "hbaseVersion":"094x/11x",//HBase版本。
                "column":[//欄位。
                    {
                        "name":"rowkey",//欄位名。
                        "type":"string"//資料類型。
                    },
                    {
                        "name":"columnFamilyName1:columnName1",
                        "type":"string"
                    },
                    {
                        "name":"columnFamilyName2:columnName2",
                        "format":"yyyy-MM-dd",
                        "type":"date"
                    },
                    {
                        "name":"columnFamilyName3:columnName3",
                        "type":"long"
                    }
                ],
                "range":{//指定HBase Reader讀取的rowkey範圍。
                    "endRowkey":"",//指定結束rowkey。
                    "isBinaryRowkey":true,//指定配置的startRowkey和endRowkey轉換為byte[]時的方式,預設值為false。
                    "startRowkey":""//指定開始rowkey。
                },
                "maxVersion":"",//指定在多版本模式下的HBase Reader讀取的版本數。
                "encoding":"UTF-8",//編碼格式。
                "table":"",//表名。
                "hbaseConfig":{//串連HBase叢集需要的配置資訊,JSON格式。
                    "hbase.zookeeper.quorum":"hostname",
                    "hbase.rootdir":"hdfs://ip:port/database",
                    "hbase.cluster.distributed":"true"
                }
            },
            "name":"Reader",
            "category":"reader"
        },
        {
            "stepType":"stream",
            "parameter":{},
            "name":"Writer",
            "category":"writer"
        }
    ],
    "setting":{
        "errorLimit":{
            "record":"0"//錯誤記錄數。
        },
        "speed":{
            "throttle":true,//當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,表示限流。
            "concurrent":1,//作業並發數。
            "mbps":"12"//限流,此處1mbps = 1MB/s。
        }
    },
    "order":{
        "hops":[
            {
                "from":"Reader",
                "to":"Writer"
            }
        ]
    }
}

HBase Reader指令碼參數

參數

描述

是否必選

預設值

haveKerberos

haveKerberos值為true時,表示HBase叢集需要kerberos認證。

說明
  • 如果該值配置為true,必須要配置以下kerberos認證相關參數:

    • kerberosKeytabFilePath

    • kerberosPrincipal

    • hbaseMasterKerberosPrincipal

    • hbaseRegionserverKerberosPrincipal

    • hbaseRpcProtection

  • 如果HBase叢集沒有kerberos認證,則不需要配置以上參數。

false

hbaseConfig

串連HBase叢集需要的配置資訊,JSON格式。必填的配置為hbase.zookeeper.quorum,表示HBase的ZK連結地址。同時可以補充更多HBase client的配置,例如設定scan的cache、batch來最佳化與伺服器的互動。

說明

如果是雲HBase的資料庫,需要使用內網地址串連訪問。

mode

讀取HBase的模式,支援normal模式和multiVersionFixedColumn模式。

table

讀取的HBase表名(大小寫敏感) 。

encoding

編碼方式,UTF-8或GBK,用於對二進位儲存的HBase byte[]轉為String時的編碼。

utf-8

column

要讀取的HBase欄位,normal模式與multiVersionFixedColumn模式下必填。

  • normal模式下

    name指定讀取的HBase列,除rowkey外,必須為列族:列名的格式。type指定來源資料的類型,format指定日期類型的格式。value指定當前類型為常量,不從HBase讀取資料,而是根據value值自動產生對應的列。配置格式如下所示:

    "column": 
    [
    {
      "name": "rowkey",
      "type": "string"
    },
    {
      "value": "test",
      "type": "string"
    }
    ]

    normal模式下,對於您指定的Column資訊,type必須填寫,namevalue必須選擇其一。

  • multiVersionFixedColumn模式

    name指定讀取的HBase列,除rowkey外,必須為列族:列名的格式,type指定來源資料的類型,format指定日期類型的格式。multiVersionFixedColumn模式下不支援常量列。配置格式如下所示:

    "column": 
    [
    {
      "name": "rowkey",
      "type": "string"
    },
    {
      "name": "info:age",
      "type": "string"
    }
    ]

maxVersion

指定在多版本模式下的HBase Reader讀取的版本數,取值只能為-1或大於1的數字,-1表示讀取所有版本。

multiVersionFixedColumn模式下必填項

range

指定HBase Reader讀取的rowkey範圍。

  • startRowkey:指定開始rowkey。

  • endRowkey:指定結束rowkey。

  • isBinaryRowkey:指定配置的startRowkey和endRowkey轉換為 byte[]時的方式,預設值為false。如果為true,則調用Bytes.toBytesBinary(rowkey)方法進行轉換。如果為false,則調用Bytes.toBytes(rowkey)。配置格式如下所示:

    "range": {
    "startRowkey": "aaa",
    "endRowkey": "ccc",
    "isBinaryRowkey":false
    }

scanCacheSize

HBase Reader每次從HBase中讀取的行數。

256

scanBatchSize

HBase Reader每次從HBase中讀取的列數。

100

HBase Writer指令碼Demo

{
    "type":"job",
    "version":"2.0",//版本號碼
    "steps":[
        {
            "stepType":"stream",
            "parameter":{},
            "name":"Reader",
            "category":"reader"
        },
        {
            "stepType":"hbase",//外掛程式名。
            "parameter":{
                "mode":"normal",//寫入HBase的模式。
                "walFlag":"false",//關閉(false)放棄寫WAL日誌。
                "hbaseVersion":"094x",//Hbase版本。
                "rowkeyColumn":[//要寫入的HBase的rowkey列。
                    {
                        "index":"0",//序號。
                        "type":"string"//資料類型。
                    },
                    {
                        "index":"-1",
                        "type":"string",
                        "value":"_"
                    }
                ],
                "nullMode":"skip",//讀取的為null值時,如何處理。
                "column":[//要寫入的HBase欄位。
                    {
                        "name":"columnFamilyName1:columnName1",//欄位名。
                        "index":"0",//索引號。
                        "type":"string"//資料類型。
                    },
                    {
                        "name":"columnFamilyName2:columnName2",
                        "index":"1",
                        "type":"string"
                    },
                    {
                        "name":"columnFamilyName3:columnName3",
                        "index":"2",
                        "type":"string"
                    }
                ],
                "encoding":"utf-8",//編碼格式。
                "table":"",//表名。
                "hbaseConfig":{//串連HBase叢集需要的配置資訊,JSON格式。
                    "hbase.zookeeper.quorum":"hostname",
                    "hbase.rootdir":"hdfs: //ip:port/database",
                    "hbase.cluster.distributed":"true"
                }
            },
            "name":"Writer",
            "category":"writer"
        }
    ],
    "setting":{
        "errorLimit":{
            "record":"0"//錯誤記錄數。
        },
        "speed":{
            "throttle":true,//當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,表示限流。
            "concurrent":1, //作業並發數。
            "mbps":"12"//限流
        }
    },
    "order":{
        "hops":[
            {
                "from":"Reader",
                "to":"Writer"
            }
        ]
    }
}

HBase Writer指令碼參數

參數

描述

是否必選

預設值

haveKerberos

haveKerberos值為true時,表示HBase叢集需要kerberos認證。

說明
  • 如果該值配置為true,必須要配置以下kerberos認證相關參數:

    • kerberosKeytabFilePath

    • kerberosPrincipal

    • hbaseMasterKerberosPrincipal

    • hbaseRegionserverKerberosPrincipal

    • hbaseRpcProtection

  • 如果HBase叢集沒有kerberos認證,則不需要配置以上參數。

false

hbaseConfig

串連HBase叢集需要的配置資訊,JSON格式。必填的配置為hbase.zookeeper.quorum,表示HBase的ZK連結地址。同時可以補充更多HBase client的配置,例如設定scan的cache、batch來最佳化與伺服器的互動。

說明

如果是雲HBase的資料庫,需要使用內網地址串連訪問。

mode

寫入HBase的模式,目前僅支援normal模式,後續考慮動態列模式。

table

要寫入的HBase表名(大小寫敏感) 。

encoding

編碼方式,UTF-8或GBK,用於STRING轉HBase byte[]時的編碼。

utf-8

column

要寫入的HBase欄位:

  • index:指定該列對應Reader端column的索引,從0開始。

  • name:指定HBase表中的列,格式必須為列族:列名。

  • type:指定寫入的資料類型,用於轉換HBase byte[]。

rowkeyColumn

要寫入的HBase的rowkey列:

  • index:指定該列對應Reader端column的索引,從0開始。如果是常量,index為-1。

  • type:指定寫入的資料類型,用於轉換HBase byte[]。

  • value:配置常量,常作為多個欄位的拼接符。HBase Writer會將rowkeyColumn中所有列按照配置順序進行拼接作為寫入HBase的rowkey,不能全為常量。

配置格式如下所示。

"rowkeyColumn": [
          {
            "index":0,
            "type":"string"
          },
          {
            "index":-1,
            "type":"string",
            "value":"_"
          }
      ]

versionColumn

指定寫入HBase的時間戳記。支援目前時間、指定時間列或指定時間(三者選一),如果不配置則表示用目前時間。

  • index:指定對應Reader端column的索引,從0開始,需保證能轉換為LONG。

  • type:如果是Date類型,會嘗試用yyyy-MM-dd HH:mm:ssyyyy-MM-dd HH:mm:ss SSS解析。如果是指定時間,則index為-1。

  • value:指定時間的值,LONG類型。

配置格式如下所示。

  • "versionColumn":{
    "index":1
    }
  • "versionColumn":{
    "index":-1,
    "value":123456789
    }

nullMode

讀取的資料為null值時,您可以通過以下兩種方式解決:

  • skip:表示不向HBase寫該列。

  • empty:寫入HConstants.EMPTY_BYTE_ARRAY,即new byte [0]。

skip

walFlag

HBase Client向叢集中的RegionServer提交資料時(Put/Delete操作),首先會先寫WAL(Write Ahead Log)日誌(即HLog,一個RegionServer上的所有Region共用一個HLog),只有當WAL日誌寫成功後,才會接著寫MemStore,最後用戶端被通知提交資料成功。

如果寫WAL日誌失敗,用戶端則被通知提交失敗。關閉(false)放棄寫WAL日誌,從而提高資料寫入的效能。

false

writeBufferSize

設定HBase Client的寫Buffer大小,單位位元組,配合autoflush使用。

autoflush(預設處於關閉狀態):

  • 開啟(true):表示HBase Client在寫的時候有一條put就執行一次更新。

  • 關閉(false):表示HBase Client在寫的時候只有當put填滿用戶端寫緩衝時,才實際向HBase服務端發起寫請求。

8M

HBase20xsql Reader指令碼Demo

{
    "type":"job",
    "version":"2.0",//版本號碼。
    "steps":[
        {
            "stepType":"hbase20xsql",//外掛程式名。
            "parameter":{
                "queryServerAddress": "http://127.0.0.1:8765",  //填寫串連Phoenix QueryServer地址。
                "serialization": "PROTOBUF",  //QueryServer序列化格式。
                "table": "TEST",    //讀取表名。
                "column": ["ID", "NAME"],   //所要讀取列名。
                "splitKey": "ID"    //切分列,必須是表主鍵。
            },
            "name":"Reader",
            "category":"reader"
        },
        {
            "stepType":"stream",
            "parameter":{},
            "name":"Writer",
            "category":"writer"
        }
    ],
    "setting":{
        "errorLimit":{
            "record":"0"//錯誤記錄數。
        },
        "speed":{
            "throttle":true,//當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,表示限流。
            "concurrent":1,//作業並發數。
            "mbps":"12"//限流,此處1mbps = 1MB/s。
        }
    },
    "order":{
        "hops":[
            {
                "from":"Reader",
                "to":"Writer"
            }
        ]
    }
}

HBase20xsql Reader指令碼參數

參數

描述

是否必選

預設值

queryServerAddress

HBase20xsql Reader外掛程式需要通過Phoenix輕用戶端去串連Phoenix QueryServer,因此,您需要在此處填寫對應的QueryServer地址。如果HBase增強版(Lindorm)使用者需要透傳user、password參數,可以在queryServerAddress後增加對應的可選屬性。格式為:http://127.0.0.1:8765;user=root;password=root

serialization

QueryServer使用的序列化協議。

PROTOBUF

table

所要讀取的表名(大小寫敏感)。

schema

表所在的schema。

column

所配置的表中需要同步的列名集合,使用JSON的數組描述欄位資訊,空值表示讀取所有列。預設值為空白值。

全部列

splitKey

讀取表時對錶進行切分,如果指定splitKey,表示您希望使用splitKey代表的欄位進行資料分區,資料同步因此會啟動並發任務進行資料同步,提高了資料同步的效能。您可以選擇兩種不同的切分方式,如果splitPoint為空白,預設根據方法一自動切分:

  • 方法一:根據splitKey找到最大值和最小值,然後按照指定的concurrent數平均切分。

    說明

    僅支援以整型和字串類型作為切分列。

  • 方式二:根據設定的splitPoint進行切分。然後按照指定的concurrent同步資料。

splitPoints

根據切分列的最大值和最小值切分時不能保證避免資料熱點,因此,建議切分點根據Regionstartkeyendkey進行設定,保證每個查詢對應單個Region。

where

篩選條件,支援對錶查詢增加過濾條件。HBase20xsql Reader根據指定的columntablewhere條件拼接SQL,並根據該SQL進行資料幫浦。

querySql

在部分業務情境中,where配置項不足以描述所篩選的條件,您可以通過該配置型來自訂篩選SQL。配置該項後,除queryserverAddress參數必須設定外,HBase20xsql Reader會直接忽略columntablewheresplitKey條件的配置,使用該項配置的內容對資料進行篩選。

HBase11xsql Writer指令碼Demo

{
  "type": "job",
  "version": "1.0",
  "configuration": {
    "setting": {
      "errorLimit": {
        "record": "0"
      },
      "speed": {
            "throttle":true,//當throttle值為false時,mbps參數不生效,表示不限流;當throttle值為true時,表示限流。
            "concurrent":1, //作業並發數。
            "mbps":"1"//限流,此處1mbps = 1MB/s。
      }
    },
    "reader": {
      "plugin": "odps",
      "parameter": {
        "datasource": "",
        "table": "",
        "column": [],
        "partition": ""
      }
    },
    "plugin": "hbase11xsql",
    "parameter": {
      "table": "目標hbase表名,大小寫有關",
      "hbaseConfig": {
        "hbase.zookeeper.quorum": "目標hbase叢集的ZK伺服器位址,向PE諮詢",
        "zookeeper.znode.parent": "目標hbase叢集的znode,向PE諮詢"
      },
      "column": [
        "columnName"
      ],
      "batchSize": 256,
      "nullMode": "skip"
    }
  }
}

HBase11xsql Writer指令碼參數

參數

描述

是否必選

預設值

plugin

外掛程式名字,必須是hbase11xsql。

table

要匯入的表名,大小寫敏感,通常phoenix表都是大寫表名。

column

列名,大小寫敏感。通常phoenix的列名都是大寫。

說明
  • 列的順序必須與Reader輸出的列的順序一一對應。

  • 不需要填寫資料類型,會自動從phoenix擷取列的中繼資料。

hbaseConfig

hbase叢集地址,zk為必填項,格式為ip1, ip2, ip3。

說明
  • 多個IP之間使用英文的逗號分隔。

  • znode是可選的,預設值是/hbase。

batchSize

批量寫入的最大行數。

256

nullMode

讀取到的列值為null時,您可以通過以下兩種方式進行處理:

  • skip:跳過該列,即不插入該列(如果之前已經存在,則會被刪除)。

  • empty:插入空值,實值型別的空值是0,varchar的空值是Null 字元串。

skip