位置:首頁 > 大數據教學 > Hive教學 > Hive教學

Hive教學

Hive是一個數據倉庫基礎工具在Hadoop中用來處理結構化數據。它架構在Hadoop之上,總歸為大數據,並使得查詢和分析方便。並提供簡單的sql查詢功能,可以將sql語句轉換為MapReduce任務進行運行。

術語“大數據”是大型數據集,其中包括體積龐大,高速,以及各種由與日俱增的數據的集合。使用傳統的數據管理係統,它是難以加工大型數據。因此,Apache軟件基金會推出了一款名為Hadoop的解決大數據管理和處理難題的框架。

Hadoop

Hadoop是一個開源框架來存儲和處理大型數據在分布式環境中。它包含兩個模塊,一個是MapReduce,另外一個是Hadoop分布式文件係統(HDFS)。

  • MapReduce:它是一種並行編程模型在大型集群普通硬件可用於處理大型結構化,半結構化和非結構化數據。

  • HDFS:Hadoop分布式文件係統是Hadoop的框架的一部分,用於存儲和處理數據集。它提供了一個容錯文件係統在普通硬件上運行。

Hadoop生態係統包含了用於協助Hadoop的不同的子項目(工具)模塊,如Sqoop, Pig 和 Hive。

  • Sqoop: 它是用來在HDFS和RDBMS之間來回導入和導出數據。

  • Pig: 它是用於開發MapReduce操作的腳本程序語言的平台。

  • Hive: 它是用來開發SQL類型腳本用於做MapReduce操作的平台。

注:有多種方法來執行MapReduce作業:

  • 傳統的方法是使用Java MapReduce程序結構化,半結構化和非結構化數據。
  • 針對MapReduce的腳本的方式,使用Pig來處理結構化和半結構化數據。
  • Hive查詢語言(HiveQL或HQL)采用Hive為MapReduce的處理結構化數據。

Hive是什麼?

Hive是一個數據倉庫基礎工具在Hadoop中用來處理結構化數據。它架構在Hadoop之上,總歸為大數據,並使得查詢和分析方便。

最初,Hive是由Facebook開發,後來由Apache軟件基金會開發,並作為進一步將它作為名義下Apache Hive為一個開源項目。它用在好多不同的公司。例如,亞馬遜使用它在 Amazon Elastic MapReduce。

Hive 不是

  • 一個關係數據庫
  • 一個設計用於聯機事務處理(OLTP)
  • 實時查詢和行級更新的語言

Hiver特點

  • 它存儲架構在一個數據庫中並處理數據到HDFS。
  • 它是專為OLAP設計。
  • 它提供SQL類型語言查詢叫HiveQL或HQL。
  • 它是熟知,快速,可擴展和可擴展的。

Hive架構

下麵的組件圖描繪了Hive的結構:

Hive Architecture

該組件圖包含不同的單元。下表描述每個單元:

單元名稱 操作
用戶接口/界麵 Hive是一個數據倉庫基礎工具軟件,可以創建用戶和HDFS之間互動。用戶界麵,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服務器)。
元存儲 Hive選擇各自的數據庫服務器,用以儲存表,數據庫,列模式或元數據表,它們的數據類型和HDFS映射。
HiveQL處理引擎 HiveQL類似於SQL的查詢上Metastore模式信息。這是傳統的方式進行MapReduce程序的替代品之一。相反,使用Java編寫的MapReduce程序,可以編寫為MapReduce工作,並處理它的查詢。
執行引擎 HiveQL處理引擎和MapReduce的結合部分是由Hive執行引擎。執行引擎處理查詢並產生結果和MapReduce的結果一樣。它采用MapReduce方法。
HDFS 或 HBASE Hadoop的分布式文件係統或者HBASE數據存儲技術是用於將數據存儲到文件係統。

Hive工作原理

下圖描述了Hive 和Hadoop之間的工作流程。

How Hive Works

下表定義Hive和Hadoop框架的交互方式:

Step No. 操作
1 Execute Query

Hive接口,如命令行或Web UI發送查詢驅動程序(任何數據庫驅動程序,如JDBC,ODBC等)來執行。

2 Get Plan

在驅動程序幫助下查詢編譯器,分析查詢檢查語法和查詢計劃或查詢的要求。

3 Get Metadata

編譯器發送元數據請求到Metastore(任何數據庫)。

4 Send Metadata

Metastore發送元數據,以編譯器的響應。

5 Send Plan

編譯器檢查要求,並重新發送計劃給驅動程序。到此為止,查詢解析和編譯完成。

6 Execute Plan

驅動程序發送的執行計劃到執行引擎。

7 Execute Job

在內部,執行作業的過程是一個MapReduce工作。執行引擎發送作業給JobTracker,在名稱節點並把它分配作業到TaskTracker,這是在數據節點。在這裡,查詢執行MapReduce工作。

7.1 Metadata Ops

與此同時,在執行時,執行引擎可以通過Metastore執行元數據操作。

8 Fetch Result

執行引擎接收來自數據節點的結果。

9 Send Results

執行引擎發送這些結果值給驅動程序。

10 Send Results

驅動程序將結果發送給Hive接口。