一文了解Hive是什么

  • A+
所屬分類:百科知識(shí)

Hive 是基于 Hadoop 的一個(gè)數(shù)據(jù)倉(cāng)庫(kù)工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張表,并提供類 SQL 查詢功能,對(duì)Hive是什么及優(yōu)缺點(diǎn)感興趣的朋友跟隨小編一起看看吧。

一、Hive介紹

hive: 由 Facebook 開源用于解決海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計(jì)工具

Hive 是基于 Hadoop 的一個(gè)數(shù)據(jù)倉(cāng)庫(kù)工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張表,并提供類 SQL 查詢功能。

Hive的優(yōu)缺點(diǎn)

優(yōu)點(diǎn):

  • 類似于SQL語句,簡(jiǎn)單學(xué)習(xí)易上手
  • 避免了去寫 MapReduce,減少開發(fā)人員的學(xué)習(xí)成本
  • Hive 的執(zhí)行延遲比較高,因此 Hive 常用于數(shù)據(jù)分析,對(duì)實(shí)時(shí)性要求不高的場(chǎng)合
  • Hive 優(yōu)勢(shì)在于處理大數(shù)據(jù),對(duì)于處理小數(shù)據(jù)沒有優(yōu)勢(shì),因?yàn)?Hive 的執(zhí)行延遲比較高
  • Hive 支持用戶自定義函數(shù),用戶可以根據(jù)自己的需求來實(shí)現(xiàn)自己的函數(shù)

缺點(diǎn):

  • Hive 的 HQL 表達(dá)能力有限
  • Hive 的效率比較低
  • Hive本質(zhì)是一個(gè)MR

Hive架構(gòu)

Hive用戶接口

  • Hive CLI(Hive Command Line) Hive的命令
  • HWI(Hive Web Interface) HiveWeb接口
  • Hive提供了Thrift服務(wù),也就是Hiveserver。

Hive元數(shù)據(jù)的三種存儲(chǔ)模式

  • 單用戶模式 : Hive安裝時(shí),默認(rèn)使用的是Derby數(shù)據(jù)庫(kù)存儲(chǔ)元數(shù)據(jù),這樣不能并發(fā)調(diào)用Hive。
  • 多用戶模式 : MySQL服務(wù)器存儲(chǔ)元數(shù)據(jù)
  • 遠(yuǎn)程服務(wù)器模式 : 啟動(dòng)MetaStoreServer

Hive數(shù)據(jù)存儲(chǔ)

Hive數(shù)據(jù)可區(qū)分為表數(shù)據(jù)元數(shù)據(jù),表數(shù)據(jù)我們都知道是表中的數(shù)據(jù),而元數(shù)據(jù)是用來存儲(chǔ)表的名字表分區(qū)以及屬性

Hive是基于Hadoop分布式文件存儲(chǔ)的,它的數(shù)據(jù)存儲(chǔ)在HDFS中。現(xiàn)在我們介紹Hive中常見的數(shù)據(jù)導(dǎo)入方式

  • 本地文件系統(tǒng)中導(dǎo)入數(shù)據(jù)到Hive
  • 從HDFS上導(dǎo)入數(shù)據(jù)到Hive表
  • 從其他表中查詢出相應(yīng)的數(shù)據(jù)并導(dǎo)入Hive表中
  • 在創(chuàng)建表的時(shí)候通過從其他表中查詢出相應(yīng)的記錄并插入到所創(chuàng)建的表中
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
#1.演示從本地裝載數(shù)據(jù)到hive
#1.1創(chuàng)建表
create table student(id string, name string)
row format delimited fields terminated by '\t';
#1.2加載本地的文件到hive
?load data local inpath
'/root/student.txt' into table default.student; #default.test 數(shù)據(jù)庫(kù).表名 也可直接表名
#2.演示加載HDFS文件到hive中
#2.1 將文件上傳到HDFS根目錄
dfs -put /root/student.txt /;
#2.2加載HDFS上的數(shù)據(jù)
load data inpath '/student.txt' into table test.student;
#3.加載數(shù)據(jù)覆蓋表中原有的數(shù)據(jù)
#3.1上傳文件到HDFS中
dfs -put /root/student.txt /;? #將文件裝載到表下 文件就相當(dāng)于Windows中的剪切操作
#3.2加載數(shù)據(jù)覆蓋表中原有數(shù)據(jù)
load data inpath '/student.txt' overwrite into table test.student;
#4.查詢表
select * from student;
1
2
3
4
5
6
#通過查詢語句向表中插入數(shù)據(jù)(insert)
#1.1創(chuàng)建表
create table student_par(id int,name String)
row format delimited fields terminated by '\t';
#1.2通過insert插入數(shù)據(jù)
insert into table student_par values(1,'zhangsan'),(2,'lisi');

架構(gòu)原理

用戶接口

CLI(command-line interface)、JDBC/ODBC(jdbc 訪問 hive)、WEBUI(瀏覽器訪問 hive)

元數(shù)據(jù)

元數(shù)據(jù)包括:表名、表所屬的數(shù)據(jù)庫(kù)(默認(rèn)是 default)、表的擁有者、列/分區(qū)字段、表的類型(是否是外部表)、表的數(shù)據(jù)所在目錄等

Hadoop

使用 HDFS 進(jìn)行存儲(chǔ),使用 MapReduce 進(jìn)行計(jì)算。

驅(qū)動(dòng)器:Driver

(1)解析器(SQL Parser):將 SQL 字符串轉(zhuǎn)換成抽象語法樹 AST,這一步一般都用第三方工具庫(kù)完成,比如 antlr;對(duì) AST 進(jìn)行語法分析,比如表是否存在、字段是否存在、SQL語義是否有誤。
(2)編譯器(Physical Plan):將 AST 編譯生成邏輯執(zhí)行計(jì)劃。
(3)優(yōu)化器(Query Optimizer):對(duì)邏輯執(zhí)行計(jì)劃進(jìn)行優(yōu)化。
(4)執(zhí)行器(Execution):把邏輯執(zhí)行計(jì)劃轉(zhuǎn)換成可以運(yùn)行的物理計(jì)劃。對(duì)于 Hive 來說,就是 MR/Spark。

一文了解Hive是什么

Hive文件格式

  • TextFile

這是默認(rèn)的文件格式。數(shù)據(jù)不會(huì)壓縮處理,磁盤開銷大,數(shù)據(jù)解析開銷也大。
SequenceFile
這是HadooAPI提供的一種二進(jìn)制文件支持,以二進(jìn)制的形式序列化到文件中。

  • RCFile

這種格式是行列存儲(chǔ)結(jié)構(gòu)的存儲(chǔ)方式。

  • ORC

Optimized Row Columnar ORC文件格式是一種Hadoop生態(tài)圈中的列式存儲(chǔ)格式。

ORC的優(yōu)勢(shì):

  • 列示存儲(chǔ),有多種文件壓縮方式
  • 文件是可分割的。
  • 提供了多種索引
  • 可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu) 比如Map

ORC文件格式是以二進(jìn)制方式存儲(chǔ)的,所以是不可直接讀取的。

Hive本質(zhì)

將HQL轉(zhuǎn)換成MapReduce程序。

  • Hive處理的數(shù)據(jù)存儲(chǔ)在HDFS上
  • Hive分析數(shù)據(jù)底層的實(shí)現(xiàn)是MapReduce
  • 執(zhí)行程序運(yùn)行在Yarn上

Hive工作原理

簡(jiǎn)單來說Hive就是一個(gè)查詢引擎。當(dāng)Hive接受到一條SQL語句會(huì)執(zhí)行如下操作:

  • 詞法分析和語法分析。使用antlr將SQL語句解析成抽象語法樹
  • 語義分析。從MetaStore中獲取元數(shù)據(jù)信息,解釋SQL語句中的表名、列名、數(shù)據(jù)類型
  • 邏輯計(jì)劃生成。生成邏輯計(jì)劃得到算子樹
  • 邏輯計(jì)劃優(yōu)化。對(duì)算子樹進(jìn)行優(yōu)化
  • 物理計(jì)劃生成。將邏輯計(jì)劃生成出的MapReduce任務(wù)組成的DAG的物理計(jì)劃
  • 物理計(jì)劃執(zhí)行。將DAG發(fā)送到Hadoop集群進(jìn)行執(zhí)行
  • 將查詢結(jié)果返回。

Hive展現(xiàn)的MapReduce任務(wù)設(shè)計(jì)到組件有:

  • 元存儲(chǔ) : 該組件存儲(chǔ)了Hive中表的信息,其中包括了表、表的分區(qū)、模式、列及其類型、表映射關(guān)系等
  • 驅(qū)動(dòng) : 控制HiveQL生命周期的組件
  • 查詢編輯器
  • 執(zhí)行引擎
  • Hive服務(wù)器
  • 客戶端組件 提供命令行接口Hive CLI、Web UI、JDBC驅(qū)動(dòng)等

一文了解Hive是什么

Hive數(shù)據(jù)類型

Hive支持兩種數(shù)據(jù)類型,一種原子數(shù)據(jù)類型、還有一種叫復(fù)雜數(shù)據(jù)類型。

基本數(shù)據(jù)類型
類型 描述 示例
TINYINT 1字節(jié)有符合整數(shù) 1
SMALLINT 2字節(jié)有符號(hào)整數(shù) 1
INT 4字節(jié)有符號(hào)整數(shù) 1
BIGINT 8字節(jié)有符號(hào)整數(shù) 1
FLOAT 4字節(jié)單精度浮點(diǎn)數(shù) 1.0
DOUBLE 8字節(jié)雙精度浮點(diǎn)數(shù) 1.0
BOOLEAN true/false true
STRING 字符串 “hive”,‘hive’

Hive類型中的String數(shù)據(jù)類型類似于MySQL中的VARCHAR。該類型是一個(gè)可變的字符串。

Hive支持?jǐn)?shù)據(jù)類型轉(zhuǎn)換,Hive是用Java編寫的,所以數(shù)據(jù)類型轉(zhuǎn)換規(guī)則遵循Java :

隱式轉(zhuǎn)換 --> 小轉(zhuǎn)大

強(qiáng)制轉(zhuǎn)換 --> 大傳小

類型 描述 示例
ARRAY 有序的字段。字符類型必須相同 ARRAY(1,2)
MAP 無序的鍵值對(duì)。建的類型必須是原子的,值可以是任何類型。 Map(‘a(chǎn)’,1,‘b’,2)
STRUCT 一組命名的字段。字段類型可以不同 STRUCT(‘a(chǎn)’,1,1,0)

到此這篇關(guān)于一文了解Hive是什么的文章就介紹到這了

歷史上的今天:

推薦應(yīng)用

發(fā)表評(píng)論

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: