|
|
|
|
公众号矩阵

Hive底层原理:Explain执行计划详解

本节将介绍 explain 的用法及参数介绍,IVE提供了EXPLAIN命令来展示一个查询的执行计划,这个执行计划对于我们了解底层原理,hive 调优,排查数据倾斜等很有帮助。

作者:园陌 来源:五分钟学大数据|2021-02-20 08:40

本文转载自微信公众号「五分钟学大数据」,作者园陌。转载本文请联系五分钟学大数据公众号。

理论

本节将介绍 explain 的用法及参数介绍

HIVE提供了EXPLAIN命令来展示一个查询的执行计划,这个执行计划对于我们了解底层原理,hive 调优,排查数据倾斜等很有帮助

使用语法如下:

EXPLAIN [EXTENDED|CBO|AST|DEPENDENCY|AUTHORIZATION|LOCKS|VECTORIZATION|ANALYZE] query

explain 后面可以跟以下可选参数,注意:这几个可选参数不是 hive 每个版本都支持的

  1. EXTENDED:加上 extended 可以输出有关计划的额外信息。这通常是物理信息,例如文件名。这些额外信息对我们用处不大
  2. CBO:输出由Calcite优化器生成的计划。CBO 从 hive 4.0.0 版本开始支持
  3. AST:输出查询的抽象语法树。AST 在hive 2.1.0 版本删除了,存在bug,转储AST可能会导致OOM错误,将在4.0.0版本修复
  4. DEPENDENCY:dependency在EXPLAIN语句中使用会产生有关计划中输入的额外信息。它显示了输入的各种属性
  5. AUTHORIZATION:显示所有的实体需要被授权执行(如果存在)的查询和授权失败
  6. LOCKS:这对于了解系统将获得哪些锁以运行指定的查询很有用。LOCKS 从 hive 3.2.0 开始支持
  7. VECTORIZATION:将详细信息添加到EXPLAIN输出中,以显示为什么未对Map和Reduce进行矢量化。从 Hive 2.3.0 开始支持
  8. ANALYZE:用实际的行数注释计划。从 Hive 2.2.0 开始支持

在 hive cli 中输入以下命令(hive 2.3.7):

  1. explain select sum(id) from test1; 

得到结果(请逐行看完,即使看不懂也要每行都看):

  1. STAGE DEPENDENCIES: 
  2.   Stage-1 is a root stage 
  3.   Stage-0 depends on stages: Stage-1 
  4.  
  5. STAGE PLANS: 
  6.   Stage: Stage-1 
  7.     Map Reduce 
  8.       Map Operator Tree: 
  9.           TableScan 
  10.             alias: test1 
  11.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  12.             Select Operator 
  13.               expressions: id (type: int
  14.               outputColumnNames: id 
  15.               Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  16.               Group By Operator 
  17.                 aggregations: sum(id) 
  18.                 mode: hash 
  19.                 outputColumnNames: _col0 
  20.                 Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  21.                 Reduce Output Operator 
  22.                   sort order
  23.                   Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  24.                   value expressions: _col0 (type: bigint
  25.       Reduce Operator Tree: 
  26.         Group By Operator 
  27.           aggregations: sum(VALUE._col0) 
  28.           mode: mergepartial 
  29.           outputColumnNames: _col0 
  30.           Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  31.           File Output Operator 
  32.             compressed: false 
  33.             Statistics: Num rows: 1 Data size: 8 Basic stats: COMPLETE Column stats: NONE 
  34.             table
  35.                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  36.                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  37.                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  38.  
  39.   Stage: Stage-0 
  40.     Fetch Operator 
  41.       limit: -1 
  42.       Processor Tree: 
  43.         ListSink 

看完以上内容有什么感受,是不是感觉都看不懂,不要着急,下面将会详细讲解每个参数,相信你学完下面的内容之后再看 explain 的查询结果将游刃有余。

一个HIVE查询被转换为一个由一个或多个stage组成的序列(有向无环图DAG)。这些stage可以是MapReduce stage,也可以是负责元数据存储的stage,也可以是负责文件系统的操作(比如移动和重命名)的stage。

我们将上述结果拆分看,先从最外层开始,包含两个大的部分:

  • stage dependencies: 各个stage之间的依赖性
  • stage plan: 各个stage的执行计划

先看第一部分 stage dependencies ,包含两个 stage,Stage-1 是根stage,说明这是开始的stage,Stage-0 依赖 Stage-1,Stage-1执行完成后执行Stage-0。

再看第二部分 stage plan,里面有一个 Map Reduce,一个MR的执行计划分为两个部分:

  • Map Operator Tree: MAP端的执行计划树
  • Reduce Operator Tree: Reduce端的执行计划树

这两个执行计划树里面包含这条sql语句的 operator:

1.map端第一个操作肯定是加载表,所以就是 TableScan 表扫描操作,常见的属性:

  • alias: 表名称
  • Statistics: 表统计信息,包含表中数据条数,数据大小等

2.Select Operator: 选取操作,常见的属性 :

  • expressions:需要的字段名称及字段类型
  • outputColumnNames:输出的列名称
  • Statistics:表统计信息,包含表中数据条数,数据大小等

3.Group By Operator:分组聚合操作,常见的属性:

  • aggregations:显示聚合函数信息
  • mode:聚合模式,值有 hash:随机聚合,就是hash partition;partial:局部聚合;final:最终聚合
  • keys:分组的字段,如果没有分组,则没有此字段
  • outputColumnNames:聚合之后输出列名
  • Statistics: 表统计信息,包含分组聚合之后的数据条数,数据大小等

4.Reduce Output Operator:输出到reduce操作,常见属性:

  • sort order:值为空 不排序;值为 + 正序排序,值为 - 倒序排序;值为 +- 排序的列为两列,第一列为正序,第二列为倒序

5.Filter Operator:过滤操作,常见的属性:

  • predicate:过滤条件,如sql语句中的where id>=1,则此处显示(id >= 1)

6.Map Join Operator:join 操作,常见的属性:

  • condition map:join方式 ,如Inner Join 0 to 1 Left Outer Join0 to 2
  • keys: join 的条件字段
  • outputColumnNames: join 完成之后输出的字段
  • Statistics: join 完成之后生成的数据条数,大小等

7.File Output Operator:文件输出操作,常见的属性

  • compressed:是否压缩
  • table:表的信息,包含输入输出文件格式化方式,序列化方式等

8.Fetch Operator 客户端获取数据操作,常见的属性:

  • limit,值为 -1 表示不限制条数,其他值为限制的条数

好,学到这里再翻到上面 explain 的查询结果,是不是感觉基本都能看懂了。

实践

本节介绍 explain 能够为我们在生产实践中带来哪些便利及解决我们哪些迷惑

1. join 语句会过滤 null 的值吗?

现在,我们在hive cli 输入以下查询计划语句

  1. select a.id,b.user_name from test1 a join test2 b on a.id=b.id; 

问:上面这条 join 语句会过滤 id 为 null 的值吗

执行下面语句:

  1. explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id; 

我们来看结果 (为了适应页面展示,仅截取了部分输出信息):

  1. TableScan 
  2.  alias: a 
  3.  Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  4.  Filter Operator 
  5.     predicate: id is not null (type: boolean) 
  6.     Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  7.     Select Operator 
  8.         expressions: id (type: int
  9.         outputColumnNames: _col0 
  10.         Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  11.         HashTable Sink Operator 
  12.            keys: 
  13.              0 _col0 (type: int
  14.              1 _col0 (type: int
  15.  ... 

从上述结果可以看到 predicate: id is not null 这样一行,说明 join 时会自动过滤掉关联字段为 null 值的情况,但 left join 或 full join 是不会自动过滤的,大家可以自行尝试下。

2. group by 分组语句会进行排序吗?

看下面这条sql

  1. select id,max(user_name) from test1 group by id; 

问:group by 分组语句会进行排序吗

直接来看 explain 之后结果 (为了适应页面展示,仅截取了部分输出信息)

  1. TableScan 
  2.    alias: test1 
  3.    Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  4.    Select Operator 
  5.        expressions: id (type: int), user_name (type: string) 
  6.        outputColumnNames: id, user_name 
  7.        Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  8.        Group By Operator 
  9.           aggregations: max(user_name) 
  10.           keys: id (type: int
  11.           mode: hash 
  12.           outputColumnNames: _col0, _col1 
  13.           Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  14.           Reduce Output Operator 
  15.             key expressions: _col0 (type: int
  16.             sort order: + 
  17.             Map-reduce partition columns: _col0 (type: int
  18.             Statistics: Num rows: 9 Data size: 108 Basic stats: COMPLETE Column stats: NONE 
  19.             value expressions: _col1 (type: string) 
  20. ... 

我们看 Group By Operator,里面有 keys: id (type: int) 说明按照 id 进行分组的,再往下看还有 sort order: + ,说明是按照 id 字段进行正序排序的。

3. 哪条sql执行效率高呢?

观察两条sql语句

  1. SELECT 
  2.     a.id, 
  3.     b.user_name 
  4. FROM 
  5.     test1 a 
  6. JOIN test2 b ON a.id = b.id 
  7. WHERE 
  8.     a.id > 2; 
  9. SELECT 
  10.     a.id, 
  11.     b.user_name 
  12. FROM 
  13.     (SELECT * FROM test1 WHERE id > 2) a 
  14. JOIN test2 b ON a.id = b.id; 

这两条sql语句输出的结果是一样的,但是哪条sql执行效率高呢

有人说第一条sql执行效率高,因为第二条sql有子查询,子查询会影响性能

有人说第二条sql执行效率高,因为先过滤之后,在进行join时的条数减少了,所以执行效率就高了

到底哪条sql效率高呢,我们直接在sql语句前面加上 explain,看下执行计划不就知道了嘛

在第一条sql语句前加上 explain,得到如下结果

  1. hive (default)> explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id where a.id >2; 
  2. OK 
  3. Explain 
  4. STAGE DEPENDENCIES: 
  5.   Stage-4 is a root stage 
  6.   Stage-3 depends on stages: Stage-4 
  7.   Stage-0 depends on stages: Stage-3 
  8.  
  9. STAGE PLANS: 
  10.   Stage: Stage-4 
  11.     Map Reduce Local Work 
  12.       Alias -> Map Local Tables: 
  13.         $hdt$_0:a 
  14.           Fetch Operator 
  15.             limit: -1 
  16.       Alias -> Map Local Operator Tree: 
  17.         $hdt$_0:a 
  18.           TableScan 
  19.             alias: a 
  20.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  21.             Filter Operator 
  22.               predicate: (id > 2) (type: boolean) 
  23.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  24.               Select Operator 
  25.                 expressions: id (type: int
  26.                 outputColumnNames: _col0 
  27.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  28.                 HashTable Sink Operator 
  29.                   keys: 
  30.                     0 _col0 (type: int
  31.                     1 _col0 (type: int
  32.  
  33.   Stage: Stage-3 
  34.     Map Reduce 
  35.       Map Operator Tree: 
  36.           TableScan 
  37.             alias: b 
  38.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  39.             Filter Operator 
  40.               predicate: (id > 2) (type: boolean) 
  41.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  42.               Select Operator 
  43.                 expressions: id (type: int), user_name (type: string) 
  44.                 outputColumnNames: _col0, _col1 
  45.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  46.                 Map Join Operator 
  47.                   condition map: 
  48.                        Inner Join 0 to 1 
  49.                   keys: 
  50.                     0 _col0 (type: int
  51.                     1 _col0 (type: int
  52.                   outputColumnNames: _col0, _col2 
  53.                   Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  54.                   Select Operator 
  55.                     expressions: _col0 (type: int), _col2 (type: string) 
  56.                     outputColumnNames: _col0, _col1 
  57.                     Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  58.                     File Output Operator 
  59.                       compressed: false 
  60.                       Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  61.                       table
  62.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  63.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  64.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  65.       Local Work
  66.         Map Reduce Local Work 
  67.  
  68.   Stage: Stage-0 
  69.     Fetch Operator 
  70.       limit: -1 
  71.       Processor Tree: 
  72.         ListSink 

在第二条sql语句前加上 explain,得到如下结果

  1. hive (default)> explain select a.id,b.user_name from(select * from  test1 where id>2 ) a join test2 b on a.id=b.id; 
  2. OK 
  3. Explain 
  4. STAGE DEPENDENCIES: 
  5.   Stage-4 is a root stage 
  6.   Stage-3 depends on stages: Stage-4 
  7.   Stage-0 depends on stages: Stage-3 
  8.  
  9. STAGE PLANS: 
  10.   Stage: Stage-4 
  11.     Map Reduce Local Work 
  12.       Alias -> Map Local Tables: 
  13.         $hdt$_0:test1 
  14.           Fetch Operator 
  15.             limit: -1 
  16.       Alias -> Map Local Operator Tree: 
  17.         $hdt$_0:test1 
  18.           TableScan 
  19.             alias: test1 
  20.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  21.             Filter Operator 
  22.               predicate: (id > 2) (type: boolean) 
  23.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  24.               Select Operator 
  25.                 expressions: id (type: int
  26.                 outputColumnNames: _col0 
  27.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  28.                 HashTable Sink Operator 
  29.                   keys: 
  30.                     0 _col0 (type: int
  31.                     1 _col0 (type: int
  32.  
  33.   Stage: Stage-3 
  34.     Map Reduce 
  35.       Map Operator Tree: 
  36.           TableScan 
  37.             alias: b 
  38.             Statistics: Num rows: 6 Data size: 75 Basic stats: COMPLETE Column stats: NONE 
  39.             Filter Operator 
  40.               predicate: (id > 2) (type: boolean) 
  41.               Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  42.               Select Operator 
  43.                 expressions: id (type: int), user_name (type: string) 
  44.                 outputColumnNames: _col0, _col1 
  45.                 Statistics: Num rows: 2 Data size: 25 Basic stats: COMPLETE Column stats: NONE 
  46.                 Map Join Operator 
  47.                   condition map: 
  48.                        Inner Join 0 to 1 
  49.                   keys: 
  50.                     0 _col0 (type: int
  51.                     1 _col0 (type: int
  52.                   outputColumnNames: _col0, _col2 
  53.                   Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  54.                   Select Operator 
  55.                     expressions: _col0 (type: int), _col2 (type: string) 
  56.                     outputColumnNames: _col0, _col1 
  57.                     Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  58.                     File Output Operator 
  59.                       compressed: false 
  60.                       Statistics: Num rows: 2 Data size: 27 Basic stats: COMPLETE Column stats: NONE 
  61.                       table
  62.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat 
  63.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat 
  64.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe 
  65.       Local Work
  66.         Map Reduce Local Work 
  67.  
  68.   Stage: Stage-0 
  69.     Fetch Operator 
  70.       limit: -1 
  71.       Processor Tree: 
  72.         ListSink 

大家有什么发现,除了表别名不一样,其他的执行计划完全一样,都是先进行 where 条件过滤,在进行 join 条件关联。说明 hive 底层会自动帮我们进行优化,所以这两条sql语句执行效率是一样的。

最后

以上仅列举了3个我们生产中既熟悉又有点迷糊的例子,explain 还有很多其他的用途,如查看stage的依赖情况、排查数据倾斜、hive 调优等,小伙伴们可以自行尝试。

【编辑推荐】

  1. hive基础
  2. Hive开发入门+原理+案例学习教程
  3. 你会Hive表的基本操作吗?
  4. 6期大数据之数据仓库工具Hive教程(讲理论还讲实操)
  5. Hive动态分区详解,你知道吗?
【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

订阅专栏+更多

数据湖与数据仓库的分析实践攻略

数据湖与数据仓库的分析实践攻略

助力现代化数据管理:数据湖与数据仓库的分析实践攻略
共3章 | 创世达人

6人订阅学习

云原生架构实践

云原生架构实践

新技术引领移动互联网进入急速赛道
共3章 | KaliArch

33人订阅学习

数据中心和VPDN网络建设案例

数据中心和VPDN网络建设案例

漫画+案例
共20章 | 捷哥CCIE

220人订阅学习

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微