-
sql语句大全之Hive SQL的优化
本章只是从HQL层面介绍一下,日常开发HQL中需要注意的一些优化点,不涉及Hadoop层面的参数、配置等优化。
1 使用分区剪裁、列剪裁
在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。
在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤,比如:
SELECT a.id
FROM lxw1234_a a
left outer joint_lxw1234_partitioned b
ON (a.id = b.url);
WHEREb.day = ‘2015-05-10′
正确的写法是写在ON后面:
SELECT a.id
FROM lxw1234_a a
left outer joint_lxw1234_partitioned b
ON (a.id =b.url AND b.day = ‘2015-05-10′);
或者直接写成子查询:
SELECT a.id
FROM lxw1234_a a
left outer join(SELECT url FROM t_lxw1234_partitioned WHERE day = ‘2015-05-10′) b
ON (a.id = b.url)
2 少用COUNTDISTINCT
数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换:
SELECT day,
COUNT(DISTINCT id)AS uv
FROM lxw1234
GROUP BY day
可以转换成:
SELECT day,
COUNT(id) AS uv
FROM (SELECTday,id FROM lxw1234 GROUP BY day,id) a
GROUP BY day;
虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。
3 是否存在多对多的关联
只要遇到表关联,就必须得调研一下,是否存在多对多的关联,起码得保证有一个表或者结果集的关联键不重复。
如果某一个关联键的记录数非常多,那么分配到该Reduce Task中的数据量将非常大,导致整个Job很难完成,甚至根本跑不出来。
还有就是避免笛卡尔积,同理,如果某一个键的数据量非常大,也是很难完成Job的。
4 合理使用MapJoin
关于MapJoin的原理和机制,请参考 [一起学Hive]之十 。
MapJoin中小表的大小可以用参数来调节。
5 合理使用Union All
对同一张表的union all 要比多重insert快的多,
原因是hive本身对这种union all做过优化,即只扫描一次源表;
而多重insert也只扫描一次,但因为要insert到多个分区,所以做了很多其他的事情,导致消耗的时间非常长;
希望大家在开发的时候多测,多试!
lxw_test3 12亿左右记录数
Union all : 耗时7分钟左右
Java代码
1. create table lxw_test5 as
2. select type,popt_id,login_date
3. from (
4. select 'm3_login' as type,popt_id,login_date
5. from lxw_test3
6. where login_date>='2012-02-01' and login_date<'2012-05-01'
7. union all
8. select 'mn_login' as type,popt_id,login_date
9. from lxw_test3
10. where login_date>='2012-05-01' and login_date<='2012-05-09'
11. union all
12. select 'm3_g_login' as type,popt_id,login_date
13. from lxw_test3
14. where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='1'
15. union all
16. select 'm3_l_login' as type,popt_id,login_date
17. from lxw_test3
18. where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='2'
19. union all
20. select 'm3_s_login' as type,popt_id,login_date
21. from lxw_test3
22. where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='3'
23. union all
24. select 'm3_o_login' as type,popt_id,login_date
25. from lxw_test3
26. where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='4'
27. union all
28. select 'mn_g_login' as type,popt_id,login_date
29. from lxw_test3
30. where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='1'
31. union all
32. select 'mn_l_login' as type,popt_id,login_date
33. from lxw_test3
34. where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='2'
35. union all
36. select 'mn_s_login' as type,popt_id,login_date
37. from lxw_test3
38. where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='3'
39. union all
40. select 'mn_o_login' as type,popt_id,login_date
41. from lxw_test3
42. where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='4'
43.) x
多重insert耗时25分钟左右:
Java代码
1. from lxw_test3
2. insert overwrite table lxw_test6 partition (flag = '1')
3. select 'm3_login' as type,popt_id,login_date
4. where login_date>='2012-02-01' and login_date<'2012-05-01'
5. insert overwrite table lxw_test6 partition (flag = '2')
6. select 'mn_login' as type,popt_id,login_date
7. where login_date>='2012-05-01' and login_date<='2012-05-09'
8. insert overwrite table lxw_test6 partition (flag = '3')
9. select 'm3_g_login' as type,popt_id,login_date
10.where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='1'
11.insert overwrite table lxw_test6 partition (flag = '4')
12.select 'm3_l_login' as type,popt_id,login_date
13.where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='2'
14.insert overwrite table lxw_test6 partition (flag = '5')
15.select 'm3_s_login' as type,popt_id,login_date
16.where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='3'
17.insert overwrite table lxw_test6 partition (flag = '6')
18.select 'm3_o_login' as type,popt_id,login_date
19.where login_date>='2012-02-01' and login_date<'2012-05-01' and apptypeid='4'
20.insert overwrite table lxw_test6 partition (flag = '7')
21.select 'mn_g_login' as type,popt_id,login_date
22.where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='1'
23.insert overwrite table lxw_test6 partition (flag = '8')
24.select 'mn_l_login' as type,popt_id,login_date
25.where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='2'
26.insert overwrite table lxw_test6 partition (flag = '9')
27.select 'mn_s_login' as type,popt_id,login_date
28.where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='3'
29.insert overwrite table lxw_test6 partition (flag = '10')
30.select 'mn_o_login' as type,popt_id,login_date
31.where login_date>='2012-05-01' and login_date<='2012-05-09' and apptypeid='4' 我的博客
6 并行执行Job
用过oracle rac的应该都知道parallel的用途。
并行执行的确可以大的加快任务的执行速率,但不会减少其占用的资源。
set hive.exec.parallel=true; //打开任务并行执行
set hive.exec.parallel.thread.number=16;//同一个sql允许最大并行度,默认为8。
对于同一个SQL产生的JOB,如果不存在依赖的情况下,将会并行启动JOB,
比如:
Sql代码
1. from (
2. select phone,to_phone, substr(to_phone,-1) as key
3. from youni_contact4_lxw
4. where youni_id='1'
5. and length(to_phone) = 11
6. and substr(to_phone,1,2) IN ('13','14','15','18')
7. group by phone,to_phone, substr(to_phone,-1)
8. ) t
9. insert overwrite table youni_contact41_lxw partition(pt='0')
10.select phone,to_phone where key='0'
11.insert overwrite table youni_contact41_lxw partition(pt='1')
12.select phone,to_phone where key='1'
13.insert overwrite table youni_contact41_lxw partition(pt='2')
14.select phone,to_phone where key='2'
15.insert overwrite table youni_contact41_lxw partition(pt='3')
16.select phone,to_phone where key='3'
17.insert overwrite table youni_contact41_lxw partition(pt='4')
18.select phone,to_phone where key='4'
19.insert overwrite table youni_contact41_lxw partition(pt='5')
20.select phone,to_phone where key='5'
21.insert overwrite table youni_contact41_lxw partition(pt='6')
22.select phone,to_phone where key='6'
23.insert overwrite table youni_contact41_lxw partition(pt='7')
24.select phone,to_phone where key='7'
25.insert overwrite table youni_contact41_lxw partition(pt='8')
26.select phone,to_phone where key='8'
27.insert overwrite table youni_contact41_lxw partition(pt='9')
28.select phone,to_phone where key='9';
该SQL产生11个job,第一个job为生成临时表的job,后续job都依赖它,这时不会有并行启动,
第一个job完成后,后续的job都会并行启动。
运行时间比较:
不启用并行:35分钟
启用8个并行:10分钟
启用16个并行:6分钟
当然,得是在系统资源比较空闲的时候才有优势,否则,没资源,并行也起不来。
7 使用本地MR
如果在hive中运行的sql本身数据量很小,那么使用本地mr的效率要比提交到Hadoop集群中运行快很多。
比如:
Sql代码
1. hive> select 1 from dual;
2. Total MapReduce jobs = 1
3. Launching Job 1 out of 1
4. Number of reduce tasks is set to 0 since there's no reduce operator
5. Starting Job = job_201208151631_2040444, Tracking URL = http://jt.dc.sh-wgq.sdo.com:50030/jobdetails.jsp?jobid=job_201208151631_2040444
6. Kill Command = /home/hdfs/hadoop-current/bin/hadoop job -Dmapred.job.tracker=10.133.10.103:50020 -kill job_201208151631_2040444
7. 2012-10-23 10:55:17,646 Stage-1 map = 0%, reduce = 0%
8. 2012-10-23 10:55:27,807 Stage-1 map = 100%, reduce = 0%
9. Ended Job = job_201208151631_2040444
10.OK
11.1
12.Time taken: 17.853 seconds
set hive.exec.mode.local.auto=true; //开启本地mr
//设置local mr的最大输入数据量,当输入数据量小于这个值的时候会采用local mr的方式
sethive.exec.mode.local.auto.inputbytes.max=50000000;
//设置local mr的最大输入文件个数,当输入文件个数小于这个值的时候会采用local mr的方式
sethive.exec.mode.local.auto.tasks.max=10;
当这三个参数同时成立时候,才会采用本地mr
Sql代码
1. hive> select 1 from dual;
2. Total MapReduce jobs = 1
3. Launching Job 1 out of 1
4. Number of reduce tasks is set to 0 since there's no reduce operator
5. Execution log at: /tmp/liuxiaowen/liuxiaowen_20121023105757_31c966be-ee79-4c23-a467-648290b338ac.log
6. Job running in-process (local Hadoop)
7. 2012-10-23 10:58:03,728 null map = 100%, reduce = 0%
8. Ended Job = job_local_0001
9. OK
10.1
11.Time taken: 4.842 seconds
8 合理使用动态分区
关系型数据库(如Oracle)中,对分区表Insert数据时候,数据库自动会根据分区字段的值,将数据插入到相应的分区中,Hive中也提供了类似的机制,即动态分区(Dynamic Partition),只不过,使用Hive的动态分区,需要进行相应的配置。
先看一个应用场景,源表t_lxw1234的数据如下:
1.
2.SELECT day,url FROM t_lxw1234;
3.2015-05-10 url1
4.2015-05-10 url2
5.2015-06-14 url1
6.2015-06-14 url2
7.2015-06-15 url1
8.2015-06-15 url2
9.……
10.
目标表为:
1.
2.CREATE TABLEt_lxw1234_partitioned (
3.url STRING
4.) PARTITIONED BY (month STRING,day STRING)
5.stored AS textfile;
6.
需求:将t_lxw1234中的数据按照时间(day),插入到目标表t_lxw1234_partitioned的相应分区中。
如果按照之前介绍的往指定一个分区中Insert数据,那么这个需求很不容易实现。
这时候就需要使用动态分区来实现,使用动态分区需要注意设定以下参数:
· hive.exec.dynamic.partition
默认值:false
是否开启动态分区功能,默认false关闭。
使用动态分区时候,该参数必须设置成true;
· hive.exec.dynamic.partition.mode
默认值:strict
动态分区的模式,默认strict,表示必须指定至少一个分区为静态分区,nonstrict模式表示允许所有的分区字段都可以使用动态分区。
一般需要设置为nonstrict
· hive.exec.max.dynamic.partitions.pernode
默认值:100
在每个执行MR的节点上,最大可以创建多少个动态分区。
该参数需要根据实际的数据来设定。
比如:源数据中包含了一年的数据,即day字段有365个值,那么该参数就需要设置成大于365,如果使用默认值100,则会报错。
· hive.exec.max.dynamic.partitions
默认值:1000
在所有执行MR的节点上,最大一共可以创建多少个动态分区。
同上参数解释。
· hive.exec.max.created.files
默认值:100000
整个MR Job中,最大可以创建多少个HDFS文件。
一般默认值足够了,除非你的数据量非常大,需要创建的文件数大于100000,可根据实际情况加以调整。
· hive.error.on.empty.partition
默认值:false
当有空分区生成时,是否抛出异常。
一般不需要设置。
那么,上面的需求可以使用如下的语句来完成:
1.
2.SET hive.exec.dynamic.partition=true;
3.SET hive.exec.dynamic.partition.mode=nonstrict;
4.SET hive.exec.max.dynamic.partitions.pernode =1000;
5.SET hive.exec.max.dynamic.partitions=1000;
6.
7.INSERT overwrite TABLEt_lxw1234_partitioned PARTITION (month,da y)
8.SELECT url,substr(day,1,7) AS month,day FROM t_lxw1234;
注意:在PARTITION (month,day)中指定分区字段名即可;
在SELECT子句的最后两个字段,必须对应前面PARTITION(month,day)中指定的分区字段,包括顺序。
执行结果如下:
Loading data totable liuxiaowen.t_lxw1234_partitioned partition (month=null, day=null)
Loading partition{month=2015-05, day=2015-05-10}
Loading partition{month=2015-06, day=2015-06-14}
Loading partition{month=2015-06, day=2015-06-15}
Partitionliuxiaowen.t_lxw1234_partitioned{month=2015-05, day=2015-05-10} stats:[numFiles=1, numRows=2, totalSize=10, rawDataSize=8]
Partitionliuxiaowen.t_lxw1234_partitioned{month=2015-06, day=2015-06-14} stats:[numFiles=1, numRows=2, totalSize=10, rawDataSize=8]
Partitionliuxiaowen.t_lxw1234_partitioned{month=2015-06, day=2015-06-15} stats:[numFiles=1, numRows=2, totalSize=10, rawDataSize=8]
使用showpartitions t_lxw1234_partitioned;查看目标表有哪些分区:
hive> showpartitions t_lxw1234_partitioned;
OK
month=2015-05/day=2015-05-10
month=2015-06/day=2015-06-14
month=2015-06/day=2015-06-15
9 避免数据倾斜
数据倾斜是Hive开发中对性能影响的一大杀手。
· 症状:
任务进度长时间维持在99%(或100%);
查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。
本地读写数据量很大。
· 导致数据倾斜的操作:
GROUP BY, COUNTDISTINCT, join
· 原因:
key分布不均匀
业务数据本身特点
这里列出一些常用的数据倾斜解决办法:
1. 使用COUNT DISTINCT和GROUP BY造成的数据倾斜:
存在大量空值或NULL,或者某一个值的记录特别多,可以先把该值过滤掉,在最后单独处理:
SELECTCAST(COUNT(DISTINCT imei)+1 AS bigint)
FROM lxw1234 wherept = ‘2012-05-28′
AND imei <>‘lxw1234′ ;
比如某一天的IMEI值为’lxw1234’的特别多,当我要统计总的IMEI数,可以先统计不为’lxw1234’的,之后再加1.
多重COUNT DISTINCT
通常使用UNION ALL +ROW_NUMBER() + SUM + GROUP BY来变通实现。
2. 使用JOIN引起的数据倾斜
关联键存在大量空值或者某一特殊值,如”NULL”
空值单独处理,不参与关联;
空值或特殊值加随机数作为关联键;
不同数据类型的字段关联
转换为同一数据类型之后再做关联
10 控制Map数和Reduce数
一、 控制hive任务中的map数:
1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。
主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);
2. 举例:
a) 假设input目录下有1个文件a,大小为780M,那么hadoop会将该文件a分隔成7个块(6个128m的块和1个12m的块),从而产生7个map数
b) 假设input目录下有3个文件a,b,c,大小分别为10m,20m,130m,那么hadoop会分隔成4个块(10m,20m,128m,2m),从而产生4个map数
即,如果文件大于块大小(128m),那么会拆分,如果小于块大小,则把该文件当成一个块。
3. 是不是map数越多越好?
答案是否定的。如果一个任务有很多小文件(远远小于块大小128m),则每个小文件也会被当做一个块,用一个map任务来完成,
而一个map任务启动和初始化的时间远远大于逻辑处理的时间,就会造成很大的资源浪费。
而且,同时可执行的map数是受限的。
4. 是不是保证每个map处理接近128m的文件块,就高枕无忧了?
答案也是不一定。比如有一个127m的文件,正常会用一个map去完成,但这个文件只有一个或者两个小字段,却有几千万的记录,
如果map处理的逻辑比较复杂,用一个map任务去做,肯定也比较耗时。
针对上面的问题3和4,我们需要采取两种方式来解决:即减少map数和增加map数;
如何合并小文件,减少map数?
假设一个SQL任务:
Select count(1) from popt_tbaccountcopy_mes where pt = ‘2012-07-04’;
该任务的inputdir /group/p_sdo_data/p_sdo_data_etl/pt/popt_tbaccountcopy_mes/pt=2012-07-04
共有194个文件,其中很多是远远小于128m的小文件,总大小9G,正常执行会用194个map任务。
Map总共消耗的计算资源: SLOTS_MILLIS_MAPS= 623,020
我通过以下方法来在map执行前合并小文件,减少map数:
set mapred.max.split.size=100000000;
set mapred.min.split.size.per.node=100000000;
set mapred.min.split.size.per.rack=100000000;
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
再执行上面的语句,用了74个map任务,map消耗的计算资源:SLOTS_MILLIS_MAPS= 333,500
对于这个简单SQL任务,执行时间上可能差不多,但节省了一半的计算资源。
大概解释一下,100000000表示100M, sethive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;这个参数表示执行前进行小文件合并,
前面三个参数确定合并文件块的大小,大于文件块大小128m的,按照128m来分隔,小于128m,大于100m的,按照100m来分隔,把那些小于100m的(包括小文件和分隔大文件剩下的),
进行合并,最终生成了74个块。
如何适当的增加map数?
当input的文件都很大,任务逻辑复杂,map执行非常慢的时候,可以考虑增加Map数,来使得每个map处理的数据量减少,从而提高任务的执行效率。
假设有这样一个任务:
Select data_desc,
count(1),
count(distinct id),
sum(case when …),
sum(case when …),
sum(…)
from a group by data_desc
如果表a只有一个文件,大小为120M,但包含几千万的记录,如果用1个map去完成这个任务,肯定是比较耗时的,这种情况下,我们要考虑将这一个文件合理的拆分成多个,
这样就可以用多个map任务去完成。
set mapred.reduce.tasks=10;
create table a_1 as
select * from a
distribute by rand(123);
这样会将a表的记录,随机的分散到包含10个文件的a_1表中,再用a_1代替上面sql中的a表,则会用10个map任务去完成。
每个map任务处理大于12M(几百万记录)的数据,效率肯定会好很多。
看上去,貌似这两种有些矛盾,一个是要合并小文件,一个是要把大文件拆成小文件,这点正是重点需要关注的地方,
根据实际情况,控制map数量需要遵循两个原则:使大数据量利用合适的map数;使单个map任务处理合适的数据量;
二、 控制hive任务的reduce数:
1. Hive自己如何确定reduce数:
reduce个数的设定极大影响任务执行效率,不指定reduce个数的情况下,Hive会猜测确定一个reduce个数,基于以下两个设定:
hive.exec.reducers.bytes.per.reducer(每个reduce任务处理的数据量,默认为1000^3=1G)
hive.exec.reducers.max(每个任务最大的reduce数,默认为999)
计算reducer数的公式很简单N=min(参数2,总输入数据量/参数1)
即,如果reduce的输入(map的输出)总大小不超过1G,那么只会有一个reduce任务;
如:select pt,count(1) from popt_tbaccountcopy_mes wherept = ‘2012-07-04′ group by pt;
/group/p_sdo_data/p_sdo_data_etl/pt/popt_tbaccountcopy_mes/pt=2012-07-04 总大小为9G多,因此这句有10个reduce
2. 调整reduce个数方法一:
调整hive.exec.reducers.bytes.per.reducer参数的值;
set hive.exec.reducers.bytes.per.reducer=500000000; (500M)
select pt,count(1) from popt_tbaccountcopy_mes where pt = ‘2012-07-04′ group bypt; 这次有20个reduce
3. 调整reduce个数方法二;
set mapred.reduce.tasks = 15;
select pt,count(1) from popt_tbaccountcopy_mes where pt = ‘2012-07-04′ group bypt;这次有15个reduce
4. reduce个数并不是越多越好;
同map一样,启动和初始化reduce也会消耗时间和资源;
另外,有多少个reduce,就会有多少个输出文件,如果生成了很多个小文件,那么如果这些小文件作为下一个任务的输入,则也会出现小文件过多的问题;
5. 什么情况下只有一个reduce;
很多时候你会发现任务中不管数据量多大,不管你有没有设置调整reduce个数的参数,任务中一直都只有一个reduce任务;
其实只有一个reduce任务的情况,除了数据量小于hive.exec.reducers.bytes.per.reducer参数值的情况外,还有以下原因:
a) 没有group by的汇总,比如把select pt,count(1) from popt_tbaccountcopy_mes where pt =‘2012-07-04′ group by pt; 写成 select count(1) frompopt_tbaccountcopy_mes where pt = ‘2012-07-04′;
这点非常常见,希望大家尽量改写。
b) 用了Order by
c) 有笛卡尔积
通常这些情况下,除了找办法来变通和避免,我暂时没有什么好的办法,因为这些操作都是全局的,所以hadoop不得不用一个reduce去完成;
同样的,在设置reduce个数的时候也需要考虑这两个原则:使大数据量利用合适的reduce数;使单个reduce任务处理合适的数据量;
待研究:
map的数量通常是由hadoop集群的DFS块大小确定的,也就是输入文件的总块数,正常的map数量的并行规模大致是每一个Node是 10~100个,对于CPU消耗较小的作业可以设置Map数量为300个左右,但是由于hadoop的没一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。具体的数据分片是这样的,InputFormat在默认情况下会根据hadoop集群的DFS块大小进行分 片,每一个分片会由一个map任务来进行处理,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设 置。还有一个重要参数就是mapred.map.tasks,这个参数设置的map数量仅仅是一个提示,只有当InputFormat 决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,Map任务的个数也能通过使用JobConf 的conf.setNumMapTasks(int num)方法来手动地设置。这个方法能够用来增加map任务的个数,但是不能设定任务的个数小于Hadoop系统通过分割输入数据得到的值。当然为了提高集群的并发效率,可以设置一个默认的map数量,当用户的map数量较小或者比本身自动分割的值还小时可以使用一个相对交大的默认值,从而提高整体 hadoop集群的效率。
11 中间结果压缩
中间Lzo,最终Gzip
Java代码
1. set mapred.output.compress = true;
2. set mapred.output.compression.codec = org.apache.hadoop.io.compress.GzipCodec;
3. set mapred.output.compression.type = BLOCK;
4.
5. set mapred.compress.map.output = true;
6. set mapred.map.output.compression.codec = org.apache.hadoop.io.compress.LzoCodec;
7.
8.
9. set hive.exec.compress.output = true;
10.set hive.exec.compress.intermediate = true;
11.set hive.intermediate.compression.codec = org.apache.hadoop.io.compress.LzoCodec;
中间Lzo,最终结果不压缩
Java代码
1. set mapred.output.compress = true;
2. set mapred.output.compression.codec = org.apache.hadoop.io.compress.LzoCodec;
3. set mapred.output.compression.type = BLOCK;
4.
5. set mapred.compress.map.output = true;
6. set mapred.map.output.compression.codec = org.apache.hadoop.io.compress.LzoCodec;
7.
8.
9. set hive.exec.compress.intermediate = true;
10.set hive.intermediate.compression.codec = org.apache.hadoop.io.compress.LzoCodec;
12 其他
· 在MapReduce的WEB界面上,关注Hive Job执行的情况;
· 了解HQL ->MapReduce的过程;
· HQL优化其实也是MapReduce的优化,作为分布式计算模型,其最核心的地方就是要确保每个节点上分布的数据均匀,才能最大程度发挥它的威力,否则,某一个不均匀的节点就会拖后腿。