spark数据倾斜及解决方案
1.什么是数据倾斜
对 Spark/Hadoop 这样的分布式大数据系统来讲,数据量大并不可怕,可怕的是数据倾斜。
对于分布式系统而言,理想情况下,随着系统规模(节点数量)的增加,应用整体耗时线性下降。如果一台机器处理一批大量数据需要120分钟,当机器数量增加到3台时,理想的耗时为120 / 3 = 40分钟。但是,想做到分布式情况下每台机器执行时间是单机时的1 / N,就必须保证每台机器的任务量相等。不幸的是,很多时候,任务的分配是不均匀的,甚至不均匀到大部分任务被分配到个别机器上,其它大部分机器所分配的任务量只占总得的小部分。比如一台机器负责处理 80% 的任务,另外两台机器各处理 10% 的任务。
『不患多而患不均』,这是分布式环境下最大的问题。意味着计算能力不是线性扩展的,而是存在短板效应: 一个Stage所耗费的时间,是由最慢的那个Task决定。
由于同一个Stage内的所有task执行相同的计算,在排除不同计算节点计算能力差异的前提下,不同task之间耗时的差异主要由该task所处理的数据量决定。所以,要想发挥分布式系统并行计算的优势,就必须解决数据倾斜问题。
2.数据倾斜的危害
当出现数据倾斜时,小量任务耗时远高于其它任务,从而使得整体耗时过大,未能充分发挥分布式系统的并行计算优势。
另外,当发生数据倾斜时,部分任务处理的数据量过大,可能造成内存不足使得任务失败,并进而引进整个应用失败。
3.数据倾斜的现象
当发现如下现象时,十有八九是发生数据倾斜了:
- 绝大多数 task 执行得都非常快,但个别 task 执行极慢,整体任务卡在某个阶段不能结束。
- 原本能够正常执行的 Spark 作业,某天突然报出 OOM(内存溢出)异常,观察异常栈,是我们写的业务代码造成的。这种情况比较少见。
提示
在 Spark streaming 程序中,数据倾斜更容易出现,特别是在程序中包含一些类似 sql 的 join、group 这种操作的时候。 因为 Spark Streaming 程序在运行的时候,我们一般不会分配特别多的内存,因此一旦在这个过程中出现一些数据倾斜,就十分容易造成 OOM。
4.数据倾斜的原因
在进行 shuffle 的时候,必须将各个节点上相同的 key 拉取到某个节点上的一个 task 来进行处理,比如按照 key 进行聚合或 join 等操作。此时如果某个 key 对应的数据量特别大的话,就会发生数据倾斜。
比如大部分 key 对应10条数据,但是个别 key 却对应了100万条数据,那么大部分 task 可能就只会分配到10条数据,然后1秒钟就运行完了;但是个别 task 可能分配到了100万数据,要运行一两个小时。
因此出现数据倾斜的时候,Spark 作业看起来会运行得非常缓慢,甚至可能因为某个 task 处理的数据量过大导致内存溢出。
5.问题发现与定位
5-1.Spark Web UI
通过 Spark Web UI 来查看当前运行的 stage 各个 task 分配的数据量(Shuffle Read Size/Records),从而进一步确定是不是 task 分配的数据不均匀导致了数据倾斜。
知道数据倾斜发生在哪一个 stage 之后,接着我们就需要根据 stage 划分原理,推算出来发生倾斜的那个 stage 对应代码中的哪一部分,这部分代码中肯定会有一个 shuffle 类算子。可以通过 countByKey 查看各个 key 的分布。
提示
数据倾斜只会发生在 shuffle 过程中。这里给大家罗列一些常用的并且可能会触发 shuffle 操作的算子: distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition 等。 出现数据倾斜时,可能就是你的代码中使用了这些算子中的某一个所导致的。
5-2.通过key统计
也可以通过抽样统计key的出现次数验证。
由于数据量巨大,可以采用抽样的方式,对数据进行抽样,统计出现的次数,根据出现次数大小排序取出前几个:
df.select("key").sample(false, 0.1) // 数据采样
.(k => (k, 1)).reduceBykey(_ + _) // 统计 key 出现的次数
.map(k => (k._2, k._1)).sortByKey(false) // 根据 key 出现次数进行排序
.take(10) // 取前 10 个。
如果发现多数数据分布都较为平均,而个别数据比其他数据大上若干个数量级,则说明发生了数据倾斜。
6.如何缓解数据倾斜
6-1.基本思路
主要从三个方面来考虑:
- 业务逻辑:
我们从业务逻辑的层面上来优化数据倾斜,比如要统计不同城市的订单情况,那么我们单独对这一线城市来做count,最后和其它城市做整合。
- 程序实现:
比如说在 Hive 中,经常遇到 count(distinct)操作,这样会导致最终只有一个 reduce,我们可以先 group 再在外面包一层 count,就可以了;在 Spark 中使用 reduceByKey 替代 groupByKey 等。
- 参数调优:
Hadoop 和 Spark 都自带了很多的参数和机制来调节数据倾斜,合理利用它们就能解决大部分问题。
6-2.思路1-过滤异常数据
如果导致数据倾斜的 key 是异常数据,那么简单的过滤掉就可以了。
首先要对 key 进行分析,判断是哪些 key 造成数据倾斜。具体方法上面已经介绍过了,这里不赘述。
然后对这些 key 对应的记录进行分析:
- 空值或者异常值之类的,大多是这个原因引起
- 无效数据,大量重复的测试数据或是对结果影响不大的有效数据
- 有效数据,业务导致的正常数据分布
解决方案
对于第 1,2 种情况,直接对数据进行过滤即可。
第3种情况则需要特殊的处理,具体我们下面详细介绍。
6-3.思路2-提高shuffle并行度
Spark 在做 Shuffle 时,默认使用 HashPartitioner(非 Hash Shuffle)对数据进行分区。如果并行度设置的不合适,可能造成大量不相同的 Key 对应的数据被分配到了同一个 Task 上,造成该 Task 所处理的数据远大于其它 Task,从而造成数据倾斜。
如果调整 Shuffle 时的并行度,使得原本被分配到同一 Task 的不同 Key 发配到不同 Task 上处理,则可降低原 Task 所需处理的数据量,从而缓解数据倾斜问题造成的短板效应。
a.操作流程
RDD操作可在需要Shuffle的操作算子上直接设置并行度或者使用spark.default.parallelism设置。
如果是Spark SQL还可通过SET spark.sql.shuffle.partitions=[num_tasks]
设置并行度。默认参数由不同的Cluster Manager控制。
dataFrame和sparkSql可以设置spark.sql.shuffle.partitions=[num_tasks]
参数控制 shuffle 的并发度,默认为200。
b.适用场景
大量不同的Key被分配到了相同的Task造成该Task数据量过大。
c.解决方案
调整并行度。一般是增大并行度,但有时如减小并行度也可达到效果。
d.优势
实现简单,只需要参数调优。可用最小的代价解决问题。一般如果出现数据倾斜,都可以通过这种方法先试验几次,如果问题未解决,再尝试其它方法。
e.劣势
适用场景少,只是让每个 task 执行更少的不同的key。无法解决个别key特别大的情况造成的倾斜,如果某些key的大小非常大,即使一个 task 单独执行它,也会受到数据倾斜的困扰。
并且该方法一般只能缓解数据倾斜,没有彻底消除问题。从实践经验来看,其效果一般。
可以把数据倾斜类比为hash冲突。提高并行度就类似于提高hash表的大小。
6-4.思路3-自定义Partitioner
原理
使用自定义的 Partitioner(默认为 HashPartitioner),将原本被分配到同一个Task的不同 Key分配到不同Task。
例如,我们在groupByKey
算子上,使用自定义的 Partitioner:
.groupByKey(new Partitioner() {
@Override
public int numPartitions() {
return 12;
}
@Override
public int getPartition(Object key) {
int id = Integer.parseInt(key.toString());
if(id >= 9500000 && id <= 9500084 && ((id - 9500000) % 12) == 0) {
return (id - 9500000) / 12;
} else {
return id % 12;
}
}
})
这个做法相当于自定义hash表的哈希函数。
b.适用场景
大量不同的 Key 被分配到了相同的 Task 造成该 Task 数据量过大。
c.解决方案
使用自定义的 Partitioner 实现类代替默认的 HashPartitioner,尽量将所有不同的 Key 均匀分配到不同的 Task 中。
d.优势
不影响原有的并行度设计。如果改变并行度,后续Stage的并行度也会默认改变,可能会影响后续Stage。
e.劣势
适用场景有限,只能将不同Key分散开,对于同一Key对应数据集非常大的场景不适用。
效果与调整并行度类似,只能缓解数据倾斜而不能完全消除数据倾斜。而且需要根据数据特点自定义专用的 Partitioner,不够灵活。
6-5.思路4-Reduce端Join转化为Map端Join
通过Spark的Broadcast机制,将Reduce端Join转化为Map端Join,这意味着Spark现在不需要跨节点做shuffle而是直接通过本地文件进行join,从而完全消除Shuffle带来的数据倾斜。
from pyspark.sql.functions import broadcast
result = broadcast(A).join(B, ["join_col"], "left")
其中 A 是比较小的 dataframe 并且能够整个存放在 executor 内存中。
a.适用场景
参与Join的一边数据集足够小,可被加载进 Driver 并通过 Broadcast 方法广播到各个 Executor 中。
b.解决方案
在 Java/Scala 代码中将小数据集数据拉取到 Driver,然后通过 Broadcast 方案将小数据集的数据广播到各 Executor。
或者在使用 SQL 前,将 Broadcast 的阈值调整得足够大,从而使 Broadcast 生效。进而将Reduce Join替换为Map Join。
c.优势
避免了 Shuffle,彻底消除了数据倾斜产生的条件,可极大提升性能。
d.劣势
因为是先将小数据通过 Broadcase 发送到每个 executor 上,所以需要参与Join的一方数据集足够小,并且主要适用于Join的场景,不适合聚合的场景,适用条件有限。
使用Spark SQL时需要通过SET spark.sql.autoBroadcastJoinThreshold=104857600
将Broadcast的阈值设置得足够大,才会生效。
6-6.思路5-拆分join再union
思路很简单,就是将一个join拆分成 倾斜数据集Join 和 非倾斜数据集Join,最后进行union:
- 对包含少数几个数据量过大的 key 的那个 RDD (假设是 leftRDD),通过 sample 算子采样出一份样本来,然后统计一下每个 key 的数量,计算出来数据量最大的是哪几个 key。具体方法上面已经介绍过了,这里不赘述。
- 然后将这 k 个 key 对应的数据从 leftRDD 中单独过滤出来,并给每个 key 都打上 1~n 以内的随机数作为前缀,形成一个单独的 leftSkewRDD;而不会导致倾斜的大部分 key 形成另外一个 leftUnSkewRDD。
- 接着将需要 join 的另一个 rightRDD,也过滤出来那几个倾斜 key 并通过 flatMap 操作将该数据集中每条数据均转换为 n 条数据(这 n 条数据都按顺序附加一个 0~n 的前缀),形成单独的 rightSkewRDD;不会导致倾斜的大部分 key 也形成另外一个 rightUnSkewRDD。
- 现在将 leftSkewRDD 与 膨胀 n 倍的 rightSkewRDD 进行 join,且在 Join 过程中将随机前缀去掉,得到倾斜数据集的 Join 结果 skewedJoinRDD。注意到此时我们已经成功将原先相同的 key 打散成 n 份,分散到多个 task 中去进行 join 了。
- 对 leftUnSkewRDD 与 rightUnRDD 进行Join,得到 Join 结果 unskewedJoinRDD。
- 通过 union 算子将 skewedJoinRDD 与 unskewedJoinRDD 进行合并,从而得到完整的 Join 结果集。
通知
a.适用场景
两张表都比较大,无法使用 Map 端 Join。其中一个 RDD 有少数几个 Key 的数据量过大,另外一个 RDD 的 Key 分布较为均匀。
b.解决方案
将有数据倾斜的 RDD 中倾斜 Key 对应的数据集单独抽取出来加上随机前缀,另外一个 RDD 每条数据分别与随机前缀结合形成新的RDD(相当于将其数据增到到原来的N倍,N即为随机前缀的总个数),然后将二者Join并去掉前缀。然后将不包含倾斜Key的剩余数据进行Join。最后将两次Join的结果集通过union合并,即可得到全部Join结果。
c.优势
相对于 Map 则 Join,更能适应大数据集的 Join。如果资源充足,倾斜部分数据集与非倾斜部分数据集可并行进行,效率提升明显。且只针对倾斜部分的数据做数据扩展,增加的资源消耗有限。
d.劣势
如果倾斜 Key 非常多,则另一侧数据膨胀非常大,此方案不适用。而且此时对倾斜 Key 与非倾斜 Key 分开处理,需要扫描数据集两遍,增加了开销。
6-7.思路6-大表key加盐小表扩大N倍jion
如果出现数据倾斜的 Key 比较多,上一种方法将这些大量的倾斜 Key 分拆出来,意义不大。此时更适合直接对存在数据倾斜的数据集全部加上随机前缀,然后对另外一个不存在严重数据倾斜的数据集整体与随机前缀集作笛卡尔乘积(即将数据量扩大N倍)。
其实就是上一个方法的特例或者简化。少了拆分,也就没有 union。
a.适用场景
一个数据集存在的倾斜 Key 比较多,另外一个数据集数据分布比较均匀。
b.优势
对大部分场景都适用,效果不错。
c.劣势
需要将一个数据集整体扩大 N 倍,会增加资源消耗。
6-8.思路7-map端先局部聚合
在 map 端加个 combiner 函数进行局部聚合。加上 combiner 相当于提前进行 reduce ,就会把一个 mapper 中的相同 key 进行聚合,减少 shuffle 过程中数据量 以及 reduce 端的计算量。
这种方法可以有效的缓解数据倾斜问题,但是如果导致数据倾斜的 key 大量分布在不同的 mapper 的时候,这种方法就不是很有效了。
使用 reduceByKey 而不是 groupByKey。
6-9.思路8-加盐局部聚合+去盐全局聚合
这个方案的核心实现思路就是进行两阶段聚合。
- 第一次是局部聚合,先给每个 key 都打上一个 1~n 的随机数,
比如 3 以内的随机数,此时原先一样的 key 就变成不一样的了,比如 (hello, 1) (hello, 1) (hello, 1) (hello, 1) (hello, 1),就会变成 (1_hello, 1) (3_hello, 1) (2_hello, 1) (1_hello, 1) (2_hello, 1)。
- 接着对打上随机数后的数据,执行 reduceByKey 等聚合操作,进行局部聚合.
那么局部聚合结果,就会变成了 (1_hello, 2) (2_hello, 2) (3_hello, 1)。然后将各个 key 的前缀给去掉,就会变成 (hello, 2) (hello, 2) (hello, 1)
- 再次进行全局聚合操作,就可以得到最终结果。
比如 (hello, 5)。
def antiSkew(): RDD[(String, Int)] = {
val SPLIT = "-"
val prefix = new Random().nextInt(10)
pairs.map(t => ( prefix + SPLIT + t._1, 1))
.reduceByKey((v1, v2) => v1 + v2)
.map(t => (t._1.split(SPLIT)(1), t2._2))
.reduceByKey((v1, v2) => v1 + v2)
}
不过进行两次 mapreduce,性能稍微比一次的差些。
7.Hadoop中的数据倾斜
Hadoop 中直接贴近用户使用的是 Mapreduce 程序和 Hive 程序,虽说 Hive 最后也是用 MR 来执行(至少目前 Hive 内存计算并不普及),但是毕竟写的内容逻辑区别很大,一个是程序,一个是Sql,因此这里稍作区分。
Hadoop 中的数据倾斜主要表现在 ruduce 阶段卡在99.99%,一直99.99%不能结束。
这里如果详细的看日志或者和监控界面的话会发现:
- 有一个多几个 reduce 卡住
- 各种 container报错 OOM
- 读写的数据量极大,至少远远超过其它正常的 reduce
- 伴随着数据倾斜,会出现任务被 kill 等各种诡异的表现。
经验:
Hive的数据倾斜,一般都发生在 Sql 中 Group 和 On 上,而且和数据逻辑绑定比较深。
优化方法
这里列出来一些方法和思路,具体的参数和用法在官网看就行了。
- map join 方式
- count distinct 的操作,先转成 group,再 count
- 参数调优
set hive.map.aggr=true
set hive.groupby.skewindata=true
- left semi jion 的使用
- 设置 map 端输出、中间结果压缩。(不完全是解决数据倾斜的问题,但是减少了 IO 读写和网络传输,能提高很多效率)
说明
hive.map.aggr=true:
在map中会做部分聚集操作,效率更高但需要更多的内存。
hive.groupby.skewindata=true:
数据倾斜时负载均衡,当选项设定为true,生成的查询计划会有两个MRJob。第一个MRJob 中,Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的GroupBy Key有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MRJob再根据预处理的数据结果按照GroupBy Key分布到Reduce中(这个过程可以保证相同的GroupBy Key被分布到同一个Reduce中),最后完成最终的聚合操作。
8.参考文章
转载请注明来源,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 157162006@qq.com
文章标题:spark数据倾斜及解决方案
字数:4.8k
本文作者:沐雨云楼
发布时间:2020-06-20, 21:41:12
最后更新:2020-09-12, 21:21:47
原始链接:https://iworkh.gitee.io/blog/2020/06/20/spark-data-skew/版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。