hdfs disk balancer 磁盘均衡器
1、背景
在我们的hadoop集群运行一段过程中,由于多种原因,数据在DataNade的磁盘之间的分布可能是不均匀。比如: 我们刚刚给某个DataNode新增加了一块磁盘或者集群上存在大批量的write & deltete操作等灯。那么有没有一种工具,能够使单个DataNode中的多个磁盘的数据均衡呢?借助Hadoop提供的Diskbalancer
命令行工具可以实现。
2、hdfs balancer和 hdfs disk balancer有何不同?
hdfs balancer:
是为了集群中DataNode的数据均衡,即针对多个DataNode的。
hdfs disk balancer:
是为了使单台DataNode中的多个磁盘中的数据均衡。
注意:
目前DiskBalancer
不支持跨存储介质(SSD
、DISK
等)的数据转移,所以磁盘的均衡都是要求在一个storageType下的。因为hdfs中存在异构存储
。
3、操作
3.1 生成计划
[hadoopdeploy@hadoop01 ~]$ hdfs diskbalancer -plan hadoop01 -out hadoop01-plan.json
-plan:
后面接的是主机名。
-out:
指定计划文件的输出位置。
3.2 执行计划
[hadoopdeploy@hadoop01 ~]$ hdfs diskbalancer -execute hadoop01-plan.json
3.3 查询计划
[hadoopdeploy@hadoop01 ~]$ hdfs diskbalancer -query hadoop01
-query
后面跟的是 主机名
3.4 取消计划
[hadoopdeploy@hadoop01 ~]$ hdfs diskbalancer -cancel hadoop01-plan.json
4、和disk balancer相关的配置
配置 | 描述 |
---|---|
dfs.disk.balancer.enabled | 此参数控制是否为集群启用diskbalancer。如果未启用,任何执行命令都将被DataNode拒绝。默认值为true。 |
dfs.disk.balancer.max.disk.throughputInMBperSec | 这控制了diskbalancer在复制数据时消耗的最大磁盘带宽。如果指定了10MB之类的值,则diskbalancer平均只会复制10MB/S。默认值为10MB/S。 |
dfs.disk.balancer.max.disk.errors | 设置能够容忍的在指定的移动过程中出现的最大错误次数,超过此阈值则失败。例如,如果一个计划有3对磁盘要在其中复制,并且第一个磁盘集遇到超过5个错误,那么我们放弃第一个副本并启动计划中的第二个副本。最大错误的默认值设置为5。 |
dfs.disk.balancer.block.tolerance.percent | 设置磁盘之间进行数据均衡操作时,各个磁盘的数据存储量与理想状态之间的差异阈值。取值范围[1-100],默认为10。例如,各个磁盘的理想数据存储量为100 GB,此参数设置为10。那么,当目标磁盘的数据存储量达到90 GB时,则认为该磁盘的存储状态就已经达到预期。 |
dfs.disk.balancer.plan.threshold.percent | 设置在磁盘数据均衡中可容忍的两磁盘之间的数据密度域值差,取值范围[1-100],默认为10。如果任意两个磁盘数据密度差值的绝对值超过了阈值,则说明需要对该的磁盘进行数据均衡。例如,如果一个2盘节点上的总数据为100 GB,那么磁盘均衡器计算每个磁盘上的期望值为50 GB。如果容差为10%,则单个磁盘上的数据需要大于60 GB(50 GB + 10%容差值),DiskBalancer才能开始工作。 |
dfs.disk.balancer.plan.valid.interval | 磁盘平衡器计划有效的最大时间。支持以下后缀(不区分大小写):ms(milis)、s(sec)、m(min)、h(h)、d(day)以指定时间(例如2s、2m、1h等)。如果未指定后缀,则假定为毫秒。默认值为1d |
5、额外知识点
5.1 新的block存储到那个磁盘(卷)中
当数据写入新的block时,DataNode会根据策略选择不同的磁盘来存储。
循环策略:
默认策略,将新的块均匀的分布在可用的磁盘上,可能造成数据倾斜。
可用空间策略:
选择更多可用空间(按百分比)的磁盘。可能造成在某段时间内,某个磁盘的IO压力变大。
5.2 磁盘数据密度度量标准
上图来自 https://www.bilibili.com/video/BV11N411d7Zh/?p=81
6、参考文档
1、hadoop.apache.org/docs/curren… 2、help.aliyun.com/document_de… 3、www.bilibili.com/video/BV11N…
转载自:https://juejin.cn/post/7216537771448336441