浙江创新网站建设销售,公司做企业网站须知,沈阳开发网站公司哪家好,提供温州手机网站制作多少钱文章目录 #xff08;146#xff09;HDFS压测环境准备#xff08;147#xff09;HDFS读写压测写压测读压测 参考文献 #xff08;146#xff09;HDFS压测环境准备
对开发人员来讲#xff0c;压测这个技能很重要。
假设你刚搭建好一个集群#xff0c;就可以直接投入生… 文章目录 146HDFS压测环境准备147HDFS读写压测写压测读压测 参考文献 146HDFS压测环境准备
对开发人员来讲压测这个技能很重要。
假设你刚搭建好一个集群就可以直接投入生产了吗
那当然不行还需要对集群进行压测一方面是测试集群的读写性能多大的数据耗时多久才能读写完成另一方面也是测试集群是否会崩溃。
HDFS的读写性能主要受网络和磁盘的影响比较大。教程里为了方便测试将三台节点的虚拟机网络都设置为100mbps先人为抹掉网络的影响。
注意100mbps单位是bite1字节等于8bite所以实际设置的网速是12.5M/s. 147HDFS读写压测
hadoop自带的tests.jar包就是专门用来做压测的。
位置是/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar
这个包下有多个模块比如说TestDFSIO模块就是用来做HDFS读写压测的。
写压测
原理是什么呢 提交10个文件开启10个MapTask每个MapTask开始向当前节点HDFS写数据每个Map会记录下写的时间和平均速度而ReduceTask会汇总每个MapTask的写入时间和平均速度。
会计算3个指标
所有数据量累加 / 所有数据写时间累加即集群整体吞吐量Throughput所有平均速度累加 / 10即平均MapTask的吞吐量Average IO rate方差反应各个MapTask处理的差值越小越均衡IO rate std deviation。
使用方法以及对应的指标输出
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -write -nrFiles 10 -fileSize 128MB2021-02-09 10:43:16,853 INFO fs.TestDFSIO: ----- TestDFSIO ----- : write
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Date time: Tue Feb 09 10:43:16 CST 2021
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Throughput mb/sec: 1.61
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Average IO rate mb/sec: 1.9
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: IO rate std deviation: 0.76
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Test exec time sec: 133.05
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:上面代码中TestDFSIO指启用HDFS读写测试
-write表示启动写测试
-nfFiles 10表示提交10个文件对应生成MapTask的数量而提交的文件数一般是集群CPU总核数 - 1。
-fileSize 128MB表示每个文件大小是128MB。
注意如果测试过程中出现异常可以取消掉虚拟内存具体方式为修改yarn-site.xml文件
!--是否启动一个线程检查每个任务正使用的虚拟内存量如果任务超出分配值则直接将其杀掉默认是true --
propertynameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
/property然后xsync yarn-site.xml分发配置并顺便重启yarn。
测试结果怎么分析呢
以上面的输出为例我们的压测后速度是1.61每个文件默认3个副本但由于副本1即文件本身都在节点1上所以我们在写数据的时候每个文件相当于只写了2个副本即节点2和节点3上。 所以参与测试的文件就是20个。如果客户端不在集群节点上那么就三个副本都参与计算。就是30个文件了
实测速度1.61*2032M/s
三台服务器的总带宽12.5*337M/s
基本相当于所有网络资源都已经用满。
如果实测速度远远小于网络速度且不能满足工作需求那么可以采用固态硬盘或者增加磁盘个数等。
读压测
原理差不多命令就换成了
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -read -nrFiles 10 -fileSize 128MB2021-02-09 11:34:15,847 INFO fs.TestDFSIO: ----- TestDFSIO ----- : read
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Date time: Tue Feb 09 11:34:15 CST 2021
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Throughput mb/sec: 200.28
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Average IO rate mb/sec: 266.74
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: IO rate std deviation: 143.12
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Test exec time sec: 20.83注意模块用的都是TestDFSIO但是后面的参数改成了-read
读的速度是很快的且读取文件速度大于网络带宽。这是由于目前只有三台服务器且有三个副本数据读取就近原则相当于都是读取的本地磁盘数据没有走网络。 最后记得删除一下测试生成的数据
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -clean因为是官方提供的包所以我们在实现整个压测的时候还是比较轻松的。 如果感情也能这么轻松就好了。
参考文献
【尚硅谷大数据Hadoop教程hadoop3.x搭建到集群调优百万播放】