迪奥生物做图网站,河南省新闻奖,wordpress仿hexo主题,什么网站是免费的Hadoop版本演变历史
Hadoop发行版非常的多#xff0c;有华为发行版、Intel发行版、Cloudera Hadoop(CDH)、Hortonworks Hadoop(HDP)#xff0c;这些发行版都是基于Apache Hadoop衍生出来的。 目前Hadoop经历了三个大的版本。 hadoop1.x#xff1a;HDFSMapReduce hadoop2.x…Hadoop版本演变历史
Hadoop发行版非常的多有华为发行版、Intel发行版、Cloudera Hadoop(CDH)、Hortonworks Hadoop(HDP)这些发行版都是基于Apache Hadoop衍生出来的。 目前Hadoop经历了三个大的版本。 hadoop1.xHDFSMapReduce hadoop2.xHDFSYARNMapReduce hadoop3.xHDFSYARNMapReduce 在Hadoop1.x中分布式计算和资源管理都是MapReduce负责的从Hadoop2.x开始把资源管理单独拆分出来了YARN是一个公共的资源管理平台在它上面不仅仅可以跑MapReduce程序还可以跑很多其他的程序例如Spark、Flink等计算框架都是支持在YARN上面执行的并且在实际工作中也都是在YARN上面执行只要程序满足YARN的规则即可。
Hadoop3.x的架构并没有发生什么变化但是它在其他细节方面做了很多优化常见的包括
最低Java版本要求从Java7变为Java8在Hadoop 3中HDFS支持纠删码纠删码是一种比副本存储更节省存储空间的数据持久化存储方法使用这种方法相同容错的情况下可以比之前节省一半的存储空间 HDFS Erasure CodingHadoop 2中的HDFS最多支持两个NameNode一主一备而Hadoop 3中的HDFS支持多个NameNode一主多备 HDFS High Availability UsingMapReduce任务级本地优化MapReduce添加了映射输出收集器的本地化实现的支持。对于密集型的洗牌操作shuffle-intensivejobs可以带来30%的性能提升 Task level native optimization修改了多重服务的默认端口Hadoop2中一些服务的端口和Hadoop3中是不一样的
Hadoop 3和2之间的主要区别在于新版本提供了更好的优化和可用性 参考官网
Hadoop三大核心组件
Hadoop主要包含三大组件HDFSMapReduceYARN
HDFS负责海量数据的分布式存储MapReduce是一个计算模型负责海量数据的分布式计算YARN主要负责集群资源的管理和调度
分布式集群安装
左边这一个是主节点右边的两个是从节点hadoop集群是支持主从架构的。 一主两从的hadoop集群环境准备三个节点 bigdata01 192.168.182.100 bigdata02 192.168.182.101 bigdata03 192.168.182.102
下载安装包
hadoop官网下载地址 版本hadoop3.2.0
配置基础环境
设置静态ip、hostname、host、firewalld、ssh免密码登录、安装JDK与环境变量、集群节点之间时间同步
设置静态ip
# 主节点 IPADDR192.168.182.100
# 从节点 IPADDR192.168.182.101、IPADDR192.168.182.102
[rootlocalhost ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33
TYPEEthernet
PROXY_METHODnone
BROWSER_ONLYno
BOOTPROTOstatic
DEFROUTEyes
IPV4_FAILURE_FATALno
IPV6INITyes
IPV6_AUTOCONFyes
IPV6_DEFROUTEyes
IPV6_FAILURE_FATALno
IPV6_ADDR_GEN_MODEstable-privacy
NAMEens33
UUID9a0df9ec-a85f-40bd-9362-ebe134b7a100
DEVICEens33
ONBOOTyes
IPADDR192.168.182.100
GATEWAY192.168.182.2
DNS1192.168.182.2# 重启网络服务
[rootbigdata01 ~]# service network restart
Restarting network (via systemctl): [ OK ]
[rootbigdata01 ~]# ip addr
1: lo: LOOPBACK,UP,LOWER_UP mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc pfifo_fast state UP group default qlen 1000link/ether 00:0c:29:9c:86:11 brd ff:ff:ff:ff:ff:ffinet 192.168.182.100/24 brd 192.168.182.255 scope global noprefixroute ens33valid_lft forever preferred_lft foreverinet6 fe80::c8a8:4edb:db7b:af53/64 scope link noprefixroute valid_lft forever preferred_lft forever
设置临时主机名和永久主机名hostname
# 临时主机名
# 主节点 bigdata01
# 从节点 bigdata02、bigdata03
[rootbigdata01 ~]# hostname bigdata01
[rootbigdata01 ~]# vi /etc/hostname
bigdata01
配置永久主机名与静态ip映射在/etc/hosts文件中配置ip和主机名(hostname)的映射关系把下面内容追加到/etc/hosts中不能删除/etc/hosts文件中的已有内容
# 主节点 bigdata01
# 从节点 bigdata02、bigdata03
[rootbigdata01 ~]# vi /etc/hosts
192.168.182.100 bigdata01
配置/etc/hosts
因为需要在主节点远程连接两个从节点所以需要让主节点能够识别从节点的主机名使用主机名远程访问默认情况下只能使用ip远程访问想要使用主机名远程访问的话需要在节点的/etc/hosts文件中配置对应机器的ip和主机名信息。
所以在这里我们就需要在bigdata01的/etc/hosts文件中配置下面信息最好把当前节点信息也配置到里面这样这个文件中的内容就通用了可以直接拷贝到另外两个从节点
# 在bigdata01的/etc/hosts文件中配置ip与hostname映射
[rootbigdata01 ~]# vi /etc/hosts
192.168.182.100 bigdata01
192.168.182.101 bigdata02
192.168.182.102 bigdata03# 在bigdata02的/etc/hosts文件中配置ip与hostname映射
[rootbigdata02 ~]# vi /etc/hosts
192.168.182.100 bigdata01
192.168.182.101 bigdata02
192.168.182.102 bigdata03# 在bigdata03的/etc/hosts文件中配置ip与hostname映射
[rootbigdata03 ~]# vi /etc/hosts
192.168.182.100 bigdata01
192.168.182.101 bigdata02
192.168.182.102 bigdata03
关闭防火墙
# 临时关闭防火墙
[rootbigdata01 ~]# systemctl stop firewalld
# 永久关闭防火墙
[rootbigdata01 ~]# systemctl disable firewalld[rootbigdata02 ~]# systemctl disable firewalld[rootbigdata03 ~]# systemctl disable firewalld
ssh免密码登录
ssh 是secure shell安全的shell通过ssh可以远程登录到远程linux机器。 不管是几台机器的集群启动集群中程序的步骤都是一样的都是通过ssh远程连接去操作就算是一台机器它也会使用ssh自己连自己。 在启动集群的时候只需要在一台机器上启动就行然后hadoop会通过ssh连到其它机器把其它机器上面对应的程序也启动起来使用ssh连接其它机器的时候会发现需要输入密码所以现在需要实现ssh免密码登录。
# ssh连接主节点
[rootbigdata01 ~]# ssh bigdata01
The authenticity of host bigdata01 (fe80::c8a8:4edb:db7b:af53%ens33) cant be established.
ECDSA key fingerprint is SHA256:uUG2QrWRlzXcwfv6GUot9DVs9ciFugZ7FhR89m2S00.
ECDSA key fingerprint is MD5:82:9d:01:51:06:a7:14:24:a9:16:3d:a1:5e:6d:0d:16.
Are you sure you want to continue connecting (yes/no)? yes【第一次使用这个主机名需要输入yes】
Warning: Permanently added bigdata01,fe80::c8a8:4edb:db7b:af53%ens33 (ECDSA) to the list of known hosts.
rootbigdata01s password: 【这里需要输入密码】
ssh登录原理 ssh这种安全/加密的shell使用的是非对称加密. 加密有两种对称加密和非对称加密。 非对称加密的解密过程是不可逆的比较安全。非对称加密会产生秘钥秘钥分为公钥和私钥在这里公钥是对外公开的私钥是自己持有的。 ssh通信过程 1、第一台机器会把自己的公钥给到第二台机器 2、当第一台机器要给第二台机器通信时第一台机器会给第二台机器发送一个随机的字符串 3、第二台机器会使用公钥对这个字符串加密同时第一台机器会使用自己的私钥也对这个字符串进行加密然后也传给第二台机器 4、这时第二台机器就有了两份加密的内容一份是自己使用公钥加密的一份是第一台机器使用私钥加密传过来的 5、公钥和私钥是通过一定的算法计算出来的这时第二台机器就会对比这两份加密之后的内容是否匹配。如果匹配第二台机器就会认为第一台机器是可信的就允许登录。如果不相等 就认为是非法的机器。 RSARivest-Shamir-Adleman是一种非对称加密算法公钥和私钥成对生成并可以用于加密和解密。工作原理
密钥生成用户选择两个大素数p和q并计算它们的乘积npq这将是公钥的一部分。然后计算欧拉函数φ(n)(p-1)(q-1)选取一个与φ(n)互质的整数e通常为一个小于φ(n)且大于1的整数公钥包含n和e。私钥则包含n和d满足d*e ≡ 1 mod φ(n)这样任何知道d的人都可以解密。加密使用接收者的公钥n和e进行加密。消息被转换为数字m通过取模运算(m^e) mod n得到密文c。解密只有拥有私钥的人才能解密使用私钥中的d通过计算(c^d) mod n得到原始消息m。
# 使用rsa对ssh加密
# 执行这个命令以后需要连续按 4 次回车键回到 linux 命令行才表示这个操作执行结束在按回车的时候不需要输入任何内容。[rootbigdata01 ~]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:I8J8RDun4bklmx9T45SRsKAu7FvP2HqtriYUqUqF1q4 rootbigdata01
The keys randomart image is:
---[RSA 2048]----
| o . |
| o o o . |
| o.. o o |
| o* o * o |
|... B S |
|.o.o o B . |
|o.o . .o . |
|.E.o....o |
| .o*.. |
----[SHA256]-----
# 执行以后会在~/.ssh目录下生产对应的公钥和私钥文件[rootbigdata01 ~]# ll ~/.ssh/
total 12
-rw-------. 1 root root 1679 Apr 7 16:39 id_rsa
-rw-r--r--. 1 root root 396 Apr 7 16:39 id_rsa.pub
# 在bigdata01上执行
[rootbigdata01 ~]# cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys# 在主节点 bigdata01机器上执行下面命令将公钥信息拷贝到从节点bigdata02
[rootbigdata01 ~]# scp ~/.ssh/authorized_keys bigdata02:~/
The authenticity of host bigdata02 (192.168.182.101) cant be established.
ECDSA key fingerprint is SHA256:uUG2QrWRlzXcwfv6GUot9DVs9ciFugZ7FhR89m2S00.
ECDSA key fingerprint is MD5:82:9d:01:51:06:a7:14:24:a9:16:3d:a1:5e:6d:0d:16.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added bigdata02,192.168.182.101 (ECDSA) to the list of known hosts.
rootbigdata02s password:
authorized_keys 100% 396 506.3KB/s 00:00 # # 在主节点 bigdata01机器上执行下面命令将公钥信息拷贝到从节点bigdata03
[rootbigdata01 ~]# scp ~/.ssh/authorized_keys bigdata03:~/
The authenticity of host bigdata03 (192.168.182.102) cant be established.
ECDSA key fingerprint is SHA256:uUG2QrWRlzXcwfv6GUot9DVs9ciFugZ7FhR89m2S00.
ECDSA key fingerprint is MD5:82:9d:01:51:06:a7:14:24:a9:16:3d:a1:5e:6d:0d:16.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added bigdata03,192.168.182.102 (ECDSA) to the list of known hosts.
rootbigdata03s password:
authorized_keys 100% 396 606.1KB/s 00:00
# 在bigdata02上执行
[rootbigdata02 ~]# cat ~/authorized_keys ~/.ssh/authorized_keys# 在bigdata03上执行
[rootbigdata03 ~]# cat ~/authorized_keys ~/.ssh/authorized_keys# 验证bigdata01免密登陆bigdata02
[rootbigdata01 ~]# ssh bigdata02
Last login: Tue Apr 7 21:33:58 2020 from bigdata01
[rootbigdata02 ~]# exit
logout
Connection to bigdata02 closed.# # 验证bigdata01免密登陆bigdata03
[rootbigdata01 ~]# ssh bigdata03
Last login: Tue Apr 7 21:17:30 2020 from 192.168.182.1
[rootbigdata03 ~]# exit
logout
Connection to bigdata03 closed.
[rootbigdata01 ~]#
没必要实现从节点之间互相免密登录因为在启动集群的时候只有主节点需要远程连接其它节点。
安装jdk及环境变量
# 解压jdk安装包
[rootbigdata01 ~]# cd /data/soft
[rootbigdata01 soft]# tar -zxvf jdk-8u202-linux-x64.tar.gz# 重命名为jdk1.8
[rootbigdata01 soft]# mv jdk1.8.0_202 jdk1.8# 配置环境变量 JAVA_HOME
[rootbigdata01 soft]# vi /etc/profile
.....
export JAVA_HOME/data/soft/jdk1.8
export PATH.:$JAVA_HOME/bin:$PATH# 验证
[rootbigdata01 soft]# source /etc/profile
[rootbigdata01 soft]# java -version
java version 1.8.0_202
Java(TM) SE Runtime Environment (build 1.8.0_202-b08)
Java HotSpot(TM) 64-Bit Server VM (build 25.202-b08, mixed mode)集群节点之间时间同步
集群只要涉及到多个节点的就需要对这些节点做时间同步如果节点之间时间不同步相差太多会应该集群的稳定性甚至导致集群出问题。
使用ntpdate -u ntp.sjtu.edu.cn实现时间同步
# 默认是没有ntpdate命令的需要使用yum在线安装
[rootbigdata01 ~]# ntpdate -u ntp.sjtu.edu.cn
-bash: ntpdate: command not found# 安装ntpdate
[rootbigdata01 ~]# yum install -y ntpdate
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile* base: mirrors.cn99.com* extras: mirrors.cn99.com* updates: mirrors.cn99.com
base | 3.6 kB 00:00
extras | 2.9 kB 00:00
updates | 2.9 kB 00:00
Resolving Dependencies
-- Running transaction check
--- Package ntpdate.x86_64 0:4.2.6p5-29.el7.centos will be installed
-- Finished Dependency ResolutionDependencies ResolvedPackage Arch Version Repository SizeInstalling:ntpdate x86_64 4.2.6p5-29.el7.centos base 86 kTransaction SummaryInstall 1 PackageTotal download size: 86 k
Installed size: 121 k
Downloading packages:
ntpdate-4.2.6p5-29.el7.centos.x86_64.rpm | 86 kB 00:00
Running transaction check
Running transaction test
Transaction test succeeded
Running transactionInstalling : ntpdate-4.2.6p5-29.el7.centos.x86_64 1/1 Verifying : ntpdate-4.2.6p5-29.el7.centos.x86_64 1/1 Installed:ntpdate.x86_64 0:4.2.6p5-29.el7.centos Complete!# 执行ntpdate -u ntp.sjtu.edu.cn 确认是否可以正常执行
[rootbigdata01 ~]# ntpdate -u ntp.sjtu.edu.cn7 Apr 21:21:01 ntpdate[5447]: step time server 185.255.55.20 offset 6.252298 sec
# 建议把这个同步时间的操作添加到linux的crontab定时器中每分钟执行一次
[rootbigdata01 ~]# vi /etc/crontab
* * * * * root /usr/sbin/ntpdate -u ntp.sjtu.edu.cn
# 在bigdata02和bigdata03节点上配置时间同步
[rootbigdata02 ~]# yum install -y ntpdate
[rootbigdata02 ~]# vi /etc/crontab
* * * * * root /usr/sbin/ntpdate -u ntp.sjtu.edu.cn[rootbigdata03 ~]# yum install -y ntpdate
[rootbigdata03 ~]# vi /etc/crontab
* * * * * root /usr/sbin/ntpdate -u ntp.sjtu.edu.cn
集群中三个节点的基础环境就都配置完毕了接下来就需要在这三个节点中安装Hadoop了。
安装Hadoop
1、把hadoop-3.2.0.tar.gz安装包上传到/data/soft目录下
# 把hadoop-3.2.0.tar.gz安装包上传到/data/soft
[rootbigdata01 soft]# ll
total 527024
-rw-r--r--. 1 root root 345625475 Jul 19 2019 hadoop-3.2.0.tar.gz
drwxr-xr-x. 7 10 143 245 Dec 16 2018 jdk1.8
-rw-r--r--. 1 root root 194042837 Apr 6 23:14 jdk-8u202-linux-x64.tar.gz2、解压hadoop安装包
# 在bigdata01上解压hadoop安装包
[rootbigdata01 soft]# tar -zxvf hadoop-3.2.0.tar.gz3、修改hadoop相关配置文件
hadoop-env.sh在文件末尾增加环境变量信息core-site.xmlfs.defaultFS属性中的主机名需要和主节点的主机名或者静态ip保持一致hdfs-site.xml文件把hdfs中文件副本的数量设置为2因为现在集群中有两个从节点dfs.namenode.secondary.http-address设置为secondaryNamenode进程所在的节点信息mapred-site.xml设置mapreduce使用的资源调度框架yarnyarn-site.xml设置yarn上支持运行的服务和环境变量白名单还需要设置resourcemanager的hostname否则nodemanager找不到resourcemanager节点workers文件增加所有从节点的主机名一个一行start-dfs.shstop-dfs.sh添加hdfs的datanode、namenode用户 HDFS_DATANODE_USER、HDFS_DATANODE_SECURE_USER、HDFS_NAMENODE_USER、HDFS_NAMENODE_USER、HDFS_SECONDARYNAMENODE_USERstart-yarn.shstop-yarn.sh添加yarn的resourcemaneger、nodemanger用户 YARN_RESOURCEMANAGER_USER、HADOOP_SECURE_DN_USER、YARN_NODEMANAGER_USER
# 修改hadoop相关配置文件
[rootbigdata01 soft]# cd hadoop-3.2.0/etc/hadoop/# 首先修改hadoop-env.sh文件在文件末尾增加环境变量信息
[rootbigdata01 hadoop]# vi hadoop-env.sh
export JAVA_HOME/data/soft/jdk1.8
export HADOOP_LOG_DIR/data/hadoop_repo/logs/hadoop# 修改core-site.xml文件
# 注意fs.defaultFS属性中的主机名需要和主节点的主机名或者静态ip保持一致
[rootbigdata01 hadoop]# vi core-site.xml
configurationpropertynamefs.defaultFS/namevaluehdfs://bigdata01:9000/value/propertypropertynamehadoop.tmp.dir/namevalue/data/hadoop_repo/value/property
/configuration# 修改hdfs-site.xml文件
# 把hdfs中文件副本的数量设置为2最多为2因为现在集群中有两个从节点
# secondaryNamenode进程所在的节点信息
[rootbigdata01 hadoop]# vi hdfs-site.xml
configurationpropertynamedfs.replication/namevalue2/value/propertypropertynamedfs.namenode.secondary.http-address/namevaluebigdata01:50090/value/property
/configuration
# 修改mapred-site.xml
# 设置mapreduce使用的资源调度框架
[rootbigdata01 hadoop]# vi mapred-site.xml
configurationpropertynamemapreduce.framework.name/namevalueyarn/value/property
/configuration
# 修改yarn-site.xml设置yarn上支持运行的服务和环境变量白名单
# 注意针对分布式集群在这个配置文件中还需要设置resourcemanager的hostname否则nodemanager找不到resourcemanager节点。
[rootbigdata01 hadoop]# vi yarn-site.xml
configurationpropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME/value/propertypropertynameyarn.resourcemanager.hostname/namevaluebigdata01/value/property
/configuration
# 修改workers文件
# 增加所有从节点的主机名一个一行
[rootbigdata01 hadoop]# vi workers
bigdata02
bigdata03
# 修改启动脚本# 修改start-dfs.shstop-dfs.sh这两个脚本文件在文件前面增加如下内容
[rootbigdata01 hadoop]# cd /data/soft/hadoop-3.2.0/sbin
[rootbigdata01 sbin]# vi start-dfs.sh
HDFS_DATANODE_USERroot
HDFS_DATANODE_SECURE_USERhdfs
HDFS_NAMENODE_USERroot
HDFS_SECONDARYNAMENODE_USERroot[rootbigdata01 sbin]# vi stop-dfs.sh
HDFS_DATANODE_USERroot
HDFS_DATANODE_SECURE_USERhdfs
HDFS_NAMENODE_USERroot
HDFS_SECONDARYNAMENODE_USERroot# 修改start-yarn.shstop-yarn.sh这两个脚本文件在文件前面增加如下内容
[rootbigdata01 sbin]# vi start-yarn.sh
YARN_RESOURCEMANAGER_USERroot
HADOOP_SECURE_DN_USERyarn
YARN_NODEMANAGER_USERroot[rootbigdata01 sbin]# vi stop-yarn.sh
YARN_RESOURCEMANAGER_USERroot
HADOOP_SECURE_DN_USERyarn
YARN_NODEMANAGER_USERroot
4、把bigdata01节点上将修改好配置的安装包拷贝到其他两个从节点
[rootbigdata01 sbin]# cd /data/soft/
[rootbigdata01 soft]# scp -rq hadoop-3.2.0 bigdata02:/data/soft/
[rootbigdata01 soft]# scp -rq hadoop-3.2.0 bigdata03:/data/soft/5、格式化HDFS
# 在bigdata01节点上格式化HDFS
[rootbigdata01 soft]# cd /data/soft/hadoop-3.2.0
[rootbigdata01 hadoop-3.2.0]# bin/hdfs namenode -format
# 如果在后面的日志信息中能看到这一行则说明namenode格式化成功。
common.Storage: Storage directory /data/hadoop_repo/dfs/name has been successfully formatted.6、启动集群
# 在主节点 bigdata01上执行下面命令
[rootbigdata01 hadoop-3.2.0]# sbin/start-all.sh
Starting namenodes on [bigdata01]
Last login: Tue Apr 7 21:03:21 CST 2020 from 192.168.182.1 on pts/2
Starting datanodes
Last login: Tue Apr 7 22:15:51 CST 2020 on pts/1
bigdata02: WARNING: /data/hadoop_repo/logs/hadoop does not exist. Creating.
bigdata03: WARNING: /data/hadoop_repo/logs/hadoop does not exist. Creating.
Starting secondary namenodes [bigdata01]
Last login: Tue Apr 7 22:15:53 CST 2020 on pts/1
Starting resourcemanager
Last login: Tue Apr 7 22:15:58 CST 2020 on pts/1
Starting nodemanagers
Last login: Tue Apr 7 22:16:04 CST 2020 on pts/1# 验证
# 在bigdata01上查看java进程是否存在NameNode、ResourceManager、SecondaryNameNode
[rootbigdata01 hadoop-3.2.0]# jps
6128 NameNode
6621 ResourceManager
6382 SecondaryNameNode# 在bigdata02上查看java进程是否存在NodeManager、DataNode
[rootbigdata02 ~]# jps
2385 NodeManager
2276 DataNode
# 在bigdata03上查看java进程是否存在NodeManager、DataNode
[rootbigdata03 ~]# jps
2326 NodeManager
2217 DataNode# 停止集群
# 在主节点bigdata01上执行停止命令
[rootbigdata01 hadoop-3.2.0]# sbin/stop-all.sh
Stopping namenodes on [bigdata01]
Last login: Tue Apr 7 22:21:16 CST 2020 on pts/1
Stopping datanodes
Last login: Tue Apr 7 22:22:42 CST 2020 on pts/1
Stopping secondary namenodes [bigdata01]
Last login: Tue Apr 7 22:22:44 CST 2020 on pts/1
Stopping nodemanagers
Last login: Tue Apr 7 22:22:46 CST 2020 on pts/1
Stopping resourcemanager
Last login: Tue Apr 7 22:22:50 CST 2020 on pts/1
具体安装详情说明可查阅Hadoop官网
Hadoop的客户端节点
在实际工作中不建议直接连接集群中的节点来操作集群直接把集群中的节点暴露给普通开发人员是不安全的建议在业务机器上安装Hadoop只需要保证业务机器上的Hadoop的配置和集群中的配置保持一致即可这样就可以在业务机器上操作Hadoop集群了此机器就称为是Hadoop的客户端节点Hadoop的客户端节点可能会有多个理论上是我们想要在哪台机器上操作hadoop集群就可以把这台机器配置为hadoop集群的客户端节点。