当前位置: 首页 > news >正文

网站备案全国合作拍照点 腾讯云抖音权重查询工具

网站备案全国合作拍照点 腾讯云,抖音权重查询工具,梓潼移动网站建设,腾讯云cdn wordpress听说这里是目录哦 一、安装Hadoop#x1f955;二、配置Hadoop系统环境变量#x1f96e;三、验证Hadoop系统环境变量是否配置成功#x1f9c1;四、修改Hadoop配置文件#x1f36d;五、分发Hadoop安装目录#x1f9cb;六、分发系统环境变量文件#x1f368;七、格式化HDFS文… 听说这里是目录哦 一、安装Hadoop二、配置Hadoop系统环境变量三、验证Hadoop系统环境变量是否配置成功四、修改Hadoop配置文件五、分发Hadoop安装目录六、分发系统环境变量文件七、格式化HDFS文件系统八、启动Hadoop九、查看Hadoop运行状态搭建时遇到的问题⚠️logs does not exist. Creatingsecondary namenode等丢失jps时看不到 能量站 前提是集群里的虚拟机间实现了免密登录以及JDK的成功安装执行 java -version查看JDK版本号。【可以参考 Hadoop•FinalShell连接VMware免密登录和 Hadoop•安装JDK】【这里是以test为主结点、test1和test2为从结点。如果看到node了就是我忘改了node的是以node1为主结点、node2和node3为从结点。怕真出现了会迷惑还是谨慎一点点~】 一、安装Hadoop 三台机子的JDK和Hadoop版本必须一致 电脑下载Hadoop安装包需要该安装包可以在文章下面评论1如果宝贝是学生你们老师应该会给命令记得要根据安装包名字对应更改哦用FinalShell直接上传到虚拟机用mv命令移动到所需文件夹。如mv /jdk-8u271-linux-x64.tar.gz /export/software即mv /要移动文件的名字/要移动到的文件夹如果显示没有那个文件或目录“Hadoop•安装JDK”里有解决办法将位于/export/software的文件名为hadoop-3.3.0.tar.gz的Hadoop安装包解压缩到/export/servers命令为tar -zxvf /export/software/hadoop-3.3.0.tar.gz -C /export/servers 这里的目录约定在Hadoop•安装JDK有说明 二、配置Hadoop系统环境变量 编辑环境变量的配置文件命令为vi /etc/profile在文件底部添加这些你所安装的Hadoop解压缩后的路径以及它的bin目录包含Hadoop可执行文件和sbin目录包含系统级别的Hadoop可执行文件用于启动和停止Hadoop服务的路径。编好后保存退出用source /etc/profile使环境变量生效。 添加 export HADOOP_HOME/export/servers/hadoop-3.3.0export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 增加理解 三、验证Hadoop系统环境变量是否配置成功 执行hadoop version命令可以查看到Hadoop版本号就成功了跟查看JDK版本号的命令不同这个命令version前没有横杠- 四、修改Hadoop配置文件 修改的都是自己后来装的Hadoop3.3.0【/export/servers/hadoop-3.3.0/etc/hadoop】里的一共要修改六个文件。 hadoop-env.sh 在底部添加 export JAVA_HOME/export/servers/jdk1.8.0_271 #文件最后添加 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot我是分割线 core-site.xml 在底部添加 configuration property namefs.defaultFS/name valuehdfs://test:8020/value /property property namehadoop.tmp.dir/name value/export/data/hadoop-3.3.0/value /property !-- 设置HDFS web UI用户身份 -- property namehadoop.http.staticuser.user/name valueroot/value /property !-- 整合hive -- property namehadoop.proxyuser.root.hosts/name value*/value /property property namehadoop.proxyuser.root.groups/name value*/value /property !-- 文件系统垃圾桶保存时间 -- property namefs.trash.interval/name value1440/value /property /configuration我是分割线 hdfs-site.xml 在底部添加 configuration property namedfs.replication/name value2/value /property property namedfs.namenode.secondary.http-address/name valuetest1:9868/value /property /configuration我是分割线 mapred-site.xml 在底部添加 configuration property namemapreduce.framework.name/name valueyarn/value /property !-- 历史服务器端地址 -- property namemapreduce.jobhistory.address/name valuetest:10020/value /property !-- 历史服务器web端地址 -- property namemapreduce.jobhistory.webapp.address/name valuetest:19888/value /property property nameyarn.app.mapreduce.am.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property property namemapreduce.map.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property property namemapreduce.reduce.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property /configuration我是分割线 yarn-site.xml 在底部添加 configuration property nameyarn.resourcemanager.hostname/name valuetest/value /property property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value /property !-- 是否将对容器实施物理内存限制 -- property nameyarn.nodemanager.pmem-check-enabled/name valuefalse/value /property !-- 是否将对容器实施虚拟内存限制。 -- property nameyarn.nodemanager.vmem-check-enabled/name valuefalse/value /property !-- 开启日志聚集 -- property nameyarn.log-aggregation-enable/name valuetrue/value /property !-- 保存的时间7天 -- property nameyarn.log-aggregation.retain-seconds/name value604800/value /property /configuration我是分割线 workers 最终修改为core-site.xml已经指定了主节点的地址这里只要列出从节点地址就能让集群识别主从结点了【下面是两个从节点的名字】: test1 test2五、分发Hadoop安装目录 分发到test1 scp -r /export/servers/hadoop-3.3.0 roottest1:/export/servers 分发到test2 scp -r /export/servers/hadoop-3.3.0 roottest2:/export/servers 六、分发系统环境变量文件 分发到test1 scp /etc/profile roottest1:/etc 分发到test2 scp /etc/profile roottest2:/etc 分发完后在test1和test2执行source /etc/profile 七、格式化HDFS文件系统 在主结点test执行hdfs namenode -format注意只有初次启动Hadoop集群前才需要格式化。 八、启动Hadoop 在主结点test执行start-dfs.sh和start-yarn.sh实现在三台虚拟机上启动HDFS和YARN的相关服务。如果要关闭Hadoop则在主结点test执行stop-dfs.sh和stop-yarn.sh的命令。(或者start-all.sh一键启动) start-all.sh一键启动在Hadoop 2.x版本中已经被弃用在Hadoop 3.x版本中仍然可以使用但建议分别使用start-dfs.sh和start-yarn.sh来启动HDFS和YARN服务以避免潜在的问题。总的来说就是最好分别启动。 我是分割线 九、查看Hadoop运行状态 分别在三台虚拟机执行jps命令查看Hadoop运行状态。 搭建时遇到的问题⚠️ logs does not exist. Creating 这里是以test为主结点、test1和test2为从结点。 问题test1: WARNING: /export/servers/hadoop-3.3.0/logs does not exist. Creating. 解决办法在三个节点上启动journalnode命令是hdfs --daemon start journalnode就是三台虚拟机都需要执行这个命令。 secondary namenode等丢失jps时看不到 问题多次格式化导致secondary namenode等丢失jps时看不到 解决办法 关闭集群 stop-all.sh或stop-dfs.sh和stop-yarn.sh 删除集群产生的缓存文件三台机子都要 一/export/data的hadoop文件夹三台机子都要 二删除/export/servers/hadoop-3.1.4/logs三台机子都要 也是先刷新哦然后整个文件夹直接删掉格式化后会自己创建的 重新格式化 hdfs namenode -format 能量站 我遇到的挑战可以帮助我成长。 ❤️谢谢你为自己努力❤️
http://www.dnsts.com.cn/news/2067.html

相关文章:

  • 奥巴马网站设计seo视频教程
  • 海报模板素材网站中山网站建设公司
  • 假冒网站能通过备案登记吗足球世界排名国家最新
  • 运营网站是多少涟源网站seo
  • 如何做情趣网站十大最靠谱培训机构
  • 北京网站搭建多少钱新闻头条免费下载安装
  • 手机网站预览广告设计与制作需要学什么
  • WordPress登陆css黑锋网seo
  • 石家庄做网站排名公司哪家好搜索关键词热度
  • 网站功能开发需求分析浙江网站推广运营
  • 上海做建材上什么网站好上海优化seo
  • 常平网站建设网站建设公司哪家好
  • 今日国际新闻播报seo简单优化
  • 导航网站策划seo 是什么
  • 上海 专业网站设计前端seo优化
  • 郴州市北湖区北京优化互联网公司
  • 南通做网站多少钱互联网推广销售
  • 重庆大渡口营销型网站建设公司推荐武汉网站建设优化
  • 免费做网站安全吗百度关键词首页排名服务
  • 阿里巴巴批发网站叫什么出词
  • 网站开发工程师培训班资源平台
  • 那个网站可以做司考真题网络营销做得好的品牌
  • 做网站挣钱个人网站的制作模板
  • 平面设计作品赏析怎么做网站关键词优化
  • 大连华南网站建设营销策略主要包括哪些
  • 素材网站的图可以做海报吗谷歌优化工具
  • 做舞美的好素材网站j网络营销策略的特点
  • vi品牌设计公司vi设计seo网络优化是什么工作
  • 武汉地铁计划建设在哪个网站查看b站视频下载软件
  • python基础教程代码班级优化大师免费下载app