当前位置: 首页 > news >正文

产品设计网站官网公司装修效果全景图

产品设计网站官网,公司装修效果全景图,富阳网站建设 优帮云,福永专业外贸网站建设公司Hadoop的概述与安装 一、Hadoop内部的三个核心组件1、HDFS#xff1a;分布式文件存储系统2、YARN#xff1a;分布式资源调度系统3、MapReduce#xff1a;分布式离线计算框架4、Hadoop Common#xff08;了解即可#xff09; 二、Hadoop技术诞生的一个生态圈数据采集存储数… Hadoop的概述与安装 一、Hadoop内部的三个核心组件1、HDFS分布式文件存储系统2、YARN分布式资源调度系统3、MapReduce分布式离线计算框架4、Hadoop Common了解即可 二、Hadoop技术诞生的一个生态圈数据采集存储数据清洗预处理数据统计分析数据迁移数据可视化zookeeper 三、主要围绕Apache的Hadoop发行版本来学习四、Hadoop的安装的四种模式五、Hadoop的伪分布安装流程六、格式化HDFS集群七、启动HDFS和YARN八、Hadoop的完全分布式安装1、克隆虚拟机2、安装JDK3、安装Hadoop完全分布式4、格式化HDFS5、启动HDFS和YARN Hadoop技术 —— 脱自于Google的三篇论文(大数据软件一般都要求7*24小时不宕机) 把大数据中遇到的两个核心问题海量数据的存储问题和海量数据的计算问题全部解决了 一、Hadoop内部的三个核心组件 1、HDFS分布式文件存储系统 分布式思想解决了海量数据的分布式存储问题 三个核心组件组成 NameNode主节点 存储整个HDFS集群的元数据目录结构管理整个HDFS集群 DataNode数据节点/从节点 存储数据的DataNode以Block块的形式进行文件存储 SecondaryNameNode小秘书 帮助NameNode合并日志数据的元数据 2、YARN分布式资源调度系统 解决分布式计算程序的资源分配以及任务监控问题 Mesos分布式资源管理系统YARN的替代品 两个核心组件组成 ResourceManager主节点 管理整个YARN集群的同时负责整体的资源分配 NodeManager从节点 真正负责进行资源提供的 3、MapReduce分布式离线计算框架 分布式思想解决了海量数据的分布式计算问题 4、Hadoop Common了解即可 二、Hadoop技术诞生的一个生态圈 数据采集存储 flume、Kafka、hbase、hdfs 数据清洗预处理 MapReduce、Spark 数据统计分析 Hive、Pig 数据迁移 sqoop 数据可视化 ercharts zookeeper 三、主要围绕Apache的Hadoop发行版本来学习 官网https://hadoop.apache.org apache hadoop发行版本 hadoop1.xhadoop2.xhadoop3.x hadoop3.1.4 四、Hadoop的安装的四种模式 hadoop软件中HDFS和YARN是一个系统而且是一个分布式的系统同时他们还是一种主从架构的软件。 第一种本地安装模式只能使用MapReduceHDFS、YARN均无法使用 —— 基本不用 第二种伪分布安装模式hdfs和yarn的主从架构软件全部安装到同一个节点上 第三种完全分布式安装模式hdfs和yarn的主从架构组件安装到不同的节点上 第四种HA高可用安装模式hdfs和yarn的主从架构组件安装到不同节点上同时还需要把他们的主节点多安装两三个但是在同一时刻只能有一个主节点对外提供服务 —— 借助Zookeeper软件才能实现 修改配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-env.sh、mapred-site.xml、yarn-site.xml、yarn-env.sh、workers、log4j.properties、capacity-scheduler.xml、dfs.hosts、dfs.hosts.exclude 五、Hadoop的伪分布安装流程 1、需要在Linux上先安装JDKHadoop底层是基于Java开发的 环境变量的配置主要有两个地方可以配置 /etc/profile:系统环境变量 ~/.bash_profile用户环境变量 环境变量配置完成必须重新加载配置文件 source 环境变量文件路径2、配置当前主机的主机映射以及ssh免密登录 3、安装本地版本的Hadoop 上传 —— 使用xftp将Windows下载好的hadoop-3.1.4.tar.gz传输到/opt/software目录下解压 —— tar -zxvf hadoop-3.1.4.tar.gz -C /opt/app配置环境变量 vim /etc/profileexport HADOOP_HOME/opt/app/hadoop-3.1.4 export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinsource /etc/profile 4、安装伪分布式版本的Hadoop 修改各种各样的hadoop配置文件即可 hadoop-env.sh 配置Java的路径 vim hadoop-env.sh #第54行 export JAVA_HOME/opt/app/jdk1.8.0_371 #第58行 export HADOOP_HOME/opt/app/hadoop-3.1.4 #第68行 export HADOOP_CONF_DIR/opt/app/hadoop-3.1.4/etc/hadoop #最后一行 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERrootcore-site.xml 配置HDFS和YARN的一些共同的配置项 配置HDFS的NameNode路径配置HDFS集群存储的文件路径 vim core-site.xml !--在configuration标签中增加如下配置-- configuration!-- 指定HDFS中NameNode的地址 --propertynamefs.defaultFS/namevaluehdfs://single:9000/value/property!-- 指定hadoop运行时产生文件的存储目录 HDFS相关文件存放地址--propertynamehadoop.tmp.dir/namevalue/opt/app/hadoop-3.1.4/metaData/value/property!-- 整合hive 用户代理设置 --propertynamehadoop.proxyuser.root.hosts/namevalue*/value/propertypropertynamehadoop.proxyuser.root.groups/namevalue*/value/property/configuration hdfs-site.xml 配置HDFS的相关组件 配置NameNode的web访问路径、DN的web访问网站SNN的web访问路径等等 vim hdfs-site.xml configuration!-- 指定HDFS副本的数量 --propertynamedfs.replication/name!-- hdfs的dn存储的block的备份数--value1/value/property!--hdfs取消用户权限校验--propertynamedfs.permissions.enabled/namevaluefalse/value/propertypropertynamedfs.namenode.http-address/namevalue0.0.0.0:9870/value !-- 50070,9870-- /propertypropertynamedfs.datanode.http-address/namevalue0.0.0.0:9864/value !-- 50075,9864-- /propertypropertynamedfs.secondary.http-address/namevalue0.0.0.0:9868/value !-- 50090,9868-- /property!--用于指定NameNode的元数据存储目录--propertynamedfs.namenode.name.dir/namevalue/opt/app/hadoop-3.1.4/metaData/dfs/name1,/opt/app/hadoop-3.1.4/metaData/dfs/name2/value/property /configuration mapred-env.sh 配置MR程序运行时的关联的软件Java YARN路径 vim mapred-env.sh #最后一行 export JAVA_HOME/opt/app/jdk1.8.0_371mapred-site.xml 配置MR程序运行环境 配置将MR程序在YARN上运行 vim mapred-site.xml !-- 指定mr运行在yarn上 --propertynamemapreduce.framework.name/namevalueyarn/value/property!-- 指定MR APP Master需要用的环境变量 hadoop3.x版本必须指定--propertynameyarn.app.mapreduce.am.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/property!-- 指定MR 程序 map阶段需要用的环境变量 hadoop3.x版本必须指定--propertynamemapreduce.map.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/property!-- 指定MR程序 reduce阶段需要用的环境变量 hadoop3.x版本必须指定--propertynamemapreduce.reduce.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/property propertynamemapreduce.map.memory.mb/namevalue250/value /property propertynamemapreduce.map.java.opts/namevalue-Xmx250M/value /property propertynamemapreduce.reduce.memory.mb/namevalue300/value /property propertynamemapreduce.reduce.java.opts/namevalue-Xmx300M/value /propertypropertynamemapreduce.jobhistory.address/namevaluesingle:10020/value /property propertynamemapreduce.jobhistory.webapp.address/namevaluesingle:19888/value /property yarn-env.sh 配置YARN关联的组件路径 vim yarn-env.sh #最后一行 export JAVA_HOME/opt/app/jdk1.8.0_371yarn-site.xml 配置YARN的相关组件 配置RM、NM的web访问路径等等 vim yarn-site.xml !-- reducer获取数据的方式 --propertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/property!-- 指定YARN的ResourceManager的地址 --propertynameyarn.resourcemanager.hostname/name!-- 指定yarn的RM组件安装到哪个主机上--valuesingle/value/propertypropertynameyarn.application.classpath/name!-- 指定yarn软件在运行时需要的一些环境路径--value/opt/app/hadoop-3.1.4/etc/hadoop,/opt/app/hadoop-3.1.4/share/hadoop/common/*,/opt/app/hadoop-3.1.4/share/hadoop/common/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/hdfs/*,/opt/app/hadoop-3.1.4/share/hadoop/hdfs/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/mapreduce/*,/opt/app/hadoop-3.1.4/share/hadoop/mapreduce/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/yarn/*,/opt/app/hadoop-3.1.4/share/hadoop/yarn/lib/*/value/property !-- yarn.resourcemanager.webapp.address指的是RM的web访问路径-- !-- 日志聚集功能启动 -- propertynameyarn.log-aggregation-enable/namevaluetrue/value /property !-- 日志保留时间设置7天 -- propertynameyarn.log-aggregation.retain-seconds/namevalue604800/value /propertypropertynameyarn.log.server.url/namevaluehttp://single:19888/jobhistory/logs/value /property !--关闭yarn对虚拟内存的限制检查 -- propertynameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value /property workers/slaves 配置HDFS和YARN的从节点的主机 配置DN和NM在哪些节点上需要安装 vim workers !-- 将localhost改为single -- singlelog4j.properties —— 配置Hadoop运行过程中日志输出目录 vim log4j.properties #第19行 hadoop.log.dir/opt/app/hadoop-3.1.4/logs #指定Hadoop运行过程中日志输出目录六、格式化HDFS集群 hdfs namenode -format 七、启动HDFS和YARN HDFS start-dfs.sh 报错 解决方案 vim /etc/profile #在最后一行加入以下内容 # HADOOP 3.X版本还需要增加如下配置 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERroot #然后使配置文件生效 source /etc/profilestop-dfs.sh提供了一个web访问网站可以监控整个HDFS集群的状态信息 http://ip:9870 hadoop3.x ip:50070 hadoop2.x yarn start-yarn.sh stop-yarn.sh提供了一个web网站可以监控整个YARN集群的状态 http://ip:8088 八、Hadoop的完全分布式安装 1、克隆虚拟机 三台虚拟机需要配置IP、主机名、主机IP映射、ssh免密登录、时间服务器的安装同步、yum数据仓库更换为国内镜像源 时间服务器chrony的安装同步 yum install -y chrony先配置主服务器 vim /etc/chrony.conf 在第7行添加allow 192.168.31.0/24 再配置两台从服务器 vim /etc/chrony.conf 就将3 - 6行的server删除后添加一行server node1 iburst 开启服务 2、安装JDK 此处省略如需请查看之前博客 3、安装Hadoop完全分布式 hdfs.site.xml configurationpropertynamedfs.replication/namevalue3/value/property!--secondary namenode地址--propertynamedfs.namenode.secondary.http-address/namevaluenode3:9868/value/property!--hdfs取消用户权限校验--propertynamedfs.permissions.enabled/namevaluefalse/value /propertypropertynamedfs.namenode.datanode.registration.ip-hostname-check/namevaluetrue/value/property /configurationyarn.site.xml configuration !-- reducer获取数据的方式 --propertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/property!-- 指定YARN的ResourceManager的地址 --propertynameyarn.resourcemanager.hostname/namevaluenode2/value/propertypropertynameyarn.application.classpath/namevalue/opt/app/hadoop-3.1.4/etc/hadoop,/opt/app/hadoop-3.1.4/share/hadoop/common/*,/opt/app/hadoop-3.1.4/share/hadoop/common/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/hdfs/*,/opt/app/hadoop-3.1.4/share/hadoop/hdfs/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/mapreduce/*,/opt/app/hadoop-3.1.4/share/hadoop/mapreduce/lib/*,/opt/app/hadoop-3.1.4/share/hadoop/yarn/*,/opt/app/hadoop-3.1.4/share/hadoop/yarn/lib/*/value/property /configurationmapred-site.xml !-- 指定mr运行在yarn上 --propertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynameyarn.app.mapreduce.am.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/propertypropertynamemapreduce.map.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/propertypropertynamemapreduce.reduce.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value/property共需配置九个相关文件 然后将node1上的/opt/app发送到node2和node3节点上的/opt上 scp -r /opt/app rootnode2:/opt 4、格式化HDFS namenode所在节点格式化 hdfs namenode -format 5、启动HDFS和YARN 1、 HDFS是在namenode所在节点启动node1 2、YARN是在RM所在节点启动node2
http://www.dnsts.com.cn/news/50311.html

相关文章:

  • 怎么做类似返利网的网站西安网站关键词优化
  • 网站建设需要注意哪些关键细节2345浏览器主页
  • 做pc端网站一般多少钱网站怎么做域名跳转
  • 南昌装修网站建设网站建设第一品牌
  • 网站栏目设计模板成都专业网站排名推广
  • 龙岩做网站开发哪家公司好微网站建设方案财政
  • 无锡建站模板系统德宏北京网站建设
  • 东莞网站优化推广方案大连开发区邮编
  • 平台和网站有什么区别苏州十大软件公司招聘
  • 10个免费货源网站免费拓客软件哪个好用
  • 企业网站数据库上海品牌推广公司
  • 广州本地做网站贵州省住房和城乡建设局网站首页
  • 公司注册网站系统免费建站优化
  • 网站建设中要多使用图片兰州最坑人的装修公司
  • 深圳做网站找哪家好为什么不用wordpress
  • drupal7建站教程对网站开发流程的了解
  • 徐州网站建设xzqjw企信网是什么网站
  • 深圳市龙岗区建设局官网网站l兰州网站建设
  • 做别墅花园绿化的网站com域名为什么那么贵
  • 做worksheet的网站wordpress快速收录
  • 怎么做网站源码上海网站建设推
  • 怎么做盗号网站手机PHP网站开发项目式教程
  • 哪些网站是单页面阿里云建站和华为云建站哪个好
  • 镇江网站优化黄浦网站建设推广
  • 德国 网站 后缀wordpress模块咋编辑
  • 网站建设培训龙岗wordpress生成pdf
  • 找别人做网站注意什么做网站的目的与意义
  • 泉州做 php 网站盐山做网站价格
  • 外贸公司网站建站怎么修改网站首页html代码
  • 好大夫网站开发单位网站开发需要什么软件