当前位置: 首页 > news >正文

小江高端企业网站建设wordpress下拉框插件

小江高端企业网站建设,wordpress下拉框插件,sempre音乐术语,网站怎么做才有百度权重#x1f4cb; 博主简介 #x1f496; 作者简介#xff1a;大家好#xff0c;我是wux_labs。#x1f61c; 热衷于各种主流技术#xff0c;热爱数据科学、机器学习、云计算、人工智能。 通过了TiDB数据库专员#xff08;PCTA#xff09;、TiDB数据库专家#xff08;PCTP… 博主简介 作者简介大家好我是wux_labs。 热衷于各种主流技术热爱数据科学、机器学习、云计算、人工智能。 通过了TiDB数据库专员PCTA、TiDB数据库专家PCTP、TiDB数据库认证SQL开发专家PCSD认证。 通过了微软Azure开发人员、Azure数据工程师、Azure解决方案架构师专家认证。 对大数据技术栈Hadoop、Hive、Spark、Kafka等有深入研究对Databricks的使用有丰富的经验。 个人主页wux_labs如果您对我还算满意请关注一下吧~ 个人社区数据科学社区如果您是数据科学爱好者一起来交流吧~ 请支持我欢迎大家 点赞收藏⭐️吐槽您的支持是我持续创作的动力~ 《PySpark大数据分析实战》-11.Spark on YARN模式安装Hadoop 《PySpark大数据分析实战》-11.Spark on YARN模式安装Hadoop前言安装Hadoop集群配置环境变量配置Hadoop集群环境信息同步 格式化NameNode结束语 《PySpark大数据分析实战》-11.Spark on YARN模式安装Hadoop 前言 大家好今天为大家分享的是《PySpark大数据分析实战》第2章第4节的内容Spark on YARN模式安装Hadoop。 图书在当当、京东、机械工业出版社以及各大书店有售 Spark独立集群模式还可以部署成高可用模式在集群中部署多个Master节点其中一个Master是Active的其余是StandBy的。Spark独立集群、Spark高可用独立集群都是可用于生产环境的集群部署模式在这两种集群模式下Spark除了担任计算引擎还需要承担资源管理的工作。Spark本身定位于一个计算引擎而不是资源管理框架Spark已经将资源管理模块做了抽象支持外部资源管理框架对Spark的集群资源进行管理再用独立集群模式自己做资源管理调度就没那么必要了。 在企业中涉及大数据处理的通常都会部署Hadoop集群、HDFS文件系统同时就会有YARN资源管理调度框架完全可以将Spark的资源管理工作交给YARN来做YARN承担资源管理调度工作Spark专注于计算因此就有了Spark on YARN的集群模式。本节将介绍Spark on YARN的安装Spark on YARN的安装至少需要3台服务器在安装之前按照本章第1节步骤准备好3台服务器。 安装Hadoop集群 Hadoop的安装非常简单将下载的Hadoop软件安装包解压到目标位置、配置Hadoop相关的环境变量即安装完成。Spark on YARN模式下Spark应用程序在提交执行的时候YARN会根据集群的资源情况选择分配执行应用程序的节点从选中的节点启动Spark为了保证Spark能启动成功需要在Hadoop集群的每台服务器节点上都安装有Spark软件。Hadoop和Spark软件解压到目录路径命令如下 $ tar -xzf hadoop-3.3.5.tar.gz -C apps $ tar -xzf spark-3.4.0-bin-hadoop3.tgz -C apps需要在集群的每个节点上都安装Hadoop和Spark可以复制软件安装包到每个节点进行分别安装也可以将安装好软件的apps目录同步到每个节点上。 Hadoop的目录结构如图所示。 bin目录下存放的是Hadoop相关的常用命令例如操作HDFS的hdfs命令以及hadoop、yarn等命令。etc目录下存放的是Hadoop的配置文件对HDFS、MapReduce、YARN以及集群节点列表的配置都在这个里面。sbin目录下存放的是管理集群相关的命令例如启动集群、启动HDFS、启动YARN、停止集群等的命令。share目录下存放了一些Hadoop的相关资源例如文档以及各个模块的Jar包。 配置环境变量 在集群的每个节点上都配置Hadoop和Spark相关的环境变量Hadoop集群在启动的时候可以使用start-all.sh一次性启动集群中的HDFS和YARN而Spark的集群启动命令也是start-all.sh在Spark on YARN下不需要启动Spark集群为了防止在启动Hadoop集群的时候命令冲突需要将Hadoop相关的路径配置在PATH变量的前面部分Spark相关的路径配置在PATH变量的后面部分执行启动集群start-all.sh的时候会优先寻找到并使用Hadoop的启动命令正确启动Hadoop集群。在node1上配置环境变量命令如下 $ vi .bashrc环境变量配置内容如下 export HADOOP_HOME/home/hadoop/apps/hadoop-3.3.5 export HADOOP_CONF_DIR/home/hadoop/apps/hadoop-3.3.5/etc/hadoop export YARN_CONF_DIR/home/hadoop/apps/hadoop-3.3.5/etc/hadoop export SPARK_HOME/home/hadoop/apps/spark-3.4.0-bin-hadoop3 PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin PATH$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin export PATH环境变量配置完成后执行命令让新配置的环境变量生效命令如下 $ source ~/.bashrc配置Hadoop集群 Hadoop软件安装完成后每个节点上的Hadoop都是独立的软件需要进行配置才能组成Hadoop集群。Hadoop的配置文件在$HADOOP_HOME/etc/hadoop目录下主要配置文件有 hadoop-env.sh主要配置Hadoop环境相关的信息例如安装路径、配置文件路径等。core-site.xml是Hadoop的核心配置文件主要配置Hadoop的NameNode的地址、Hadoop产生的文件目录等。hdfs-site.xml是HDFS相关的配置文件主要配置文件的副本数、HDFS文件系统在本地对应的目录等。mapred-site.xml是MapReduce相关的配置文件主要配置MapReduce如何运行、依赖类库路径等。yarn-site.xml是YARN相关的配置文件主要配置YARN的管理节点ResourceManager的地址、NodeManager获取数据的方式等。workers是集群中节点列表的配置文件只有在这个文件里面配置了的节点才会加入到Hadoop集群中否则就是一个独立节点。 这几个配置文件如果不存在可以通过复制配置模板的方式创建也可以通过创建新文件的方式创建。需要保证在集群的每个节点上这6个配置保持同步在node1上配置所有配置文件。 hadoop-env.sh配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/hadoop-env.shhadoop-env.sh配置内容如下 export JAVA_HOME /usr/lib/jvm/java-8-openjdk-amd64 export HADOOP_HOME/home/hadoop/apps/hadoop-3.3.5 export HADOOP_CONF_DIR/home/hadoop/apps/hadoop-3.3.5/etc/hadoop export HADOOP_LOG_DIR/home/hadoop/logs/hadoopcore-site.xml配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/core-site.xmlcore-site.xml配置内容如下 configurationpropertynamefs.defaultFS/namevaluehdfs://node1:8020/value/propertypropertynamehadoop.tmp.dir/namevalue/home/hadoop/works/hadoop/temp/value/propertypropertynamehadoop.proxyuser.hadoop.hosts/namevalue*/value/propertypropertynamehadoop.proxyuser.hadoop.groups/namevalue*/value/property /configurationhdfs-site.xml配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/hdfs-site.xmlhdfs-site.xml配置内容如下 configurationpropertynamedfs.replication/namevalue3/value/propertypropertynamedfs.namenode.name.dir/namevalue/home/hadoop/works/hadoop/hdfs/name/value/propertypropertynamedfs.datanode.data.dir/namevalue/home/hadoop/works/hadoop/hdfs/data/value/property /configurationmapred-site.xml配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/mapred-site.xmlmapred-site.xml配置内容如下 configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.application.classpath/namevalue$HADOOP_HOME/share/hadoop/mapreduce/*:$HADOOP_HOME/share/hadoop/mapreduce/lib/*/value/property /configurationyarn-site.xml配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/yarn-site.xmlyarn-site.xml配置内容如下 configurationpropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.resourcemanager.hostname/namevaluenode1/value/property /configurationworkers配置命令如下 $ vi $HADOOP_HOME/etc/hadoop/workersworkers配置内容如下 node1 node2 node3环境信息同步 确保3台服务器上的配置文件完全一致为了防止配置出错直接使用命令将node1上的配置文件复制到其他服务器上复制命令如下 $ scp -r .bashrc apps node2:~/ $ scp -r .bashrc apps node3:~/格式化NameNode 所有节点上都安装完成Hadoop、Spark的软件完成所有节点的环境变量配置、域名解析配置、配置文件配置在启动集群之前还需要进行NameNode的格式化操作在NameNode所在的node1节点上执行格式化命令如下 $ hdfs namenode -formatNameNode格式化完成后在目录/home/hadoop/works/hadoop/hdfs/name下会生成current目录在current目录中会包含fsimage文件它是NameNode的一个元数据文件记录了当前HDFS文件系统中的所有目录和文件的元数据信息。 结束语 好了感谢大家的关注今天就分享到这里了更多详细内容请阅读原书或持续关注专栏。
http://www.dnsts.com.cn/news/186034.html

相关文章:

  • 商丘高端网站建设网站怎么做英语和中文的
  • 个人网站备案电话访谈网站关键词字数
  • 西宁整站优化微信官方服务平台
  • 深圳高端品牌网站建设阮一峰的个人网站
  • 多少钱能运营一个网站wordpress 100并发
  • 网站需要哪些费用民治网站建设yihe kj
  • 南昌网站优化可以做哪些网站有哪些
  • 去哪个网站有客户找做标书的洪梅镇网站建设
  • 如何让新网站快速收录网站建设优化汕头
  • 武进区建设局网站昆山 网站建设
  • 手机网站免费生成app可以赚钱做任务的网站有哪些
  • 手机端网站源码wordpress调用文章标题
  • 网站建设好后为什么要维护厦门网站建设网页设计
  • 用dede做的网站首页google网站收录
  • 最好的dm单网站建设个人如何做购物网站 关于支付接口
  • 北京市建设工程质量监督站网站湖南微信网站营销
  • 免费制作网站wordpress免插件
  • 网站网站游戏怎么做阿里云wordpress菜鸟
  • 中山市智能h5网站建设公司网站访客qq获取
  • 网络课程网站模板手机app开发网站模板
  • 品牌网站建设框架网站建设包括啥
  • 用jq和ajax做能登陆注册的一个网站wordpress后台添加新的文章类别
  • 网站进入贵金属企业网站源码
  • 低价网站制作顺德中小型企业网络拓扑图及配置
  • 百色高端网站建设竞价网络推广培训
  • 淘宝网站可信度状况及建设策略校园网站开发的意义
  • 甘南州合作市住房建设局网站wordpress 插件 浮动小人
  • 网站建设销售话术900句牛企网络
  • 做外贸需要到外汇管理网站广汉市建设局官方网站
  • 网站建设招标办法宁波网站建设哪家强