当前位置: 首页 > news >正文

手绘风格的网站跨境电商购物网站

手绘风格的网站,跨境电商购物网站,共青城网站建设,安卓手机app开发教程以下为作者本人撰写的报告#xff0c;步骤略有繁琐#xff0c;不建议作为参考内容#xff0c;可以适当浏览#xff0c;进一步理解。 一、实验目的 1、理解分布式文件系统的基本概念和工作原理。 2、掌握Hadoop分布式文件系统#xff08;HDFS#xff09;的基本操作。 …以下为作者本人撰写的报告步骤略有繁琐不建议作为参考内容可以适当浏览进一步理解。 一、实验目的 1、理解分布式文件系统的基本概念和工作原理。 2、掌握Hadoop分布式文件系统HDFS的基本操作。 3、学习如何在HDFS上进行文件的上传、下载、查看和管理。 二、实验环境准备 1、JAVA环境准备确保Java Development Kit (JDK) 已安装并配置好环境变量。 2、Hadoop环境准备安装并配置Hadoop环境确保Hadoop的各个组件可以在伪分布式模式下运行。 三、实验教材参考 《大数据存储》谭旭人民邮电出版社2022ISBN 978-7-115-59414-3。 四、实验内容与步骤 1、 Hadoop的安装与配置 1. 根据教材《大数据存储》中的指导完成Hadoop的安装。 2. 配置Hadoop以运行在伪分布式模式。 2.1 记录节点1的IP地址 节点1的IP地址为10.185.34.80 2.2 记录节点2的IP地址 节点2的IP地址为10.185.34.81 2.3 记录节点3的IP地址 节点3的IP地址为10.185.34.82 2.4 配置主机名称 主机1 名称配置 主机2名称配置 主机3名称配置 配置完名称后重启主机。 2.5 节点1主机名与IP地址映射文件配置 检测配置是否成功 配置成功。 主机2和主机3的步骤相同此处省略。 2.6 配置SSH免密码登录 2.6.1 节点秘钥配置及分发 使用下面代码生成使用rsa加密方式的秘钥 echo -e \n|ssh-keygen -t rsa -N /dev/null 21 查看秘钥 通过下面的命令将公钥文件发送到本机创建root免密钥通道 ssh-copy-id -i /root/.ssh/id_rsa.pub rootrealtime-1 将公钥文件发送到其他两个节点。其他两个节点进行相同的操作。此处省略。 2.6.2 登录测试 2.7 配置JDK 2.7.1 创建工作路径 2.7.2 解压安装包 2.7.3 配置环境变量 在.bashrc文件中写入下列内容 把环境变量配置文件分发到其他两个节点。 2.7.4 更新环境变量 2.7.5 验证JDK是否配置成功 2.8 NTP服务配置 2.8.1 NTP服务配置 主机1中NTP服务配置。 主机2中NTP服务配置。 主机3中NTP服务配置。 2.8.2 启动NTP服务 在主机1中启动NTP服务。 在主机2中启动NTP服务。 在主机3中启动NTP服务。 2.8.3 NTP服务状态查看 2.9 SElinux安全配置 关闭节点的SElinux的安全设置。 2.10 安装配置ZooKeeper集群 2.10.1 解压安装包 查看解压后的文件内容 2.10.2 数据存储目录创建 创建数据存储目录data和日志存储目录logs 2.10.3 主机myid编号文件创建 2.10.4 zookeeper 配置文件编辑 通过命令vi /usr/cx/zookeeper-3.4.6/conf/zoo.cfg 创建并打开zoo.cfg配置文件并在文件中写入下列内容 2.10.5 文件分发 通过下面命令将节点1的zookeeper文件包分发到节点2中。 scp -r /usr/cx/zookeeper-3.4.6 rootrealtime-2:/usr/cx/ 通过下面命令将节点1的zookeeper文件包分发到节点3中 scp -r /usr/cx/zookeeper-3.4.6 rootrealtime-3:/usr/cx/ 2.10.6 环境变量配置 通过命令 vi ~/.bashrc 使用vi编辑器打开 ~/.bashrc文件将文件编辑为下图内容 通过命令将环境变量配置文件分发到其他节点 2.10.7 更新环境变量 2.10.8 验证环境变量是否配置成功 三个节点上的zookeeper环境变量均配置成功 2.11 zookeeper启动及状态查看 2.11.1 zookeeper启动 三个节点上的zookeeper启动成功 2.11.2 zookeeper运行状态查看 由结果得出节点2是作为leader角色运行其他两个节点是作为follower角色运行。 2.12 配置hadoop集群 2.12.1 数据存储目录创建 创建Hadoop元数据存储目录namenodeHadoop数据存储目录datanode创建JournalNode数据存储目录journalnode创建任务调度的日志存储目录hadoop-yarn。 2.12.2 解压安装文件 使用tar -zxvf /usr/software/hadoop-2.7.1.tar.gz -C /usr/cx命令解压Hadoop安装文件。 2.12.3 编辑hadoop配置文件 使用vi /usr/cx/hadoop-2.7.1/etc/hadoop/hadoop-env.sh命令对配置文件进行编辑。 将此处修改为jdk的安装路径。 使用命令vi /usr/cx/hadoop-2.7.1/etc/hadoop/hdfs-site.xml 配置hdfs-site.xml 文件进行配置。将下列内容添加到configuration 和 /configuration 之间 /*配置DataNode的数据存储目录需要与上文创建的目录相对应*/ property namedfs.datanode.data.dir/name value/hdfs/datanode/value /property /*配置数据块大小为256M*/ property namedfs.blocksize/name value268435456/value /property /*自定义的HDFS服务名在高可用集群中无法配置单一HDFS服务器入口以需要指定一个逻辑上的服务名当访问服务名时会自动选择NameNode节点进行访问*/ property namedfs.nameservices/name valueHDFScluster/value /property /*配置NameNode的数据存储目录需要与上文创建的目录相对应*/ property namedfs.namenode.name.dir/name value/hdfs/namenode/value /property /*定义HDFS服务名所指向的NameNode主机名称*/ property namedfs.ha.namenodes.HDFScluster/name valuerealtime-1,realtime-2/value /property /*设置NameNode的完整监听地址*/ property namedfs.namenode.rpc-address.HDFScluster.realtime-1/name valuerealtime-1:8020/value /property /*设置NameNode的完整监听地址*/ property namedfs.namenode.rpc-address.HDFScluster.realtime-2/name valuerealtime-2:8020/value /property /*设置NameNode的HTTP访问地址*/ property namedfs.namenode.http-address.HDFScluster.realtime-1/name valuerealtime-1:50070/value /property /*设置NameNode的HTTP访问地址*/ property namedfs.namenode.http-address.HDFScluster.realtime-2/name valuerealtime-2:50070/value /property /*设置主从NameNode元数据同步地址官方推荐将nameservice作为最后的journal ID*/ property namedfs.namenode.shared.edits.dir/name valueqjournal://realtime-1:8485;realtime-2:8485;realtime-3:8485/HDFScluster/value /property /*设置HDFS客户端用来连接集群中活动状态NameNode节点的Java类*/ property namedfs.client.failover.proxy.provider.HDFScluster/name valueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value /property /*设置SSH登录的私钥文件地址*/ property namedfs.ha.fencing.ssh.private-key-files/name value/root/.ssh/id_rsa/value /property /*启动fence过程确保集群高可用性*/ property namedfs.ha.fencing.methods/name valueshell(/bin/true)/value /property /*配置JournalNode的数据存储目录需要与上文创建的目录相对应*/ property namedfs.journalnode.edits.dir/name value/hdfs/journalnode/value /property /*设置自动切换活跃节点保证集群高可用性*/ property namedfs.ha.automatic-failover.enabled/name valuetrue/value /property /*配置数据块副本数*/ property namedfs.replication/name value3/value /property /*将dfs.webhdfs.enabled属性设置为true否则就不能使用webhdfs的LISTSTATUS、LIST FILESTATUS等需要列出文件、文件夹状态的命令因为这些信息都是由namenode保存的*/ property namedfs.webhdfs.enabled/name valuetrue/value /property编辑完成后保存文件并退出vi编辑器。 使用命令vi /usr/cx/hadoop-2.7.1/etc/hadoop/core-site.xml 配置core-site.xml 文件进行配置。将下列内容添加到configuration 和 /configuration 之间 /*设置默认的HDFS访问路径需要与hdfs-site.xml中的HDFS服务名相一致*/ property namefs.defaultFS/name valuehdfs://HDFScluster/value /property /*临时文件夹路径设置*/ property namehadoop.tmp.dir/name value/usr/tmp/value /property /*配置ZooKeeper服务集群用于活跃NameNode节点的选举*/ property nameha.zookeeper.quorum/name valuerealtime-1:2181,realtime-2:2181,realtime-3:2181/value /property /*设置数据压缩算法*/ property nameio.compression.codecs/name valueorg.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec,com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec,org.apache.hadoop.io.compress.SnappyCodec/value /property property nameio.compression.codec.lzo.class/name valuecom.hadoop.compression.lzo.LzoCodec/value /property /*设置使用hduser用户可以代理所有主机用户进行任务提交*/ property namehadoop.proxyuser.hduser.host/name value*/value /property /*设置使用hduser用户可以代理所有组用户进行任务提交*/ property namehadoop.proxyuser.hduser.groups/name value*/value /property 编辑完成后保存文件并退出vi编辑器。 使用命令vi /usr/cx/hadoop-2.7.1/etc/hadoop/yarn-site.xml文件进行配置。将下列内容添加到configuration 和 /configuration 之间 /*设置NodeManager上运行的附属服务需配置成mapreduce_shuffle才可运行MapReduce程序*/ property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value /property property nameyarn.nodemanager.aux-services.mapreduce_shuffle.class/name valueorg.apache.hadoop.mapred.ShuffleHandler/value /property /*设置任务日志存储目录*/ property nameyarn.nodemanager.log-dirs/name valuefile:///var/log/hadoop-yarn /value /property /*设置Hadoop依赖包地址*/ property nameyarn.application.classpath/name value $HADOOP_HOME/share/hadoop/common/*,$HADOOP_HOME/share/hadoop/common/lib/*, HADOOP_HOME/share/hadoop/hdfs/*,$HADOOP_HOME/share/hadoop/hdfs/lib/*, $HADOOP_HOE/share/hadoop/mapreduce/*,$HADOOP_HOME/share/hadoop/mapreduce/lib/*, $HADOOP_HOME/share/hadoop/yarn/*,$HADOOP_HOME/share/hadoop/yarn/lib/* /value /property /*开启resourcemanager 的高可用性功能*/ property nameyarn.resourcemanager.ha.enabled/name valuetrue/value /property /*标识集群中的resourcemanager如果设置选项需要确保所有的resourcemanager节点在配置中都有自己的逻辑id*/ property nameyarn.resourcemanager.cluster-id/name valueYARNcluster/value /property /*设置resourcemanager节点的逻辑id*/ property nameyarn.resourcemanager.ha.rm-ids/name valuerm1,rm2/value /property /*为每个逻辑id绑定实际的主机名称*/ property nameyarn.resourcemanager.hostname.rm1/name valuerealtime-1/value /property property nameyarn.resourcemanager.hostname.rm2/name valuerealtime-2/value /property /*指定ZooKeeper服务地址*/ property nameyarn.resourcemanager.zk-address/name valuerealtime-1:2181,realtime-2:2181,realtime-3:2181/value /property /*指定resourcemanager的WEB访问地址*/ property nameyarn.resourcemanager.webapp.address.rm1/name valuerealtime-1:8089/value /property property nameyarn.resourcemanager.webapp.address.rm2/name valuerealtime-2:8089/value /property /*设定虚拟内存与实际内存的比例比例值越高则可用虚拟内存就越多*/ property nameyarn.nodemanager.vmem-pmem-ratio/name value3/value /property /*设定单个容器可以申领到的最小内存资源*/ property nameyarn.scheduler.minimum-allocation-mb/name value32/value /property /*设置当任务运行结束后日志文件被转移到的HDFS目录*/ property nameyarn.nodemanager.remote-app-log-dir/name valuehdfs://HDFScluster/var/log/hadoop-yarn/apps/value /property /*设定资调度策略目前可用的有FIFO、Capacity Scheduler和Fair Scheduler*/ property nameyarn.resourcemanager.scheduler.class/name valueorg.apache.hadoop.yan.server.resourcemanager.scheduler.capacity.CapacityScheduler/value /property /*设定每个任务能够申领到的最大虚拟CPU数目*/ property nameyarn.scheduler.maximum-allocation-vcores/name value8/value /property /*设置任务完成指定时间秒之后删除任务的本地化文件和日志目录*/ property nameyarn.nodemanager.delete.debug-delay-sec/name value600/value /property /*设置志在HDFS上保存多长时间秒*/ property nameyarn.nodemanager.log.retain-seconds/name value86400/value /property /*设定物理节点有2G内存加入资源池*/ property nameyarn.nodemanager.resource.memory-mb/name value2048/value /property编辑完成后保存文件并退出。 使用 cp /usr/cx/hadoop-2.7.1/etc/hadoop/mapred-site.xml.template /usr/cx/hadoop-2.7.1/etc/hadoop/mapred-site.xml 命令复制mapred-site.xml.template文件并重命名为mapred-site.xml。使用 vi 命令打开mapred-site.xml文件进行配置在文件 configuration和/configuration之间增加下列内容 /*Hadoop对MapReduce运行框架一共提供了3种实现在mapred-site.xml中通过mapreduce.framework.name这个属性来设置为classic、yarn或者local*/ property namemapreduce.framework.name/name valueyarn/value /property使用 vi /usr/cx/hadoop-2.7.1/etc/hadoop/slaves 命令打开slaves文件进行配置。将文件中的内容更改为图中内容 编辑完成后保存文件并退出。 2.12.4 文件分发 通过命令 scp -r /usr/cx/hadoop-2.7.1 rootrealtime-n:/usr/cx/ 将节点1 的Hadoop文件包分到其他节点中。 2.12.5 配置Hadoop环境变量 通过命令 vi  ~/.bashrc 使用vi编辑器编辑~/.bashrc文件在文件中加入图中内容编辑完成后保存并退出。 通过scp分发命令将节点1的环境变量文件分发到其他两个节点。 2.12.6 更新环境变量 执行图中命令更新三个节点中的环境变量。 2.12.7 格式化HDFS 执行命令 hadoop namenode -format 格式化HDFS文件系统。 2.12.8 格式化zkfc元数据 执行命令 hdfs zkfc -formatZK 格式化zkfc元数据在一个节点中进行处理即可。 2.19 Hadoop集群启用运行 2.19.1 启动HDFS相关服务 执行命令 start-dfs.sh 启动HDFS相关服务。 执行命令 jps 查看节点1中对应的相关服务。 执行命令 ssh realtime-2 hadoop namenode -bootstrapStandby 格式化Standby节点。 格式化Standby节点后执行命令 ssh realtime-2 hadoop-daemon.sh start namenode 启动Standby节点的NameNode进程。 2.13.2 启动yarn相关服务 执行命令 start-yarn.sh 启动yarn相关服务。 执行命令 ssh realtime-2 yarn-daemon.sh start resourcemanager 在节点2中启动ResourceManager进程。 2、启动Hadoop HDFS 1. 启动HDFS。 2. 验证HDFS是否成功启动可以使用jps命令查看Java进程确认NameNode和DataNode等进程是否运行。 出现以上内容表示启动成功。 3、HDFS基本操作实践 1. 目录操作使用hdfs dfs -mkdir命令创建新的目录。 2. 文件上传使用hdfs dfs -put命令上传本地文件到HDFS。 3. 文件下载使用hdfs dfs -get命令下载HDFS上的文件到本地。 4. 文件查看使用hdfs dfs -cat命令查看HDFS上的文件内容。 5. 文件删除使用hdfs dfs -rm命令删除HDFS上的文件。
http://www.dnsts.com.cn/news/147145.html

相关文章:

  • 沭阳住房和城乡建设局网站网页设计与制作用什么软件做
  • 网站搜索 代码惠城区龙丰街道
  • 建筑招工网站报告总结网站建设实验
  • 网站建设提案ppt做货代的有哪些网站
  • 如皋建设医院网站微信如何申请小程序
  • 嘉兴市建设工程监理协会网站中秋节网页设计素材
  • 内网网站建设的必要性平台推广
  • 商务网站建设工程师做网站需要哪些方面的支出
  • 网页设计作业可爱的家乡做seo需要哪些知识
  • 网站设计与开发专业校园网站建设年度总结
  • 网站开发的服务台州关键词首页优化
  • 怎么制作一个免费的网站模板网站备案能查到什么
  • 自己想做网站广州 电商设计网站建设
  • 网站改版后不收录建设电影网站需要什么
  • 广州化妆品网站设计公司网站横幅如何做
  • 网站建设公司 技术评估汕头金平区
  • 备案的网站有什么好处福建莆田网站开发
  • 官方网站建设流程广州地产网站设计
  • 有没有专门做售楼部包装的网站航拍中国 重庆
  • 做网站的投入教育网站制作服务
  • 益阳建设局网站wordpress 环镜
  • 设计云网站时光轴 网站
  • 我的网站设计联盟网页制作三剑客是指
  • 网站设计作品案例讲解做食品网站有哪些
  • wordpress建站位置临颖网站建设
  • 为什么建设银行网站购物网站建设方案
  • 东营网站推广公司专业网站改版
  • 网站怎样做外链网页设计师证书考试内容
  • 网站ui新网站做内链
  • 国产的主题wordpress南京seo公司哪家好