当前位置: 首页 > news >正文

网站后期维护价格企业管理软件a6怎么新建账套

网站后期维护价格,企业管理软件a6怎么新建账套,南京中建乡旅建设投资有限公司网站,安安互联怎么上传网站听说这里是目录哦 一、安装Hadoop#x1f955;二、配置Hadoop系统环境变量#x1f96e;三、验证Hadoop系统环境变量是否配置成功#x1f9c1;四、修改Hadoop配置文件#x1f36d;五、分发Hadoop安装目录#x1f9cb;六、分发系统环境变量文件#x1f368;七、格式化HDFS文… 听说这里是目录哦 一、安装Hadoop二、配置Hadoop系统环境变量三、验证Hadoop系统环境变量是否配置成功四、修改Hadoop配置文件五、分发Hadoop安装目录六、分发系统环境变量文件七、格式化HDFS文件系统八、启动Hadoop九、查看Hadoop运行状态搭建时遇到的问题⚠️logs does not exist. Creatingsecondary namenode等丢失jps时看不到 能量站 前提是集群里的虚拟机间实现了免密登录以及JDK的成功安装执行 java -version查看JDK版本号。【可以参考 Hadoop•FinalShell连接VMware免密登录和 Hadoop•安装JDK】【这里是以test为主结点、test1和test2为从结点。如果看到node了就是我忘改了node的是以node1为主结点、node2和node3为从结点。怕真出现了会迷惑还是谨慎一点点~】 一、安装Hadoop 三台机子的JDK和Hadoop版本必须一致 电脑下载Hadoop安装包需要该安装包可以在文章下面评论1如果宝贝是学生你们老师应该会给命令记得要根据安装包名字对应更改哦用FinalShell直接上传到虚拟机用mv命令移动到所需文件夹。如mv /jdk-8u271-linux-x64.tar.gz /export/software即mv /要移动文件的名字/要移动到的文件夹如果显示没有那个文件或目录“Hadoop•安装JDK”里有解决办法将位于/export/software的文件名为hadoop-3.3.0.tar.gz的Hadoop安装包解压缩到/export/servers命令为tar -zxvf /export/software/hadoop-3.3.0.tar.gz -C /export/servers 这里的目录约定在Hadoop•安装JDK有说明 二、配置Hadoop系统环境变量 编辑环境变量的配置文件命令为vi /etc/profile在文件底部添加这些你所安装的Hadoop解压缩后的路径以及它的bin目录包含Hadoop可执行文件和sbin目录包含系统级别的Hadoop可执行文件用于启动和停止Hadoop服务的路径。编好后保存退出用source /etc/profile使环境变量生效。 添加 export HADOOP_HOME/export/servers/hadoop-3.3.0export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 增加理解 三、验证Hadoop系统环境变量是否配置成功 执行hadoop version命令可以查看到Hadoop版本号就成功了跟查看JDK版本号的命令不同这个命令version前没有横杠- 四、修改Hadoop配置文件 修改的都是自己后来装的Hadoop3.3.0【/export/servers/hadoop-3.3.0/etc/hadoop】里的一共要修改六个文件。 hadoop-env.sh 在底部添加 export JAVA_HOME/export/servers/jdk1.8.0_271 #文件最后添加 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot我是分割线 core-site.xml 在底部添加 configuration property namefs.defaultFS/name valuehdfs://test:8020/value /property property namehadoop.tmp.dir/name value/export/data/hadoop-3.3.0/value /property !-- 设置HDFS web UI用户身份 -- property namehadoop.http.staticuser.user/name valueroot/value /property !-- 整合hive -- property namehadoop.proxyuser.root.hosts/name value*/value /property property namehadoop.proxyuser.root.groups/name value*/value /property !-- 文件系统垃圾桶保存时间 -- property namefs.trash.interval/name value1440/value /property /configuration我是分割线 hdfs-site.xml 在底部添加 configuration property namedfs.replication/name value2/value /property property namedfs.namenode.secondary.http-address/name valuetest1:9868/value /property /configuration我是分割线 mapred-site.xml 在底部添加 configuration property namemapreduce.framework.name/name valueyarn/value /property !-- 历史服务器端地址 -- property namemapreduce.jobhistory.address/name valuetest:10020/value /property !-- 历史服务器web端地址 -- property namemapreduce.jobhistory.webapp.address/name valuetest:19888/value /property property nameyarn.app.mapreduce.am.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property property namemapreduce.map.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property property namemapreduce.reduce.env/name valueHADOOP_MAPRED_HOME${HADOOP_HOME}/value /property /configuration我是分割线 yarn-site.xml 在底部添加 configuration property nameyarn.resourcemanager.hostname/name valuetest/value /property property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value /property !-- 是否将对容器实施物理内存限制 -- property nameyarn.nodemanager.pmem-check-enabled/name valuefalse/value /property !-- 是否将对容器实施虚拟内存限制。 -- property nameyarn.nodemanager.vmem-check-enabled/name valuefalse/value /property !-- 开启日志聚集 -- property nameyarn.log-aggregation-enable/name valuetrue/value /property !-- 保存的时间7天 -- property nameyarn.log-aggregation.retain-seconds/name value604800/value /property /configuration我是分割线 workers 最终修改为core-site.xml已经指定了主节点的地址这里只要列出从节点地址就能让集群识别主从结点了【下面是两个从节点的名字】: test1 test2五、分发Hadoop安装目录 分发到test1 scp -r /export/servers/hadoop-3.3.0 roottest1:/export/servers 分发到test2 scp -r /export/servers/hadoop-3.3.0 roottest2:/export/servers 六、分发系统环境变量文件 分发到test1 scp /etc/profile roottest1:/etc 分发到test2 scp /etc/profile roottest2:/etc 分发完后在test1和test2执行source /etc/profile 七、格式化HDFS文件系统 在主结点test执行hdfs namenode -format注意只有初次启动Hadoop集群前才需要格式化。 八、启动Hadoop 在主结点test执行start-dfs.sh和start-yarn.sh实现在三台虚拟机上启动HDFS和YARN的相关服务。如果要关闭Hadoop则在主结点test执行stop-dfs.sh和stop-yarn.sh的命令。(或者start-all.sh一键启动) start-all.sh一键启动在Hadoop 2.x版本中已经被弃用在Hadoop 3.x版本中仍然可以使用但建议分别使用start-dfs.sh和start-yarn.sh来启动HDFS和YARN服务以避免潜在的问题。总的来说就是最好分别启动。 我是分割线 九、查看Hadoop运行状态 分别在三台虚拟机执行jps命令查看Hadoop运行状态。 搭建时遇到的问题⚠️ logs does not exist. Creating 这里是以test为主结点、test1和test2为从结点。 问题test1: WARNING: /export/servers/hadoop-3.3.0/logs does not exist. Creating. 解决办法在三个节点上启动journalnode命令是hdfs --daemon start journalnode就是三台虚拟机都需要执行这个命令。 secondary namenode等丢失jps时看不到 问题多次格式化导致secondary namenode等丢失jps时看不到 解决办法 关闭集群 stop-all.sh或stop-dfs.sh和stop-yarn.sh 删除集群产生的缓存文件三台机子都要 一/export/data的hadoop文件夹三台机子都要 二删除/export/servers/hadoop-3.1.4/logs三台机子都要 也是先刷新哦然后整个文件夹直接删掉格式化后会自己创建的 重新格式化 hdfs namenode -format 能量站 我遇到的挑战可以帮助我成长。 ❤️谢谢你为自己努力❤️
http://www.dnsts.com.cn/news/193140.html

相关文章:

  • 网站建设费税率谷歌服务加速 wordpress
  • 深圳移动网站建设公司价格微信外链网站开发
  • 胶州建设局网站博客网站推广
  • 网站建设捌金手指下拉十六wordpress 字体颜色
  • 企业网站php网站后台管理系统代码
  • 网站设计建设案例注册一个公司全部流程
  • 罗湖做网站运营乐云seo网站开发的层级结构
  • 哪个网站做logo赚钱汉沽做网站
  • 网站源码上传服务器了怎么做博客 选择 WordPress
  • 什么样的网站结构适合做seo移动互联网开放合作联盟
  • 基于ssh架构网站开发网站建设哈尔滨
  • 网监关闭的网站怎么恢复萍乡网页设计
  • 在哪里找人做公司网站可以做哪些网站
  • c 网站开发需要什么软件深圳网站建设找智恒网络
  • 电子商务网站开发技术的背景制作网页创建站点的步骤
  • jsp做网站还电商关键词排名优化怎么做?
  • 上海建站中心网站建设百家号
  • 自己做网站要会什么做二手元器件那个网站查价格
  • 搭建一个商城网站广告位招商怎么找客户
  • 惠州外贸网站建设推广会计培训班推荐
  • 网站开发设计进度表河南郑州网站建设哪家公司好
  • 初中生做网站挣钱南昌大学作风建设网站
  • 教育培训网站建设网站建设方案书编写
  • 陕西省网站开发做网站的服务器有哪些
  • 郑州网站排名分析wordpress本地访问慢
  • 作文网站高中WordPress如何获取logo
  • 江苏网站建设 seo便宜的域名购买
  • 网站建设 软件开发网站开发是前端还是后台
  • 网站 建设需要提供哪些资料合肥哪里有建站公司
  • 可以做网站头像的图片贵州省都匀市网站建设