当前位置: 首页 > news >正文

关键词网站wordpress转义

关键词网站,wordpress转义,python做的网站多吗,吴博 wordpress目录 安装包 flume的部署 负载均衡测试 故障恢复 安装包 在这里给大家准备好了flume的安装包 通过网盘分享的文件#xff1a;apache-flume-1.9.0-bin.tar.gz 链接: https://pan.baidu.com/s/1DXMA4PxdDtUQeMB4J62xoQ 提取码: euz7 --来自百度网盘超级会员v4的分享 ----… 目录 安装包 flume的部署 负载均衡测试 故障恢复 安装包 在这里给大家准备好了flume的安装包 通过网盘分享的文件apache-flume-1.9.0-bin.tar.gz 链接: https://pan.baidu.com/s/1DXMA4PxdDtUQeMB4J62xoQ 提取码: euz7  --来自百度网盘超级会员v4的分享 ----------------------------------------------------------------------------------------------- 大家自行下载。那么正片开始。 flume的部署 首先我们切换到software目录 cd /export/software 使用rz命令上传安装包 上传完成后解压缩安装包道servers目录 tar -zxvf apache-flume-1.9.0-bin.tar.gz -C /export/servers 解压缩完成之后 切换到servers目录 cd /export/servers 之后我们进行一个重命名的大动作。 mv apache-flume-1.9.0-bin flume okfine一切完成之后让我们切换到conf目录 cd /export/servers/flume/conf 切换完成之后开始进行下一步 复制一下文件。 cp flume-env.sh.template flume-env.sh 完成之后我们输入ll查看一下自己是不是安装成功了。 之后我们输入。 vi flume-env.sh 进入文件然后输入shift g 到达文件底部最后贴入自己java的环境变量。 export JAVA_HOME/export/servers/jdk 大家根据自己的实际情况来进行修改哈如果不知道自己的java环境变量是什么的话可以冒号wq保存退出之后在命令行输入· vi /etc/profile 然后使用shiftg到达文件底部。 查看一下自己的环境变量再复制粘贴到刚才的文件里。 看到这里首先不要着急的去复制。 来都来了我们顺手配置一下flume的环境变量。 export FLUME_HOME/export/servers/flume export PATH$FLUME_HOME/bin:$PATH OK配置完成之后我们esc保存退出。 之后让我们来分发一下Flume吧。 scp -r /export/servers/flume/ hadoop02:/export/servers/ scp -r /export/servers/flume/ hadoop03:/export/servers/ 现在你已经分发完flume了那么接下来我们再分发一下环境变量。 scp -r /etc/profile hadoop02:/etc/ scp -r /etc/profile hadoop02:/etc/ 分发完hadoop02和hadoop03环境变量接下来我们需要分别在hadop02和hadoop03上输入 soruce /etc/profile 来令环境变量生效。 接下来我们测试一下hadoop01的哦配置效果、 切换到hadoop01的data目录下 cd /export/data 切换完成之后执行 netcat-logger.conf 复制下面的内容带哦文件里 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type netcat a1.sources.r1.bind localhost a1.sources.r1.port 44444 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 输入完成之后保存退出。 输入下面的命令看下效果。 flume-ng agent --name a1 --conf conf/ --conf-file /export/data/netcat-logger.conf -Dflume.root.loggerINFO,console 出现下面的页面就算是成功了。 那么让我们再次打开一个hadoop01窗口开始进行一些操作 打开另一个窗口之后我们 yum -y install telnet 下载一个telnet包 下载完成之后连接一下44444端口 telnet localhost 44444 然后另一边 日志采集到这里就算是完成了。 接下来使用ctrlc退出进行下一步。两个窗口都ctrlc然后随便关闭一个。 都干完之后我们来到hadop01的flume的conf目录 cd /export/servers/flume/conf 输入 vi exec-avro.conf 然后粘贴下面的内容粘贴完成之后保存退出。 a1.sources r1 a1.sinks k1 k2 a1.channels c1 a1.sources.r1.channels c1 a1.sources.r1.type exec a1.sources.r1.command tail -F /export/data/123.log a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.sinks.k1.channel c1 a1.sinks.k1.type avro a1.sinks.k1.hostname hadoop02 a1.sinks.k1.port 53421 a1.sinks.k2.channel c1 a1.sinks.k2.type avro a1.sinks.k2.hostname hadoop03 a1.sinks.k2.port 53421 a1.sinkgroups g1 a1.sinkgroups.g1.sinks k1 k2 a1.sinkgroups.g1.processor.type load_balance a1.sinkgroups.g1.processor.backoff true a1.sinkgroups.g1.processor.selector random a1.sinkgroups.g1.processor.maxTimeOut10000 输入完成之后我切换搭配hadoop02的conf目录下 vi avro-logger1.conf 染的时候输入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop02 a1.sources.r1.port 53421 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 完成之后切换到hadoop03的虚拟机 同样是切换目录 vi avro-logger2.conf 切换完成之后我们输入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop03 a1.sources.r1.port 53421 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 配置完成之后我们在hadoop02上执行下面的命令来启动agent flume-ng agent --name a1 --conf conf/ --conf-file avro-logger1.conf -Dflume.root.loggerINFO,console 完成之后切换到hadoop03执行下面的命令 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger2.conf -Dflume.root.loggerINFO,console 下面放上hadoop01和hadoop02启动成功的画面 之后我们切换回hadoop01 切换到conf目录 cd /export/servers/flume/conf 之后输入下面的命令 flume-ng agent --name a1 --conf conf/ --conf-file exec-avro.conf -Dflume.root.loggerINFO,console 启动成功之后如下图所示。 ok一切完成之后我们开始一个负载均衡测试。 负载均衡测试 我们再次打开一个hadop01的窗口 像data目录下写入flume flume... 下面的命令每隔两秒会向日志追加一条flume flume... while true;do echo flume flume... /export/data/123.log;sleep 2;done hadoop01和hadoop03会如下图所示 接下来我们就可以开心的开始下一项’ 故障恢复 下面文件里的内容一定要和自己的主机名搭配起来 来到hadoop01的conf目录下 cd /export/servers/flume/conf 输入 vi exec-avro-failover.conf 输入下面的内容 a1.sources r1 a1.sinks k1 k2 a1.channels c1 a1.sources.r1.channels c1 a1.sources.r1.type exec a1.sources.r1.command tail -F /export/data/456.log a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.sinks.k1.channel c1 a1.sinks.k1.type avro a1.sinks.k1.hostname hadoop02 a1.sinks.k1.port 53422 a1.sinks.k2.channel c1 a1.sinks.k2.type avro a1.sinks.k2.hostname hadoop03 a1.sinks.k2.port 53422 a1.sinkgroups g1 a1.sinkgroups.g1.sinks k1 k2 a1.sinkgroups.g1.processor.type failover a1.sinkgroups.g1.processor.priority.k1 5 a1.sinkgroups.g1.processor.priority.k2 10 a1.sinkgroups.g1.processor.maxpenalty 10000 那么好 接下来切换到hadoop02 vi avro-logger3.conf 写入以下内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop02 a1.sources.r1.port 53422 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 ​ 然后wq保存退出 那么再切换到hadoop03 vi avro-logger4.conf 写入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop03 a1.sources.r1.port 53422 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 接下来切换到hadoop02,输入 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger3.conf -Dflume.root.loggerINFO,console 接下来切换到hadoop03 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger4.conf -Dflume.root.loggerINFO,console 接下来切换到hadoop01的conf目录下。 cd /export/servers/flume/conf flume-ng agent --name a1 --conf conf/ --conf-file exec-avro-failover.conf -Dflume.root.loggerINFO,console 全部启动成功之后我们切换到 hadoop01就可以提开始发挥了 while true;do echo flume flume... /export/data/456.log;sleep 2;done 音位hadoop03的优先级会比hadoop02高 所以是hadoop03会比hadoop02先写入日志 这个时候就要及时止损 ctrlc退出静等一会儿你就会发现 hadoop02上出现了hadoop03上终止的信息。日志记录不会被停止‘
http://www.dnsts.com.cn/news/179598.html

相关文章:

  • 如皋企业网站建设东莞物流网站设计公司
  • 做两个阿里网站吗谁会写网站代码
  • 网站建设与代运营产品介绍福州 网站备案
  • wordpress图站花店网站建设课程设计
  • 上海专业网站建设费东莞网页设计招聘
  • 天津做流产五洲网站凡科建站平台
  • 宝盒 网站画廊网站模板 frontpage
  • 互联网网站建设情况统计表出国劳务信息
  • 百度SEO网站建e网室内设计网现代简约
  • 装饰公司起名字寓意好的字20条优化措施
  • 辽宁省建设工程信息网业绩公示整站优化包年
  • 公司网站是否做地方分站商场网站建设公司
  • 服装网站建设准备瑞丽网站建设
  • php网站服务器架设运城网站建设价格
  • wordpress建站详细教程企业邮箱入口登录
  • 做背景视频哪个网站好如何写好软文推广
  • 卓伊科技网站建设网站建设定制开发推广
  • 网站开发入门书籍推荐咸阳公司网站建设
  • 大朗东莞网站建设互联网大赛官网入口
  • 房产网站怎么做才能吸引人做背景图获取网站
  • 石油网站建设价格哈尔滨百度优化
  • 源码做网站烟台网站建设哪家服务好
  • seo点评类网站广东粤数网络建设有限公司
  • 个人网站 前置审批三亚网站开发公司
  • 阿里云的网站程序如何做江苏和城乡建设厅网站
  • 旅游做攻略网站好建行个人余额查询网站
  • 宁夏网站建设费用做网站收益
  • 网站用 做有什么好处小程序电商系统开发
  • 哪个网站做二手车买卖做外汇必须要网站
  • 做视频网站 视频放在哪长沙seo网站排名优化