当前位置: 首页 > news >正文

网站服务器名是什么广告制作平台

网站服务器名是什么,广告制作平台,建筑结构设计软件,固定ip 建网站目录 Part.01 关于HDP Part.02 核心组件原理 Part.03 资源规划 Part.04 基础环境配置 Part.05 Yum源配置 Part.06 安装OracleJDK Part.07 安装MySQL Part.08 部署Ambari集群 Part.09 安装OpenLDAP Part.10 创建集群 Part.11 安装Kerberos Part.12 安装HDFS Part.13 安装Ranger …目录 Part.01 关于HDP Part.02 核心组件原理 Part.03 资源规划 Part.04 基础环境配置 Part.05 Yum源配置 Part.06 安装OracleJDK Part.07 安装MySQL Part.08 部署Ambari集群 Part.09 安装OpenLDAP Part.10 创建集群 Part.11 安装Kerberos Part.12 安装HDFS Part.13 安装Ranger Part.14 安装YARNMR Part.15 安装HIVE Part.16 安装HBase Part.17 安装Spark2 Part.18 安装Flink Part.19 安装Kafka Part.20 安装Flume 十八、安装Flink 1.配置Ambari的flink资源 (1)创建flink源 下载链接为 https://repo.huaweicloud.com/apache/flink/flink-1.9.3/flink-1.9.3-bin-scala_2.12.tgz https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.6.5-7.0/flink-shaded-hadoop-2-uber-2.6.5-7.0.jar http://www.java2s.com/Code/JarDownload/javax.ws/javax.ws.rs-api-2.0.jar.zip 上传到hdp01上并复制到/var/www/html下 mkdir /var/www/html/flink cp /opt/flink-1.9.3-bin-scala_2.12.tgz /var/www/html/flink/ cp /opt/flink-shaded-hadoop-2-uber-2.6.5-7.0.jar /var/www/html/flink/ cp /opt/javax.ws.rs-api-2.0.jar /var/www/html/flink/(2)下载ambari-flink-service服务 在外网服务器上 git clone https://ghproxy.com/https://gitee.com/liujingwen-git/ambari-flink-service-master.git /root/FLINK注github.com无法直接下载可以使用gproxy.com进行代理加速拼接形成加速URL或者将github.com在本地强制解析为140.82.114.4 将FLINK文件夹上传到hdp01的/var/lib/ambari-server/resources/stacks/HDP/3.1/services/上对应的版本可在集群的服务器中查看 hdp-select status hadoop-client | sed s/hadoop-client - \([0-9]\.[0-9]\).*/\1/(3)文件说明 从github上下载的ambari-flink-service文件较多有些可以删除以及修改 (4)修改metainfo.xml文件 文件位置 /var/lib/ambari-server/resources/stacks/HDP/3.1/services/FLINK/metainfo.xml 修改版本 nameFLINK/namedisplayNameFlink/displayNamecommentApache Flink is a streaming dataflow engine that provides data distribution, communication, and fault tolerance for distributed computations over data streams./commentversion1.9.3/version删除FLINK_MASTER仅保留安装FLINK_CLIENT在Flink on YARN模式下master与ResourceManager合设无需单独安装 componentscomponentnameFLINK_CLIENT/namedisplayNameFlinkCLIENT/displayNamecategoryCLIENT/categorycardinality1/cardinalitycommandScriptscriptscripts/flink_client.py/scriptscriptTypePYTHON/scriptTypetimeout10000/timeout/commandScript/component/components(5)修改flink-ambari-config.xml文件 文件位置 /var/lib/ambari-server/resources/stacks/HDP/3.1/services/FLINK/configuration/flink-ambari-config.xml 修改安装路径 propertynameflink_install_dir/namevalue/usr/hdp/3.1.5.0-152/flink/valuedescriptionLocation to install Flink/description/property修改安装包下载地址 propertynameflink_download_url/namevaluehttp://hdp01.hdp.com/flink/flink-1.9.3-bin-scala_2.12.tgz/valuedescriptionSnapshot download location. Downloaded when setup_prebuilt is true/description/propertypropertynameflink_hadoop_shaded_jar/namevaluehttp://hdp01.hdp.com/flink/flink-shaded-hadoop-2-uber-2.6.5-7.0.jar/valuedescriptionFlink shaded hadoop jar download location. Downloaded when setup_prebuilt is true/description/property /configuration(6)修改flink-env.xml文件 文件位置 /var/lib/ambari-server/resources/stacks/HDP/3.1/services/FLINK/configuration/flink-env.xml 修改JAVA环境变量 env.java.home: /usr/local/jdk1.8.0_351/jre/(7)修改flink_client.py文件 文件位置 /var/lib/ambari-server/resources/stacks/HDP/3.1/services/FLINK/package/scripts/flink_client.py 该文件的作用调用相关的环境变量来实现整个安装过程 内容如下 #!/usr/bin/env ptyhonfrom resource_management import *class FlinkClient(Script):def install(self, env):print Install the Flink Clientimport paramsenv.set_params(params)self.configure(env)# create flink log dirDirectory(params.flink_log_dir,ownerparams.flink_user,groupparams.flink_group,create_parentsTrue,mode0775)Execute(format(rm -rf {flink_install_dir}/log/flink))Execute(format(ln -s {flink_log_dir} {flink_install_dir}/log/flink))def configure(self, env):import paramsenv.set_params(params)# write out flink-conf.yamlproperties_content InlineTemplate(params.flink_yaml_content)File(format(params.flink_install_dir /conf/flink-conf.yaml), contentproperties_content)def status(self, env):raise ClientComponentHasNoStatus()if __name__ __main__:FlinkClient().execute()(8)修改parameter.py文件 文件位置 /var/lib/ambari-server/resources/stacks/HDP/3.1/services/FLINK/package/scripts/params.py 该文件定义了部分环境变量 内容如下 #!/usr/bin/env python from resource_management import * from resource_management.libraries.script.script import Script import sys, os, glob from resource_management.libraries.functions.version import format_stack_version from resource_management.libraries.functions.default import default# server configurations config Script.get_config()# params from flink-ambari-config flink_install_dir config[configurations][flink-ambari-config][flink_install_dir] flink_numcontainers config[configurations][flink-ambari-config][flink_numcontainers] flink_numberoftaskslots config[configurations][flink-ambari-config][flink_numberoftaskslots] flink_jobmanager_memory config[configurations][flink-ambari-config][flink_jobmanager_memory] flink_container_memory config[configurations][flink-ambari-config][flink_container_memory] setup_prebuilt config[configurations][flink-ambari-config][setup_prebuilt] flink_appname config[configurations][flink-ambari-config][flink_appname] flink_queue config[configurations][flink-ambari-config][flink_queue] flink_streaming config[configurations][flink-ambari-config][flink_streaming]hadoop_conf_dir config[configurations][flink-ambari-config][hadoop_conf_dir] flink_download_url config[configurations][flink-ambari-config][flink_download_url] flink_hadoop_shaded_jar_url config[configurations][flink-ambari-config][flink_hadoop_shaded_jar] javax_ws_rs_api_jar config[configurations][flink-ambari-config][javax_ws_rs_api_jar]conf_dir bin_dir# params from flink-conf.yaml flink_yaml_content config[configurations][flink-env][content] flink_user config[configurations][flink-env][flink_user] flink_group config[configurations][flink-env][flink_group] flink_log_dir config[configurations][flink-env][flink_log_dir] flink_log_file os.path.join(flink_log_dir,flink-setup.log)temp_file/tmp/flink.tgz(9)添加用户及组 添加用户和组 groupadd flink useradd -d /home/flink -g flink flink(10)重启ambari服务 重启服务 ambari-server restart在ambari中的Stack and Versions中可以看到flink的信息 2.安装 添加flink服务 在Custom flink-env中新增 Keyyarn.client.failover-proxy-provider Valueorg.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider 3.实验wordcount 实验wordcount 从尚硅谷下载实验用的程序代码在idea中对以socket形式接收数据流的代码进行修改从192.168.111.1的nc处接收数据流然后对词频统计后输出到本地文件中 public static void main(String[] args) throws Exception {final StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment();env.setParallelism(1);DataStreamString stream env.socketTextStream(192.168.111.1, 1234);DataStreamTuple2String, Integer resultStream stream.flatMap(new Tokenizer()).keyBy(0).sum(1);resultStream.print();resultStream.writeAsText(/tmp/wc_result.txt);env.execute(Flink Streaming Java API Skeleton); }在idea中的Build-Build Artifacts中选择build生成jar包然后上传到hdp05上使用一个租户进行kerberos认证后提交flink任务。 cd /usr/hdp/3.1.5.0-152/flink/bin/ ./flink run -m yarn-cluster /root/flink-tutorial-master.jar -c WordCountFromSocket在192.168.111.1上启动nc nc -l 1234输入数据流后中断nc进程然后在hdp05上查看结果文件/tmp/wc_result.txt 在yarn上可以查看到对应的应用信息 4.常见报错 (1)安装时报错Unable to run the custom hook script 报错信息Error: Error: Unable to run the custom hook script [‘/usr/bin/python’, ‘/var/lib/ambari-agent/cache/stack-hooks/before-ANY/scripts/hook.py’, ‘ANY’, ‘/var/lib/ambari-agent/data/command-1360.json’, ‘/var/lib/ambari-agent/cache/stack-hooks/before-ANY’, ‘/var/lib/ambari-agent/data/structured-out-1360.json’, ‘INFO’, ‘/var/lib/ambari-agent/tmp’, ‘PROTOCOL_TLSv1_2’, ‘’] 2023-03-26 22:23:31,445 - The repository with version 3.1.5.0-152 for this command has been marked as resolved. It will be used to report the version of the component which was installed 通过ambari添加自定义服务时总是不能自动增加service账号 python configs.py -u admin -p lnydLNsy115 -n HDP315 -l hdp01 -t 8080 -a get -c cluster-env | grep -i ignore_groupsusers_create python configs.py -u admin -p lnydLNsy115 -n HDP315 -l hdp01 -t 8080 -a set -c cluster-env -k ignore_groupsusers_create -v true(2)安装后启动报错parent directory /usr/local/flink/conf doesn’t exist 安装后在启动时报错resource_management.core.exceptions.Fail: Applying File[‘/usr/local/flink/conf/flink-conf.yaml’] failed, parent directory /usr/local/flink/conf doesn’t exist 不知什么原因没解压过去需要手动解压到该目录 tar -zxvf /opt/flink-1.9.3-bin-scala_2.12.tgz -C /root/ mv /root/flink-1.9.3/* /usr/local/flink/(3)提交任务报错java.lang.NoClassDefFoundError 报错信息 java.lang.NoClassDefFoundError: com/sun/jersey/core/util/FeaturesAndProperties maven会自动下载相关的依赖jar包因此需要将project下的jersey依赖jar包拷贝至flink的lib目录下
http://www.dnsts.com.cn/news/272884.html

相关文章:

  • 支付宝 网站接口seo网站诊断报告
  • 佛山网站建设appwordpress php.ini在
  • 网站seo快速优化技巧美食网站建设的意义
  • 做音乐网站的选题背景全部游戏免费(试玩)不用下载
  • 平面设计公司赚钱吗佛山搜索引擎优化
  • 网站建设怎么入账企业不开了网站备案吗
  • 上海黄浦 网站制作在线设计logo的网站
  • 网站现状如何分析做网站从哪方面入门
  • 公司网站备案是什么意思百度的网址是什么呢
  • 通辽做网站制作创建一个网站需要什么
  • wap建站模板成都建站优化
  • 福建省建设厅网站首页房产类网站开发
  • 做网站报价单可以做多边形背景的网站
  • 关于幼儿建设网站ppt模板下载如何制作个人网站主页
  • 乔柘云智能建站logo设计网站在线
  • 拨号服务器做网站nat123个人备案网站可以做淘宝客吗
  • 电子商务网站建设期末考试新野微网站开发
  • 网站维护中一般要多长时间域名空间有了怎么做网站
  • c .net怎么做网站网站开发运营费用
  • 360网站推广官网wordpress前台注册地址
  • 广东网站建设包括什么软件中国建设银行网站特色
  • 专业做网站产品上架的有吗模板做网站
  • 暂时关闭wordpress插件工具站seo
  • 网站申请免费国外网站设计参考
  • 软件公司网站建设做外贸soho 需要有网站吗
  • 开发网站公司多少钱亚马逊公司网站建设的目的
  • 如何选择网站改版公司安居客房产官方网站
  • 深圳网站(建设信科网络)网页游戏交易平台有哪些
  • 哪个做砍价活动的网站好建设外贸网站多少钱
  • dedecms 把自己的网站添加进去企业网站的特点是什么