当前位置: 首页 > news >正文

萍乡手机网站建设建立网站可以赚钱吗

萍乡手机网站建设,建立网站可以赚钱吗,wordpress安装好了怎么登陆网站,产品网络营销策划Flink支持多种安装部署方式 StandaloneON YARNMesos、Kubernetes、AWS… 这些安装方式我们主要讲一下standalone和on yarn。 如果是一个独立环境的话#xff0c;可能会用到standalone集群模式。 在生产环境下一般还是用on yarn 这种模式比较多#xff0c;因为这样可以综合利…Flink支持多种安装部署方式 StandaloneON YARNMesos、Kubernetes、AWS… 这些安装方式我们主要讲一下standalone和on yarn。 如果是一个独立环境的话可能会用到standalone集群模式。 在生产环境下一般还是用on yarn 这种模式比较多因为这样可以综合利用集群资源。和我们之前讲的 spark on yarn是一样的效果这个时候我们的Hadoop集群上面既可以运行MapReduce任务Spark任务还可以运行Flink任务一举三得。 一、Standalone 1. 集群规划 依赖环境 jdk1.8及以上【配置JAVA_HOME环境变量】 ssh免密码登录 在这我们使用bigdata01、02、03这三台机器这几台机器的基础环境都是ok的可以直接使用。 集群规划如下 masterbigdata01 slavebigdata02、bigdata03 2. 下载flink安装包 注意由于目前Flink各个版本之间差异比较大属于快速迭代阶段所以在这我们就使用最新版本了使用Flink1.11.1版本。 3. 安装步骤 1.安装包下载好以后上传到bigdata01的/data/soft目录中 [rootbigdata01 soft]# ll flink-1.11.1-bin-scala_2.12.tgz -rw-r--r--. 1 root root 312224884 Aug 5 2026 flink-1.11.1-bin-scala_2.12. tgz 2. 解压 [rootbigdata01 soft]# tar -zxvf flink-1.11.1-bin-scala_2.12.tgz 3.修改配置 [rootbigdata01 soft]# cd flink-1.11.1 [rootbigdata01 flink-1.11.1]# cd conf/ [rootbigdata01 conf]# vi flink-conf.yaml ...... jobmanager.rpc.address: bigdata01 ...... [rootbigdata01 conf]# vi masters bigdata01:8081 [rootbigdata01 conf]# vi workers bigdata02 bigdata03 3将修改完配置的flink目录拷贝到其它两个从节点 [rootbigdata01 soft]# scp -rq flink-1.11.1 bigdata02:/data/soft/ [rootbigdata01 soft]# scp -rq flink-1.11.1 bigdata03:/data/soft/ 4启动Flink集群 [rootbigdata01 soft]# cd flink-1.11.1 [rootbigdata01 flink-1.11.1]# bin/start-cluster.sh Starting cluster. Starting standalonesession daemon on host bigdata01. Starting taskexecutor daemon on host bigdata02. Starting taskexecutor daemon on host bigdata03. 5验证一下进程 在bigdata01上执行jps [rootbigdata01 flink-1.11.1]# jps 3986 StandaloneSessionClusterEntrypoint 在bigdata02上执行jps [rootbigdata02 ~]# jps 2149 TaskManagerRunner 在bigdata03上执行jps [rootbigdata03 ~]# jps 2150 TaskManagerRunner 6访问Flink的web界面         http://bigdata01:8081 7停止集群在主节点上执行停止集群脚本 [rootbigdata01 flink-1.11.1]# bin/stop-cluster.sh Stopping taskexecutor daemon (pid: 2149) on host bigdata02. Stopping taskexecutor daemon (pid: 2150) on host bigdata03. Stopping standalonesession daemon (pid: 3986) on host bigdata01. 4. Standalone集群核心参数 5. slot vs parallelism 1slot是静态的概念是指taskmanager具有的并发执行能力 2parallelism是动态的概念是指程序运行时实际使用的并发能力 3设置合适的parallelism能提高程序计算效率太多了和太少了都不好 二、Flink ON YARN Flink ON YARN模式就是使用客户端的方式直接向Hadoop集群提交任务即可。不需要单独启动Flink进程。 注意 1Flink ON YARN 模式依赖Hadoop 2.4.1及以上版本 2Flink ON YARN支持两种使用方式 1. Flink ON YARN第一种方式 下面来看一下第一种方式 第一步在集群中初始化一个长时间运行的Flink集群 使用yarn-session.sh脚本 第二步使用flink run命令向Flink集群中提交任务 注意使用flink on yarn需要确保hadoop集群已经启动成功 1. 首先在bigdata04机器上安装一个Flink客户端其实就是把Flink的安装包上传上去解压即可不需要启动 [rootbigdata04 soft]# tar -zxvf flink-1.11.1-bin-scala_2.12.tgz 2. 接下来在执行 yarn-session.sh 脚本之前我们需要先设置 HADOOP_CLASSPATH 这个环境变量否则执行yarn-session.sh 是会报错的提示找不到hadoop的一些依赖。 [rootbigdata01 flink-1.11.1]# bin/yarn-session.sh -jm 1024m -tm 1024m -d Error: A JNI error has occurred, please check your installation and try again Exception in thread main java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/exceptions/YarnExceptionat java.lang.Class.getDeclaredMethods0(Native Method)at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)at java.lang.Class.privateGetMethodRecursive(Class.java:3048)at java.lang.Class.getMethod0(Class.java:3018)at java.lang.Class.getMethod(Class.java:1784)at sun.launcher.LauncherHelper.validateMainClass(LauncherHelper.java:544)at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:526) Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.yarn.exceptions.YarnExceptionat java.net.URLClassLoader.findClass(URLClassLoader.java:382)at java.lang.ClassLoader.loadClass(ClassLoader.java:424)at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)... 7 more 在 /etc/profile 中配置 HADOOP_CLASSPATH [rootbigdata04 flink-1.11.1]# vi /etc/profile export JAVA_HOME/data/soft/jdk1.8 export HADOOP_HOME/data/soft/hadoop-3.2.0 export HIVE_HOME/data/soft/apache-hive-3.1.2-bin export SPARK_HOME/data/soft/spark-2.4.3-bin-hadoop2.7 export SQOOP_HOME/data/soft/sqoop-1.4.7.bin__hadoop-2.6.0 export HADOOP_CLASSPATH${HADOOP_HOME}/bin/hadoop classpath export PATH.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$SPARK_HO ME/bin:$SQOOP_HOME/bin:$PATH 刷新配置 [rootbigdata01 flink-1.11.1]# source /etc/profile 3. 接下来使用 yarn-session.s h在YARN中创建一个长时间运行的Flink集群 [rootbigdata04 flink-1.11.1]# bin/yarn-session.sh -jm 1024m -tm 1024m -d 这个表示创建一个Flink集群 -jm 是指定主节点的内存 -tm 是指定从节点的内存 -d 是表示把这个进程放到后台去执行。启动之后会看到类似这样的日志信息这里面会显示flink web界面的地址以及这个flink集群在yarn中对应的applicationid。 此时到YARN的web界面中确实可以看到这个flink集群。 可以使用屏幕中显示的flink的web地址或者yarn中这个链接都是可以进入这个flink的web界面的 4. 接下来向这个Flink集群中提交任务此时使用Flink中的内置案例 [rootbigdata04 flink-1.11.1]# bin/flink run ./examples/batch/WordCount.jar 注意这个时候我们使用flink run的时候它会默认找这个文件然后根据这个文件找到刚才我们 创建的那个永久的Flink集群这个文件里面保存的就是刚才启动的那个Flink集群在YARN中对应 的applicationid。 2023-02-19 02:11:19,306 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-root. 2023-02-19 02:11:19,306 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-root.[rootbigdata04 flink-1.11.1]# more /tmp/.yarn-properties-root #Generated YARN properties file #Tue Jan 20 22:50:06 CST 2026 dynamicPropertiesString applicationIDapplication_1768906309581_0005 5.任务提交上去执行完成之后再来看flink的web界面发现这里面有一个已经执行结束的任务了。 注意这个任务在执行的时候会动态申请一些资源执行任务任务执行完毕之后对应的资源会自动释放掉。 6. 最后把这个Flink集群停掉使用yarn的kill命令 [rootbigdata04 flink-1.11.1]# yarn application -kill application_1768906309581_0005 7. 针对 yarn-session 命令它后面还支持一些其它参数可以在后面传一个 -help 参数 [rootbigdata04 flink-1.11.1]# bin/yarn-session.sh -help Usage: Optional -at,--applicationType arg Set a custom application type for the application on YARN -D propertyvalue use value for given property -d,--detached If present, runs the job in detached m ode -h,--help Help for the Yarn session CLI. -id,--applicationId arg Attach to running YARN session -j,--jar arg Path to Flink jar file -jm,--jobManagerMemory arg Memory for JobManager Container with o ptional unit (default: MB) -m,--jobmanager arg Address of the JobManager to which to connect. Use this flag to connect to a different JobManager than the one sp ecified in the configuration. -nl,--nodeLabel arg Specify YARN node label for the YARN a pplication -nm,--name arg Set a custom name for the application on YARN -q,--query Display available YARN resources (memo ry, cores) -qu,--queue arg Specify YARN queue. -s,--slots arg Number of slots per TaskManager -t,--ship arg Ship files in the specified directory (t for transfer) -tm,--taskManagerMemory arg Memory per TaskManager Container with optional unit (default: MB) -yd,--yarndetached If present, runs the job in detached m ode (deprecated; use non-YARN specific option instead) -z,--zookeeperNamespace arg Namespace to create the Zookeeper sub- paths for high availability mode 在这我对一些常见的命令进行了整理添加了中文注释 注意这里的-j 是指定Flink任务的jar包此参数可以省略不写也可以 2. Flink ON YARN第二种方式 flink run -m yarn-cluster (创建Flink集群提交任务) 使用flink run直接创建一个临时的Flink集群并且提交任务 此时这里面的参数前面加上了一个 y 参数  [rootbigdata04 flink-1.11.1]# bin/flink run -m yarn-cluster -yjm 1024 -ytm 1024 ./examples/batch/WordCount.jar 提交上去之后会先创建一个Flink集群然后在这个Flink集群中执行任务。 针对Flink命令的一些用法汇总: 三、Flink ON YARN的好处 1提高大数据集群机器的利用率 2一套集群可以执行MR任务Spark任务Flink任务等 四、向集群中提交Flink任务 接下来我们希望把前面我们自己开发的Flink任务提交到集群上面在这我就使用flink on yarn的第二种方式来向集群提交一个Flink任务。 1. 在pom.xml中添加打包配置   buildplugins!-- 编译插件 --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-compiler-plugin/artifactIdversion3.6.0/versionconfigurationsource1.8/sourcetarget1.8/targetencodingUTF-8/encoding/configuration/plugin!-- scala编译插件 --plugingroupIdnet.alchim31.maven/groupIdartifactIdscala-maven-plugin/artifactIdversion3.1.6/versionconfigurationscalaCompatVersion2.12/scalaCompatVersionscalaVersion2.12.11/scalaVersionencodingUTF-8/encoding/configurationexecutionsexecutionidcompile-scala/idphasecompile/phasegoalsgoaladd-source/goalgoalcompile/goal/goals/executionexecutionidtest-compile-scala/idphasetest-compile/phasegoalsgoaladd-source/goalgoaltestCompile/goal/goals/execution/executions/plugin!-- 打jar包插件(会包含所有依赖) --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-assembly-plugin/artifactIdversion2.6/versionconfigurationdescriptorRefsdescriptorRefjar-with-dependencies/descriptorRef/descriptorRefsarchivemanifest!-- 可以设置jar包的入口类(可选) --mainClass/mainClass/manifest/archive/configurationexecutionsexecutionidmake-assembly/idphasepackage/phasegoalsgoalsingle/goal/goals/execution/executions/plugin/plugins/build 2. 打包代码 mvn clean package -DskipTests 3. 将 db_flink-1.0-SNAPSHOT-jar-with-dependencies.jar 上传到bigdata04机器上 的 /data/soft/flink-1.11.1 目录中(上传到哪个目录都可以) 4. 提交Flink任务 注意提交任务之前先开启socket [rootbigdata04 ~]# nc -l 9001 [rootbigdata04 flink-1.11.1]#bin/flink run -m yarn-cluster -c com.imooc.scala.stream.SocketWindowWordCountScala -yjm 1024 -ytm 1024 db_flink-1.0-SNAPSHOT-jar-with-dependencies.jar 6. 此时到yarn上面可以看到确实新增了一个任务点击进去可以看到flink的web界面 通过socket输入一串内容 然后到flink的web界面查看日志 7. 接下来我们希望把这个任务停掉因为这个任务是一个流处理的任务提交成功之后它会一直运行。 注意此时如果我们使用ctrlc关掉之前提交任务的那个进程这里的flink任务是不会有任何影响的可以一直运行因为flink任务已经提交到hadoop集群里面了。 此时如果想要停止Flink任务有两种方式 方式一停止yarn中任务 [rootbigdata04 flink-1.11.1]# yarn application -kill application_1768962956138_0001 方式二停止flink任务。可以在界面上点击这个按钮或者在命令行中执行flink cancel停止都可以 或者 [rootbigdata04 flink-1.11.1]# bin/flink cancel -yid application_1768962956138_0001 7b99bfb261a92f84a89d87bcca3a3e23 这个flink任务停止之后对应的那个yarn-sessionFlink集群也就停止了。 五、开启Flink的HistoryServer 注意此时flink任务停止之后就无法再查看flink的web界面了如果想看查看历史任务的执行信息就看不了了怎么办呢 咱们之前在学习spark的时候其实也遇到过这种问题当时是通过启动spark的historyserver进程解决的。flink也有historyserver进程也是可以解决这个问题的。historyserver进程可以在任意一台机器上启动在这我们选择在bigdata04机器上启动在启动historyserver进程之前需要先修改bigdata04中的flink-conf.yaml配置文件。 [rootbigdata04 flink-1.11.1]# vi conf/flink-conf.yaml jobmanager.archive.fs.dir: hdfs://bigdata01:9000/completed-jobs/ historyserver.web.address: 192.168.182.103 historyserver.web.port: 8082 historyserver.archive.fs.dir: hdfs://bigdata01:9000/completed-jobs/ historyserver.archive.fs.refresh-interval: 10000 然后启动flink的historyserver进程 [rootbigdata04 flink-1.11.1]# bin/historyserver.sh start 注意hadoop集群中的historyserver进程也需要启动 此时Flink任务停止之后也是可以访问flink的web界面的。
http://www.dnsts.com.cn/news/88670.html

相关文章:

  • 建设电影推荐网站的项目背景wordpress与cms
  • 社区教育网站建设方案爱站网站长百度查询权重
  • 添加网站绑定主机名wap手机网站开发
  • 网站手机客户端制作免费h5旅游网站模板
  • 诚信网站建设做网站申请完空间后下一步干啥
  • 网站关键词排名分析中信建设有限责任公司 乔锋 电话
  • 网站后台有安全狗深圳高端网站建设网页设计
  • 重庆做网站需要多少钱生成关键词的软件免费
  • 上海工商网站wordpress恶意广告
  • 建设银行网站用户注册不了网站风格设计的选择
  • 福州专业做网站的公司有哪些公众号微网站建设认证
  • 营口房地产网站开发深圳建工集团股份有限公司待遇
  • 网站加入wordpress綦江网站建设公司
  • 为什么找别人做网站wordpress下载插件美化
  • 合肥网站快速优化排名南通企业网站排名
  • 自己做网站可以挣钱吗微信开放社区
  • element ui设计网站wordpress拼音目录
  • 西安知名网站建设公司网页设计与制作的实训报告怎样写
  • 怎么做自己网站里的资讯织梦网站修改教程视频教程
  • 网站关键词都在第二页生成手机网站
  • 网站开发设计培训中国比较好的设计网站
  • 肇庆做网站gdmkd设计室内装修app软件
  • 阿里云做电影网站吗网站的建设目标是什么
  • 做h5的网站的区别山东省质量建设监督总站网站
  • 建设网上银行怎么开通肇庆网站快速排名优化
  • 网站建设 技术支持wordpress 评论 图片
  • 网站如何兼容ie6泉州专业网站制作公司
  • 哈尔滨网站建设排行电商 企业网站 福州
  • 网站设计 网站建设 手机网站建设网站制作公司官网南京
  • 平板上做网站的软件搜索引擎提交入口