当前位置: 首页 > news >正文

做网站需要多少钱一个月小程序开发平台的设计是实现

做网站需要多少钱一个月,小程序开发平台的设计是实现,做网站哪个简单点,莒县网站建设公司概览 技术方案#xff1a; 日志采集服务#xff1a;通过利用Flume-ng对业务平台中用户对于电影的一次评分行为进行采集#xff0c;实时发送到Kafka集群。消息缓冲服务#xff1a;项目采用Kafka作为流式数据的缓存组件#xff0c;接受来自Flume的数据采集请求。并将数据推…概览 技术方案 日志采集服务通过利用Flume-ng对业务平台中用户对于电影的一次评分行为进行采集实时发送到Kafka集群。消息缓冲服务项目采用Kafka作为流式数据的缓存组件接受来自Flume的数据采集请求。并将数据推送到项目的实时推荐系统部分。实时推荐服务项目采用Spark Streaming作为实时推荐系统通过接收Kafka中缓存的数据通过设计的推荐算法实现对实时推荐的数据处理并将结构合并更新到MongoDB数据库。 1. 实现思路 我们应该如何实现 首先应该redis安装这里存储用户的第K次评分用户评分存入redis中安装zookeeper安装kafka都是standlone模式测试Kafka与Spark Streaming 联调。Kafka生产一条数据Spark Streaming 可以消费成功,并根据redis中的数据和MongoDB数据进行推荐存入MongoDB中在业务系统写埋点信息测试时写入本地文件之后再远程测试写入云服务器log文件中flume配置文件书写kafka创建两个topic对整个过程进行测试 2 环境准备 1.1 redis 安装 redis安装redis安装密码123456存入redis一些数据 lpush uid:1 mid:scoreredis 教程教程 1.2 zookeeper单机版安装 zookeeper安装zookeeper安装版本3.7.1遇到的坑8080端口连接占用我们需要在zoo.cpg文件中加上 admin.serverPort8001重新启动即可。 1.3 kafka单机安装 kafka安装官网下载地址安装使用的为127.0.0.1启动kafkakafka教程 bin/kafka-server-start.sh config/server.properties创建一个topic bin/kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic recommender生产一个消息 bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic recommender消费一个消息 bin/kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --topic recommender --from-beginning3 测试kafka与spark streaming联调 kafka版本2.2.0spark版本2.3.0因此使用spark-streaming-kafka-0-10 启动kafka生产一条信息书写程序 // 定义kafka连接参数val kafkaParam Map(bootstrap.servers - 服务器IP:9092,key.deserializer - classOf[StringDeserializer],value.deserializer - classOf[StringDeserializer],group.id - recommender,auto.offset.reset - latest)// 通过kafka创建一个DStreamval kafkaStream KafkaUtils.createDirectStream[String, String]( ssc,LocationStrategies.PreferConsistent,ConsumerStrategies.Subscribe[String, String]( Array(config(kafka.topic)), kafkaParam ))// 把原始数据UID|MID|SCORE|TIMESTAMP 转换成评分流// 1|31|4.5|val ratingStream kafkaStream.map{msg val attr msg.value().split(\\|)( attr(0).toInt, attr(1).toInt, attr(2).toDouble, attr(3).toInt )}若是kafka报错如果你同样也是云服务器请注意kafka的配置信息很重要 1解决方法修改kafka配置文件设置为设置listeners为内网ip设置外网ip 解决方案修改内网ip 2重新启动成功 内网外网分流内网外网分流kafka入门教程入门教程 redis报错开启保护模式了需要修改conf文件 效果 在kafka生产一个数据可以在MongoDB中得到推荐的电影结果 4 后端埋点 前端进行评分后触发click事件后端进行测试埋点利用log4j写入本地文件中。 4.1 本地测试 log4j配置文件 log4j.rootLoggerINFO, file, stdout# write to stdout log4j.appender.stdoutorg.apache.log4j.ConsoleAppender log4j.appender.stdout.layoutorg.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern%d{yyyy-MM-dd HH:mm:ss,SSS} %5p --- [%50t] %-80c(line:%5L) : %m%n# write to file log4j.appender.fileorg.apache.log4j.RollingFileAppender log4j.appender.FILE.Appendtrue log4j.appender.FILE.ThresholdINFO log4j.appender.file.FileF:/demoparent/business/src/main/log/agent.txt log4j.appender.file.MaxFileSize1024KB log4j.appender.file.MaxBackupIndex1 log4j.appender.file.layoutorg.apache.log4j.PatternLayout log4j.appender.file.layout.ConversionPattern%d{yyyy-MM-dd HH:mm:ss,SSS} %5p --- [%50t] %-80c(line:%6L) : %m%n埋点实现 //埋点日志 import org.apache.log4j.Logger;// 关键代码 Logger log Logger.getLogger(MovieController.class.getName()); log.info(MOVIE_RATING_PREFIX : uid | mid | score | System.currentTimeMillis()/1000)4.2 写入远程测试 Linux安装syslog服务进行测试主机log4j配置文件设置服务器ip log4j配置写入远程服务器 log4j.appender.syslogorg.apache.log4j.net.SyslogAppender log4j.appender.syslog.SyslogHost 服务器IP log4j.appender.syslog.ThresholdINFO log4j.appender.syslog.layoutorg.apache.log4j.PatternLayout log4j.appender.syslog.layout.ConversionPattern%d{yyyy-MM-dd HH:mm:ss,SSS} %5p --- [%20t] %-130c:(line:%4L) : %m%n5 flume配置 flume对接kafkaflume对接文件flume设置source和sinksource为文件地址sink为kafka的log # log-kafka.properties agent.sources exectail agent.channels memoryChannel agent.sinks kafkasink agent.sources.exectail.type exec agent.sources.exectail.command tail -f /project/logs/agent.log agent.sources.exectail.interceptorsi1 agent.sources.exectail.interceptors.i1.typeregex_filter agent.sources.exectail.interceptors.i1.regex.MOVIE_RATING_PREFIX. agent.sources.exectail.channels memoryChannelagent.sinks.kafkasink.type org.apache.flume.sink.kafka.KafkaSink agent.sinks.kafkasink.kafka.topic log agent.sinks.kafkasink.kafka.bootstrap.servers 服务器地址:9092 agent.sinks.kafkasink.kafka.producer.acks 1 agent.sinks.kafkasink.kafka.flumeBatchSize 20 agent.sinks.kafkasink.channel memoryChannel agent.channels.memoryChannel.type memory agent.channels.memoryChannel.capacity 100006 实时推荐 ratingStream.foreachRDD{rdds rdds.foreach{case (uid, mid, score, timestamp) {println(rating data coming! )println(uid,mid:mid)// 1. 从redis里获取当前用户最近的K次评分保存成Array[(mid, score)]val userRecentlyRatings getUserRecentlyRating( MAX_USER_RATINGS_NUM, uid, ConnHelper.jedis )println(用户最近的K次评分:userRecentlyRatings)// 2. 从相似度矩阵中取出当前电影最相似的N个电影作为备选列表Array[mid]val candidateMovies getTopSimMovies( MAX_SIM_MOVIES_NUM, mid, uid, simMovieMatrixBroadCast.value )println(电影最相似的N个电影:candidateMovies)// 3. 对每个备选电影计算推荐优先级得到当前用户的实时推荐列表Array[(mid, score)]val streamRecs computeMovieScores( candidateMovies, userRecentlyRatings, simMovieMatrixBroadCast.value )println(当前用户的实时推荐列表:streamRecs)// 4. 把推荐数据保存到mongodbsaveDataToMongoDB( uid, streamRecs )}} }def computeMovieScores(candidateMovies: Array[Int],userRecentlyRatings: Array[(Int, Double)],simMovies: scala.collection.Map[Int, scala.collection.immutable.Map[Int, Double]]): Array[(Int, Double)] {// 定义一个ArrayBuffer用于保存每一个备选电影的基础得分val scores scala.collection.mutable.ArrayBuffer[(Int, Double)]()// 定义一个HashMap保存每一个备选电影的增强减弱因子val increMap scala.collection.mutable.HashMap[Int, Int]()val decreMap scala.collection.mutable.HashMap[Int, Int]()for( candidateMovie - candidateMovies; userRecentlyRating - userRecentlyRatings){// 拿到备选电影和最近评分电影的相似度val simScore getMoviesSimScore( candidateMovie, userRecentlyRating._1, simMovies )if(simScore 0.7){// 计算备选电影的基础推荐得分scores ( (candidateMovie, simScore * userRecentlyRating._2) )if( userRecentlyRating._2 3 ){increMap(candidateMovie) increMap.getOrDefault(candidateMovie, 0) 1} else{decreMap(candidateMovie) decreMap.getOrDefault(candidateMovie, 0) 1}}}// 根据备选电影的mid做groupby根据公式去求最后的推荐评分scores.groupBy(_._1).map{// groupBy之后得到的数据 Map( mid - ArrayBuffer[(mid, score)] )case (mid, scoreList) ( mid, scoreList.map(_._2).sum / scoreList.length log(increMap.getOrDefault(mid, 1)) - log(decreMap.getOrDefault(mid, 1)) )}.toArray.sortWith(_._2_._2) }7 启动顺序 启动hadoop、spark的容器 cd /dockerdocker-compose up -ddocker-compose ps 启动mongodb和redis服务 netstat -lanp | grep 27017bin/redis-server etc/redis.conf 启动zookeeper、kafka服务 ./zkServer.sh startbin/kafka-server-start.sh config/server.properties 启动flume服务 bin/flume-ng agent -c ./conf/ -f ./conf/log-kafka.properties -n agent 实现效果 前端评分成功后写入日志文件flume对接log日志文件无问题kafka对接flume无问题spark streaming处理收到的一条数据进行推荐存入MongoDB中。 总结 由于时间匆忙写的有些匆忙如果有需要前端设计代码和后端的代码可以评论我我整理整理发到github上。 前端设计部分没有时间去详细做后续再对前端页面进行美化。本科当时整合了一个管理系统现在也没有时间做总之一周多时间把当时的系统快速复现了下算是一个复习。 在进行开发时遇到许多问题版本问题、服务器内网外网问题、docker容器相关问题、协同过滤算法设计问题但帮着自己复习了下Vue和SpringBoot。 遇到问题时 遇到问题不应该盲目解决应该静下心看看报错原因想想为何报错版本尤其重要因此最好在一个project的pom设定版本使用服务器搭建docker-compose利用该方法来搭建集群快速简单但涉及的端口转发等一些网络知识需要耐下心来看Vue-CliElement-ui搭配起来开发简单写程序时我们应该提前约定好接口否则后续会很混乱… 后续 后续将优化下前端页面设计更多功能改进推荐算法增加冷启动方案
http://www.dnsts.com.cn/news/155638.html

相关文章:

  • 国家批准做新闻的网站编程代码怎么学
  • 哪个网站做的win10系统公司创建一个网站多少钱
  • crm系统网站跟网站做流量
  • 建设公司网站费用多少成都有哪些网站建设
  • 建设工程质量监督站网站如何后台修改网站联系人
  • 摄影作品欣赏网站网络规划设计师招聘
  • 建设旅游网站的费用预算微信自助下单小程序怎么弄
  • 如何注册公司并获得营业执照seo公司发展前景
  • 手机网站jquery底部导航菜单Linux网站开发设计
  • 打鱼网站建设天津放心站内优化seo
  • 做英文的小说网站泰安有什么好的网络科技公司
  • 大良营销网站建设渠道关于建设部门子网站的请示
  • 国外免费建站网站搭建福州云建站
  • 刮奖网站石家庄营销网站建设价格
  • 做网站架构需要什么步骤无锡建设工程项目代码申请网站
  • 教做flash的网站做宠物服务的相关网站
  • 哪些网站百度不收录用wordpress建网站
  • 如何做好网站推广优化计算机前端和后端区别
  • 南京网站建设 个人网站开发与设计案例
  • 长春谁家做网站使用织梦系统建设网站
  • 微网站建设申请株洲市建设局网站
  • 网站建设公众号小程序属于什么新手建设什么网站好
  • 网站怎么做视频背景网站建设从建立服务器开始
  • 呼和浩特建设厅官方网站深圳创业园
  • 关于网站开发的销售wordpress图片快速主题
  • 如何给自己网站做外链网站建设实训指导书
  • 自己做网站用什么软件wordpress淘口令插件
  • 漳州本地企业网站建设服务海丰建设局网站
  • 电商的网站怎么做的好docker wordpress 备份
  • 做网站用别人图片文章会侵权吗本地网站模板修改