当前位置: 首页 > news >正文

厦门编程培训机构win10优化大师有用吗

厦门编程培训机构,win10优化大师有用吗,客户管理系统网站,做后期的网站有哪些可以在短时间内搜索和分析大量数据。 Elasticsearch 不仅仅是一个全文搜索引擎#xff0c;它还提供了分布式的多用户能力#xff0c;实时的分析#xff0c;以及对复杂搜索语句的处理能力#xff0c;使其在众多场景下#xff0c;如企业搜索#xff0c;日志和事件数据分析等… 可以在短时间内搜索和分析大量数据。 Elasticsearch 不仅仅是一个全文搜索引擎它还提供了分布式的多用户能力实时的分析以及对复杂搜索语句的处理能力使其在众多场景下如企业搜索日志和事件数据分析等都有广泛的应用。 本文将介绍 ELKKafkaBeats 对日志收集平台的实现。 文章目录 1、关于ELK与BKELK1.1、ELK架构及其影响1.2、基于BKLEK架构的日志分析系统实现 2、利用ELKKafkaBeats来实现一个统一日志平台2.1、应用场景2.2、环境准备2.3、基于Docker的ES部署2.4、基于Docker的kibana部署2.5、基于Docker的Zookeeper部署2.6、基于Docker的Kafka部署2.7、基于Docker的Logstash部署2.8、基于Docker的Filebeat部署 1、关于ELK与BKELK 1.1、ELK架构及其影响 当我们在开源日志分析系统的领域谈及 ELK 架构可谓是家喻户晓。然而这个生态系统并非 Elastic 有意为之毕竟 Elasticsearch 的初衷是作为一个分布式搜索引擎。其广泛应用于日志系统实则是一种意料之外这是社区用户的推动所致。如今众多云服务厂商在推广自己的日志服务时往往以 ELK 作为参照标准由此可见ELK 的影响力之深远。 ELK 是 Elasticsearch、Logstash 和 Kibana 的首字母缩写这三个产品都是 Elastic 公司的开源项目通常一起使用以实现数据的搜索、分析和可视化。 Elasticsearch一个基于 Lucene 的搜索服务器。它提供了一个分布式、多租户的全文搜索引擎具有 HTTP 网络接口和无模式 JSON 文档。 Logstash是一个服务器端数据处理管道它可以同时从多个来源接收数据转换数据然后将数据发送到你选择的地方。 Kibana是一个用于 Elasticsearch 的开源数据可视化插件。它提供了查找、查看和交互存储在 Elasticsearch 索引中的数据的方式。你可以使用它进行高级数据分析和可视化你的数据等。 这三个工具通常一起使用以便从各种来源收集、搜索、分析和可视化数据。 1.2、基于BKLEK架构的日志分析系统实现 实际上在流行的架构中并非只有 ELKB。当我们利用 ELKB 构建一套日志系统时除了 Elasticsearch、Logstash、Kibana、beats 之外还有一个被广泛应用的工具 —— Kafka。在这个体系中Kafka 的角色尤为重要。作为一个中间件和缓冲区它能够提升吞吐量隔离峰值影响缓存日志数据快速落盘。同时通过 producer/consumer 模式使得 Logstash 能够进行横向扩展还能用于数据的多路分发。因此大多数情况下我们看到的实际架构按照数据流转的顺序排列应该是 BKLEK 架构。 BKLEK 架构即 ELKKafkaBeats 这是一种常见的大数据处理和分析架构。在这个架构中 Beats是一种轻量级的数据采集器用于从各种源如系统日志、网络流量等收集数据并将数据发送到 Kafka 或 Logstash。 Kafka是一个分布式流处理平台用于处理和存储实时数据。在这个架构中Kafka 主要用于作为一个缓冲区接收来自 Beats 的数据并将数据传输到 Logstash。 Logstash是一个强大的日志管理工具可以从 Kafka 中接收数据对数据进行过滤和转换然后将数据发送到 Elasticsearch。 Elasticsearch是一个分布式的搜索和分析引擎用于存储、搜索和分析大量数据。 Kibana是一个数据可视化工具用于在 Elasticsearch 中搜索和查看存储的数据。 这种架构的优点是 可以处理大量的实时数据。Kafka 提供了一个强大的缓冲区可以处理高速流入的数据保证数据的完整性。Logstash 提供了强大的数据处理能力可以对数据进行各种复杂的过滤和转换。Elasticsearch 提供了强大的数据搜索和分析能力。Kibana 提供了直观的数据可视化界面。 这种架构通常用于日志分析、实时数据处理和分析、系统监控等场景。 2、利用ELKKafkaBeats来实现一个统一日志平台 2.1、应用场景 利用 ELKKafkaBeats 来实现一个统一日志平台这是一个专门针对大规模分布式系统日志进行统一采集、存储和分析的 APM 工具。在分布式系统中众多服务部署在不同的服务器上一个客户端的请求可能会触发后端多个服务的调用这些服务可能会互相调用或者一个服务会调用其他服务最终将请求结果返回并在前端页面上展示。如果在这个过程中的任何环节出现异常开发和运维人员可能会很难准确地确定问题是由哪个服务调用引起的。统一日志平台的作用就在于追踪每个请求的完整调用链路收集链路上每个服务的性能和日志数据从而使开发和运维人员能够快速发现并定位问题。 统一日志平台通过采集模块、传输模块、存储模块、分析模块实现日志数据的统一采集、存储和分析结构图如下 为了实现海量日志数据的收集和分析首先需要解决的是如何处理大量的数据信息。在这个案例中我们使用 Kafka、Beats 和 Logstash 构建了一个分布式消息队列平台。具体来说我们使用 Beats 采集日志数据这相当于在 Kafka 消息队列中扮演生产者的角色生成消息并发送到 Kafka。然后这些日志数据被发送到 Logstash 进行分析和过滤Logstash 在这里扮演消费者的角色。处理后的数据被存储在 Elasticsearch 中最后我们使用 Kibana 对日志数据进行可视化展示。 2.2、环境准备 本地 KafkaESKibanafilebeatJava Demo 项目 我们使用 Docker 创建以一个 名为 es-net 的网络 在 Docker 中网络是连接和隔离 Docker 容器的方式。当你创建一个网络我们定义一个可以相互通信的容器的网络环境。 docker network create es-netdocker network create 是 Docker 命令行界面的一个命令用于创建一个新的网络。在这个命令后面你需要指定你想要创建的网络的名称在这个例子中网络的名称是 “es-net”。 所以docker network create es-net 这句命令的意思就是创建一个名为 “es-net” 的 Docker 网络。 2.3、基于Docker的ES部署 加载镜像 docker pull elasticsearch:7.12.1运行容器 docker run -d \--name es \-e ES_JAVA_OPTS-Xms512m -Xmx512m \-e discovery.typesingle-node \--privileged \--network es-net \-p 9200:9200 \-p 9300:9300 \elasticsearch:7.12.1-v es-data:/Users/lizhengi/elasticsearch/data \-v es-plugins:/Users/lizhengi/elasticsearch/plugins \这个命令是使用 Docker 运行一个名为 “es” 的 Elasticsearch 容器。具体参数的含义如下 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。 --name es设置容器的名称为 “es”。 -e ES_JAVA_OPTS-Xms512m -Xmx512m设置环境变量 ES_JAVA_OPTS这是 JVM 的参数用于控制 Elasticsearch 使用的最小和最大内存。这里设置的是最小和最大内存都为 512MB。 -e discovery.typesingle-node设置环境变量 discovery.type这是 Elasticsearch 的参数用于设置集群发现类型。这里设置的是单节点模式。 -v es-data:/Users/lizhengi/elasticsearch/data 和 -v es-plugins:/Users/lizhengi/elasticsearch/plugins挂载卷volume。这两个参数将主机上的 es-data 和 es-plugins 目录挂载到容器的 /Users/lizhengi/elasticsearch/data 和 /Users/lizhengi/elasticsearch/plugins 目录。 --privileged以特权模式运行容器。这将允许容器访问宿主机的所有设备并且容器中的进程可以获取任何 AppArmor 或 SELinux 的权限。 --network es-net将容器连接到 es-net 网络。 -p 9200:9200 和 -p 9300:9300端口映射。这两个参数将容器的 9200 和 9300 端口映射到主机的 9200 和 9300 端口。 elasticsearch:7.12.1要运行的 Docker 镜像的名称和标签。这里使用的是版本为 7.12.1 的 Elasticsearch 镜像。 运行结果验证随后便可以去访问 IP:9200结果如图 2.4、基于Docker的kibana部署 加载镜像 docker pull kibana:7.12.1运行容器 docker run -d \--name kibana \-e ELASTICSEARCH_HOSTShttp://es:9200 \--networkes-net \-p 5601:5601 \ kibana:7.12.1这是一个 Docker 命令用于运行一个 Kibana 容器。下面是每个参数的解释 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。 --name kibana设置容器的名称为 “kibana”。 -e ELASTICSEARCH_HOSTShttp://es:9200设置环境变量 ELASTICSEARCH_HOSTS这是 Kibana 的参数用于指定 Elasticsearch 服务的地址。这里设置的是 http://es:9200表示 Kibana 将连接到同一 Docker 网络中名为 “es” 的容器的 9200 端口。 --networkes-net将容器连接到 es-net 网络。 -p 5601:5601端口映射。这个参数将容器的 5601 端口映射到主机的 5601 端口。 kibana:7.12.1要运行的 Docker 镜像的名称和标签。这里使用的是版本为 7.12.1 的 Kibana 镜像。 kibana启动一般比较慢需要多等待一会可以通过命令 docker logs -f kibana查看运行日志当查看到下面的日志说明成功 运行结果验证随后便可以去访问 IP:9200结果如图 也可以浏览器访问 2.5、基于Docker的Zookeeper部署 加载镜像 docker pull zookeeper:latest运行容器 以下是一个基本的 Docker 命令用于运行一个 Zookeeper 容器 docker run -d \--name zookeeper \--networkes-net \-p 2181:2181 \ zookeeper:latest这个命令的参数解释如下 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。--name zookeeper设置容器的名称为 “zookeeper”。--networkes-net将容器连接到 es-net 网络。-p 2181:2181端口映射。这个参数将容器的 2181 端口映射到主机的 2181 端口。zookeeper:latest要运行的 Docker 镜像的名称和标签。这里使用的是最新版本的 Zookeeper 镜像。 2.6、基于Docker的Kafka部署 加载镜像 docker pull confluentinc/cp-kafka:latest运行容器 以下是一个基本的 Docker 命令用于运行一个 Kafka 容器 docker run -d \--name kafka \--networkes-net \-p 9092:9092 \-e KAFKA_ZOOKEEPER_CONNECTzookeeper:2181 \-e KAFKA_ADVERTISED_LISTENERSPLAINTEXT://kafka:9092 \ confluentinc/cp-kafka:latest这个命令的参数解释如下 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。--name kafka设置容器的名称为 “kafka”。--networkes-net将容器连接到 es-net 网络。-p 9092:9092端口映射。这个参数将容器的 9092 端口映射到主机的 9092 端口。-e KAFKA_ZOOKEEPER_CONNECTzookeeper:2181设置环境变量 KAFKA_ZOOKEEPER_CONNECT这是 Kafka 的参数用于指定 Zookeeper 服务的地址。这里设置的是 zookeeper:2181表示 Kafka 将连接到同一 Docker 网络中名为 “zookeeper” 的容器的 2181 端口。-e KAFKA_ADVERTISED_LISTENERSPLAINTEXT://localhost:9092设置环境变量 KAFKA_ADVERTISED_LISTENERS这是 Kafka 的参数用于指定 Kafka 服务对外公布的地址和端口。这里设置的是 PLAINTEXT://localhost:9092。confluentinc/cp-kafka:latest要运行的 Docker 镜像的名称和标签。这里使用的是最新版本的 Confluent 平台的 Kafka 镜像。 2.7、基于Docker的Logstash部署 加载镜像 docker pull docker.elastic.co/logstash/logstash:7.12.1创建配置文件 首先你需要创建一个 Logstash 配置文件例如 logstash.conf内容如下 input {kafka {bootstrap_servers kafka:9092topics [logs_topic]} }output {elasticsearch {hosts [es:9200]index logs_index} }这个配置文件定义了 Logstash 的输入和输出。输入是 Kafka连接到 kafka:9092订阅的主题是 your_topic。输出是 Elasticsearch地址是 es:9200索引名是 logs_index。 运行容器 然后我们使用以下命令运行 Logstash 容器 docker run -d \--name logstash \--networkes-net \-v /Users/lizhengi/test/logstash.conf:/usr/share/logstash/pipeline/logstash.conf \ docker.elastic.co/logstash/logstash:7.12.1这个命令的参数解释如下 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。--name logstash设置容器的名称为 “logstash”。--networkes-net将容器连接到 es-net 网络。-v /path/to/your/logstash.conf:/usr/share/logstash/pipeline/logstash.conf挂载卷volume。这个参数将主机上的 logstash.conf 文件挂载到容器的 /usr/share/logstash/pipeline/logstash.conf。docker.elastic.co/logstash/logstash:latest要运行的 Docker 镜像的名称和标签。这里使用的是最新版本的 Logstash 镜像。 请注意你需要将 /path/to/your/logstash.conf 替换为你的 logstash.conf 文件所在的实际路径。 2.8、基于Docker的Filebeat部署 加载镜像 docker pull docker.elastic.co/beats/filebeat:7.12.1运行容器 首先你需要创建一个 Filebeat 配置文件例如 filebeat.yml内容如下 filebeat.inputs: - type: logenabled: truepaths:- /usr/share/filebeat/logs/*.logoutput.kafka:enabled: truehosts: [kafka:9092]topic: logs_topic这个配置文件定义了 Filebeat 的输入和输出。输入是文件 /usr/share/filebeat/Javalog.log输出是 Kafka连接到 kafka:9092主题是 logs_topic。 然后你可以使用以下命令运行 Filebeat 容器 docker run -d \--name filebeat \--networkes-net \-v /Users/lizhengi/test/logs:/usr/share/filebeat/logs \-v /Users/lizhengi/test/filebeat.yml:/usr/share/filebeat/filebeat.yml \ docker.elastic.co/beats/filebeat:7.12.1这个命令的参数解释如下 docker run -d使用 Docker 运行一个新的容器并且在后台模式detached mode下运行。 --name filebeat设置容器的名称为 “filebeat”。 --networkes-net将容器连接到 es-net 网络。 -v /Users/lizhengi/test/Javalog.log:/usr/share/filebeat/Javalog.log挂载卷volume。这个参数将主机上的 /Users/lizhengi/test/Javalog.log 文件挂载到容器的 /usr/share/filebeat/Javalog.log。 -v /path/to/your/filebeat.yml:/usr/share/filebeat/filebeat.yml挂载卷volume。这个参数将主机上的 filebeat.yml 文件挂载到容器的 /usr/share/filebeat/filebeat.yml。 docker.elastic.co/beats/filebeat:latest要运行的 Docker 镜像的名称和标签。这里使用的是最新版本的 Filebeat 镜像。 请注意你需要将 /path/to/your/filebeat.yml 替换为你的 filebeat.yml 文件所在的实际路径。
http://www.dnsts.com.cn/news/131318.html

相关文章:

  • 海外商城网站建设百度推广助手下载
  • 如何用自己的电脑做网站空间百度seo推广免费
  • 贵州省安顺市网站建设wordpress 4.9 升级
  • 响应式模板网站建设网页的建设流程怎么确定
  • 品牌网站建设 磐石网络官方网站站长统计官方网站
  • 移动端网站开发最好的环境自建网站代理服务器
  • 美团网站开发费用电子商务网络技术
  • 网站你懂我意思正能量不用下载视频在威联通上搭建wordpress
  • 做网站的赚钱吗沈阳定制型网站建设
  • 重庆网站优化工业产品设计流程
  • 企业网站源码搜一品资源网服务器cpu
  • 合肥快速建站在线咨询网站开发研究热点
  • 用小程序做网站搭建一个网站大概需要多少钱
  • 动漫设计师资格证网站做优化公司
  • 上海app开发网站建设网络建设专业石家庄
  • 织梦做的网站怎么样网站建设演示ppt
  • 外国设计师素材网站php企业网站源码
  • 福州做网站的哪家好网站建站的一般步骤
  • 潍坊响应式网站建设要多久wordpress自动添加标签
  • 园林公司做网站的好处重庆市应急管理局官网
  • 网站建设 万户建站移动电子商务网站设计
  • 中国建设银行官网站诚聘英才如何推广自己的网址
  • 专业的金融行业网站开发什么是网页?
  • 张家港网站制作公司为什么需要网站开发
  • 网站专题策划案例织梦cms手机版
  • html5 网站开发实战装修第三方平台网站建设
  • 台州网站建设方案优化怎样注册自己网站
  • seo网站优化报价仓库管理系统app
  • 苏州网站建设创意展示型网站建设的建议
  • 那个网站做调查问卷能赚钱网站建设数据技术