当前位置: 首页 > news >正文

电力建设工程最好的网站网站26个页面收费

电力建设工程最好的网站,网站26个页面收费,专业电影网站建设,学做电商新手入门一、Hadoop的概念 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下#xff0c;开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统#xff08; Distributed File System#xff09;开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统 Distributed File System其中一个组件是HDFSHadoop Distributed File System。HDFS有高容错性的特点并且设计用来部署在低廉的low-cost硬件上而且它提供高吞吐量high throughput来访问应用程序的数据适合那些有着超大数据集large data set的应用程序。HDFS放宽了relaxPOSIX的要求可以以流的形式访问streaming access文件系统中的数据。Hadoop的框架最核心的设计就是HDFS和MapReduce。HDFS为海量的数据提供了存储而MapReduce则为海量的数据提供了计算。 二、Hadoop的核心组成 Hadoop的三大核心组件分别是 HDFSHadoop Distribute File Systemhadoop的数据存储工具。 YARNYet Another Resource Negotiator,另一种资源协调者Hadoop 的资源管理器。 Hadoop MapReduce分布式计算框架 1HDFS数据存储工具 HDFS全称Hadoop Distributed File System即分布式文件系统。HDFS具有高容错能力可以部署到低成本的硬件上。它适用于大数据应用对数据可以实现高吞吐量访问并且可以实现流式的数据访问。 1NameNode NameNode是存储文件的metadata运行时所有数据都保存到内存整个HDFS可存储的文件数受限于NameNode的内存大小一个Block在NameNode中对应一条记录一般一个block占用150字节如果是大量的小文件会消耗大量内存。同时map task的数量是由splits来决定的所以用MapReduce处理大量的小文件时就会产生过多的map task线程管理开销将会增加作业时间。处理大量小文件的速度远远小于处理同等大小的大文件的速度数据会定时保存到本地磁盘但不保存block的位置信息而是由DataNode注册时上报和运行时维护NameNode失效则整个HDFS都失效了所以要保证NameNode的可用性。 2Secondary NameNode Secondary NameNode定时与NameNode进行同步定期合并文件系统镜像和编辑日志然后把合并后的传给NameNode替换其镜像并清空编辑日志类似于CheckPoint机制但NameNode失效后仍需要手工将其设置成主机。 3DataNode DataNode保存具体的block数据负责数据的读写操作和复制操作。DataNode启动时会向NameNode报告当前存储的数据块信息后续也会定时报告修改信息。DataNode之间会进行通信复制数据块保证数据的冗余性。 4Block数据块 Block数据块是基本存储单位一般大小为64M一个大文件会被拆分成一个个的块然后存储于不同的机器。如果一个文件少于Block大小那么实际占用的空间为其文件的大小Block数据块是基本的读写单位类似于磁盘的页每次都是读写一个块每个块都会被复制到多台机器默认复制3份 注意HDFS2.x以后的block默认128M 2YARN资源管理器 YARN Yet Another Resource Negotiator另一种资源协调者是一种新的 Hadoop 资源管理器它是一个通用资源管理系统可为上层应用提供统一的资源管理和调度它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。 YARN基本流程 1Job submission 从ResourceManager 中获取一个Application ID 检查作业输出配置计算输入分片 拷贝作业资源job jar、配置文件、分片信息到 HDFS以便后面任务的执行 2Job initialization ResourceManager 将作业递交给 Scheduler有很多调度算法一般是根据优先级Scheduler 为作业分配一个 ContainerResourceManager 就加载一个 application master process 并交给 NodeManager。管理 ApplicationMaster 主要是创建一系列的监控进程来跟踪作业的进度同时获取输入分片为每一个分片创建一个 Map task 和相应的 reduce task Application Master 还决定如何运行作业如果作业很小可配置则直接在同一个 JVM 下运行。 3Task assignment ApplicationMaster 向 Resource Manager 申请资源一个个的Container指定任务分配的资源要求一般是根据 data locality 来分配资源。 4Task execution ApplicationMaster 根据 ResourceManager 的分配情况在对应的 NodeManager 中启动 Container 从 HDFS 中读取任务所需资源job jar配置文件等然后执行该任务。 5Progress and status update 定时将任务的进度和状态报告给 ApplicationMaster Client 定时向 ApplicationMaster 获取整个任务的进度和状态。 6Job completion Client定时检查整个作业是否完成 作业完成后会清空临时文件、目录等。 3MapReduce分布式计算框架 MapReduce是一种编程模型用于大规模数据集大于1TB的并行运算。概念Map映射“和Reduce归约”是它们的主要思想都是从函数式编程语言里借来的还有从矢量编程语言里借来的特性。它极大地方便了编程人员在不会分布式并行编程的情况下将自己的程序运行在分布式系统上。 当前的软件实现是指定一个Map映射函数用来把一组键值对映射成一组新的键值对指定并发的Reduce归约函数用来保证所有映射的键值对中的每一个共享相同的键组。 MapReduce执行过程 1读取数据 录阅读器会翻译由输入格式生成的记录记录阅读器用于将数据解析给记录并不分析记录自身。记录读取器的目的是将数据解析成记录但不分析记录本身。它将数据以键值对的形式传输给mapper。通常键是位置信息值是构成记录的数据存储块.自定义记录不在本文讨论范围之内. 2Map 在映射器中用户提供的代码称为中间对。对于键值的具体定义是慎重的因为定义对于分布式任务的完成具有重要意义.键决定了数据分类的依据而值决定了处理器中的分析信息.本书的设计模式将会展示大量细节来解释特定键值如何选择. 3Shuffle and Sort ruduce任务以随机和排序步骤开始。此步骤写入输出文件并下载到本地计算机。这些数据采用键进行排序以把等价密钥组合到一起。 4Reduce reduce采用分组数据作为输入。该功能传递键和此键相关值的迭代器。可以采用多种方式来汇总、过滤或者合并数据。当reduce功能完成就会发送0个或多个键值对。 5输出数据 输出格式会转换最终的键值对并写入文件。默认情况下键和值以tab分割各记录以换行符分割。因此可以自定义更多输出格式最终数据会写入HDFS。 三、Hadoop的生态系统 构成Hadoop的整个生态系统的所有组件可划分为4个层次 1Ambari pache Ambari设计的目的就是为了使Hadoop集群的管理更加简单比如创建、管理、监视 Hadoop 的集群。 2Hive ive是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具可以用来进行数据提取转化加载ETL这是一种可以存储、查询和分析存储在 Hadoop中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言称为 HQL它允许熟悉 SQL 的用户查询数据。同时这个语言也允许熟悉MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。 3Hbase Hbase是一个nosql数据库相较于RDBMS它不支持传统关系型数据库的typed columns(列类型), secondary indexes(二级索引), triggers(触发器), and advanced query languages(高级查询语言)等特性。它的长处在数据存储是真正意义上的分布式数据库。通过添加RegionServer机器即可实现hbase的线性和模块化扩展。 4Pig Apache Pig 在 MapReduce的基础上创建了更简单的过程语言抽象为 Hadoop 应用程序提供了一种更加接近结构化查询语言 (SQL) 的接口。因此我们不需要编写一个单独的MapReduce 应用程序可以用 Pig Latin 语言写一个脚本在集群中自动并行处理与分发该脚本。 5Mahout Mahout 是 Apache Software FoundationASF 旗下的一个开源项目提供一些可扩展的机器学习领域经典算法的实现旨在帮助开发人员更加方便快捷地创建智能应用程序。Mahout包含许多实现包括聚类、分类、推荐过滤、频繁子项挖掘。此外通过使用 Apache Hadoop 库Mahout 可以有效地扩展到云中。 6ZooKeeper ZooKeeper是一种为分布式应用所设计的高可用、高性能且一致的开源协调服务它提供了一项基本服务分布式锁服务。由于ZooKeeper的开源特性后来我们的开发者在分布式锁的基础上摸索了出了其他的使用方法配置维护、组服务、分布式消息队列、分布式通知/协调等。 7Oozie Oozie是作业流调度系统。通过它我们可以把多个Map/Reduce作业组合到一个逻辑工作单元中从而完成更大型的任务。 8Sqoop Sqoop是一个在结构化数据和Hadoop之间进行批量数据迁移的工具结构化数据可以是MySQL、Oracle等RDBMS。Sqoop底层用MapReduce程序实现抽取、转换、加载MapReduce天生的特性保证了并行化和高容错率而且相比Kettle等传统ETL工具任务跑在Hadoop集群上减少了ETL服务器资源的使用情况。在特定场景下抽取过程会有很大的性能提升。 9Flume Flume是日志收集工具Cloudera开源的日志收集系统。 以上是Hadoop核心组成和生态系统的一些概念内容信息来自于网络整理供大家参考学习。
http://www.dnsts.com.cn/news/251934.html

相关文章:

  • 求职网站建设方案网站所有权 备案
  • 沧州建设银行招聘网站一等一网站
  • 渭南网站建设wifi微信公众号的子菜单网页怎么制作
  • 国内最好的软件网站建设个人养老保险可以补交吗
  • 企业网站规划与设计公司网站自己可以学习优化吗
  • 建设银行大厂支行网站WordPress最强大的主题
  • 做网站的有什么软件德州住房和城乡建设局网站
  • 广州市建设企业网站平台网银网站模板
  • 重庆网站建设 沛宣邢台企业做网站价格
  • 湛江怎样建设自己的网站120平办公室装修设计
  • 哪个公司做网站好网页游戏源码怎么用
  • 做网站需要了解什么软件高端网站建设seo
  • 打开百度网站建设成都企业门户网站建设
  • 网站海外推广谷歌seo方案潍坊网站制作在线
  • 做企业网站的轻量级cms中山网站建设找丁生
  • 晚上睡不着推荐个网站常州网站建站公司
  • app门户网站青岛市北区核酸检测
  • 做微信网站公司哪家好佛山百度seo代理
  • 延吉哪家网站建设公司好免费站长统计工具
  • 上虞网站建设文广网络单页网站cpa虚拟主机
  • 网站建设协议书装修电话
  • 网站建设教程 项目式客户管理系统推荐
  • 仿cnzz 网站 源码西安华为外包公司有哪些
  • 招聘 网站建设如何制作一个网页链接
  • 西安网络推广公司大全网站优化的文章
  • 门户网站建设软件3000元做网站
  • 全网营销型网站建设模板邹城建网站
  • 网站建设内页运营培训班有用吗
  • 360免费建站永久免费赣州网站建设
  • 做外链一定要淘宝网站吗东莞网络推广教程