大数据方面核心技术有哪些新人必读

37次阅读

共计 7007 个字符,预计需要花费 18 分钟才能阅读完成。

大数据技术的体系庞大且复杂,基础的技术包含数据的采集、数据预处理、分布式存储、NoSQL 数据库、数据仓库、机器学习、并行计算、可视化等各种技术范畴和不同的技术层面。首先给出一个通用化的大数据处理框架,主要分为下面几个方面:数据采集与预处理、数据存储、数据清洗、数据查询分析和数据可视化。

在这里还是要推荐下我自己建的大数据学习交流群:529867072,群里都是学大数据开发的,如果你正在学习大数据,小编欢迎你加入, 大家都是软件开发党,不定期分享干货(只有大数据软件开发相关的),包括我自己整理的一份最新的大数据进阶资料和高级开发教程,欢迎进阶中和进想深入大数据的小伙伴加入。

一、数据采集与预处理

对于各种来源的数据,包括移动互联网数据、社交网络的数据等,这些结构化和非结构化的海量数据是零散的,也就是所谓的数据孤岛,此时的这些数据并没有什么意义,数据采集就是将这些数据写入数据仓库中,把零散的数据整合在一起,对这些数据综合起来进行分析。数据采集包括文件日志的采集、数据库日志的采集、关系型数据库的接入和应用程序的接入等。在数据量比较小的时候,可以写个定时的脚本将日志写入存储系统,但随着数据量的增长,这些方法无法提供数据安全保障,并且运维困难,需要更强壮的解决方案。

Flume NG 作为实时日志收集系统,支持在日志系统中定制各类数据发送方,用于收集数据,同时,对数据进行简单处理,并写到各种数据接收方(比如文本,HDFS,Hbase 等)。Flume NG 采用的是三层架构:Agent 层,Collector 层和 Store 层,每一层均可水平拓展。其中 Agent 包含 Source,Channel 和 Sink,source 用来消费(收集)数据源到 channel 组件中,channel 作为中间临时存储,保存所有 source 的组件信息,sink 从 channel 中读取数据,读取成功之后会删除 channel 中的信息。

NDC,Netease Data Canal,直译为网易数据运河系统,是网易针对结构化数据库的数据实时迁移、同步和订阅的平台化解决方案。它整合了网易过去在数据传输领域的各种工具和经验,将单机数据库、分布式数据库、OLAP 系统以及下游应用通过数据链路串在一起。除了保障高效的数据传输外,NDC 的设计遵循了单元化和平台化的设计哲学。

Logstash 是开源的服务器端数据处理管道,能够同时从多个来源采集数据、转换数据,然后将数据发送到您最喜欢的“存储库”中。一般常用的存储库是 Elasticsearch。Logstash 支持各种输入选择,可以在同一时间从众多常用的数据来源捕捉事件,能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各种 AWS 服务采集数据。

Sqoop,用来将关系型数据库和 Hadoop 中的数据进行相互转移的工具,可以将一个关系型数据库 (例如 Mysql、Oracle) 中的数据导入到 Hadoop(例如 HDFS、Hive、Hbase)中,也可以将 Hadoop(例如 HDFS、Hive、Hbase)中的数据导入到关系型数据库 (例如 Mysql、Oracle) 中。Sqoop 启用了一个 MapReduce 作业(极其容错的分布式并行计算)来执行任务。Sqoop 的另一大优势是其传输大量结构化或半结构化数据的过程是完全自动化的。

流式计算是行业研究的一个热点,流式计算对多个高吞吐量的数据源进行实时的清洗、聚合和分析,可以对存在于社交网站、新闻等的数据信息流进行快速的处理并反馈,目前大数据流分析工具有很多,比如开源的 strom,spark streaming 等。

Strom 集群结构是有一个主节点(nimbus)和多个工作节点(supervisor)组成的主从结构,主节点通过配置静态指定或者在运行时动态选举,nimbus 与 supervisor 都是 Storm 提供的后台守护进程,之间的通信是结合 Zookeeper 的状态变更通知和监控通知来处理。nimbus 进程的主要职责是管理、协调和监控集群上运行的 topology(包括 topology 的发布、任务指派、事件处理时重新指派任务等)。supervisor 进程等待 nimbus 分配任务后生成并监控 worker(jvm 进程)执行任务。supervisor 与 worker 运行在不同的 jvm 上,如果由 supervisor 启动的某个 worker 因为错误异常退出(或被 kill 掉),supervisor 会尝试重新生成新的 worker 进程。

当使用上游模块的数据进行计算、统计、分析时,就可以使用消息系统,尤其是分布式消息系统。Kafka 使用 Scala 进行编写,是一种分布式的、基于发布 / 订阅的消息系统。Kafka 的设计理念之一就是同时提供离线处理和实时处理, 以及将数据实时备份到另一个数据中心,Kafka 可以有许多的生产者和消费者分享多个主题,将消息以 topic 为单位进行归纳;Kafka 发布消息的程序称为 producer,也叫生产者,预订 topics 并消费消息的程序称为 consumer,也叫消费者;当 Kafka 以集群的方式运行时,可以由一个服务或者多个服务组成,每个服务叫做一个 broker,运行过程中 producer 通过网络将消息发送到 Kafka 集群,集群向消费者提供消息。Kafka 通过 Zookeeper 管理集群配置,选举 leader,以及在 Consumer Group 发生变化时进行 rebalance。Producer 使用 push 模式将消息发布到 broker,Consumer 使用 pull 模式从 broker 订阅并消费消息。Kafka 可以和 Flume 一起工作,如果需要将流式数据从 Kafka 转移到 hadoop,可以使用 Flume 代理 agent,将 Kafka 当做一个来源 source,这样可以从 Kafka 读取数据到 Hadoop。

Zookeeper 是一个分布式的,开放源码的分布式应用程序协调服务,提供数据同步服务。它的作用主要有配置管理、名字服务、分布式锁和集群管理。配置管理指的是在一个地方修改了配置,那么对这个地方的配置感兴趣的所有的都可以获得变更,省去了手动拷贝配置的繁琐,还很好的保证了数据的可靠和一致性,同时它可以通过名字来获取资源或者服务的地址等信息,可以监控集群中机器的变化,实现了类似于心跳机制的功能。

二、数据存储

Hadoop 作为一个开源的框架,专为离线和大规模数据分析而设计,HDFS 作为其核心的存储引擎,已被广泛用于数据存储。

HBase,是一个分布式的、面向列的开源数据库,可以认为是 hdfs 的封装,本质是数据存储、NoSQL 数据库。HBase 是一种 Key/Value 系统,部署在 hdfs 上,克服了 hdfs 在随机读写这个方面的缺点,与 hadoop 一样,Hbase 目标主要依靠横向扩展,通过不断增加廉价的商用服务器,来增加计算和存储能力。

Phoenix,相当于一个 Java 中间件,帮助开发工程师能够像使用 JDBC 访问关系型数据库一样访问 NoSQL 数据库 HBase。

Yarn 是一种 Hadoop 资源管理器,可为上层应用提供统一的资源管理和调度,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。Yarn 由下面的几大组件构成:一个全局的资源管理器 ResourceManager、ResourceManager 的每个节点代理 NodeManager、表示每个应用的 Application 以及每一个 ApplicationMaster 拥有多个 Container 在 NodeManager 上运行。

Mesos 是一款开源的集群管理软件,支持 Hadoop、ElasticSearch、Spark、Storm 和 Kafka 等应用架构。

Redis 是一种速度非常快的非关系数据库,可以存储键与 5 种不同类型的值之间的映射,可以将存储在内存的键值对数据持久化到硬盘中,使用复制特性来扩展性能,还可以使用客户端分片来扩展写性能。

Atlas 是一个位于应用程序与 MySQL 之间的中间件。在后端 DB 看来,Atlas 相当于连接它的客户端,在前端应用看来,Atlas 相当于一个 DB。Atlas 作为服务端与应用程序通讯,它实现了 MySQL 的客户端和服务端协议,同时作为客户端与 MySQL 通讯。它对应用程序屏蔽了 DB 的细节,同时为了降低 MySQL 负担,它还维护了连接池。Atlas 启动后会创建多个线程,其中一个为主线程,其余为工作线程。主线程负责监听所有的客户端连接请求,工作线程只监听主线程的命令请求。

Kudu 是围绕 Hadoop 生态圈建立的存储引擎,Kudu 拥有和 Hadoop 生态圈共同的设计理念,它运行在普通的服务器上、可分布式规模化部署、并且满足工业界的高可用要求。其设计理念为 fast analytics on fast data。作为一个开源的存储引擎,可以同时提供低延迟的随机读写和高效的数据分析能力。Kudu 不但提供了行级的插入、更新、删除 API,同时也提供了接近 Parquet 性能的批量扫描操作。使用同一份存储,既可以进行随机读写,也可以满足数据分析的要求。Kudu 的应用场景很广泛,比如可以进行实时的数据分析,用于数据可能会存在变化的时序数据应用等。

在数据存储过程中,涉及到的数据表都是成千上百列,包含各种复杂的 Query,推荐使用列式存储方法,比如 parquent,ORC 等对数据进行压缩。Parquet 可以支持灵活的压缩选项,显著减少磁盘上的存储。

三、数据清洗

MapReduce 作为 Hadoop 的查询引擎,用于大规模数据集的并行计算,”Map(映射)”和”Reduce(归约)”,是它的主要思想。它极大的方便了编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统中。

随着业务数据量的增多,需要进行训练和清洗的数据会变得越来越复杂,这个时候就需要任务调度系统,比如 oozie 或者 azkaban,对关键任务进行调度和监控。

Oozie 是用于 Hadoop 平台的一种工作流调度引擎,提供了 RESTful API 接口来接受用户的提交请求 (提交工作流作业),当提交了 workflow 后,由工作流引擎负责 workflow 的执行以及状态的转换。用户在 HDFS 上部署好作业(MR 作业),然后向 Oozie 提交 Workflow,Oozie 以异步方式将作业(MR 作业) 提交给 Hadoop。这也是为什么当调用 Oozie 的 RESTful 接口提交作业之后能立即返回一个 JobId 的原因,用户程序不必等待作业执行完成(因为有些大作业可能会执行很久(几个小时甚至几天))。Oozie 在后台以异步方式,再将 workflow 对应的 Action 提交给 hadoop 执行。

Azkaban 也是一种工作流的控制引擎,可以用来解决有多个 hadoop 或者 spark 等离线计算任务之间的依赖关系问题。azkaban 主要是由三部分构成:Relational Database,Azkaban Web Server 和 Azkaban Executor Server。azkaban 将大多数的状态信息都保存在 MySQL 中,Azkaban Web Server 提供了 Web UI,是 azkaban 主要的管理者,包括 project 的管理、认证、调度以及对工作流执行过程中的监控等;Azkaban Executor Server 用来调度工作流和任务,记录工作流或者任务的日志。

流计算任务的处理平台 Sloth,是网易首个自研流计算平台,旨在解决公司内各产品日益增长的流计算需求。作为一个计算服务平台,其特点是易用、实时、可靠,为用户节省技术方面(开发、运维)的投入,帮助用户专注于解决产品本身的流计算需求。

四、数据查询分析

Hive 的核心工作就是把 SQL 语句翻译成 MR 程序,可以将结构化的数据映射为一张数据库表,并提供 HQL(Hive SQL)查询功能。Hive 本身不存储和计算数据,它完全依赖于 HDFS 和 MapReduce。可以将 Hive 理解为一个客户端工具,将 SQL 操作转换为相应的 MapReduce jobs,然后在 hadoop 上面运行。Hive 支持标准的 SQL 语法,免去了用户编写 MapReduce 程序的过程,它的出现可以让那些精通 SQL 技能、但是不熟悉 MapReduce、编程能力较弱与不擅长 Java 语言的用户能够在 HDFS 大规模数据集上很方便地利用 SQL 语言查询、汇总、分析数据。

Hive 是为大数据批量处理而生的,Hive 的出现解决了传统的关系型数据库 (MySql、Oracle) 在大数据处理上的瓶颈。Hive 将执行计划分成 map->shuffle->reduce->map->shuffle->reduce…的模型。如果一个 Query 会被编译成多轮 MapReduce,则会有更多的写中间结果。由于 MapReduce 执行框架本身的特点,过多的中间过程会增加整个 Query 的执行时间。在 Hive 的运行过程中,用户只需要创建表,导入数据,编写 SQL 分析语句即可。剩下的过程由 Hive 框架自动的完成。

Impala 是对 Hive 的一个补充,可以实现高效的 SQL 查询。使用 Impala 来实现 SQL on Hadoop,用来进行大数据实时查询分析。通过熟悉的传统关系型数据库的 SQL 风格来操作大数据,同时数据也是可以存储到 HDFS 和 HBase 中的。Impala 没有再使用缓慢的 Hive+MapReduce 批处理,而是通过使用与商用并行关系数据库中类似的分布式查询引擎(由 Query Planner、Query Coordinator 和 Query Exec Engine 三部分组成),可以直接从 HDFS 或 HBase 中用 SELECT、JOIN 和统计函数查询数据,从而大大降低了延迟。Impala 将整个查询分成一执行计划树,而不是一连串的 MapReduce 任务,相比 Hive 没了 MapReduce 启动时间。

Hive 适合于长时间的批处理查询分析,而 Impala 适合于实时交互式 SQL 查询,Impala 给数据人员提供了快速实验,验证想法的大数据分析工具,可以先使用 Hive 进行数据转换处理,之后使用 Impala 在 Hive 处理好后的数据集上进行快速的数据分析。总的来说:Impala 把执行计划表现为一棵完整的执行计划树,可以更自然地分发执行计划到各个 Impalad 执行查询,而不用像 Hive 那样把它组合成管道型的 map->reduce 模式,以此保证 Impala 有更好的并发性和避免不必要的中间 sort 与 shuffle。但是 Impala 不支持 UDF,能处理的问题有一定的限制。

Spark 拥有 Hadoop MapReduce 所具有的特点,它将 Job 中间输出结果保存在内存中,从而不需要读取 HDFS。Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。

Nutch 是一个开源 Java 实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具,包括全文搜索和 Web 爬虫。

Solr 用 Java 编写、运行在 Servlet 容器(如 Apache Tomcat 或 Jetty)的一个独立的企业级搜索应用的全文搜索服务器。它对外提供类似于 Web-service 的 API 接口,用户可以通过 http 请求,向搜索引擎服务器提交一定格式的 XML 文件,生成索引;也可以通过 Http Get 操作提出查找请求,并得到 XML 格式的返回结果。

Elasticsearch 是一个开源的全文搜索引擎,基于 Lucene 的搜索服务器,可以快速的储存、搜索和分析海量的数据。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

还涉及到一些机器学习语言,比如,Mahout 主要目标是创建一些可伸缩的机器学习算法,供开发人员在 Apache 的许可下免费使用;深度学习框架 Caffe 以及使用数据流图进行数值计算的开源软件库 TensorFlow 等,常用的机器学习算法比如,贝叶斯、逻辑回归、决策树、神经网络、协同过滤等。

五、数据可视化

对接一些 BI 平台,将分析得到的数据进行可视化,用于指导决策服务。主流的 BI 平台比如,国外的敏捷 BI Tableau、Qlikview、PowrerBI 等,国内的 SmallBI 和新兴的网易有数(可点击这里免费试用)等。

在上面的每一个阶段,保障数据的安全是不可忽视的问题。

基于网络身份认证的协议 Kerberos,用来在非安全网络中,对个人通信以安全的手段进行身份认证,它允许某实体在非安全网络环境下通信,向另一个实体以一种安全的方式证明自己的身份。

控制权限的 ranger 是一个 Hadoop 集群权限框架,提供操作、监控、管理复杂的数据权限,它提供一个集中的管理机制,管理基于 yarn 的 Hadoop 生态圈的所有数据权限。可以对 Hadoop 生态的组件如 Hive,Hbase 进行细粒度的数据访问控制。通过操作 Ranger 控制台,管理员可以轻松的通过配置策略来控制用户访问 HDFS 文件夹、HDFS 文件、数据库、表、字段权限。这些策略可以为不同的用户和组来设置,同时权限可与 hadoop 无缝对接。

正文完
 0