Hadoop-Flume基础理论入门(1)

《Hadoop-Flume基础理论入门(1)》 log

一.基本概念

flume是一个分布式日志采集系统,可对接各种数据输入源,具有高可用,可平滑扩展的特点;

《Hadoop-Flume基础理论入门(1)》 flume用于简单示意图

flume像是一个
管道,可以接入多种数据源,比如系统日志,文件系统及http请求等,并将收集到的信息存入Hdfs/Hbase中.

flume支持多路径流量,多管道接入流量(就是允许同时接入多种数据源),多管道接出流量(允许向多种数据源输出),上下文路由(也就是路由选择,可以使用多种策略,比如复制策略和复用策略)等。

二.flume组件介绍

《Hadoop-Flume基础理论入门(1)》 flume外部架构

数据发生器(如:facebook,twitter)产生的数据被
单个的运行在数据发生器所在服务器上的agent所收集,之后数据收容器从各个agent上汇集数据并将采集到的数据存入到HDFS或者HBase中。

注意:

1. agent和collector一般部署在不同的机器上,用于解耦合;
2. agent的数量一般要比collector多,n:1;
3. 其实从配置上agent和collector一样,只是职能分工不一样而已。 

2.1 传输数据格式

storm  -- > Tuple
Hdfs    --> block
Flume  --> Event事件
Flume使用Event对象来作为传递数据的格式,是内部数据传输的最基本单元.

Event由两部分组成: header(可有可无)和body(数据)

《Hadoop-Flume基础理论入门(1)》 Event的结构组成

(1) Header头部(可选)

Header 是 key/value 形式的,可以用来制造路由决策或携带其他结构化信息(如事件的时间戳或事件来源的服务器主机名)。

你可以把它想象成和 HTTP 头一样提供相同的功能——通过该方法来传输正文之外的额外信息。

Flume提供的不同source会给其生成的event添加不同的header.(偷偷的告诉你,这就是可配置的拦截器的包装功能).

header存在时,也可以用于消息的分发.

(2) Body(存储实际的数据)

Body是一个字节数组,包含了实际的内容,

2.2 重要组件-agent

agent,又叫代理,它是一个守护进程(JVM),可以用来监控系统.一旦系统产生日志,便开始进行采集.主要就是用来接收和汇集消息.

Flume内部可以有一个或者多个agent.多个agent之间的通信是通过Avro进行的.

深入到agent内部,agent包括三个必不可少的模块:source,channel和sink.

《Hadoop-Flume基础理论入门(1)》 Agent三大组件

(1) source:用于对接各种输入源(数据源)

它是flume源;flume之间交互是以Event的格式,当一个Flume源接收到一个事件时,source将通过一个或者多个channel存储该事件.

(2) channel:可以理解为一个通道,进行被动的存储.

所以也可以看成是一个短暂的存储容器(容器),channel同时对接多个source与sink.

之所以做短暂的存储而不是立即转移走,是为了积累到一定的量再进行批量的处理,这样可以提高效率,更利于提升性能.

channel具有完整的事务管理,可以保证数据在收发时候的一致性.

通过配置,channel中的数据可以存储到缓存memory中,也可以存储到文件中.存储到memery中,效率更快,吞吐率更高,但由于进行的是内存事务管理,所以当channel故障时,数据存在丢失的风险;为了保证数据的可靠性,一般选落地file文件的方式进行存储.

- channel存储空间有限,为了防止接收Event过量超出容量,可以通过参数设置event的最大个数.
 
-Flume通常选择FileChannel,而不是用Memory Channel.
(3) sink: 用于对接各种输出源(存储)

sink成功取出event之后,会将事件event从channel中移除,并将事件存放到外部数据介质上.

所谓的外部数据介质,可以是Hdfs中,也可以是下一个Flume的source中.

另外,对于缓存在通道中的事件,source和sink是采用异步处理的方式.并不是channel收一个事件event之后,sink立马就过来取数据.

另外,在agent中还有两个可选的配置组件interceptor拦截器和selector选择器.

(1) interceptor拦截器: 可配置到source之前,对接入source的数据起到一个拦截,过滤与包装的功能,另外,多个拦截器可链式拼装,进行组合使用;

官方提供的已有拦截器:
– Timestamp Interceptor:
  在event的header中添加一个key叫:timestamp,value为当前的时间戳

– Host Interceptor:
  在event的header中添加一个key叫:host,value为当前机器的hostname或者ip

– Static Interceptor:
  可以在event的header中添加自定义的key和value

– Regex Filtering Interceptor:
  通过正则来清洗或包含匹配的events

– Regex Extractor Interceptor:
  通过正则表达式来在header中添加指定的key,value则为正则匹配的部分

(2) selector选择器: 可配置到channel之前,进行路由选择,选择将数据传输到哪个channel中.

channel selector有两种类型:

– Replicating Channel Selector (default):将source过来的events发往所有channel
– Multiplexing Channel Selector:而Multiplexing 可以选择该发往哪些channel

《Hadoop-Flume基础理论入门(1)》 channel

复制机制(默认机制)可以让各个存储节点均收到消息.
复用机制指可以指定消息具体流向哪里.

Multiplexing Channel Selector具体是如何做到有针对方向的进行消息分发的呢?这个就要又提到可配置到source之前的interceptor拦截器了.

比如,通过Host Interceptor可以在event的header中添加机器的ip,通过识别ip进行不同的分发;

2.3 flume可靠性说明

(1) flume的channel是一个完整的事务,数据在传送完成后,事件才从通道中移除.
(2)flume的channel可以暂存数据,当目标可以访问时,数据可以进行暂存到channel中,等目标可访问之后,再进行传输.
(3) 当Source对接的是上一个Agent的Sink时,Source和Sink封装在一个事务的存储和检索中,即事件的放置或者提供由一个事务通过通道来分别提供。这保证了事件集在流中可靠地进行端到端的传递。

– Sink开启事务
– Sink从Channel中获取数据
– Sink把数据传给另一个Flume Agent的Source中
– Source开启事务
– Source把数据传给Channel
– Source关闭事务
– Sink关闭事务

疑问点:这种source上游对接sink的情况,通过实现事务控制的方式,可以实现当source传event到channel过程中失败,sink实现event重传.但当source直接对接数据接入源时,又该如何实现呢?

2.4 复杂的流动

为了应对各种复杂多变的业务场景,flume的agent可以多个组合进行使用,agent的组件source,channel和link也可以像搭积木一样,组合使用.如图所示:

《Hadoop-Flume基础理论入门(1)》 基本流动
《Hadoop-Flume基础理论入门(1)》 复杂流动1
《Hadoop-Flume基础理论入门(1)》 复杂流动2
《Hadoop-Flume基础理论入门(1)》 复杂流动3

至于如何配置flume?使用flume且等下文.

    原文作者:夏一
    原文地址: https://www.jianshu.com/p/15e72c962156
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞