Flume(一)【概述】

2021-01-26 05:12

阅读:424

标签:需要   solr   body   hbase   本地磁盘   eve   cat   col   移除   

目录
  • 一.Flume定义
  • 二.Flume基础架构
    • 1.Agent
    • 2.Source
    • 3.Sink
    • 4.Channel
    • 5.Event

一.Flume定义

? Flume是Cloudera公司提供的一个高可用、高可靠、分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。

? Flume最主要的作用就是,实时读取服务器的本地磁盘的数据,将数据写入到HDFS。

技术图片

二.Flume基础架构

? Flume基本组成架构如下图所示

技术图片

? 各个组件介绍

1.Agent

? Agent是一个JVM进程,它以事件的形式将数据从源头送至目的。

? Agent主要有3个部分组成:SourceChannelSink

2.Source

? Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、spooling directorytaildirnetcat、sequence generator、syslog、http、legacy。

taildir source 详解

? Taildir Source维护了一个json格式的position File,其会定期的往position File中更新每个文件读取到的最新的位置,因此能够实现断点续传。Position File的格式如下:

{"inode":2496272,"pos":12,"file":"/opt/module/flume/files/file1.txt"}
{"inode":2496275,"pos":12,"file":"/opt/module/flume/files/file2.txt"}

注:Linux中储存文件元数据的区域就叫做inode,每个inode都有一个号码,操作系统用inode号码来识别不同的文件,Unix/Linux系统内部不使用文件名,而使用inode号码来识别文件。

3.Sink

? Sink不断地轮询Channel中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。

? Sink组件目的地包括hdfsloggeravro、thrift、ipc、filehbase、solr、自定义。

4.Channel

? Channel是位于Source和Sink之间的缓冲区。因此,Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理几个Source的写入操作和几个Sink的读取操作。

? Flume自带两种Channel:Memory ChannelFile Channel

? Memory Channel是内存中的队列。Memory Channel在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么Memory Channel就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。

? File Channel将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。

5.Event

? 传输单元,Flume数据传输的基本单元,以Event的形式将数据从源头送至目的地。Event由HeaderBody两部分组成,Header用来存放该event的一些属性,为K-V结构,Body用来存放该条数据,形式为字节数组。

技术图片

Flume(一)【概述】

标签:需要   solr   body   hbase   本地磁盘   eve   cat   col   移除   

原文地址:https://www.cnblogs.com/wh984763176/p/13233063.html


评论


亲,登录后才可以留言!