项目实战从0到1之大数据项目之电商数仓(用户行为数据采集四)

时间:2023-06-02 18:33:28 | 浏览:27

4.4 采集日志Flume4.4.1 日志采集Flume安装集群规划:4.4.2 项目经验之Flume组件1)Source (1)Taildir Source相比Exec Source、Spooling Directory Source的优

4.4 采集日志Flume

4.4.1 日志采集Flume安装

集群规划:

4.4.2 项目经验之Flume组件

1)Source (1)Taildir Source相比Exec Source、Spooling Directory Source的优势 TailDir Source:断点续传、多目录。Flume1.6以前需要自己自定义Source记录每次读取文件位置,实现断点续传。 Exec Source可以实时搜集数据,但是在Flume不运行或者Shell命令出错的情况下,数据将会丢失。 Spooling Directory Source监控目录,不支持断点续传。 (2)batchSize大小如何设置? 答:Event 1K左右时,500-1000合适(默认为100) 2)Channel 采用Kafka Channel,省去了Sink,提高了效率。

4.4.3 日志采集Flume配置

1)Flume配置分析

Flume直接读log日志的数据,log日志的格式是app-yyyy-mm-dd.log。 2)Flume的具体配置如下: (1)在/opt/module/flume/conf目录下创建file-flume-kafka.conf文件

[kgg@hadoop101 conf]$ vim file-flume-kafka.conf
在文件配置如下内容
在文件配置如下内容
a1.sources=r1
a1.channels=c1 c2

# configure source
a1.sources.r1.type = TAILDIR
a1.sources.r1.positionFile = /opt/module/flume/test/log_position.json
a1.sources.r1.filegroups = f1
a1.sources.r1.filegroups.f1 = /tmp/logs/app.+
a1.sources.r1.fileHeader = true
a1.sources.r1.channels = c1 c2
​
#interceptor
a1.sources.r1.interceptors =  i1 i2
a1.sources.r1.interceptors.i1.type = com.kgg.flume.interceptor.LogETLInterceptor$Builder
a1.sources.r1.interceptors.i2.type = com.kgg.flume.interceptor.LogTypeInterceptor$Builder
​
a1.sources.r1.selector.type = multiplexing
a1.sources.r1.selector.header = topic
a1.sources.r1.selector.mapping.topic_start = c1
a1.sources.r1.selector.mapping.topic_event = c2
​
# configure channel
a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
a1.channels.c1.kafka.topic = topic_start
a1.channels.c1.parseAsFlumeEvent = false
a1.channels.c1.kafka.consumer.group.id = flume-consumer
​
a1.channels.c2.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c2.kafka.bootstrap.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
a1.channels.c2.kafka.topic = topic_event
a1.channels.c2.parseAsFlumeEvent = false
a1.channels.c2.kafka.consumer.group.id = flume-consumer

注意:com.kgg.flume.interceptor.LogETLInterceptor和com.kgg.flume.interceptor.LogTypeInterceptor是自定义的拦截器的全类名。需要根据用户自定义的拦截器做相应修改。

4.4.4 Flume的ETL和分类型拦截器

本项目中自定义了两个拦截器,分别是:ETL拦截器、日志类型区分拦截器。 ETL拦截器主要用于,过滤时间戳不合法和Json数据不完整的日志

日志类型区分拦截器主要用于,将启动日志和事件日志区分开来,方便发往Kafka的不同Topic。

1)创建Maven工程flume-interceptor

2)创建包名:com.kgg.flume.interceptor

3)在pom.xml文件中添加如下配置

<dependencies>
    <dependency>
        <groupId>org.apache.flume</groupId>
        <artifactId>flume-ng-core</artifactId>
        <version>1.7.0</version>
    </dependency>
</dependencies>
​
<build>
    <plugins>
        <plugin>
            <artifactId>maven-compiler-plugin</artifactId>
            <version>2.3.2</version>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
            </configuration>
        </plugin>
        <plugin>
            <artifactId>maven-assembly-plugin</artifactId>
            <configuration>
                <descriptorRefs>
                    <descriptorRef>jar-with-dependencies</descriptorRef>
                </descriptorRefs>
            </configuration>
            <executions>
                <execution>
                    <id>make-assembly</id>
                    <phase>package</phase>
                    <goals>
                        <goal>single</goal>
                    </goals>
                </execution>
            </executions>
        </plugin>
    </plugins>
</build>

4)在com.kgg.flume.interceptor包下创建LogETLInterceptor类名

Flume ETL拦截器LogETLInterceptor
package com.kgg.flume.interceptor;
​
import org.apache.flume.Context;
import org.apache.flume.Event;
import org.apache.flume.interceptor.Interceptor;
​
import java.nio.charset.Charset;
import java.util.ArrayList;
import java.util.List;
​
public class LogETLInterceptor implements Interceptor {
​
    @Override
    public void initialize() {
​
    }
​
    @Override
    public Event intercept(Event event) {
​
        // 1 获取数据
        byte[] body = event.getBody();
        String log = new String(body, Charset.forName("UTF-8"));
​
        // 2 判断数据类型并向Header中赋值
        if (log.contains("start")) {
            if (LogUtils.validateStart(log)){
                return event;
            }
        }else {
            if (LogUtils.validateEvent(log)){
                return event;
            }
        }
​
        // 3 返回校验结果
        return null;
    }
​
    @Override
    public List<Event> intercept(List<Event> events) {
​
        ArrayList<Event> interceptors = new ArrayList<>();
​
        for (Event event : events) {
            Event intercept1 = intercept(event);
​
            if (intercept1 != null){
                interceptors.add(intercept1);
            }
        }
​
        return interceptors;
    }
​
    @Override
    public void close() {
​
    }
​
    public static class Builder implements Interceptor.Builder{
​
        @Override
        public Interceptor build() {
            return new LogETLInterceptor();
        }
​
        @Override
        public void configure(Context context) {
​
        }
    }
}

4)Flume日志过滤工具类

package com.kgg.flume.interceptor;
import org.apache.commons.lang.math.NumberUtils;
​
public class LogUtils {
​
    public static boolean validateEvent(String log) {
        // 服务器时间 | json
        // 1549696569054 | {"cm":{"ln":"-89.2","sv":"V2.0.4","os":"8.2.0","g":"M67B4QYU@gmail.com","nw":"4G","l":"en","vc":"18","hw":"1080*1920","ar":"MX","uid":"u8678","t":"1549679122062","la":"-27.4","md":"sumsung-12","vn":"1.1.3","ba":"Sumsung","sr":"Y"},"ap":"weather","et":[]}
​
        // 1 切割
        String[] logContents = log.split("\\|");
​
        // 2 校验
        if(logContents.length != 2){
            return false;
        }
​
        //3 校验服务器时间
        if (logContents[0].length()!=13 || !NumberUtils.isDigits(logContents[0])){
            return false;
        }
​
        // 4 校验json
        if (!logContents[1].trim().startsWith("{") || !logContents[1].trim().endsWith("}")){
            return false;
        }
​
        return true;
    }
​
    public static boolean validateStart(String log) {
 // {"action":"1","ar":"MX","ba":"HTC","detail":"542","en":"start","entry":"2","extend1":"","g":"S3HQ7LKM@gmail.com","hw":"640*960","l":"en","la":"-43.4","ln":"-98.3","loading_time":"10","md":"HTC-5","mid":"993","nw":"WIFI","open_ad_type":"1","os":"8.2.1","sr":"D","sv":"V2.9.0","t":"1559551922019","uid":"993","vc":"0","vn":"1.1.5"}
​
        if (log == null){
            return false;
        }
​
        // 校验json
        if (!log.trim().startsWith("{") || !log.trim().endsWith("}")){
            return false;
        }
​
        return true;
    }
}

5)Flume日志类型区分拦截器LogTypeInterceptor

package com.kgg.flume.interceptor;
​
import org.apache.flume.Context;
import org.apache.flume.Event;
import org.apache.flume.interceptor.Interceptor;
​
import java.nio.charset.Charset;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;
​
public class LogTypeInterceptor implements Interceptor {
    @Override
    public void initialize() {
​
    }
​
    @Override
    public Event intercept(Event event) {
​
        // 区分日志类型:   body  header
        // 1 获取body数据
        byte[] body = event.getBody();
        String log = new String(body, Charset.forName("UTF-8"));
​
        // 2 获取header
        Map<String, String> headers = event.getHeaders();
​
        // 3 判断数据类型并向Header中赋值
        if (log.contains("start")) {
            headers.put("topic","topic_start");
        }else {
            headers.put("topic","topic_event");
        }
​
        return event;
    }
​
    @Override
    public List<Event> intercept(List<Event> events) {
​
        ArrayList<Event> interceptors = new ArrayList<>();
​
        for (Event event : events) {
            Event intercept1 = intercept(event);
​
            interceptors.add(intercept1);
        }
​
        return interceptors;
    }
​
    @Override
    public void close() {
​
    }
​
    public static class Builder implements  Interceptor.Builder{
​
        @Override
        public Interceptor build() {
            return new LogTypeInterceptor();
        }
​
        @Override
        public void configure(Context context) {
​
        }
    }
}

6)打包 拦截器打包之后,只需要单独包,不需要将依赖的包上传。打包之后要放入Flume的lib文件夹下面。

注意:为什么不需要依赖包?因为依赖包在flume的lib目录下面已经存在了。

7)需要先将打好的包放入到hadoop101的/opt/module/flume/lib文件夹下面。

ls | grep interceptor
flume-interceptor-1.0-SNAPSHOT.jar

4.4.5 日志采集Flume启动停止脚本

1)在/home/kgg/bin目录下创建脚本f1.sh

 vim f1.sh    
在脚本中填写如下内容
#! /bin/bash
​
case $1 in
"start"){
        for i in hadoop101 hadoop102
        do
                echo " --------启动 $i 采集flume-------"
                ssh $i "nohup /opt/module/flume/bin/flume-ng agent --conf-file /opt/module/flume/conf/file-flume-kafka.conf --name a1 -Dflume.root.logger=INFO,LOGFILE > /dev/null 2>&1 &"
        done
};;    
"stop"){
        for i in hadoop101 hadoop102
        do
                echo " --------停止 $i 采集flume-------"
                ssh $i "ps -ef | grep file-flume-kafka | grep -v grep |awk "{print \$2}" | xargs kill"
        done
​
};;
esac

说明1:nohup,该命令可以在你退出帐户/关闭终端之后继续运行相应的进程。nohup就是不挂起的意思,不挂断地运行命令。 说明2:/dev/null代表linux的空设备文件,所有往这个文件里面写入的内容都会丢失,俗称“黑洞”。 标准输入0:从键盘获得输入 /proc/self/fd/0 标准输出1:输出到屏幕(即控制台) /proc/self/fd/1 错误输出2:输出到屏幕(即控制台) /proc/self/fd/2 2)增加脚本执行权限

 chmod 777 f1.sh

3)f1集群启动脚本

f1.sh start

4)f1集群停止脚本

f1.sh stop

相关资讯

韩国热销红参液有效成分不达标涉事品牌产品电商平台有售

而韩国消费者院日前发布对市面上热销的红参产品的调查,发现功效成分的含量最大相差11倍,其中,一款含量未达标的产品在中国电商平台上有售。韩国消费者院发布对韩国市面上13款条状红参浓缩液产品的情况。其中,由高丽人参流通公司生产的六年根红参浓缩液

「收藏」12种园林景观设计项目中常用的景观岩石

当谈到用岩石美化环境时,最大的障碍是不知道在哪里添加它们。这是使用什么类型的岩石。有这么多不同的景观岩石,它可能是压倒性的。1. 河岩河流岩石是景观花园中最常见的岩石类型之一,通常用于代替覆盖物。它们具有圆形、光滑、干净的表面,并且有多种尺

一块景观石150万,政府采购项目价格惊人

景区公园常有奇石“迎宾”、园林绿地动辄巨石“压镇”……近年来,部分地方在城乡建设中热衷花重金“移石造景”引发关注。“新华视点”记者调查发现,“移石造景”所用的景观石大多由政府采购,价格畸高,有的一块石头数万元,高的逾百万元。这类工程同时还助

明日方舟新六星先锋伊内丝数据解包抢先看银老板被彻底爆金币了

明日方舟期待已久的六星先锋干员伊内丝,相关的数据解包情报也算是正式透露和公开了,这次可以通过数据来详细的看看这位干员的特色,还有目前通过简单的计算得出来的强度高低了,就目前公开的数值还有机制来看,感觉银老板被彻底爆金币了。2121的血量,5

兔币数据公布,48万人弃兑,二次预约额度超1000万枚

年后,多个地区开展了兔年纪念币的兑换,目前绝大部分地区已经结束兑换,各地也公布了最新的兑换结果。你兑换了吗?本次兔币放弃兑换的人数,比想象中多一些。因此,还会有二次预约,到时候还有面值预约的机会。那么,兔币的兑换结果如何,二次预约是怎么回事

这种“熊猫银币”项目你投资了吗?小心有诈!

“国字号”金融项目“正规银行发行”“银币有收藏价值”“项目即将上市”“每日返利投资款的5%”……是不是动心了?都“国字号”了还能有诈?对于高回报的投资项目一定要擦亮慧眼01基本案情2019年9月至12月,张某与刘某共同策划开展“熊猫银币”投

论坛数据︱2022版熊猫币资料档案

本“资料档案”,包括链接基本涵盖2022版熊猫贵金属币的全部数据,以备查阅。敬请收藏!【铸造开机】2021年9月15日,在深圳国宝造币有限公司举行2022版熊猫贵金属纪念币铸造开机仪式。【银行公告】中国人民银行公告〔2021〕第17号:中国

2023年3月济南房价数据播报:新房挂牌均价为14112元/㎡

点击「链接」,跳转到【济南房产网】,了解更多房源信息。3月份,虽然济南楼市给人的整体感觉是不如2月份热闹,但是从成交和房价情况来看,济南楼市复苏已经成为一种趋势,是不以人的意志为转移的,所以尽管大家感觉似乎热度不够,但是从数据来看,济南楼市

2023年3月济南楼市关注度分析,户型、商圈、房价关注度数据

点击「链接」,跳转到【济南房产网】,了解更多房源信息。阳春3月,虽然很多人说济南楼市没有了2月份的暖意融融,部分楼盘似乎回到了之前门可罗雀的场景,但现实情况并不是这样。据济南房产网数据统计显示,3月份济南楼市成交仍然呈现出上涨的态势,数据从

房产大数据播报:2023年3月济南楼市白皮书

点击「链接」,跳转到【济南房产网】,了解更多房源信息。3月网签:13208套据济南房产网统计整理数据显示,2023年3月份,济南新建商品房共成交13208套,环比上涨5.81%,其中住宅成交8745套,环比上涨5.85%,济南楼市成交连续两

友情链接

SEO域名抢注宝宝起名网妈妈知道币圈玉林新闻资讯网猫粮品牌网品酒师资讯网艾灸知识网徐氏取名字大全雪糕冰淇淋资讯网奥运会资讯网菲侓宾旅游网港式茶餐厅资讯网户外露营地官网若尔盖草原旅游网宁德新闻资讯网小提琴培训网生肖蛇运势网陈百强歌迷网
亚马逊跨境电商-抖音电商罗盘入口、抖音电商罗盘官网、拼多多下载安装免费、京东商城网官网、亚马逊跨境电商、1688一件代发批发网、亚马逊海外购app、淘宝电商无货源模式、网店无货源模式、一件代发货源开网店货源、网上进货批发网、拼多多一键铺货软件、天猫官方旗舰店、亚马逊美国官网。
亚马逊跨境电商 ppxn.cn ©2022-2028版权所有