一、日志数据采集

1.1、模仿日志生成器的应用

这里提供了一个模仿生成数据的 jar 包,能够将日志发送给某一个指定的端口,须要大数据程序员理解如何从指定端口接收数据并数据进行解决的流程。

1.2、行为数据

1.2.1、启动chb-logger

1.2.2、在rt_applog启动模仿日志生成器,生成行为日志,通过chb-logger采集,写入 kafka

[root@s205 rt_applog]# clear[root@s205 rt_applog]# pwd/home/chenb/chb-realtime/rt_applog[root@s205 rt_applog]# lltotal 15280-rw-r--r-- 1 root root      985 Mar  8 13:13 application.yml-rw-r--r-- 1 root root 15642393 Mar  2 15:06 gmall2020-mock-log-2020-12-18.jardrwxr-xr-x 2 root root       34 Mar  8 10:48 logs[root@s205 rt_applog]# java -jar gmall2020-mock-log-2020-12-18.jar 

1.3、业务数据, 写入数据库, 后续通过 Canal 同步到 kafka

1.3.1、模仿生成业务数据,写入MySQL中

[root@s205 rt_dblog]# pwd/home/chenb/chb-realtime/rt_dblog[root@s205 rt_dblog]# lltotal 14780-rw-r--r-- 1 root root     1506 Mar  8 10:30 application.properties-rw-r--r-- 1 root root 15128654 Mar  2 15:06 gmall2020-mock-db-2020-11-27.jar[root@s205 rt_dblog]# java -jar gmall2020-mock-db-2020-11-27.jar 

1.3.2、配置Canal

1.3.2.1、server配置

# tcp, kafka, RocketMQcanal.serverMode = kafkacanal.mq.servers = s202:9092,s203:9092,s204:9092# true 写入kafka为json格局, false 写入kafka为probutf格局canal.mq.flatMessage = true

1.3.2.2、instance配置

canal.instance.master.address=s203:3306# table regex  监控的表canal.instance.filter.regex=chb_realtime\\.*# mq config canal.mq.topic=ods_base_db_m # 发送到kafka的那个topic

1.3.2.3、测试数据, 批改一条

二、应用Maxwell通过业务数据

关注我的公众号【宝哥大数据】,跟多干货