Nginx整合Kafka

背景

nginx-kafka-module是nginx的一个插件,可以将kafka整合到nginx中,便于web项目中前端页面埋点数据的收集,如前端页面设置了埋点,即可将用户的一些访问和请求数据通过http请求直接发送到消息中间件kafka中,后端可以通过程序消费kafka中的消息来进行实时的计算。比如通过SparkStream来实时的消费Kafka中的数据来分析用户PV,UV、用户的一些行为及页面的漏斗模型转化率,来更好的对系统进行优化或者对来访用户进行实时动态的分析。

成都创新互联公司基于分布式IDC数据中心构建的平台为众多户提供内江服务器托管 四川大带宽租用 成都机柜租用 成都服务器租用。

具体整合步骤

1.安装git
    yum install -y git
2.切换到/usr/local/src目录,然后将kafka的c客户端源码clone到本地
    cd /usr/local/src
    git clone https://github.com/edenhill/librdkafka
3.进入到librdkafka,然后进行编译
    cd librdkafka
    yum install -y gcc gcc-c++ pcre-devel zlib-devel
    ./configure
    make && make install

4.安装nginx整合kafka的插件,进入到/usr/local/src,clone nginx整合kafka的源码
    cd /usr/local/src
    git clone https://github.com/brg-liuwei/ngx_kafka_module

5.进入到nginx的源码包目录下   (编译nginx,然后将将插件同时编译)
    cd /usr/local/src/nginx-1.12.2
    ./configure --add-module=/usr/local/src/ngx_kafka_module/
    make && make install

6.修改nginx的配置文件:设置一个location和kafaka的topic,详情请查看当前目录的nginx.conf
#添加配置(2处)
kafka;
kafka_broker_list f1:9092 f2:9092 f3:9092;

location = /kafka/access {
            kafka_topic access888;
        }

如下图:
Nginx整合Kafka

Nginx整合Kafka

7.启动zk和kafka集群(创建topic)
    zkServer.sh start
    kafka-server-start.sh -daemon config/server.properties

8.启动nginx,报错,找不到kafka.so.1的文件
    error while loading shared libraries: librdkafka.so.1: cannot open shared object file: No such file or directory
9.加载so库
    #开机加载/usr/local/lib下面的库
    echo "/usr/local/lib" >> /etc/ld.so.conf
    #手动加载
    ldconfig

10.测试,向nginx中写入数据,然后观察kafka的消费者能不能消费到数据
    curl http://localhost/kafka/access -d "message send to kafka topic"
    curl http://localhost/kafka/access -d "小伟666" 

测试

也可以模拟页面埋点请求接口来发送信息:
Nginx整合Kafka

后台Kafka消费信息如图:
Nginx整合Kafka

文章标题:Nginx整合Kafka
本文地址:https://www.cdcxhl.com/article14/iedpde.html

成都网站建设公司_创新互联,为您提供面包屑导航外贸网站建设网站建设云服务器网页设计公司响应式网站

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

成都app开发公司