如何采集Nginx的日志?

news/2024/6/30 10:42:25

 点击上方“方志朋”,选择“设为星标”

回复”666“获取新整理的面试文章

由于nginx功能强大,性能突出,越来越多的web应用采用nginx作为http和反向代理的web服务器。而nginx的访问日志不管是做用户行为分析还是安全分析都是非常重要的数据源之一。

如何有效便捷的采集nginx的日志进行有效的分析成为大家关注的问题。本文通过几个实例来介绍如何通过filebeat、logstash、rsyslog采集nginx的访问日志和错误日志。

大家都知道ELK技术栈是采集、分析日志的利器。所以这里介绍的是从nginx采集日志到ES。当然至于日志采集以后存到看大家的需要。通过logstash可以方便的配置日志输出存储的方式。

一般来说nginx默认安装后,日志文件在 /usr/local/nginx/logs 目录下。分别有 access.log和error.log 访问日志和错误日志。


这次示例Elasitcsearch是三个节点组成的集群172.28.65.22、172.28.65.23、172.28.65.24,172.28.65.30 是kibana的地址,172.28.65.32是数据采集服务器,上面装有logstash、nginx、 filebeat。一般来说采集服务器上有logstash,而nginx、 filebeat应该是装在采集目标上。

一、直接通过filebeat采集日志到ES


在filebeat的安装目录找到filebeat.yml 配置获取日志文件的路径及输出到ES的配置。

具体:

- type: log  # Change to true to enable this input configuration.  enabled: true  # Paths that should be crawled and fetched. Glob based paths.  paths:    #- /var/log/*.log    - /usr/local/nginx/logs/*.log    #- c:\programdata\elasticsearch\logs\*



如果需要在kibana中友好显示的化,可进行kibana配置




输出到es中,在hosts中配置好你的ES服务地址。如果单机只有一个节点,就可以只配一个ip和端口。




启动filebeat 进行日志数据采集

./filebeat -e -c filebeat.yml -d "publish"

通过elasticsearch-head插件查看es索引中的日志信息


可以看到nginx中的access.log和error.log的日志都已经上来了。


在kibana中通过filebeat-*过滤看filebeat的索引,可以看到通过filebeat采过来的数据。


这种直接通过filebeat直接对接ES采日志的方式简单直接,但是无法对采集的日志进行预处理和其他一些操作,也不够灵活。


可以在filebeat 和 ES之间加一层Logstash,可以将filebeat于ES解耦,通过Logstash可以做一些预处理,也可以通过Logstash采集到除ES以外的其他数据存储上。

二、通过filebeat采集日志到logstash再送到ES


首先得安装 logstash ,安装完后在logstash的安装目录下新建vi filebeat-pipeline.conf
filebeat-pipeline.conf的具体配置如下:

input {    beats {        port => "5044"    }}output {    elasticsearch { hosts => ["172.28.65.24:9200"] }    stdout { codec => rubydebug}}

input配置表示通过5044端口接收beats的数据


output配置表示输出到elasticsearch,并且同时输出到标准输出也就是控制台。
然后通过命令

bin/logstash -f filebeat-pipeline.conf --config.reload.automatic

应用filebeat-pipeline.conf启动logstash。



启动以后可以看到logstash的启动日志5044端口的服务已经起了,可以接受通过filebeat通过5044端口传过来的数据了。


接下来配置filebeat


在filebeat的安装目录找到filebeat.yml 配置获取日志文件的路径及输出到logstash的配置。不直接输出到ES了。


具体配置如下:


将output.elasticsearch的配置屏蔽


配置output.logstash,配置正确的logstash的服务主机和端口

启动filebeat 进行日志数据采集

./filebeat -e -c filebeat.yml -d "publish"

我们访问nginx服务提供的web服务http://172.28.65.32/

在logstash的控制台 可以看到相应的访问access.log 日志


同时在ES 中也可以看到有相应的日志数据



三、直接通过rsyslog采集日志到logstash在送到ES

在很多情况下你需要采集的web服务器并不是自己能够控制的,不是说你想装filebeat就可以让你装的,这时候就可以要求目标数据源通过 syslog 的方式将日志发出来。我们可以再通过 logstash送到ES或其他的日志存储处理平台。



通过syslog往日志服务器上发nginx的日志有两种方式,一种就是利用nginx的配置往外发日志,一种就是通过配置linux的rsyslog的配置往外发日志。

1、通过nginx配置发送syslog到logstash


参考见nginx官方文档:http://nginx.org/en/docs/syslog.html
具体配置如下:

在nginx的配置文件nginx.conf中


在server下配置access_log和error_log的输出方式

access_log syslog:server=172.28.65.32:514,facility=local7,tag=nginx_access_log,severity=info;
error_log syslog:server=172.28.65.32:514,facility=local7,tag=nginx_error_log,severity=info;

配置完成后执行 ./nginx -s reload 使配置生效。这样就通过linux的rsyslog服务将
nginx的日志往外发了。
接着来配置logstash的syslog的服务接收配置 。在logstash的安装目录下新建
vi syslog-pipeline.conf
syslog-pipeline.conf的具体配置如下:
input {    syslog{        type => "system-syslog"        port => 514    }}output {    elasticsearch {        hosts => ["172.28.65.24:9200"]        index => "system-syslog-%{+YYYY.MM}"    }    stdout { codec => rubydebug}}

input配置表示通过514端口接收syslog的数据


output配置表示输出到elasticsearch,并且同时输出到标准输出也就是控制台。


通过执行 bin/logstash -f syslog-pipeline.conf --config.reload.automatic 启动logstash


可以看到logstash启动以后开启了514端口的tcp和upd协议的侦听。


我们访问nginx服务提供的web服务http://172.28.65.32/
在logstash的控制台 可以看到相应的nginx访问access和error的日志




同样通过Elasticsearch-head在ES 中也可以看到有相应的日志数据




2、通过配置rsyslog发送syslog日志到logstash


有些老版本的nginx不支持配置syslog输出日志,或者说我想输出其他不是nginx的日志该怎么办呢?可以通过直接配置rsyslog的方式来往外发送日志。

在/etc/rsyslog.conf 中配置

$IncludeConfig /etc/rsyslog.d/*.conf


意思是可以引用外部的配置文件,引用外部的配置文件一方面可以不影响主配置文件,另一方面也比较好管理


在/etc/rsyslog.d目录下新建nginx-log.conf
配置如下:

$ModLoad imfile$InputFilePollInterval 1$WorkDirectory /var/spool/rsyslog$PrivDropToGroup adm
##Nginx访问日志文件路径,根据实际情况修改:$InputFileName /usr/local/nginx/logs/access.log$InputFileTag nginx-access:$InputFileStateFile stat-nginx-access$InputFileSeverity info$InputFilePersistStateInterval 25000$InputRunFileMonitor
##Nginx错误日志文件路径,根据实际情况修改:$InputFileName /usr/local/nginx/logs/error.log$InputFileTag nginx-error:$InputFileStateFile stat-nginx-error$InputFileSeverity error$InputFilePersistStateInterval 25000$InputRunFileMonitor
*.* @172.28.65:514

配置好了以后,重启rsyslog服务

systemctl restart rsyslog

我们访问nginx服务提供的web服务http://172.28.65.32/

在logstash的控制台 可以看到同样的效果。

本文介绍了如何通过filebeat、logstash、rsyslog采集nginx的访问日志和错误日志的几种方式,具体需要根据实际情况灵活的运用。

来源:https://dwz.cn/ofiCxRK0

热门内容:浅析 VO、DTO、DO、PO 的概念、区别和用处!学会 IDEA REST Client后,postman就可以丢掉了...
Java 处理 Exception 的 9 个最佳实践!
阿里巴巴为什么不用 ZooKeeper 做服务发现?短信验证码的登录流程为什么要放弃 Lombok ?
这12张手绘图,让我彻底搞懂了微服务架构!最近面试BAT,整理一份面试资料《Java面试BAT通关手册》,覆盖了Java核心技术、JVM、Java并发、SSM、微服务、数据库、数据结构等等。
获取方式:点“在看”,关注公众号并回复 666 领取,更多内容陆续奉上。

明天见(。・ω・。)ノ♡


http://lihuaxi.xjx100.cn/news/273448.html

相关文章

html从入门到精通前锋,街篮新手攻略 从入门到精通的心得分享二

街篮毕竟是一款竞技手游,上期介绍了街篮的一些玩法和基本技巧,本期就不再提介绍而是针对实战,以下就是将街篮的实战技巧分享给大家,希望对大家了解街篮有所帮助。(本文为超好玩原创攻略,转载请注明出处)推荐攻略&#…

计算机视觉 | 哥大读博五年总结

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达本文转自|计算机视觉联盟「 开始写这边总结的时候是三月,纽约成了疫情震中,看着新闻报道里的中央公园,中国城,第五大道&…

Chapter 0: 引论

引论我之前就看过了,在我刚买到这本书的时候。 而我买这本书的日子,已经是两年前了。我就是这样子的,我买了好多好多关于技术的书,这些书都是很贵很贵的,可是买完回来之后就看了第一章,然后就一直丢在一边&…

我在MongoDB年终大会上获二等奖文章:由数据迁移至MongoDB导致的数据不一致问题及解决方案...

作者 | 上海小胖来源 | Python专栏(ID:xpchuiit)故事背景企业现状2019年年初,我接到了一个神秘电话,电话那头竟然准确的说出了我的昵称:上海小胖。我想这事情不简单,就回了句:您好,我是小胖&…

容器开启数据服务之旅系列(二):Kubernetes如何助力Spark大数据分析

摘要: 容器开启数据服务之旅系列(二):Kubernetes如何助力Spark大数据分析 (二):Kubernetes如何助力Spark大数据分析 概述 本文为大家介绍一种容器化的数据服务Spark OSS on ACK,允许…

【python教程入门学习】Python爬虫入门学习:网络爬虫是什么

网络爬虫又称网络蜘蛛、网络机器人,它是一种按照一定的规则自动浏览、检索网页信息的程序或者脚本。网络爬虫能够自动请求网页,并将所需要的数据抓取下来。通过对抓取的数据进行处理,从而提取出有价值的信息。 认识爬虫 我们所熟悉的一系列搜…

再见QQ,再见QQ游戏!

整套源码包括:SQLServer数据库安装文件、数据库建库建表sql、服务器端整套源码(含完整核心引擎源码)、105种客户端游戏类型。这套源码含有的游戏类型如下:代码编译和部署方式整套源码我已经全部整理好了,服务端各个服务…

“干掉” Date,Java8 LocalDate 真香!

点击上方“方志朋”,选择“设为星标”回复”666“获取新整理的面试文章# 简介伴随 lambda表达式、streams 以及一系列小优化,Java 8 推出了全新的日期时间API。Java处理日期、日历和时间的不足之处:将 java.util.Date 设定为可变类型&#xf…