springboot集合efk搭建日志平台(springboot集成日志log4j2)

  本篇文章为你整理了springboot集合efk搭建日志平台(springboot集成日志log4j2)的详细内容,包含有springboot集成日志logback springboot集成日志log4j2 springboot整合日志 spring boot 日志收集 springboot集合efk搭建日志平台,希望能帮助你了解 springboot集合efk搭建日志平台。

  我使用的云服务器centos7,2核+4G内存,跑起来内存使用率50%左右

  建议使用最低配置和我一样,1+2的配置kibana应该跑不起来,安装过程使用了尚硅谷的springcloud的课程资料,也!!!!!!!!可以不用,自己pull,我附了pull的方法

  资料包:链接:https://pan.baidu.com/s/1GW1qUUwya6mUAacFokpZUw?pwd=eses
 

  提取码:eses
 

  参考资料:https://blog.csdn.net/liurui_wuhan/article/details/115480511

  1.1安装es

  
将资料包中的es.tar上传到服务器

  

# 导入数据2

 

  docker load -i es.tar

  

 

  ps:也可以自己pull ,只要最后的docker里有镜像就好了

  

#pull的方法

 

  docker pull docker.elastic.co/elasticsearch/elasticsearch:7.12.1

  docker pull kibana:7.12.1

  

 

  

docker run -d \

 

   --name es \

   -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \

   -e "http.host=0.0.0.0"\

   -e "discovery.type=single-node" \

   -v es-data:/usr/share/elasticsearch/data \

   -v es-plugins:/usr/share/elasticsearch/plugins \

   --privileged \

   --network es-net \

   -p 9200:9200 \

   -p 9300:9300 \

  elasticsearch:7.12.1

  

 

  命令解释:

  
--name es :给启动的容器别名,查看的时候可以直接使用es代替所有需要填写容器名称的地方,比如docker logs -f es

  
在浏览器中输入:http://服务器地址:9200 即可看到elasticsearch的响应结果:

  1.2安装kibana

  kibana提供了可视化的界面

  1.加载镜像

  跟es一样,上传到服务器,再加载

  

docker run -d \

 

  --name kibana \

  -e ELASTICSEARCH_HOSTS=http://es:9200 \

  --network=es-net \

  -p 5601:5601 \

  kibana:7.12.1

  

 

  --network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中

  -e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch

  -p 5601:5601:端口映射配置

  kibana启动一般比较慢,需要多等待一会,可以通过命令:

  

docker logs -f kibana

 

  

 

  查看运行日志,当查看到下面的日志,说明成功:

  此时,在浏览器输入地址访问:http://服务器地址:5601,即可看到结果

  2.安装filebeat

  filebeat要安装在你需要采集数据的计算机上,不一定要和es安装在一台机器上

  比如我的项目是在本地跑,filebeat就要安在我的本机也就是windows下

  1.下载filebeat

  https://www.elastic.co/cn/downloads/past-releases/filebeat-7-12-1

  2.编写filebeat.yml

  

 

 

  # ============================== Filebeat inputs ===============================

  filebeat.inputs:

  - type: log

   enabled: true

   encoding: UTF-8

   paths:

   #你需要采集数据的地址,比如这个是我的项目生成log文件的地址

   - D:\socialManeger\test1\logs\oper\*.log

  # ---------------------------- Elasticsearch Output ----------------------------

  output.elasticsearch:

  # es 地址

   hosts: ["1.14.120.65:9200"]

  

 

  ps:这是最简单的yml,如果要实现过滤或者其他的功能,可以去看看他的配置文件详解

  进入filebeat的安装目录

  

filebeat.exe -e -c filebeat.yml

 

  

 

  3.整合springboot

  1.pom.xml 新增logstash-logback-encoder依赖,logstash-logback-encoder可以将日志以json的方式输出,也不用我们单独处理多行记录问题

  

 dependency 

 

   groupId net.logstash.logback /groupId

   artifactId logstash-logback-encoder /artifactId

   version 5.3 /version

   /dependency

  

 

  2.配置logback-spring.xml

  

 ?xml version="1.0" encoding="UTF-8"? 

 

   configuration

   include resource="org/springframework/boot/logging/logback/defaults.xml"/

   contextName logback /contextName

   property name="log.path" value="logs/" /

   !--输出到控制台--

   appender name="STDOUT"

   filter

   level debug /level

   /filter

   encoder

   Pattern ${CONSOLE_LOG_PATTERN} /Pattern

   !-- 设置字符集 --

   charset UTF-8 /charset

   /encoder

   /appender

   !--输出到文件--

   appender name="INFO_FILE"

   file ${log.path}/oper/oper.log /file

   encoder

   pattern %msg%n /pattern

   charset UTF-8 /charset

   /encoder

   rollingPolicy

   fileNamePattern ${log.path}/oper/oper -%d{yyyy-MM-dd}.%i.log /fileNamePattern

   maxFileSize 100MB /maxFileSize

   maxHistory 30 /maxHistory

   totalSizeCap 1GB /totalSizeCap

   /rollingPolicy

   encoder

   providers

   timestamp

   timeZone Asia/Shanghai /timeZone

   /timestamp

   pattern

   pattern {"message": "%message"} /pattern

   /pattern

   /providers

   /encoder

   filter

   level info /level

   onMatch ACCEPT /onMatch

   onMismatch DENY /onMismatch

   /filter

   /appender

   !-- 时间滚动输出 level为 ERROR 日志 --

   appender name="ERROR_FILE"

   file ${log.path}/error/error.log /file

   encoder

   pattern %d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n /pattern

   charset UTF-8 /charset !-- 此处设置字符集 --

   /encoder

   rollingPolicy

   fileNamePattern ${log.path}/error/error-%d{yyyy-MM-dd}.%i.log /fileNamePattern

   maxFileSize 100MB /maxFileSize

   maxHistory 30 /maxHistory

   totalSizeCap 1GB /totalSizeCap

   /rollingPolicy

   filter

   level ERROR /level

   onMatch ACCEPT /onMatch

   onMismatch DENY /onMismatch

   /filter

   /appender

  
!--name:用来指定受此loger约束的某一个包或者具体的某一个类。--

   !--addtivity:是否向上级loger传递打印信息。默认是true。--

   logger name="com.netflix" level="ERROR" /

   logger name="net.sf.json" level="ERROR" /

   logger name="org.springframework" level="ERROR" /

   logger name="springfox" level="ERROR" /

  以上就是springboot集合efk搭建日志平台(springboot集成日志log4j2)的详细内容,想要了解更多 springboot集合efk搭建日志平台的内容,请持续关注盛行IT软件开发工作室。

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: