日志框架log4j2
Log4j2 是 log4j 1.x 和 logback 的改进版,据说采用了一些新技术(无锁异步、等等),使得日志的吞吐量、性能比 log4j 1.x 提高 10 倍,并解决了一些死锁的 bug,而且配置更加简单灵活。
① 关于配置文件的名称以及在项目中的存放位置
log4j 2.x 版本不再支持像 1.x 中的.properties 后缀的文件配置方式,2.x 版本配置文件后缀名只能为 ".xml",".json" 或者 ".jsn"。
系统选择配置文件的优先级 (从先到后) 如下:
- classpath 下的名为 log4j2-test.json 或者 log4j2-test.jsn 的文件;
- classpath 下的名为 log4j2-test.xml 的文件;
- classpath 下名为 log4j2.json 或者 log4j2.jsn 的文件;
- classpath 下名为 log4j2.xml 的文件;
我们一般默认使用 log4j2.xml 进行命名。如果本地要测试,可以把 log4j2-test.xml 放到 classpath,而正式环境使用 log4j2.xml,则在打包部署的时候不要打包 log4j2-test.xml 即可。
② java 项目中 Classpath 路径到底指的是哪里?
- src 不是 classpath,WEB-INF/classes,lib 才是 classpath,WEB-INF/ 是资源目录, 客户端不能直接访问。
- WEB-INF/classes 目录存放 src 目录 java 文件编译之后的 class 文件,xml、properties 等资源配置文件,这是一个定位资源的入口。
- lib 和 classes 同属 classpath,两者的访问优先级为: lib>classes。
配置文件详解
log4j2.xml 文件的配置大致如下:
- Configuration
- properties
- Appenders
- Console
- PatternLayout
- File
- RollingFile
- Async
- Console
- Loggers
- Logger
- Root
- AppenderRef
缺省默认配置文件:
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="WARN">
<Appenders>
<Console name="Console" target="SYSTEM_OUT">
<PatternLayout pattern="%d{HH🇲🇲ss.SSS} [%t] %-5level %logger{36} - %msg%n"/>
</Console>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="Console"/>
</Root>
</Loggers>
</Configuration>
① Configuration:为根节点,有 status 和 monitorInterval 等多个属性
- status 的值有 “trace”, “debug”, “info”, “warn”, “error” and “fatal”,用于控制 log4j2 日志框架本身的日志级别,如果将 stratus 设置为较低的级别就会看到很多关于 log4j2 本身的日志,如加载 log4j2 配置文件的路径等信息。
- monitorinterval:含义是每隔多少秒重新读取配置文件,可以不重启应用的情况下修改配置
② Appenders:输出源,用于定义日志输出的地方
log4j2 支持的输出源有很多,有控制台 Console、文件 File、RollingFile、MongoDB、Flume 等。
1)Console:控制台输出源是将日志打印到控制台上,开发的时候一般都会配置,以便调试
- name:Console 的属性,指定 Appender 的名字;
- target:Console 的属性,SYSTEM_OUT 或 SYSTEM_ERR, 一般只设置默认:SYSTEM_OUT;
- PatternLayout:Console 的子节点,输出格式,不设置默认为:%m%n;
2)File:文件输出源,用于将日志写入到指定的文件,需要配置输入到哪个位置(例如:D:/logs/mylog.log)
- name:File 的属性,指定 Appender 的名字;
- fileName:File 的属性,指定输出日志的目的文件带全路径的文件名;
- PatternLayout:File 的子节点,输出格式,不设置默认为:%m%n;
3)RollingFile:用来定义超过指定大小自动删除旧的创建新的的 Appender
- name:RollingFile 的属性,指定 Appender 的名字
- fileName:RollingFile 的属性,指定输出日志的目的文件带全路径的文件名
- filePattern:RollingFile 的属性,指定新建日志文件的名称格式.
- PatternLayout:RollingFile 的子节点,输出格式,不设置默认为:%m%n
- DefaultRolloverStrategy:RollingFile 的子节点,用来指定同一个文件夹下最多有几个日志文件时开始删除最旧的,创建新的 (通过 max 属性)。
- Policies:RollingFile 的子节点,指定滚动日志的策略,就是什么时候进行新建日志文件输出日志
- TimeBasedTriggeringPolicy:Policies 子节点,基于时间的滚动策略,interval 属性用来指定多久滚动一次,默认是 1hour。modulate=true 用来调整时间:比如现在是早上 3am,interval 是 4,那么第一次滚动是在 4am,接着是 8am,12am... 而不是 7am
- SizeBasedTriggeringPolicy:Policies 子节点,基于指定文件大小的滚动策略,size 属性用来定义每个日志文件的大小
- Filters:RollingFile 的子节点,决定日志事件能否被输出。过滤条件有三个值:ACCEPT(接受), DENY(拒绝) or NEUTRAL(中立)
- ThresholdFilter:Filters 的子节点
- level:ThresholdFilter 的属性,将被过滤的级别。
- onMatch:ThresholdFilter 的属性,默认值是 NEUTRAL
- onMismatch:ThresholdFilter 的属性,默认是 DENY
- ThresholdFilter:Filters 的子节点
ACCEP 和 DENY 比较好理解就是接受和拒绝的意思,在使用单个过滤器的时候,一般就是使用这两个值。但是在组合过滤器中,如果用接受 ACCEPT 的话,日志信息就会直接写入日志文件, 后续的过滤器不再进行过滤。所以,在组合过滤器中,接受使用 NEUTRAL(中立),被第一个过滤器接受的日志信息,会继续用后面的过滤器进行过滤,只有符合所有过滤器条件的日志信息,才会被最终写入日志文件。
4)NoSql:MongoDb, 输出到 MongDb 数据库中
5)Flume:输出到 Apache Flume(Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume 支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume 提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。)
6)Async:异步,需要通过 AppenderRef 来指定要对哪种输出源进行异步(一般用于配置 RollingFile)
PatternLayout:控制台或文件输出源(Console、File、RollingFile)都必须包含一个 PatternLayout 节点,用于指定输出文件的格式(如 日志输出的时间 文件 方法 行数 等格式),例如 pattern="%d{HH🇲🇲ss.SSS} [%t] %-5level %logger{36} - %msg%n"
%d{HH🇲🇲ss.SSS} 表示输出到毫秒的时间 %t 输出当前线程名称 %-5level 输出日志级别,-5表示左对齐并且固定输出5个字符,如果不足在右边补0 %logger 输出logger名称,因为Root Logger没有名称,所以没有输出 %msg 日志文本 %n 换行
其他常用的占位符有:
%F 输出所在的类文件名,如Log4j2Test.java
%L 输出行号
%M 输出所在方法名
%l 输出语句所在的行数, 包括类名、方法名、文件名、行数
③ Loggers 节点,常见的有两种:Root 和 Logger
1)Root 节点用来指定项目的根日志,如果没有单独指定 Logger,那么就会默认使用该 Root 日志输出
- level:Root 属性,日志输出级别,共有 8 个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal < OFF
- appender-ref:Root 的子节点,用来指定该日志输出到哪个 Appender,通过 ref 指定
2)Logger 节点用来单独指定日志的形式,比如要为指定包下的 class 指定不同的日志级别等。
- level:Logger 属性,日志输出级别,共有 8 个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal < OFF
- name:Logger 属性,用来指定该 Logger 所适用的类或者类所在的包全路径, 继承自 Root 节点
- additivity:Logger 属性
- appender-ref:Logger 的子节点,用来指定该日志输出到哪个 Appender, 如果没有指定,就会默认继承自 Root. 如果指定了,那么会在指定的这个 Appender 和 Root 的 Appender 中都会输出,此时我们可以设置 Logger 的 additivity="false" 只在自定义的 Appender 中进行输出。
④ 日志级别
共有 8 个级别,按照从低到高为:All < Trace < Debug < Info < Warn < Error < Fatal < OFF
All:最低等级的,用于打开所有日志记录
Trace:是追踪,就是程序推进一下,你就可以写个 trace 输出,所以 trace 应该会特别多,不过没关系,我们可以设置最低日志级别不让他输出
Debug:指出细粒度信息事件对调试应用程序是非常有帮助的
Info:消息在粗粒度级别上突出强调应用程序的运行过程
Warn:输出警告及 warn 以下级别的日志
Error:输出错误信息日志
Fatal:输出每个严重的错误事件将会导致应用程序的退出的日志
OFF:最高等级的,用于关闭所有日志记录.
程序会打印高于或等于所设置级别的日志,设置的日志等级越高,打印出来的日志就越少。
实战配置:log4j2.xml
① 添加 log4j2 核心包
<!-- 添加 log4j2 相关 jar 包 -->
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-api</artifactId>
<version>2.7</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.7</version>
</dependency>
② log4j2.xml 放到类路径下
<?xml version="1.0" encoding="UTF-8"?>
<configuration status="OFF">
<appenders>
<Console name="Console" target="SYSTEM_OUT">
<!-- 只接受程序中 DEBUG 级别的日志进行处理 -->
<ThresholdFilter level="DEBUG" onMatch="ACCEPT" onMismatch="DENY"/>
<PatternLayout pattern="[%d{HH🇲🇲ss.SSS}] %-5level %class{36} %L %M - %msg%xEx%n"/>
</Console>
<!-- 处理 DEBUG 级别的日志,并把该日志放到 logs/debug.log 文件中 -->
<!-- 打印出 DEBUG 级别日志,每次大小超过 size,则这 size 大小的日志会自动存入按年份 - 月份建立的文件夹下面并进行压缩,作为存档 -->
<RollingFile name="RollingFileDebug" fileName="./logs/debug.log"
filePattern="logs/$${date:yyyy-MM}/debug-%d{yyyy-MM-dd}-%i.log.gz">
<Filters>
<!-- 只接受 DEBUG 级别的日志,其余的全部拒绝处理 -->
<ThresholdFilter level="DEBUG"/>
<ThresholdFilter level="INFO" onMatch="DENY" onMismatch="NEUTRAL"/>
</Filters>
<!-- 输出日志的格式 -->
<PatternLayout
pattern="[%d{yyyy-MM-dd HH🇲🇲ss}] %-5level %class{36} %L %M - %msg%xEx%n"/>
<Policies>
<SizeBasedTriggeringPolicy size="500 MB"/>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
<!-- 处理 INFO 级别的日志,并把该日志放到 logs/info.log 文件中 -->
<RollingFile name="RollingFileInfo" fileName="./logs/info.log"
filePattern="logs/$${date:yyyy-MM}/info-%d{yyyy-MM-dd}-%i.log.gz">
<Filters>
<!-- 只接受 INFO 级别的日志,其余的全部拒绝处理 -->
<ThresholdFilter level="INFO"/>
<ThresholdFilter level="WARN" onMatch="DENY" onMismatch="NEUTRAL"/>
</Filters>
<PatternLayout
pattern="[%d{yyyy-MM-dd HH🇲🇲ss}] %-5level %class{36} %L %M - %msg%xEx%n"/>
<Policies>
<SizeBasedTriggeringPolicy size="500 MB"/>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
<!-- 处理 WARN 级别的日志,并把该日志放到 logs/warn.log 文件中 -->
<RollingFile name="RollingFileWarn" fileName="./logs/warn.log"
filePattern="logs/$${date:yyyy-MM}/warn-%d{yyyy-MM-dd}-%i.log.gz">
<Filters>
<ThresholdFilter level="WARN"/>
<ThresholdFilter level="ERROR" onMatch="DENY" onMismatch="NEUTRAL"/>
</Filters>
<PatternLayout
pattern="[%d{yyyy-MM-dd HH🇲🇲ss}] %-5level %class{36} %L %M - %msg%xEx%n"/>
<Policies>
<SizeBasedTriggeringPolicy size="500 MB"/>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
<!-- 处理 error 级别的日志,并把该日志放到 logs/error.log 文件中 -->
<RollingFile name="RollingFileError" fileName="./logs/error.log"
filePattern="logs/$${date:yyyy-MM}/error-%d{yyyy-MM-dd}-%i.log.gz">
<ThresholdFilter level="ERROR"/>
<PatternLayout
pattern="[%d{yyyy-MM-dd HH🇲🇲ss}] %-5level %class{36} %L %M - %msg%xEx%n"/>
<Policies>
<SizeBasedTriggeringPolicy size="500 MB"/>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
<!--druid 的日志记录追加器 -->
<RollingFile name="druidSqlRollingFile" fileName="./logs/druid-sql.log"
filePattern="logs/$${date:yyyy-MM}/api-%d{yyyy-MM-dd}-%i.log.gz">
<PatternLayout pattern="[%d{yyyy-MM-dd HH🇲🇲ss}] %-5level %L %M - %msg%xEx%n"/>
<Policies>
<SizeBasedTriggeringPolicy size="500 MB"/>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
</appenders>
<!-- 然后定义 logger,只有定义了 logger 并引入的 appender,appender 才会生效 -->
<loggers>
<!-- 默认的 root 的 logger-->
<root level="DEBUG">
<appender-ref ref="Console"/>
<appender-ref ref="RollingFileInfo"/>
<appender-ref ref="RollingFileWarn"/>
<appender-ref ref="RollingFileError"/>
<appender-ref ref="RollingFileDebug"/>
</root>
<!-- 额外配置的 logger-->
<!-- 记录 druid-sql 的记录 -->
<logger name="druid.sql.Statement" level="debug" additivity="false">
<appender-ref ref="druidSqlRollingFile"/>
</logger>
<!--log4j2 自带过滤日志 -->
<Logger name="org.apache.catalina.startup.DigesterFactory" level="error" />
<Logger name="org.apache.catalina.util.LifecycleBase" level="error" />
<Logger name="org.apache.coyote.http11.Http11NioProtocol" level="warn" />
<logger name="org.apache.sshd.common.util.SecurityUtils" level="warn"/>
<Logger name="org.apache.tomcat.util.net.NioSelectorPool" level="warn" />
<Logger name="org.crsh.plugin" level="warn" />
<logger name="org.crsh.ssh" level="warn"/>
<Logger name="org.eclipse.jetty.util.component.AbstractLifeCycle" level="error" />
<Logger name="org.hibernate.validator.internal.util.Version" level="warn" />
<logger name="org.springframework.boot.actuate.autoconfigure.CrshAutoConfiguration" level="warn"/>
<logger name="org.springframework.boot.actuate.endpoint.jmx" level="warn"/>
<logger name="org.thymeleaf" level="warn"/>
</loggers>
</configuration>
③ 加载配置文件
1)默认加载
默认名称的文件放在类路径即可。
2)纯 Java
public static void main(String[] args) throws IOException {
File file = new File("D:/log4j2.xml");
BufferedInputStream in = new BufferedInputStream(new FileInputStream(file));
final ConfigurationSource source = new ConfigurationSource(in);
Configurator.initialize(null, source);
<span class="hljs-type">Logger</span> <span class="hljs-variable">logger</span> <span class="hljs-operator">=</span> LogManager.getLogger(<span class="hljs-string">"myLogger"</span>);
}
3)web 指定路径加载
<context-param>
<param-name>log4jConfiguration</param-name>
<param-value>/WEB-INF/log4j2.xml</param-value>
</context-param>
<listener>
<listener-class>org.apache.logging.log4j.web.Log4jServletContextListener</listener-class>
</listener>
上面用到了 org.apache.logging.log4j.web.Log4jServletContextListener,需要引入另外一个包:
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-web</artifactId>
<version>2.7</version>
</dependency>
使用 slf4j 门面日志
log4j 与 slf4j 日志门面整合,需要添加以下依赖:
<!-- 用于与 slf4j 保持桥接, 可以不用 slf4j-api-->
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-slf4j-impl</artifactId>
<version>2.4.1</version>
</dependency>
在代码中使用:
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
public class TestAA{
private static Logger logger = LoggerFactory.getLogger(TestAA.class);
<span class="hljs-keyword">public</span> <span class="hljs-keyword">void</span> <span class="hljs-title function_">test</span><span class="hljs-params">()</span>{
logger.info(<span class="hljs-string">"-------------------"</span>);
}
}
__EOF__