《Log4j官方文档》 JSON配置

简介:

Log4j不仅能通过XML配置,也能通过JSON配置。如你所知,JSON的格式非常类似于紧凑版XML。每个键代表了插件名称,对应的值是属性。键中可以有子级插件。如下,“ThresholdFilter, Console, PatternLayout”都是插件。Console的值是“STDOUT”,意为日志控制台输出;“ThresholdFilter”的值是被设为调试级。


{ "configuration": { "status": "error", "name": "RoutingTest",
"packages": "org.apache.logging.log4j.test",
"properties": {
"property": { "name": "filename",
"value" : "target/rolling1/rollingtest-$${sd:type}.log" }
},
"ThresholdFilter": { "level": "debug" },
"appenders": {
"Console": { "name": "STDOUT",
"PatternLayout": { "pattern": "%m%n" }
},
"List": { "name": "List",
"ThresholdFilter": { "level": "debug" }
},
"Routing": { "name": "Routing",
"Routes": { "pattern": "$${sd:type}",
"Route": [
{
"RollingFile": {
"name": "Rolling-${sd:type}", "fileName": "${filename}",
"filePattern": "target/rolling1/test1-${sd:type}.%i.log.gz",
"PatternLayout": {"pattern": "%d %p %c{1.} [%t] %m%n"},
"SizeBasedTriggeringPolicy": { "size": "500" }
}
},
{ "AppenderRef": "STDOUT", "key": "Audit"},
{ "AppenderRef": "List", "key": "Service"}
]
}
}
},
"loggers": {
"logger": { "name": "EventLogger", "level": "info", "additivity": "false",
"AppenderRef": { "ref": "Routing" }},
"root": { "level": "error", "AppenderRef": { "ref": "STDOUT" }}
}
}
}

注意,在路径追加器中,“Route”元素被声明为数组,这是可行的,因为每个数组元素都是“Route”。然而,在单纯的追加器和过滤器中就不行了,因为在JSON格式里,每个元素都有不同的名称。只有当追加器和过滤器声明是类型的时候,它们才可以由数组定义。如下展现了通过数组定义了多路logger。

{ “configuration”: { “status”: “debug”, “name”: “RoutingTest”,
“packages”: “org.apache.logging.log4j.test”,
“properties”: {
“property”: { “name”: “filename”,
“value” : “target/rolling1/rollingtest-$${sd:type}.log” }
},
“ThresholdFilter”: { “level”: “debug” },
“appenders”: {
“appender”: [
{ “type”: “Console”, “name”: “STDOUT”, “PatternLayout”: { “pattern”: “%m%n” }},
{ “type”: “List”, “name”: “List”, “ThresholdFilter”: { “level”: “debug” }},
{ “type”: “Routing”, “name”: “Routing”,
“Routes”: { “pattern”: “$${sd:type}”,
“Route”: [
{
“RollingFile”: {
“name”: “Rolling-${sd:type}”, “fileName”: “${filename}”,
“filePattern”: “target/rolling1/test1-${sd:type}.%i.log.gz”,
“PatternLayout”: {“pattern”: “%d %p %c{1.} [%t] %m%n”},
“SizeBasedTriggeringPolicy”: { “size”: “500” }
}
},
{ “AppenderRef”: “STDOUT”, “key”: “Audit”},
{ “AppenderRef”: “List”, “key”: “Service”}
]
}
}
]
},
“loggers”: {
“logger”: [
{ “name”: “EventLogger”, “level”: “info”, “additivity”: “false”,
“AppenderRef”: { “ref”: “Routing” }},
{ “name”: “com.foo.bar”, “level”: “error”, “additivity”: “false”,
“AppenderRef”: { “ref”: “Console” }}
],
“root”: { “level”: “error”, “AppenderRef”: { “ref”: “STDOUT” }}
}
}
}

通过Jackson数据处理器来提供JSON文件的解析支持。你需要给项目添加如下依赖:

com.fasterxml.jackson.core
jackson-core
2.8.3

com.fasterxml.jackson.core
jackson-databind
2.8.3

com.fasterxml.jackson.core
jackson-annotations
2.8.3


转载自 并发编程网 - ifeve.com

相关文章
|
13天前
|
监控 Serverless 数据库
Serverless 应用引擎常见问题之biphon-education-配置了SLS后一直重启如何解决
Serverless 应用引擎(Serverless Application Engine, SAE)是一种完全托管的应用平台,它允许开发者无需管理服务器即可构建和部署应用。以下是Serverless 应用引擎使用过程中的一些常见问题及其答案的汇总:
|
13天前
|
存储 JSON 监控
可以通过配置Filebeat来将Higress日志持久化到磁盘
【2月更文挑战第10天】可以通过配置Filebeat来将Higress日志持久化到磁盘
38 4
|
13天前
|
Java
flume的log4j.properties配置说明
flume的log4j.properties配置说明
|
13天前
|
JSON C++ 数据格式
【C++】Visual Studio C++使用配置Json库文件(老爷式教学)
【C++】Visual Studio C++使用配置Json库文件(老爷式教学)
|
13天前
|
Java Spring
spring boot 配置log4j 日志
spring boot 配置log4j 日志
74 0
|
13天前
|
Unix Linux iOS开发
Elasticsearch如何配置日志
Elasticsearch如何配置日志
|
13天前
|
编解码 JavaScript 前端开发
TypeScript【第三方声明文件、自定义声明文件、tsconfig.json文件简介、tsconfig.json 文件结构与配置】(六)-全面详解(学习总结---从入门到深化)
TypeScript【第三方声明文件、自定义声明文件、tsconfig.json文件简介、tsconfig.json 文件结构与配置】(六)-全面详解(学习总结---从入门到深化)
75 0
|
13天前
|
Java Maven
springboot 日志配置
springboot 日志配置
116 0
|
11天前
|
SQL 存储 Java
实时计算 Flink版产品使用合集之怎么配置日志的输出格式和文件大小
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
12天前
|
消息中间件 SQL 资源调度
实时计算 Flink版产品使用合集之 Flink on YARN 中使用滚动日志时配置不生效如何解决
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

热门文章

最新文章