在 Scala/Java/Spring 微服务中使用日志

应用开发、运行时,日志作为调试、留痕的重要工具非常重要。对此,Akka Fusion 库为日志处理提供了开箱即用的支持:

  • 预置的日志 encoder 配置
  • 通过 filebeat 输出日志到 Elasticsearch
  • 良好的自定义支持

使用 fusion-log 库,需要添加以下依赖。

1
2
resolvers += Resolver.bintrayRepo("helloscala", "maven")
libraryDependencies += "com.helloscala.fusion" %% "fusion-log" % "2.0.6"

输出日志到终端

logback.xml 日志文件内容:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="false">
<include resource="fusion/log/logback/defaults.xml"/>
<include resource="fusion/log/logback/stdout-appender.xml"/>

<logger name="ch.qos" level="WARN"/>
<logger name="com.zaxxer" level="WARN"/>
<logger name="fusion" level="DEBUG"/>
<logger name="helloscala" level="DEBUG"/>

<root level="INFO">
<appender-ref ref="STDOUT"/>
</root>
</configuration>

输出日志到文件

logback.xml 日志文件内容:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="false">
<property name="fusion.log.logback.file" value="fusion-example"/>
<property name="fusion.log.logback.dir" value="${user.home}/logs"/>

<include resource="fusion/log/logback/defaults.xml"/>
<include resource="fusion/log/logback/file-appender.xml"/>
<include resource="fusion/log/logback/stdout-appender.xml"/>

<logger name="ch.qos" level="WARN"/>
<logger name="com.zaxxer" level="WARN"/>
<logger name="fusion" level="DEBUG"/>
<logger name="helloscala" level="DEBUG"/>

<root level="INFO">
<!-- <appender-ref ref="STDOUT"/> -->
<appender-ref ref="FILE"/>
</root>
</configuration>
属性 说明
fusion.log.logback.dir 指定输出日志文件名
fusion.log.logback.file 指定输出日志保存目录

默认提供的 FILE logback 日志 Appender 为了方便 filebeat 读取并存储日志到 Elasticsearch,使用 JSON 格式输出日志。file-appender.xml 配置及说明请见后文。

在 Scala/Java 应用中使用

应用日志使用 logback 输出,可由程序启动命令参数指定日志配置文件路径。如:-Dlogback.configurationFile=${__APP_PATH__}/logback.xml

scala-logging

在 Scala 应用中,可以使用 StrictLogging 或 LazyLogging 来引入 Logger 变量,这个特性由 https://github.com/lightbend/scala-logging 库提供。

1
2
3
4
5
6
7
8
class MyClass extends StrictLogging {
logger.debug(s"Some $expensive message!")

logger.whenDebugEnabled {
println("This would only execute when the debug level is enabled.")
(1 to 10).foreach(x => println("Scala logging is great!"))
}
}

可以看到,在代码里简单的 extends/with StrictLogging 这个 trait,就可以直接使用 logger 变量来调用它上面的各种日志方法。另外,也不在需要在日志消息里面使用 {} 来作为占位符输出变量,可直接使用 Scala 的字符串插值特性。scala-logging 基于 Scala macros 提供了编译时扩展:

1
logger.debug(s"Some $expensive message!")

将在编译时被替换为:

1
if (logger.isDebugEnabled) logger.debug(s"Some $expensive message!")

在 Akka 应用中使用

Akka 有自己的日志级别配置项。所以,最好将 Akka 的日志级别配置与 slf4j 的日志级别保持一致,可以在 HOCON 里面通过以下配置设置 Akka 的日志级别:

1
akka.loglevel = "DEBUG"

在 actor 中,可以通过 ActorContext[T] 上提供的 log 方法来使用 Akka 日志。

akka-actor-typedakka-slf4j 存在于类依赖路径上时,Akka 的事件日志处理 actor 将向 SLF4J 发送事件,并自动启用 akka.event.slf4j.Slf4jLoggerakka.event.slf4j.Slf4jLoggingFilter 类,而无需要任何配置。若需要手动配置 Akka 使用 SLF4J 输出日志,请确保如下配置,否则将使用默认日志实现并输出日志内容到终端。

1
2
3
4
5
akka {
loglevel = "DEBUG"
loggers = ["akka.event.slf4j.Slf4jLogger"]
logging-filter = "akka.event.slf4j.Slf4jLoggingFilter"
}

Tip

使用 actor 的过程中,死信消息会在 INFO 级别输出,通常情况下这都是正常的业务状态,可以通过配置抑制这类日志消息在输出几次后被关闭的输出以免干扰我们正常的日志内容。另外,在 ActorSystem 被关闭(terminate)时,actor 邮箱里被挂起的消息将被发送的死信邮箱,我们可以通过配置禁止在 terminate 期间输出死信日志。

1
2
3
4
akka {
log-dead-letters = 10
log-dead-letters-during-shutdown = on
}

在 Spring/ Spring Cloud 中使用

Spring 应用中需要删除logback-spring.xml文件而使用logback.xml(如果存在)。

Spring 应用需要禁用 LoggingSystem,使用此命令行参数可禁用它:-Dorg.springframework.boot.logging.LoggingSystem=none点此访问自定义 Spring 日志的更多介绍

Fusion Log 为日志提供了兼容 Spring Cloud 的参数以在日志输出中输出 Spring应用服务名、启动环境(模式)、IP地址、网络端口等信息。详细映射参数见: #default-xml

自定义 encoder

对于默认的 STDOUTFILE 日志格式不满意的,可以自定义自己的日志编码格式。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="false">
<include resource="fusion/log/logback/defaults.xml"/>
<include resource="fusion/log/logback/stdout-appender.xml"/>

<appender name="STDOUT_CUSTOM" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>-%d %-5level %fusionEnv %fusionServiceName %fusionServerHost %fusionServerPort [%thread] %logger{36} %line - %msg%n%exception</pattern>
</encoder>
</appender>

<root level="DEBUG">
<appender-ref ref="console_custom"/>
</root>
</configuration>

预置配置

defaults.xml

1
2
3
4
5
6
7
8
9
<?xml version="1.0" encoding="UTF-8"?>
<included>
<conversionRule conversionWord="fusionServerHost" converterClass="fusion.log.logback.LogHostConverter"/>
<conversionRule conversionWord="fusionServerIp" converterClass="fusion.log.logback.LogHostConverter"/>
<conversionRule conversionWord="fusionServerPort" converterClass="fusion.log.logback.LogPortConverter"/>
<conversionRule conversionWord="fusionServerHostName" converterClass="fusion.log.logback.LogHostNameConverter"/>
<conversionRule conversionWord="fusionServiceName" converterClass="fusion.log.logback.LogServiceNameConverter"/>
<conversionRule conversionWord="fusionEnv" converterClass="fusion.log.logback.LogEnvConverter"/>
</included>

Fusion Log 预定义了几个转换规则参数,可以在 Appender 的编码模式(encoder pattern)里通过 % 参数引用。这几个转换规则参数都将从Java应用Properties变量里查找所需的值。

  1. fusionServerHostName:应用服务所在主机名,用以下方式读取:InetAddress.getLocalHost.getCanonicalHostName
  2. fusionServerIpfusionServerHost:应用服务绑定 IP 地址,查找顺序:
    • -Dfusion.http.default.server.host
    • -Dhttp.host
    • -Dserver.host
  3. fusionServerPort:应用服务绑定网络端口,查找顺序:
    • -Dfusion.http.default.server.port
    • -Dhttp.port
    • -Dserver.port
  4. fusionServerName:应用服务名字,查找顺序:
    • -Dfusion.name
    • -Dspring.application.name
    • -Dfusion.service.name
  5. fusionEnv:应用服务启动环境(模式),如:prodtestdev等运行环境,查找顺序:
    • -Dfusion.profiles.active
    • -Dspring.profiles.active
    • -Drun.env

stdout-appender.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
<?xml version="1.0" encoding="UTF-8"?>
<included>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>${fusion.log.logback.console-pattern:-%date{ISO8601} %-5level %thread %logger %X{akkaSource} %line - %msg%n%exception}</pattern>
</encoder>
</appender>
<!-- <appender name="ASYNC_STDOUT" class="ch.qos.logback.classic.AsyncAppender">-->
<!-- <queueSize>1024</queueSize>-->
<!-- <neverBlock>true</neverBlock>-->
<!-- <appender-ref ref="STDOUT" />-->
<!-- </appender>-->
</included>

file-appender.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
<?xml version="1.0" encoding="UTF-8"?>
<included>
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<File>${fusion.log.logback.dir:-${user.dir}/logs}/${fusion.log.logback.file:-${spring.application.name:-fusion}}.log</File>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<FileNamePattern>${fusion.log.logback.dir:-${user.dir}/logs}/${fusion.log.logback.file:-${spring.application.name:-fusion}}.%d{yyyy-MM-dd}.gz</FileNamePattern>
<!--只保留最近7天的日志 -->
<maxHistory>7</maxHistory>
<!--用来指定日志文件的上限大小,如果到了这个值,就会删除旧的日志 -->
<totalSizeCap>8GB</totalSizeCap>
</rollingPolicy>
<encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
<charset>UTF-8</charset>
<providers>
<mdc/>
<timestamp/>
<pattern>
<pattern>
{
"level": "%level",
"serviceName": "%fusionServiceName",
"env": "%fusionEnv",
"thread": "%thread",
"logger": "%logger",
"akkaSource": "%X{akkaSource}",
"message": "%level [%thread] %logger %line -\n%message",
"server": {
"host": "%fusionServerHost",
"port": "#asLong{%fusionServerPort}"
},
"exception": "%exception"
}
</pattern>
</pattern>
<callerData/>
<version/>
<!-- Printing StackTrace has an import on performance. -->
<!--<stackTrace/>-->
</providers>
</encoder>
</appender>
</included>

通过 LoggingEventCompositeJsonEncoder 提供了 JSON 格式日志输出支持,它是 logstash 提供的一个 logback encoder 和 appender 库,在此可以查询更多详细:https://github.com/logstash/logstash-logback-encoder

通过 Filebeat 输出日志到 Elastic-stack

filebeat 配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
filebeat.inputs:
- type: log

enabled: true
json:
keys_under_root: true
overwrite_keys: true

paths:
- /home/yangjing/logs/*.log

exclude_files: ['.gz$']

#============================= Filebeat modules ===============================

filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false

#==================== Elasticsearch template setting ==========================
setup.kibana:
host: "localhost:5601"
#space.id:

#-------------------------- Elasticsearch output ------------------------------
output.elasticsearch:
hosts: ["localhost:9200"]
# Optional protocol and basic auth credentials.
#protocol: "https"
#username: "elastic"
#password: "changeme"

#================================ Processors =====================================
# Configure processors to enhance or manipulate events generated by the beat.
processors:
- add_host_metadata: ~
- add_cloud_metadata: ~

注意是以下三行配置,使filebeat支持json格式日志文件

1
2
3
json:
keys_under_root: true
overwrite_keys: true

通过 Docker 启动 elastic-stack

这里选择使用 filebeat 直接把日志数据输出到 Elasticsearch,不使用 Logstack 做中转。

通过 docker-compose,可以很方便的启动 elastic-stack:docker-compose up -d

docker-compose.yml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
version: '3'

services:
fusion-elasticsearch:
container_name: fusion-elasticsearch
image: docker.elastic.co/elasticsearch/elasticsearch:7.6.1
#restart: on-failure
ports:
- 9200:9200
- 9300:9300
environment:
- discovery.type=single-node
- cluster.name=fusion-docker-es-cluster
ulimits:
memlock:
soft: -1
hard: -1
networks:
- fusionlognet

fusion-kibana:
container_name: fusion-kibana
image: docker.elastic.co/kibana/kibana:7.6.1
#restart: on-failure
ports:
- 5601:5601
environment:
SERVER_NAME: fusion-kibana
ELASTICSEARCH_HOSTS: http://fusion-elasticsearch:9200
networks:
- fusionlognet

networks:
fusionlognet:

小结

本文内容来自 Akka Fusionfusio-log 库,Akka Fusion 是作者在日常 Scala 应用开发中经验总结和积累的实用工具库。可以轻松创建独立的,生产级的基于Akka的应用程序。我们集成了Akka生态系统里常用及流行的组件,因此您可以快速搭建开始你的应用。大多数Akka Fusion应用程序只需要很少的配置。Akka Fusion 访问地址:https://github.com/akka-fusion/akka-fusion

分享到