blob: d9d559031fca7d73ae13f1be25e7ba7421aaae5b [file] [log] [blame] [view]
---
title: error-log-logger
keywords:
- APISIX
- API 网关
- 错误日志
- Plugin
description: API 网关 Apache APISIX error-log-logger 插件用于将 APISIX 的错误日志推送到 TCPApache SkyWalkingApache Kafka ClickHouse 服务器。
---
<!--
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
-->
## 描述
`error-log-logger` 插件用于将 APISIX 的错误日志 (`error.log`) 推送到 TCPApache SkyWalkingApache Kafka ClickHouse 服务器,你还可以设置错误日志级别以将日志发送到服务器。
## 属性
| 名称 | 类型 | 必选项 | 默认值 | 有效值 | 描述 |
| -------------------------------- | ------- | ------ | ------------------------------ | ------------- | -------------------------------------------------------------------------------- |
| tcp.host | string | | | | TCP 服务的 IP 地址或主机名。 |
| tcp.port | integer | | | [0,...] | 目标端口。 |
| tcp.tls | boolean | | false | [false, true] | 当设置为 `true` 时执行 SSL 验证。 |
| tcp.tls_server_name | string | | | | TLS 服务名称标记。 |
| skywalking.endpoint_addr | string | | http://127.0.0.1:12900/v3/logs | | SkyWalking 的 HTTP endpoint 地址,例如:http://127.0.0.1:12800。 |
| skywalking.service_name | string | | APISIX | | SkyWalking 上报的 service 名称。 |
| skywalking.service_instance_name | String | | APISIX Instance Name | | SkyWalking 上报的 service 实例名,如果希望直接获取本机主机名请设置为 `$hostname` |
| clickhouse.endpoint_addr | String | | http://127.0.0.1:8213 | | ClickHouse 的 HTTP endpoint 地址,例如 `http://127.0.0.1:8213`。 |
| clickhouse.user | String | | default | | ClickHouse 的用户名。 |
| clickhouse.password | String | | | | ClickHouse 的密码。 |
| clickhouse.database | String | | | | ClickHouse 的用于接收日志的数据库。 |
| clickhouse.logtable | String | | | | ClickHouse 的用于接收日志的表。 |
| kafka.brokers | array | | | | 需要推送的 Kafka broker 列表。 |
| kafka.brokers.host | string | | | | Kafka broker 的节点 host 配置,例如 `192.168.1.1`|
| kafka.brokers.port | string | | | | Kafka broker 的节点端口配置 |
| kafka.brokers.sasl_config | object | | | | Kafka broker 中的 sasl_config |
| kafka.brokers.sasl_config.mechanism | string | | "PLAIN" | ["PLAIN"] | Kafka broker 中的 sasl 认证机制 |
| kafka.brokers.sasl_config.user | string | | | | Kafka broker sasl 配置中的 user,如果 sasl_config 存在,则必须填写 |
| kafka.brokers.sasl_config.password | string | | | | Kafka broker sasl 配置中的 password,如果 sasl_config 存在,则必须填写 |
| kafka.kafka_topic | string | | | | 需要推送的 Kafka topic。|
| kafka.producer_type | string | | async | ["async", "sync"] | 生产者发送消息的模式。|
| kafka.required_acks | integer | | 1 | [0, 1, -1] | 生产者在确认一个请求发送完成之前需要收到的反馈信息的数量。该参数是为了保证发送请求的可靠性。该属性的配置与 Kafka `acks` 属性相同,具体配置请参考 [Apache Kafka 文档](https://kafka.apache.org/documentation/#producerconfigs_acks)。 |
| kafka.key | string | | | | 用于消息分区而分配的密钥。 |
| kafka.cluster_name | integer | | 1 | [0,...] | Kafka 集群的名称,当有两个及以上 Kafka 集群时使用。只有当 `producer_type` 设为 `async` 模式时才可以使用该属性。|
| kafka.meta_refresh_interval | integer | | 30 | [1,...] | 对应 [lua-resty-kafka](https://github.com/doujiang24/lua-resty-kafka) 中的 `refresh_interval` 参数,用于指定自动刷新 metadata 的间隔时长,单位为秒。 |
| timeout | integer | | 3 | [1,...] | 连接和发送数据超时间,以秒为单位。 |
| keepalive | integer | | 30 | [1,...] | 复用连接时,连接保持的时间,以秒为单位。 |
| level | string | | WARN | | 进行错误日志筛选的级别,默认为 `WARN`,取值 ["STDERR", "EMERG", "ALERT", "CRIT", "ERR", "ERROR", "WARN", "NOTICE", "INFO", "DEBUG"],其中 `ERR` `ERROR` 级别一致。 |
注意:schema 中还定义了 `encrypt_fields = {"clickhouse.password"}`,这意味着该字段将会被加密存储在 etcd 中。具体参考 [加密存储字段](../plugin-develop.md#加密存储字段)。
本插件支持使用批处理器来聚合并批量处理条目(日志/数据)。这样可以避免插件频繁地提交数据,默认设置情况下批处理器会每 `5` 秒钟或队列中的数据达到 `1000` 条时提交数据,如需了解或自定义批处理器相关参数设置,请参考 [Batch-Processor](../batch-processor.md#配置) 配置部分。
### 默认日志格式示例
```text
["2024/01/06 16:04:30 [warn] 11786#9692271: *1 [lua] plugin.lua:205: load(): new plugins: {"error-log-logger":true}, context: init_worker_by_lua*","\n","2024/01/06 16:04:30 [warn] 11786#9692271: *1 [lua] plugin.lua:255: load_stream(): new plugins: {"limit-conn":true,"ip-restriction":true,"syslog":true,"mqtt-proxy":true}, context: init_worker_by_lua*","\n"]
```
## 启用插件
该插件默认为禁用状态,你可以在 `./conf/config.yaml` 中启用 `error-log-logger` 插件。你可以参考如下示例启用插件:
```yaml title="./conf/config.yaml"
plugins: # plugin list
......
- request-id
- hmac-auth
- api-breaker
- error-log-logger # enable plugin `error-log-logger
```
完成插件配置后,你需要重新加载 APISIX,插件才会生效。
:::note 注意
该插件属于 APISIX 全局性插件,不需要在任何路由或服务中绑定。
:::
### 配置 TCP 服务器地址
你可以通过配置插件元数据来设置 TCP 服务器地址,如下所示:
:::note
您可以这样从 `config.yaml` 中获取 `admin_key` 并存入环境变量:
```bash
admin_key=$(yq '.deployment.admin.admin_key[0].key' conf/config.yaml | sed 's/"//g')
```
:::
```shell
curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H "X-API-KEY: $admin_key" -X PUT -d '
{
"tcp": {
"host": "127.0.0.1",
"port": 1999
},
"inactive_timeout": 1
}'
```
### 配置 SkyWalking OAP 服务器地址
通过以下配置插件元数据设置 SkyWalking OAP 服务器地址,如下所示:
```shell
curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H "X-API-KEY: $admin_key" -X PUT -d '
{
"skywalking": {
"endpoint_addr": "http://127.0.0.1:12800/v3/logs"
},
"inactive_timeout": 1
}'
```
### 配置 ClickHouse 数据库
该插件支持将错误日志作为字符串发送到 ClickHouse 服务器中对应表的 `data` 字段。
你可以按照如下方式进行配置:
```shell
curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H "X-API-KEY: $admin_key" -X PUT -d '
{
"clickhouse": {
"user": "default",
"password": "a",
"database": "error_log",
"logtable": "t",
"endpoint_addr": "http://127.0.0.1:8123"
}
}'
```
### 配置 Kafka
该插件支持将错误日志发送到 Kafka,你可以按照如下方式进行配置:
```shell
curl http://127.0.0.1:9180/apisix/admin/plugin_metadata/error-log-logger \
-H "X-API-KEY: $admin_key" -X PUT -d '
{
"kafka":{
"brokers":[
{
"host":"127.0.0.1",
"port":9092
}
],
"kafka_topic":"test2"
},
"level":"ERROR",
"inactive_timeout":1
}'
```
## 删除插件
当你不再需要该插件时,只需要在 `./conf/config.yaml` 中删除或注释该插件即可。
```yaml
plugins: # plugin list
... ...
- request-id
- hmac-auth
- api-breaker
#- error-log-logger # enable plugin `error-log-logger
```