ELK 集群,腾讯云上的日志监控不用愁

导语:公司项目,越来越多的系统在计划上云。如何监控云上的系统运行,是每个系统上云的过程中都会碰到的一个问题。在这里,我们以公司的某个项目为例,向大家详细阐述该项目上云后的日志监控方案,详细讲解如何通过ELK集群,实现每天百G日志的监控。

此项目原本是一个包含众多业务流的一个 APP 监控系统,在迁移到腾讯云之后,希望接入更多的业务,日志监控压力也随之剧增,每天的日志数量将达到百 G 以上,为满足这个项目的日志监控需求,特意在腾讯云的 kubernetes(K8s) 上配置了一套 ELK 集群。

1.ELK 系统介绍

我们在 SNGAPM 项目这个配置的 ELK 系统主要包含四个部分 filebeat,logstash,elasticsearch 以及 kibana。其中

  • filebeat 主要负责日志的收集,能自动感知日志文件中增加的 log 条目。
  • logstash 主要负责日志文件的转发,并且在转发过程中对日志进行过滤和整理。
  • elasticsearch 可以看作一个高效的集群化的数据库,可以直接通过 url 对其进行访问,在 ELK 中,主要负责 ELK 的存储,也是整个ELK 系统的核心。
  • kibana 可以看作 elasticsearch 的一个前端页面,其将用户的操作转化为 elasticsearch 的查询指令,并将从 elasticsearch 查询到的数据进行图形化展示。

2. ELK 集群预览

在物理机上,可以通过多台服务器构建一个 ELK 的集群,在腾讯云上,配置 ELK 集群的另一种方式就是通过 kubernetes 管理一个包含多个 pods 的 ELK。

[1502694322000_2770_1502694322377.png]

3. ELK 集群配置

集群化的 ELK 系统的关键就是配置集群化的 elasticsearch 系统,通过配置 elasticsearch 的集群,实现海量日志的存储,和快速查询。

配置 elasticsearch 集群,我们主要参考了 github 上的一个样例 kubernetes-elasticsearch-cluster。

我们将 elasticsearch 节点,分为 master, client, data 三种类型,分别负责不同的任务,其中

  • Master 节点 - 只复杂集群的管理,不存储日志数据,也不接受 HTTP 请求
  • Client 节点 - 主要负责接受 HTTP 请求,不存储日志数据
  • Data 节点 - 主要负责数据的存储,不接受 HTTP 请求

在这,我们给出我们的配置文件供大家参考和借鉴

首先,给出 elasticsearch 的集群配置方法

代码语言:txt
复制
    
代码语言:txt
复制
cluster:  
name: ${CLUSTER_NAME}

node:
master: ${NODE_MASTER}
data: ${NODE_DATA}
name: ${NODE_NAME}
ingest: ${NODE_INGEST}
max_local_storage_nodes: ${MAX_LOCAL_STORAGE_NODES}

network.host: ${NETWORK_HOST}

path:
data: //
logs: //

bootstrap:
memory_lock: true

http:
enabled: ${HTTP_ENABLE}
compression: true
cors:
enabled: ${HTTP_CORS_ENABLE}
allow-origin: ${HTTP_CORS_ALLOW_ORIGIN}

discovery:
zen:
ping.unicast.hosts: ${DISCOVERY_SERVICE}
minimum_master_nodes: ${NUMBER_OF_MASTERS}

其次是配置 kibana,只需要提供 elasticsearch 的访问 url,就能直接与 elasticsearch 进行直接交互(如果配置了 x-pack 插件,还须提供相应的用户名以及密码才能访问)。

代码语言:txt
复制
     
代码语言:txt
复制
server.host: "0.0.0.0"

elasticsearch.url: "http://elasticsearch.default.svc.cluster.local:9200"

elasticsearch.username: ""
elasticsearch.password: "
"

最后是配置 logstash 以及 filebeat

在 filebeat 中设置日志文件的路径,并在输入的日志数据上加上标签,方便 logstash 对日志进行分类,对不同的日志类型进行不同的处理。

代码语言:txt
复制
    
代码语言:txt
复制
filebeat.prospectors:

  • input_type: log
    paths:
    - /.log
    - /
    .log
    document_type: json_log
    tags: ["json-log", "itrans"]

output.logstash:
hosts: ${LOGSTASH_HOSTS:?No logstash host configured. Use env var LOGSTASH_HOSTS to set hosts.}

logging.level: info
logging.files:
path: /home
name: filebeat.log

在这里,logstash 根据日志的标签,对不同类型的日志,执行不同的处理(如果配置了 x-pack 插件,还须提供相应的用户名以及密码才能访问)。

代码语言:txt
复制
    
代码语言:txt
复制
input {
beats {
port => 5043
congestion_threshold => 60
}
}

filter {
if "json-log" in [tags] {
json {
source => "message"
remove_field => [ "message"]
}
mutate {
replace => { "type" => "json-log" }
}
}
}

output {
if "json-log" in [tags] {
elasticsearch {
hosts => ["elasticsearch:9200"]
manage_template => false
index => "%{label}-%{ YYYY.MM.dd.HH}"
user => ******
password => ******
}
} else {
elasticsearch {
hosts => ["elasticsearch:9200"]
manage_template => false
index => "unlabeled-%{ YYYY.MM.dd.HH}"
user => ******
password => ******
}
}
}

4.在 Kubernetes 上运行所需的 yaml 文件

想要实现 ELK 集群在 Kubernetes 上的运行自然少不了相应的 yaml 文件,我们使用的 yaml 文件主要参考了 kubernetes-elk-cluster、kubernetes-elasticsearch-cluster等仓库。