通过钉钉机器人自动化报警运维
2022-07-25prometheus+alertmanager+dingtalk 实现运维监控报警
作者目前工作中所维护的服务大部分跑在k8s上,在监控方面使用了官方推荐的技术栈 prometheus
和 grafana
。 prometheus
负责收集数据,grafana
负责展示数据
另外我们还集成了钉钉机器人,能够在 prometheus
采集到不正常的数据时能通过钉钉及时通知到对应的开发同事,例如下图, prometheus
在 k8s
的某个 namespace
下给定的内存已经快被使用完之前发送了一条消息到我们的报警群,提醒我同事该为它加内存资源了:-)。
接下来让我们用一个demo项目来演示这套系统是如何运作的 项目地址
项目结构
这里我们使用了平铺的文件结构,最主要的原因也是比较简单,没有太多的组件,不如直接平铺直观一些。
这是demo的整体系统架构图
项目整体运行在 docker
上,负责收集数据的 prometheus
运行在docker里, 负责报警的alertmanager
运行在docker里,负责暴露机器数据的 node_exporter
也运行在docker里,然后使用 docker-compose
做容器管理,用 python
的web框架 flask
写了一个 消息解析器
作为中间人将报警信息转化为钉钉机器人可以识别的格式转发送给钉钉机器人,并且通过 dockerfile
编译进docker里运行:-) 完全的docker化,只需要安装一个docker
和 docker-compose
就可以部署整个demo,不过话说回来现在应该没有哪个机器上没有docker了吧:-)
各组件作用
docker
基础设施,用来运行各个服务。
prometheus
Prometheus 是一个免费的开源软件,用于实时系统和事件监控和警报。2016 年成为云原生计算基金会的一个项目。目前已经成为了云原生时代监控方案的事实标准。Prometheus 擅长记录纯数字为主的时序数据。他不仅适合监控服务器的指标,还适合监控服务中频繁动态变化的指标。在微服务的架构中,他有一个很明显的优势,支持多维数据的收集和查询。使用 PromQL 查询数据
node_exporter
它负责收集数据将数据暴露给 prometheus,因为 prometheus 某些时候没有办法直接拿到想要的数据,所以需要第三方程序来辅助,node_exporter 就是这样的第三方程序。 它采集对应主机的 CPU、内存、磁盘等信息,暴露给 prometheus。
alertmanager
alertmanager 主要用于接收 Prometheus 发送的告警信息,它支持丰富的告警通知渠道,而且很容易做到告警信息进行去重,降噪,分组,策略路由,是一款前卫的告警通知系统。Prometheus 生态中的警报是在 Prometheus Server 中计算警报规则(Alert Rule)并产生的,而所谓计算警报规则,其实就是周期性地执行一段 PromQL,得到的查询结果就是警报。只是,当 Prometheus Server 计算出一些警报后,它自己并没有能力将这些警报通知出去,只能将警报推给 Alertmanager,由 Alertmanager 进行发送。这个切分,一方面是出于单一职责的考虑,让 Prometheus “do one thing and do it well”, 另一方面则是因为警报发送确实不是一件"简单"的事,需要一个专门的系统来做好它。可以这么说,Alertmanager 的目标不是简单地"发出警报",而是"发出高质量的警报"。这里我们只是用它的基础功能,发送报警即可。
dingtalk
一个自己实现的用python编写的消息解析器,alertmanager 目前不能直接集成钉钉机器人,需要存在一个中间件将 alertmanager 格式的消息转化成 钉钉机器人可以解析的格式,然后通过中间件发送给钉钉机器人,钉钉机器人接受到消息后就会在群里显示消息。
各文件作用
docker-compose.yml
容器部署文件,此文件定义了我们需要运行的容器。文件里定义了4个服务,分别是 dingtalk
消息解析器, alertmanager
, prometheus
,和 node_exporter
,并且通过 volumes
参数将项目中的各种配置文件挂载到容器中,这样如果我们需要修改某个服务的配置文件,只需要修改项目目录下的文件即可而不用进入到容器当中修改。简单起见,这几个容器网络 network_mode
都是使用的 host
模式,这意味着容器和宿主机公用一个网络空间,需要提前预留好容器服务需要的端口(dingtalk监听5000端口,prometheus监听9090端口, alertmanager监听9093端口,node_exporter监听9100端口)。还需要注意一点,node_exporter
有个额外参数pid:host
使用宿主机PID名空间来启动容器进程,这样可以方便的实现容器内应用和宿主机应用之间的交互。
prometheus.yml
prometheus
配置文件,挂载到容器的 /etc/prometheus/prometheus.yml
路径下,在这个示例中,指定了报警规则配置文件 /etc/prometheus/hoststats-alert.rules
,而这个文件也是本地通过容器挂载上去的。往下看 scrape_configs
下配置了要监听的 job
(这是prometheus中的概念,相当于被监听的对象),目标是 localhost:9100
,这是 node_exporter
暴露出来的数据,prometheus
通过 http 协议访问此地址,通过返回值body拿到数据。
hoststats-alert.rules
顾名思义,这是 prometheus
报警规则的配置文件,在这个示例文件中定义了一条名为 hostCpuUsageAlert
的规则,expr
就是具体的规则公式,公式使用了 PromQL
语法。简单点说这条规则 计算了30s内cpu的平均使用量,如果超过了50% 就会命中规则出发报警。annotations
就是报警信息的模版, $labels.instance
和 $value
会被替换成实际值。
alertmanager.yml
这是 alertmanager
的配置文件, 主要配置了 receivers
报警接受者, alertmanager
会向 receiver
的地址按照实现约定好的规则发送http请求,这里我们配置了自己实现的 dingtalk
消息中间件的地址,这样经过 dingtalk
翻译后会转发给 钉钉机器人。
dingtalk.py
一个使用python实现的简单服务器,监听5000端口,主要逻辑在 make_dingtalk_message
函数中,将来自 alertmanager
的数据转化为钉钉机器人可以识别的格式,然后通过 requests.post(ding_api, json=ding_message)
将数据转发给钉钉机器人。
dockerfile
用来编译 dingtalk
容器镜像的配置文件,这样可以将 自己编写的服务也统一使用 docker
管理。 在 docker-compose.yml
中第四行 build: .
会使用到这个 dockerfile
文件。
运行
- 安装
docker
docker-compose
。 - 在 dingtalk.py 里更换自己的钉钉机器人api链接。
- 项目根目录运行
docker-compose up -d --build
启动服务。 - 查看各服务是否运行正常,比如 prometheus面板,报警面板,alertmanager 。
- 确认各组件正常之后,执行 cat /dev/zero > /dev/null 占用cpu。
- 查看第四步的监控面板,查看数据变化。
- 等待1m中左右钉钉机器人发送消息。