這篇文章將承接此前 關於使用Prometheus配置自定義告警規則 的文章。在本文中,我們將demo安裝Prometheus的過程以及配置Alertmanager,使其能夠在觸發告警時能發送郵件,但我們將以更簡單的方式進行這一切——通過Rancher安裝。

我們將在這篇文章中看到沒有使用依賴項的情況下如何完成這一操作。在本文中,我們不需要:

  • 專門配置運行指向Kubernetes集羣的kubectl
  • 有關kubectl的知識,因爲我們可以使用Rancher UI
  • Helm binary的安裝/配置

前期準備

  • 一個谷歌雲平臺賬號(免費的即可),其他雲也是一樣的
  • Rancher v2.4.2(文章發佈時的最新版本)
  • 運行在GKE(版本爲1.15.11-gke.3)上的Kubernetes集羣(EKS或者AKS也可以)

啓動一個Rancher實例

首先,啓動一個Rancher實例。你可以根據Rancher的指引啓動:

https://www.rancher.cn/quick-start/

使用Rancher部署一個GKE集羣

使用Rancher來設置並配置一個Kubernetes集羣。你可以訪問下方鏈接獲取文檔:

https://rancher2.docs.rancher. ... index

部署Prometheus

我們將利用Rancher的應用商店來安裝Prometheus。Rancher的應用商店主要集合了許多Helm Chart,以便於用戶能夠重複部署應用程序。

我們的集羣起來並且開始運行之後,讓我們在“Apps”的標籤下選擇爲其創建的默認項目,然後單擊“Launch”按鈕。

現在我們來搜索我們感興趣的chart。我們可以設置很多字段——但是對於本次demo來說我們將保留默認值。你可以在Detailed Description部分找到關於這些值的有用信息。無需擔心出現問題,儘管去查看它們的用途。在頁面底部,點擊【Launch】。Prometheus Server以及Alertmanager將會被安裝以及配置。

當安裝完成時,頁面如下所示:

接下來,我們需要創建Services以訪問Prometheus Server以及Alertmanager。點開資源下方的工作負載標籤,在負載均衡部分,我們可以看到目前還沒有配置。點擊導入YAML,選擇prometheus namespace,一次性複製兩個YAML並點擊導入。稍後你將瞭解我們如何知道使用那些特定的端口和組件tag。

apiVersion: v1

kind: Service

metadata:

name: prometheus-service

spec:

type: LoadBalancer

ports:

- port: 80

  targetPort: 9090

  protocol: TCP

selector:

component: server
apiVersion: v1

kind: Service

metadata:

name: alertmanager-service

spec:

type: LoadBalancer

ports:

- port: 80

  targetPort: 9093

  protocol: TCP

selector:

component: alertmanager

完成之後,service將顯示Active。

在右側垂直省略號的下拉菜單裏你能找到IP並點擊View/Edit YAML。在yaml文件的底部,你將會看到類似的部分:

status:

loadBalancer:

ingress:

  - ip: 34.76.22.14

訪問IP將爲我們展示Prometheus Server和Alertmanager的GUI。你會發現這時沒有什麼內容可以查看的,因爲尚未定義規則以及配置告警。

添加規則

規則可以讓我們觸發告警。這些規則都是基於Prometheus的表達式語言。無論何時,只要符合條件,告警就會被觸發併發送給Alertmanager。

現在來看看我們如何添加規則。

在資源->工作負載標籤下,我們可以看到Deployment在運行chart時創建了什麼。我們來詳細看看 prometheus-serverprometheus-alertmanager

我們從第一個開始並理解其配置,我們如何編輯它並瞭解服務在哪個端口上運行。點擊垂直省略號菜單按鈕並點擊View/Edit YAML。

首先,我們看到的是兩個與Deplolyment關聯的容器: prometheus-server-configmap-reloadprometheus-server 。容器 prometheus-server 的專屬部分有一些相關信息:

正如我們所瞭解的,Prometheus通過 prometheus.yml 進行配置。該文件(以及其他在serverFiles中列出的文件)將掛載到server pod。爲了添加/編輯規則,我們需要修改這個文件。實際上,這就是一個Config Map,可以在Resources Config的標籤頁下找到。點擊垂直的省略菜單按鈕並Edit。在規則部分,讓我們添加新的規則並點擊保存。

groups:

- name: memory demo alert

rules:

  - alert: High Pod Memory

    expr: container_memory_usage_bytes{pod_name=~"nginx-.*", image!="", container!="POD"} > 5000000

    for: 1m

    labels:

      severity: critical

    annotations:

      summary: High Memory Usage
  • name: cpu demo alert

    rules:

      - alert: High Pod CPU

      expr: rate (container_cpu_usage_seconds_total{pod_name=~"nginx-.*", image!="", container!="POD"}[5m]) > 0.04

      for: 1m

      labels:

      severity: critical

      annotations:

      summary: High CPU Usage

規則將會由Prometheus Server自動加載,然後我們在Prometheus Server GUI中能看到它們:

這是關於以上兩條規則的解釋:

  • container_memory_usage_bytes :當前內存使用情況(以字節爲單位),包括所有內存,無論任何時候訪問。
  • container_cpu_usage_seconds_total :累積的CPU時間(以秒爲單位)

所有的指標都能夠在以下頁面中找到:

https://github.com/google/cadv ... us.go

在Prometheus中所有正則表達式都使用 RE2 syntax 。使用正則表達式,我們只能爲名稱與特定模式匹配的Pod選擇時間序列。在我們的示例中,我們需要尋找以nginx-開頭的pod,並且排除“POD”,因爲這是容器的父cgroup,而且會顯示pod內所有容器的統計信息。

對於 container_cpu_usage_seconds_total 來說,我們使用所謂的子查詢(Subquery)。它會每5分鐘返回我們的指標。

如果你想了解更多關於查詢以及例子,可以在 官方的Prometheus文檔 中查看。

配置告警

只要出現問題,告警就能立即提醒我們,使得我們能夠立刻知道系統中發生了錯誤。而Prometheus通過Alertmanager組件來提供告警。

與Prometheus Server的操作步驟相同:在資源->工作負載標籤頁下,點擊 prometheus-alertmanager 右側菜單欄按鈕,選擇View/Edit YAML,檢查其配置:

Alertmanager通過 alertmanager.yml 進行配置。該文件(及其他列在alertmanagerFiles內的文件)將掛載到alertmanager pod上。接下來我們需要修改與alertmanager相關聯的configMap以便於設置告警。在Config標籤頁下,點擊 prometheus-alertmanager 行的菜單欄,然後選擇Edit。使用以下代碼代替基本配置:

global:

resolve_timeout: 5m

route:

group_by: [Alertname]

# Send all notifications to me.

receiver: demo-alert

group_wait: 30s

group_interval: 5m

repeat_interval: 12h

routes:

- match:

    alertname: DemoAlertName

  receiver: "demo-alert"



receivers:

- name: demo-alert

email_configs:

  - to: [email protected]

    from: [email protected]

    # Your smtp server address

    smarthost: smtp.gmail.com:587

    auth_username: [email protected]

    auth_identity: [email protected]

    auth_password: 16letter_generated token # you can use gmail account password, but better create a dedicated token for this

    headers:

      From: [email protected]

      Subject: "Demo ALERT"

新配置將會由Alertmanager重新加載,並且我們能在Status標籤頁下看到GUI。

測試End-to-End方案

讓我們部署一些組件來進行監控。對於練習來說部署一個簡單的nginx deployment就足夠了。使用Rancher GUI,在資源->工作負載標籤頁下點擊導入YAML,粘貼以下代碼(本次使用默認的命名空間)並點擊導入:

apiVersion: apps/v1 # for versions before 1.9.0 use apps/v1beta2

kind: Deployment

metadata:

name: nginx-deployment

spec:

selector:

matchLabels:

  app: nginx

replicas: 3 # tells deployment to run 2 pods matching the template

template:

metadata:

  labels:

    app: nginx

spec:

  containers:

    - name: nginx

      image: nginx:1.7.9

      ports:

        - containerPort: 80

在Prometheus UI中,我們爲使用此前爲告警配置的兩個表達式中的1個來查看一些指標:

rate (container_cpu_usage_seconds_total{pod_name=~"nginx-.*", image!="", container!="POD"}[5m])

讓我們在其中一個Pod中添加一些負載以查看值的變化。當值大於0.04時,我們應該獲得告警。爲此,我們需要選擇其中一個nginx Deployment Pod並點擊Execute Shell。在其中我們將執行一個命令:

告警有3個階段:

  • Inactive-條件不滿足
  • Pending-滿足條件
  • Firing-告警被觸發

我們已經看到告警處於inactive狀態,所以繼續在CPU上增加負載讓我們能觀察到剩餘兩種狀態:

只要告警觸發,將會顯示在Alertmanager中:

將Alertmanager配置爲在我們收到告警時發送電子郵件。如果我們查看收件箱,則會看到類似的內容:

總 結

我們都知道監控在整個運維過程中多麼重要,但是如果沒有告警,監控是不完整的。告警可以在問題發生時,然後我們立刻知道系統中出現了問題。Prometheus囊括了這兩種功能:監控解決方案以及其Alertmanager組件的告警功能。本文中我們看到了使用Rancher部署Prometheus如此容易並且將Prometheus Server與Alertmanager集成。我們還使用Rancher配置了告警規則並推送了Alertmanager的配置,所以它能在問題發生時提醒我們。最後,我們瞭解瞭如何根據Alertmanager的定義/集成收到一封包含觸發告警詳細信息的電子郵件(也可以通過Slack或PagerDuty發送)。

相關文章